Laurea specialistica honoris causa in Matematica a Jean François Treves

Il 24 aprile 2004 l'Università di Pisa, su proposta della Facoltà di Scienze matematiche, fisiche e naturali, ha conferito la laurea specialistica honoris causa in Matematica a Jean François Treves.

Prolusione del prof. Jean François Treves
"Alcune osservazioni sull'analisi matematica nella seconda metà del secolo XX"

Un poco come la Gallia di Giulio Cesare, la Matematica si suddivide comunemente in tre parti, Algebra, Analisi e Geometria; e ciò, in misura piuttosto sorprendente, rimane valido fino ad oggi - ben al di là delle mura dei dipartimenti di matematica delle università italiane. Ma contrariamente alle parti della Gallia queste parti della Matematica non fanno la guerra fra di loro, per lo meno non molto, ed anzi si interpenetrano costruttivamente e, si può dire, si aiutano reciprocamente. Questa è stata la realtà fin dall'inizio, da Archimede a Descartes, a Gauss, ecc.
La Geometria, tutti noi, fin dall'infanzia, sappiamo di che si tratta: delle forme - forme visibili come un pallone, tracciabili come un triangolo; oppure immaginabili come un cubo nello spazio a cinque dimensioni. Un'idea dell'Algebra, ce la facciamo anche da bambini, siccome alla sua base ci sono le operazioni elementari, addizione e moltiplicazione, generalizzate, a un livello più elevato, nell'aspetto algoritmico della Matematica. Una proprietà importante dell'Algebra, per i nostri tempi, è che essa si presta alla meccanizzazione, cioè alla formulazione nel linguaggio delle macchine, e alla discretizzazione, cioè al trattamento a pezzetti (e ciò vale anche di più per la Logica matematica qui riguardata, forse un poco abusivamente, come una sottoparte della parte Algebra).
Per l'Analisi è un'altra storia. In genere la si incontra alla fine della scuola media o soltanto all'università. Se si chiedesse a persone istruite, scelte a caso, in che cosa consista l'Analisi matematica, molto probabilemente si riscontrerebbe una grande incertezza. Potrebbe darsi che studenti o ex-studenti in materie in cui entra la matematica, come la fisica o l'ingegneria, rispondessero: ah sì! l'analisi, quello con i delta e gli epsilon. Infatti, l'analisi si può chiamare la scienza delle piccole variazioni, delle variazioni più o meno continue, spesso liscie; variazioni di quantità quasi sempre rappresentate da funzioni. Praticata da Archimede, ma non da Euclide, emerge pienamente con il Calcolo di Newton, Leibniz et al. Siccome l'oggetto centrale dell'Analisi è lo studio delle funzioni e quasi tutte le funzioni sono definite mediante operazioni, l'Analisi ha un bisogno essenziale dell'Algebra. Siccome le forme sono spesso rappresentate da funzioni, la Geometria ha un grandissimo bisogno dell'Analisi. E reciprocamente certe visualizzazioni geometriche servono sovente di guida alle ricerche analitiche.
Nondimeno i matematici sono perfettamente coscienti del fatto che esiste una mentalità di algebrista, una di geometra e una di analista, e che esse sono diverse. Una diecina di anni fa ho assistito alla presentazione pubblica della recente dimostrazione di una famosa congettura di Poincaré (che charatterizza le sfere a tre dimensioni); la prova si svilluppava in una quarantina di quadretti tracciati dal conferenziere e che poi finirono per coprire la lunga lavagna. In ciascuno dei quadri si vedeva un intreccio di curve; gli intrecci variavano lentamente da un quadro all'altro. Durante la lezione non ci fu mai un calcolo; nessuna equazione venne mai scritta o menzionata; l'unica formula fu il QED dopo l'ultimo quadretto. Per un analista come me era difficile immaginare che qualcuno potesse essere stato convinto da una tale presentazione; così come rimase totalmente misteriosa la scoperta, poche settimane dopo, di un errore nella prova. Alla fine dell'anno 2003 è circolato su internet e per i seminari del mondo intero una nuova dimostrazione della congettura di Poincaré dovuta al matematico russo Perlman (la notizia ne fu perfino data dal New York Times). Ma la nuova dimostrazione è completamente diversa da quella del 1993: adesso, seguendo un metodo introdotto dal matematico americano Hamilton, si studia una proprietà geometrica delle superfici rappresentata da una funzione, in questo caso la curvatura di Ricci, e la si fa evolvere mediante un'equazione differenziale, del tipo dell'equazione del calore. Questo è un approccio veramente analitico, molto più intelligibile e accettabile per persone come me. Bisogna però ammettere che, in se stesso, seguire l'approccio analitico non garantisce che non ci saranno sbagli.
Parlando di Ricci bisogna ricordare che, già nella prima metà del secolo XX, i geometri algebrici italiani (per esempio Severi) erano famosi per le loro dimostrazioni a base di gesti della mano. La reazione in Germania e più tardi in Francia, dagli anni venti in su (da David Hilbert a André Weil a Alexandre Grothendieck), a questo loro modo di fare, fu assai feroce: fu di formalizzare nella loro quasi totalità le operazioni dei geometri, un poco come se si trattasse di operazioni su di una macchina, cioè di trasformare la geometria algebrica in pura algebra.
Del resto la tendenza all'algebrizzazione risale all'inizio della matematica. Leibniz sognò perfino di algebrizzare l'intero pensiero umano! Questo fenomeno ricorre anche in Analisi. L'evoluzione di una disciplina matematica procede secondo uno schema universale: all'origine ci sono sempre alcune scoperte rivoluzionarie (cerco di non usare le parole "cambiamento di paradigma") che aprono le porte di una nuova area (si pensi alla teoria dei gruppi dopo le scoperte di Galois e di Sophus Lie, oppure alla topologia algebrica dopo quelle di Henri Poincaré). La nuova teoria cresce e si sviluppa, con i lavori dei discepoli e successori dei "padri fondatori", dando luogo a un corpus di metodi e di risultati. Crescite spettacolari nel secolo XX, anche e forse sopratutto conseguenza della crescita del numero di ricercatori. Ma presto la massa dei risultati diventa un groviglio difficile da maneggiare (e da insegnare!). Certi settori della leadership matematica decidono di fare uno sforzo di organizzazione e di semplificazione, individuando i procedimenti comuni a rami che fino a quel momento parevano lontani gli uni dagli altri e tentando di creare un linguaggio comune. In Analisi questo fu il marchio distintivo del periodo che va dalla fine della guerra, circa 1945, alla metà degli anni settanta, dalla teoria delle distribuzioni all'analisi microlocale. Ma non bisogna credere che gli analisti si siano impegnati unanimemente in una tale impresa. Si trattò solo di una forte corrente, motivata da problemi di analisi tradizionale, intorno ai teoremi di Calderon e Zygmund o alla teoria delle equazioni alle derivate parziali, e dalle esigenze sorte fuori dell'ambito dell'analisi, prime fra di loro quelle della prova del teorema dell'indice di Atiyah e Singer in Topologia Algebrica. In parallelo altri analisti, fra i più grandi, quali De Giorgi, Nash, Moser, Kruskal, perseveravano nelle loro vie, producendo profondissimi risultati che non rientravano affatto sotto la cupola di un calculus allora in pieno svilluppo.
Nuovi progressi in Analisi (come in Algebra e in Geometria) si accompagnano sempre al fenomeno, se non sbaglio puramente matematico, di generalizzazione. In poche parole, ci si accorge che le nuove idee e i nuovi metodi ci permettono di porre i problemi in una generalità maggiore di quella a cui si era pensato all'inizio; eppoi, alcune volte, di risolverli. Anzi, i matematici si rendono spesso conto che non generalizzare sufficientemente impone una "penalty", il rischio di passare accanto a teoremi o a prove importanti senza "vederli". Ma su questa via, certamente in Analisi ma credo anche in Algebra, c'è un punto in cui la generalizzazione appare esagerata e vacua; o per lo meno ci si chiede come la si giustifichi. L'offensiva in corso, come in una guerra, fa fatica. Anche convinti che le domande siano giuste, ci si chiede se lo sforzo di rdar loro una risposta valga la pena. Qua e là analisti individuali decidono che è tempo di ritornare sulla terra, e ciò di solito significa tornare alle equazioni che provengono dalla geometria o dalla fisica, il più spesso a equazioni differenziali non lineari. Queste equazioni sono supposte sorgere dalla realtà sperimentale o da forme più o meno concrete. Benché quest'ultimi siano concetti molto difficili da precisare, come ben sanno i filosofi, in pratica rimane il fatto che queste equazioni presentano quasi sempre delle simmetrie, e che sfruttando queste simmetrie si può fare della matematica interessante, e bella. Ma poi, nel nuovo secolo, le equazioni si moltiplicano come le teste dell'idra, i metodi appaiono un poco troppo ad hoc, il bisogno di un linguaggio comune risorge, e la storia ricomincia... su un altipiano un po più alto.
Non voglio concludere senza menzionare una corrente di pensiero molto più rivoluzionaria di qualsiasi altra emersa entro la stessa Analisi. È apparsa negli ultimi trent'anni, nell'ambito della discretizzazione e della teoria dei giuochi (e delle funzioni ricorsive in Logica). Si basa sulla scoperta che certe semplicissime regole di giuoco, applicate successivamente un grandissimo numero di volte, possono dare luogo a profili geometrici che somigliano in modo sorprendente ai grafici che descrivono numerosi fenomeni naturali. Si giuoca su una scacchiera di grandissime dimensioni, per esempio cominciando col colorare in nero un piccolo numero di quadratini, dell'ordine di una diecina, non necessariamente contigui. Partendo di lì si scende alla riga di sotto seguendo una regola di "generazione": per esempio, ogni quadrato nero sulla prima linea genera sulla seconda linea due quadrati neri separati da un quadrato bianco e spostati a una distanza idonea. L'operazione si ripete un miliardo di volte (così per dire) e si guarda sullo schermo di un computer la figura che forma l'insieme dei quadrati neri. La tesi, promossa energicamente da Wolfram nel suo libro recente "A new kind of science", è che un centinaio, all'incirca, di tali regole bastino a produrre tutti i profili riscontrati nell'universo (inclusi quelli risultanti dalla selezione naturale, nella teoria dell'evoluzione biologica) e che quest'approccio, e non quello mediante equazioni differenziali, sia il più fruttuoso, come anche il più maneggiabile grazie ai computer. Pensando ai tentativi di modellizzare e di studiare in modo convincente la meccanica dei fluidi (si pensi alla meteorologia!) con i metodi dell'Analisi matematica, personalmente non me la sento di escludere con assoluta certezza che Wolfram abbia ragione. Purtroppo, per accertare al livello della logica se egli abbia o no ragione ci vogliono, o ci vorrebbero, centinaia di pagine di dimostrazioni. Ma oggi non è difficile immaginare che, pur mancando le dimostrazioni, i risultati pratici di metodi simili a quelli proposti da Wolfram si rivelino col tempo superiori a quelli dell'analisi. Questo relegherebbe l'analisi continua, in confronto alla matematica discreta, ad un ruolo non tanto dissimile da quello delle riproduzioni e trasmissioni analogiche (quella dei vecchi dischi di musica e delle non così vecchie radio e TV) in confronto alle riproduzioni e trasmissioni digitali. In quanto alle ricerche degli analisti esse potrebbero apparire sempre più, col passare dei decenni, come la pratica di una bella arte, antica ed arcana.


Ultimo aggionamento documento: 20-Dec-2006