domenica, marzo 30, 2008

Frattali fluviali e il dilemma geometrico.


Resteremmo molto sorpresi se, lanciando il contenuto di un pacchetto di fiammiferi in aria, questi ricadendo sul pavimento formassero la figura di un triangolo ad ogni lancio. Altrettanto stupiti saremmo se ogni volta che rovesciamo un barattolo di zucchero sul tavolo questo si disponesse a formare un cerchio, oppure un'ellisse.
Naturalmente non ci accadrà mai di assistere ad un simile fenomeno, anche se sul piano probabilistico non si potrebbe escludere che accada.
Ma immaginiamo che dovesse accadere qualcosa del genere tutte le volte che ripetiamo l'esperimento, che sia il lancio dei fiammiferi o il rovesciamento dello zucchero da un barattolo.
Assistendo al ripetersi sistematico del fenomeno, concluderemmo necessariamente che vi è un sistema di leggi fisiche misteriose che sovrintende a quegli eventi. In un siffatto Universo dove accadono queste cose bizzarre, un giorno potrebbe nascere lo studioso di turno che giunge a formulare le leggi fisiche del moto peculiare dei fiammiferi o dei grani di zucchero, e tali leggi spiegherebbero il disporsi così regolare delle parti dopo la caduta.
Il punto che voglio mettere in luce sta qui: se lo zucchero rovesciato si dispone a caso ogni volta, allora nulla questio: le leggi classiche della fisica ci bastano. Lo stesso se i fiammiferi si sparpagliano sul pavimento nei modi più vari ogni volta che ci viene lo schiribizzo di fargli fare un volo. Se invece, lo zucchero o i fiammiferi, assumono cadendo una forma ordinata, regolare, come la familiare geometria di un cerchio o di un triangolo, allora le leggi fisiche note non ci possono più essere sufficienti, ma dobbiamo cercare una spiegazione ulteriore, dato che vi è necessariamente un processo fisico sconosciuto che governa questo continuo disporsi delle cose. Ciò anche se il cerchio ed il triangolo avessero di volta in volta dimensioni diverse: un cerchio più ampio una volta, più piccolo un'altra, un triangolo isoscele una volta, scaleno quella dopo.
Questo perché le forme geometriche hanno delle proprietà specifiche che il nostro occhio e il nostro cervello non mancano di riconoscere. Un cerchio è tale perché ciascun punto della circonferenza ha la medesima distanza dal centro. Un triangolo è quel luogo geometrico individuato da tre segmenti di retta che congiungono tre punti di un piano non allineati. Il fatto stesso di aver potuto descrivere queste figure geometriche con poche parole che ne definiscono le proprietà in modo completo, permettendo di riprodurne ad inifinitum, ci permette di affermarne il loro grado di complessità o, se vogliamo, di semplicità, col significato attribuito da Chaitin alla complessità computazionale. Avremmo probabilmente bisogno di pagine e pagine per poter spiegare in che modo si dispongono i fiammiferi al suolo dopo ogni volo - nella teoria di Chaitin questo vorrebbe dire che il processo è (almeno tendenzialmente) casuale.
Ma lasciamo da parte Chaitin, che mi è servito solo per stressare ulteriormente il fatto che una determinata figura geometrica è un oggetto concettuale le cui proprietà sono facilmente individuabili in termini di relazioni tra le parti e tra queste ed il tutto.
Passiamo invece ad osservare i sistemi fluviali reali: a partire dagli ultimi anni '80 si è constatato che quelli che apparentemente sembrano grovigli di effluenti e affluenti ramificati in forme complessissime, rispecchiano una morfologia frattale: un frattale è un oggetto in cui si possono individuare specifiche proprietà che mettono in rapporto le parti tra loro e le parti con il tutto. E' quindi a tutti gli effetti un oggetto geometrico al pari del cerchio e del triangolo, per quanto i frattali siano stati scoperti molto più recentemente.
In termini statistici, possiamo dire che una rete fluviale è tipicamente caratterizzata da una legge della potenza che stabilisce le relazioni tra il numero di segmenti fluviali che attingono acqua da un bacino di 10, 20, 30 km quadrati e via crescendo: al raddoppiare delle dimensioni del bacino idrologico di riferimento, il numero di segmenti di rete fluviale diminuisce di un fattore sempre costante. Si veda questa recente pubblicazione per dettagli e referenze. Queste proprietà sono state evidenziate in molti grandi reti fluviali del pianeta, tanto da poter stabilire che questa è una proprietà di questi sistemi.
La formazione di una rete fluviale è un processo ininterrotto che subisce l'influenza di un gran numero di fattori, dalla erosione delle rocce, alla orografia del territorio, alla permeabilità degli strati geologici, alle dinamiche meteorologiche locali e regionali, solo per citarne alcuni: un processo talmente articolato e con talmente tante variabili che mi fa venire in mente il lancio dei fiammiferi o il rovesciamento dello zucchero.
Eppure ogni rete fluviale che si forma ha le stesse caratteristiche geometriche: proprietà queste che evidentemente le sole leggi geofisiche non bastano a spiegare. Geometrie frattali sono state riscontrate in molti altri fenomeni o processi naturali oltre ai sistemi fluviali: segnalo qui una rassegna celebre, quella di Mandelbrot.

giovedì, marzo 20, 2008

Perchè la criticità?


Dunque la teoria della criticità autorganizzata ci dice due cose:
  1. che per molti sistemi in natura lo stato critico è un attrattore assai frequentato della loro dinamica;
  2. che, per questi sistemi che si vengono a trovare nello stato critico, non ha senso cercare di risalire alle cause che generano fenomeni di differente intensità, perchè cause del tutto simili possono generare effetti grandemente differenti.
La teoria quindi non ci fornisce una spiegazione nè del motivo per cui i sistemi si auto-organizzano nello stato critico, nè dei nessi causa-effetto per cui a eventi simili corrispondono effetti totalmente dissimili.
La teoria non nega che le relazioni causa-effetto siano di natura fisica e deterministica in ultima analisi, anzi lo da per scontato. Sorvolando su questi aspetti, ci sorprende rilevando che un gran numero di sistemi complessi, diversi fra loro, mostrano caratteristiche statistiche e geometriche affini: la frequenza degli eventi organizzata secondo una legge della potenza e l'invarianza di scala, ovvero la dimensione frattale. Da queste osservazioni lascia discendere un principio di universalità che concerne diverse classi di sistemi, dietro cui deve nascondersi un ordine profondo, non ancora rivelato, anzi appena percepito.
Dicendoci così poco, ci lascia in bocca l'inquietudine del romanzo incompiuto e la voglia di vederci più chiaro: perchè mai tanti sistemi trovano conveniente organizzarsi nello stato critico?

mercoledì, marzo 19, 2008

Il caso Bear Stearns e la criticità auto-organizzata.


L'evento viene riportato con i toni del cataclisma non preannunciato:
La caduta di schianto della banca d' affari ha lasciato senza fiato gli operatori per il fatto in sé - le parole più usate per la sua possibile scomparsa sono «impensabile» e «surreale».

Questo è come viene raccontato il fatto sul nostro Corriere della Sera del 15 marzo, ma anche oltreoceano i toni non sono diversi.
In questi giorni fior di cervelli dell'analisi economica si sono sforzati di provare a spiegare quello che sta succedendo.
E se fosse uno sforzo vano? Il dubbio non è campato in aria.
Cambiamenti improvvisi e senza una ragione apparente potrebbero essere legati ad uno stato di cose fortemente instabile ed in continuo cambiamento. E' l'essenza dello Stato Critico, osservato in fisica in diversi sistemi che operano lontano dall'equilibrio termodinamico.
L'esempio dell'acqua riguarda uno stato instabile sull'orlo di una transizione di fase, ma esso è indotto da una regolazione esterna di uno dei parametri fisici (volume, gas, pressione).
Lo stato critico più interessante è quello che sorge spontaneamente, senza l'intervento di una regolazione esterna: allora si parla di Criticità Auto-Organizzata. Esempi ormai classici sono gli ecosistemi, gli incendi boschivi, i terremoti. E tra queste vi è anche l'ipotesi della Borsa:
Secondo le cifre, i crolli improvvisi, lungi dall'essere improbabili, sono praticamente inevitabili. In pieno contrasto con la teoria del mercato efficiente, la matematica ci dice che le forti fluttuazioni delle quotazioni di Borsa sono causate dal naturale funzionamento interno dei mercati e che accadono anche se non vi sono "fonti di fragilità strutturale" o modifiche improvvise dei fondamentali. E il motivo del fenomeno forse è semplice: i mercati non sono affatto in stato di equilibrio.
[...] Negli anni Novanta i ricercatori si servirono delle simulazioni al computer per analizzare meglio le fluttuazioni del mercato mobiliare e del mercato valutario di tutto il mondo, e giunsero regolarmente a risultati analoghi [a quelli cui era giunto Mandelbrot]: le leggi della potenza e le fluttuazioni violente non avevano una scala intrinseca.
[...] La legge della potenza relativa alla fluttuazioni dei prezzi mostra come anche l'entità approssimativa della variazione imminente sia imprevedibile. In un mercato organizzato nello stato critico, anche i grandi crolli della Borsa valori sono eventi ordinari e naturali, per quanto in effetti sia lecito non aspettarseli spesso.

Mark Buchanan - Ubiquità.

Senza la minima pretesa di spiegare cosa sta succedendo a Wall Street, non penso che si possa escludere che la criticità autorganizzata sia all'opera nei recenti avvenimenti finanziari.

domenica, marzo 16, 2008

Le reti oltre il caos.


Il problema dei tre corpi è un classico della fisica: lungamente insoluto, attirò anche l'attenzione di Henri Poincarè nel secolo XIX. Non può essere risolto utilizzando le leggi di Newton, dato che quel sistema di equazioni non è integrabile per questo problema, e già il geniale francese rintracciò nella dinamica dei tre corpi i segni premonitori del caos deterministico.
Generalizzando al caso degli n-corpi, ci troviamo davanti ad un problema non risolvibile analiticamente, certamente caratterizzato da dinamiche non-lineari e fortemente sensibili alle condizioni iniziali. Se ci mettessimo alla ricerca di un modello fisico che segnasse l'anello di congiunzione tra i sistemi non-lineari "semplici" con comportamento caotico, e sistemi aggregati o collettivi costituiti da un gran numero di dinamiche che si influenzano reciprocamente, questo potrebbe essere rappresentato dal problema degli n-corpi.
Il nostro mondo è denso di fenomeni che si possono comprendere se li riconduciamo nel contesto di un sistema a molti componenti interagenti. Di più, l'interazione tra elementi semplici deve essere cercata per studiare fenomeni non comprensibili se valutati con un ottica riduzionistica.
La rete delle interazioni tra componenti considerata su diverse scale è la chiave per comprendere la complessità del mondo che ci circonda, specialmente laddove osserviamo mutamenti inspiegabili, repentini e drastici, tali da stravolgere senza apparente spiegazione la realtà intorno a noi - quei cambiamenti, insomma, per i quali spesso abbiamo necessità di tirare in ballo il concetto di caso.
"In fenomeni che prevedono l'interazione di migliaia o milioni di elementi, l'importante sono l'organizzazione e il comportamento collettivi, per comprendere i quali occorre una teoria generalmente valida per le reti di elementi interagenti.
[...] Il caos, di per sé, non spiega perché una farfalla possa provocare un temporale; spiega invece perché una causa di minima entità possa, in breve tempo, rendere il futuro diverso nei dettagli (es. la posizione di molte molecole) da quello che sarebbe potuto essere. [...] In poche parole, è lecito affermare che, sebbene spieghi la semplice imprevedibilità, il caos non spiega la predisposizione agli sconvolgimenti."
(Mark Buchanan - Ubiquità.)
Il modello delle reti di elementi interagenti è lo strumento concettuale appropriato per descrivere la realtà e studiarne la complessità sotto molteplici punti di vista e negli ambiti più disparati.

martedì, marzo 11, 2008

Predicibilità e catastrofismo mediatico.


L'ultima catastrofe annunciata è per fortuna abbastanza in là nel tempo da non destare preoccupazioni per noi e la nostra discendenza prossima. La Terra si dissolverà in gas tra 7,5 miliardi di anni a causa di perturbazioni della sua orbita dovute alla mutata attrazione magnetica esercitata dal sole, il tutto è descritto con soprendente assenza di informazioni su un articolo apparso oggi sul Corriere della Sera.
Ci sarebbe di che inorridire, se non fosse che queste catastrofi annunciate sono ormai un motivo ricorrente della stampa sensazionalistica. Naturalmente nessun giudizio per i presunti autori dello studio, che a quanto pare ad oggi non è neanche stato pubblicato. Ma se anche lo fosse stato, probabilmente sarebbe stato troppa grazia per il giornalista andarselo a leggere.
Ad ogni modo, a parte il mio personale disappunto per questo tipo di dis-informazione, traggo spunto per una riflessione che mi sta maggiormente a cuore.
In un sistema caratterizzato da caos deterministico, oltre ad un'elevatissima sensibilità alle condizoni iniziali, riscontriamo anche un'impredicibilità a lungo termine dell'evoluzione futura legata al fatto che l'incertezza iniziale cresce con una legge esponenziale, il cui esponente è noto come (massimo) esponente di Lyapunov del sistema.
Si dimostra facilmente che, per quanto piccolo possa essere questo esponente, per poter raddoppiare il tempo di previsione (cioè quel tempo per il quale siamo disposti ad accettare un errore dato) è necessario ridurre anche di qualche ordine di grandezza l'incertezza iniziale. Dato che questo è strutturalmente impossibile nel caso di misure o serie storiche di dati, ne consegue che il tempo di previsione, per sistemi caotici, è intrinsecamente limitato dalle caratteristiche del sistema stesso. Qualunque stima si collochi oltre il tempo di previsione massimo accettabile non è una previsione ma una divinazione, e come tale deve essere considerata.
La questione è spiegata nelle sue linee essenziali nelle prime dodici slide che segnalo, ad opera del prof. Andrea Rapisarda.
Alla luce di queste nozioni, del fatto che i sistemi astronomici ed il sole in particolare hanno, con molta probabilità, dinamiche caotiche (alcuni riferimenti, tra quelli rintracciabili con Google: Malhotra, Laskar), e che certamente non disponiamo di serie storiche sufficientemente lunghe per avere un'incertezza ragionevolmente piccola, davvero sorprende che si dia tanta enfasi catastrofista ad una ipotesi scientifica certamente discutibile.
Sarò comunque grato a chiunque vorrà postarmi l'articolo autentico, quando verrà pubblicato.

domenica, marzo 09, 2008

Leggi della potenza (power laws)


C'è molta speculazione intorno alle leggi della potenza, che sembrano fiorire in ogni angolo della conoscenza e che sono spesso associate al tema della complessità. Credo sia indispensabile avere una concezione corretta del tema per comprenderne le implicazioni.
Con questo post mi sforzo di dare una visione introduttiva, incoraggiando chiunque capiti da queste parti a emendare quanto scrivo se dovesse riscontrare inesattezze, o semplicemente arricchirlo con altre informazioni o link utili.
Leggiamo spesso che una distribuzione di probabilità che abbia il profilo di una legge di potenza è del tipo:
P{X>x} = cx-a
Va chiarito innanzitutto che questa espressione corrisponde alla definizione di funzione di distribuzione cumulativa complementare della variabile aleatoria X, essendo la funzione di distribuzione classicamente definitia come P{X <= x}. Naturalmente, stiamo implicitamente usando la definizione di probabilità come frequenza degli eventi casuali.
Si dimostra che una tale distribuzione di probabilità ha varianza infinita se a<= 2 e media infinita se a > 1.
Questo articolo di Michael Mitzenmacher contiene un'ottima introduzione matematica.

Il significato probabilistico di una distribuzione con il profilo di una legge della potenza è evidente nel fatto che non riusciamo ad individuare media e varianza caratteristici. Una varianza infinita è intuibile nel profilo della distribuzione, in cui gli eventi "grandi" (ovvero corrispondenti a grandi valori di X) sono pochi o pochissimi, mentre la maggior parte degli eventi si trova appiattita sui piccoli valori. Non si riesce a trovare un valore caratteristico, e non si riesce a trovare una scala caratteristica, ma si manifesta un fattore costante nel passaggio da una scala ad un'altra. A quest'ultima proprietà si è dato il nome di invarianza di scala: essa ha un ruolo assai rilevante nella caratterizzazione dei sistemi complessi, e, curiosamente, anche del caos deterministico e della geometria frattale.
Questa caratteristica ubiqua ha contribuito ad accrescere l'interesse intorno alle leggi di potenza, non senza fortuna, ma anche a far proliferare leggi di potenza in letteratura pseudo-scientifica. Per una dissertazione critica sulla validità di queste distribuzioni si vedano queste note del fisico statistico prof. Cosma Rahili Shalizi.
Se infatti le leggi della potenza hanno proprietà certamente interessanti e forniscono una base di studio per le dinamiche complesse, non è banale poterle dedurre da dati empirici e misure. A chi volesse tentare, eccovi un ottimo kit degli attrezzi.

venerdì, marzo 07, 2008

Il lancio della moneta, ovvero la fisica per caso.


La teoria matematica della probabilità nasce nel XVI secolo, prendendo le mosse dagli sviluppi dell'arte combinatoria. Ma fino ad allora il concetto di evento casuale, e di caso tout-court, non sembra avessero caratterizzato la cultura degli uomini. Le società antiche facevano più volentieri riferimento all'intervento divino per cercare ragioni di fenomeni e circostanze altrimenti inspiegabili. Penso che l'antropologia abbia scritto pagine di riflessioni affascinanti su questi temi.
Oggi il concetto di probabilità è comune a ciascuno di noi, e ci crea un leggero disagio soltanto quando viene contrapposto al determinismo dominante nella visione moderna del mondo. Per il resto, siamo abituati che il calcolo delle probabilità intervenga in moltissimi campi del vivere quotidiano. In questi giorni di campagna elettorale siamo già investiti dagli usuali pronostici delle parti in gara che, ahi noi, se ne infischiano dell'ovvia regola del 100% - ma questa è un'altra storia...
La definizione di probabilità è cosa tutt'altro che banale: quella classica che a tutti noi è stata raccontata a scuola, e cioè che la probabilità di un evento in una serie di n eventi equiprobabili è 1/n è chiaramente viziata da circolarità: occorre già sapere che gli eventi hanno pari probabilità, prima ancora di dire cosa sia questa grandezza. La fuorviante definizione è un lascito di Laplace, che pure ha dato un contributo fondante alla teoria.
Ci sono oggi due visioni fisiche che riguardano la probabilità, quindi il caso:
- la visione quantistica, secondo la quale il caso è alla base stessa dei fenomeni subatomici;
- la visione deterministica, secondo la quale invece il caso non esiste di per sé, ma è un concetto utile alla modellazione di sistemi altrimenti non suscettibili di analisi.
Non ci è ancora dato sapere da che parte stia la verità, ma penso che la seconda visione sia quella più intuitiva, almeno alla scala dei fenomeni che osserviamo noi uomini.
Consideriamo ad esempio il semplice lancio di una moneta, icona - insieme al lancio dei dadi - del fenomeno probabilistico. In realtà sappiamo che l'esito del lancio è stabilito dall'evoluzione dinamica del moto del solido successivamente alla sollecitazione ricevuta inizialmente. Per quanto complesse siano, sappiamo che è possibile scrivere le equazioni del moto della moneta, quindi sappiamo che è possibile, almeno teoricamente, prevedere se avremo testa o croce sulla faccia della moneta quando atterra: questa è l'essenza del determinismo, e non abbiamo dubbi che questo fenomeno sia deterministico. Eppure, regolarmente, constateremo che aveva ragione Laplace: testa e croce appariranno un numero pari di volte se ripetiamo l'esperimento sufficientemente a lungo. In altre parole, in barba alle sue equazioni differenziali deterministiche, non saremo mai in grado di predire se avremo testa o croce ad ogni nuovo lancio.
Provate on-line, se non avete una moneta a portata di mano...(non è un modello dinamico però, bensì probabilistico - se trovate un modello dinamico online, fatemi sapere).
Il caso come noi lo conosciamo nasce quindi da una modellazione matematica che non pretende di dire nulla di fisico, ma si rivela assai efficace nella previsione di fenomeni che, per loro natura, sarebbero altrimenti impredicibili.
Applichiamo infatti l'analisi statistica ai fenomeni reali - spesso con grande successo - per inferirne delle caratteristiche e produrre conoscenza di essi, non per sancirne la natura casuale.
Fino all'avvento della meccanica quantistica non si pensava realmente al caso come base dei fenomeni fisici. Dopo l'avvento del caos abbiamo scoperto che sistemi semplici e perfettamente deterministici possono produrre dinamiche randomiche.
Lo sforzo delle scienze della complessità è adesso capire cosa succede in sistemi complessi, di grandi dimensioni o lontani dall'equilibrio: non possiamo ancora sciogliere la riserva sulla casualità (e forse non potremo mai), ma certamente la teoria della probabilità potrà dirci molte cose.

domenica, marzo 02, 2008

La criticità nell'acqua e lo Stato Critico.


I diagrammi di fase dell'acqua descrivono il comportamento di un aggregato di un gran numero di molecole al variare di temperatura, pressione, volume. Regolando una sola di queste grandezze possiamo assistere al repentino cambiamento dell'intero aggregato, che muta improvvisamente stato. Ciò che un attimo prima sembrava essere stabilmente liquido tutto d'un tratto diventa vapore, oppure ghiaccio.
La transizione di fase avviene senza essere preceduta da prodromi: immediatamente prima e immediatamente dopo il punto di transizione niente lascia pensare di trovarsi sull'orlo di un cambiamento catastrofico. Tale punto critico costituisce uno stato instabile e di non-equilibrio per l'aggregato, una condizione davvero singolare in cui l'acqua non viene a trovarsi spontaneamente, ma soltanto al presentarsi di condizioni ambientali esterne particolari (temperatura, pressione o volume critici).
Di suo, l'acqua non permane in nessuno dei suoi stati critici, data la grandissima instabilità di questi: perciò la osserviamo comunemente in uno dei suoi stati stabili: liquido, vapore, ghiaccio.
Lo Stato Critico è invece una condizione spontanea per molti sistemi-aggregati del mondo reale, tanto frequente da avere caratteristiche di ubiquità.
Diversi sono infatti i sistemi per i quali lo Stato Critico costituisce un attrattore della loro dinamica, ed essi vi pervengono spontaneamente senza la necessità di una regolazione esterna.
Questa condizione è più tipica di quanto si immaginasse per la classe di sistemi che si trovano in uno stato lontano dall'equilibrio termodinamico, cioè per la maggioranza dei sistemi in natura. Ecco perché ci interessa tanto: siamo abituati a pensare a condizioni "critiche" come evenienze singolari e rare, mentre invece esse sono presenti ovunque, e curiosamente si manifestano con sospetta frequenza in quei sistemi che danno luogo a fenomeni di difficile comprensione per la scienza classica e tradizionale: nei territori della complessità.