mercoledì, dicembre 24, 2008

Aforisma.


Una citazione breve ed efficace sulla relazione tra caos (deterministico) e auto-organizzazione, o se vogliamo tra caos e complessità:
Lo studio dei sistemi auto-organizzanti è, in qualche modo, il "correlato-opposto" dello studio del caos: nei sistemi auto-organizzanti, pattern ordinati emergono da casualità di livello più basso; nei sistemi caotici, comportamento impredicibile emerge da regole deterministiche di livello inferiore.
Farmer e Packard - Evoluzione, giochi e apprendimento: modelli per l'adattamento nelle macchine e in natura.

sabato, novembre 15, 2008

Auto-organizzazione di un'ameba affamata.


La chemiotassi è il fenomeno per cui micro o macro organismi mutano il loro movimento in virtù della concentrazione, o del gradiente di concentrazione, di una sostanza chimica nell'ambiente in cui si trovano.
E' un comportamento che l'evoluzione ha premiato ampiamente nei batteri, come meccanismo di comunicazione di base per la formazione di colonie, e per l'adattamento a mutate condizioni ambientali, come la presenza di cibo o di antibiotici. Sono molti e ben documentati gli esempi che dimostrano come l'interazione con sostanze chimiche ambientali, che possono essere anche secrete dai batteri stessi (in questo caso si parla di segnalazione chemiotattica), conducono alla formazione di sorprendenti pattern specifici, sia morfologici sia comportamentali, che costituiscono una risposta adattativa efficace da parte di questi microorganismi.

Dictyostelium Discoideum è un'ameba, che in determinate circostanze diventa uno pseudoplasmodio. Questa tassonomia microbiologica nasconde un aspetto di notevole interesse generale per chi è interessato ai sistemi complessi: se infatti un'ameba è un organismo monocellulare, un pseudoplasmodio è invece pluricellulare. Per questa creatura la chemiotassi gioca un ruolo riconosciuto sia nella fase di ricerca del cibo, in cui le cellule individuali "fiutano" le concentrazioni di acido folico per localizzare il cibo, sia in risposta ad uno stress ambientale specifico: la carenza di nutrimento. In questo caso le cellule secernono acrasina e così facendo innescano un processo di aggregazione, o auto-organizzazione, che culmina nella formazione di una colonia di cellule.
Questa forma aggregata è molto coerente, tanto che in essa si possono distinguere sottosistemi funzionali deputati al moto o alla sporazione.
Quelli che possiamo osservare in un certo momento come un insieme di individui autonomi, in alcune circostanze intraprendono all'unisono una serie di azioni che li conducono a unirsi nella costituzione di un organismo singolo, senza che vi sia una cellula pacemaker a dirigere le operazioni: è la risposta collettiva delle cellule alla diffusione di acrasina nell'ambiente a generare l'organizzazione coloniale.

oggi, trent'anni dopo la sua prima stesura, la teoria dell'aggregazione di Dictyostelium è riconosciuta come un classico degli studi sul comportamento bottom-up.
Steven Johnson - Emergence.

Non è difficile concludere che la nuova entità collettivamente organizzata emerge dalla moltitudine di individui. Analogamente, nel caso della risposta dei batteri alla presenza di antibiotici, possiamo dire che il comportamento collettivo emerge da una moltitudine di comportamenti individuali incredibilmente congruente con la finalità dell'azione.
La comunicazione, o regolazione, chemiotattica accompagna la vita fin dalla sua apparizione probabilmente, e caratterizza organismi che popolano il nostro pianeta a diverse scale: dai batteri e le amebe, agli organismi pluricellulari, i tessuti neurali, gli insetti sociali, certi comportamenti degli animali complessi. Meccanismi simili si sono voluti vedere in comportamenti sociali di tipo superiore, fino anche a quelli umani: ma questo introdurrebbe male un'universalità che non è certo così banalmente inferibile.
Ciò che mi interessa mettere in luce è il fatto che la chemiotassi rappresenti un esempio di comportamento emergente, dove la caratteristica di emergenza può essere meglio chiarita come
una proprietà dei sistemi complessi:
[Un sistema complesso è] un sistema con più agenti che interagiscono dinamicamente in modi diversi, seguendo regole locali, e indifferenti a qualsiasi istruzione di alto livello. [...] questo sistema non potrebbe essere considerato davvero emergente se le interazioni locali non producessero un qualche tipo di macrocomportamento riconoscibile.
[...] Il movimento dalle regole di basso livello alla sofisticazione di alto livello è ciò che chiamiamo emergenza.
[...] Locale si rivela essere il termine chiave per capire la logica di sciame. Osserviamo comportamento emergente quando i singoli individui di un sistema rivolgono l'attenzione all'immediato vicino anziché attendere ordini dall'alto, quando pensano localmente e agiscono localmente, ma la loro azione collettiva produce comportamento globale.
Steven Johnson - Emergence.


lunedì, ottobre 27, 2008

L'auto-organizzazione nell'era del P2P.


Se lasciassimo che ogni computer stabilisca delle connessioni con altri secondo gli obiettivi individuali dei rispettivi proprietari, ovvero la ricerca di contenuti digitali rispondenti ai rispettivi gusti personali o interessi culturali, avremmo avviato la formazione di una rete peer-to-peer.
Questo è pacifico. Meno immediato è che una rete siffatta si costituirebbe secondo un meccanismo di auto-organizzazione: una modalità di sviluppo od interconnessione che possiamo ricondurre ad un semplice assunto di base, ovvero la mancanza di un'entità individuale, interna od esterna, che svolga funzioni organizzative, quale un leader, un direttore d'orchestra, un pace-maker, un architetto.

Su Internet, una rete peer-to-peer è un insieme dinamico di relazioni logiche tra computer, nessuno dei quali svolge funzioni organizzative direttive, e in cui ciascuno partecipa alla rete in condizioni paritetiche rispetto a tutti gli altri.
Il successo delle reti peer-to-peer è ormai consolidato.
Esse sono apparse quasi improvvisamente sul finire degli anni '90, con l'esplosione di Napster e di Freenet: entrambi pionieri della comunicazione peer-to-peer su Internet, questi due modelli di rete differivano in una maniera fondamentale che avrebbe portato ad una successiva classificazione in reti P2P strutturate (Napster) e non-strutturate (Freenet), che essenzialmente differiscono per l'adozione delle Tabelle Hash Distribuite (DHT).
A parte gli aspetti più tecnici sulla differenza tra i due approcci, i successi iniziali furono presto emulati dalle reti P2P che sono apparse sulla scena: Gnutella, Kazaa, BitTorrent, eDonkey, Kademlia. La comunicazione usata da eMule (il client P2P più popolare dal 2004) utilizza entrambi i meccanismi, a testimonianza del fatto che questa tecnica di comunicazione ha intrapreso una fase di ibridazione.
Una ben documentata e dettagliata esposizione delle reti peer-to-peer, con le tecniche e gli algoritmi relativi, è disponibile in questa Survey and Comparison of Peer-to-Peer Overlay Network Schemes.
Praticamente tutte le reti P2P lì descritte sono sistemi costruiti da nodi peer che si auto-organizzano applicando ciascuno localmente le regole dettate dai protocolli di comunicazione che regolano la rimozione e l'aggiunta di nodi, i meccanismi di ricerca dei dati e di instradamento delle informazioni.
Alcune ricerche hanno mostrato che le reti peer-to-peer sono complesse, ovvero rispondono ad una o entrambe le seguenti definizioni:
- sono reti small-world;
- sono caratterizzate da una legge della potenza.
Ad esempio, questo articolo riguarda una rete realizzata con Gnutella, e ne inferisce le caratteristiche power-law, mentre un altro studio ne individua le proprietà small-world.
A questo punto diventa verosimile la conclusione che le reti peer-to-peer sono tutte reti distribuite secondo una legge di potenza, o almeno reti small-world. E diventa anche lecito il sospetto che tutte le reti auto-organizzati siano anche esse caratterizzate da distribuzioni dello stesso tipo, e dalle proprietà di piccolo mondo.
Infatti, altri studi sono arrivati alle stesse conclusioni anche per altre reti overlay: il world wide web, la topologia di Internet (al livello di Autonomous System), le reti delle e-mail, le direttrici di traffico in Sardegna, le chiamate telefoniche: tutte reti che evidenziano un carattere power-law, o ad invarianza di scala.
Cosa hanno in comune tutte queste reti?
- sono artificiali (in contrapposizione con quelle naturali: ingegneria vs. evoluzione).
- sono auto-organizzate, cioè frutto di una dinamica collettiva agente dal basso;
- sono in qualche relazione con le dinamiche legate agli utenti umani.
Se per il web, la topologia Internet, le e-mail e le chiamate telefoniche è ipotizzabile che l'organizzazione della rete sia influenzata o, di più, rifletta quella della rete sociale umana sovrastante, lo stesso non è possibile fare per le reti P2P, in cui è invece un algoritmo distribuito che agisce sulla base di informazioni locali a tessere la complessa tela delle connessioni. Quel meccanismo, per quanto di origine artificiale, non realizza le reti sulla base delle connessioni sociali che tali reti usano.
E' riconosciuto che il processo di formazione della topologia di una rete P2P non è del tutto compreso, per quanto esso sia basato su meccanismi ben individuabili: di certo, non è spiegato perché sistematicamente emergano per queste reti le caratteristiche delle reti complesse.

Per questa ragione l'esempio delle reti peer-to-peer è molto rappresentativo per i temi dell'auto-organizzazione, delle proprietà emergenti dei sistemi e delle loro relazioni con le reti complesse.

domenica, ottobre 12, 2008

Reti Sociali e P2P: il principio da difendere.


Ancora una sconfitta per le major della musica nella loro crociata per la santificazione del copyright: una trentenne americana disoccupata ha vinto la causa che la vedeva incriminata per lo scambio di file protetti da copyright tramite applicazioni peer to peer.
Qualche giorno prima era arrivata anche la decisione del tribunale del riesame di Bergamo di rimuovere il sequestro preventivo del sito The Pirate Bay (come se un server in Svezia possa essere sequestrato in Italia - perdonatemi la semplificazione, sono sicuro che tutti sappiamo di che si parla).
Queste sono le notizie che arrivano dal fronte della guerra santa tra le major discografiche e il resto del mondo, che si combatte sul filo del peer-to-peer, questa idra dalle molte teste che non lascia dormire gli avvocati dei grandi editori musicali.
Eppure noi sappiamo che la comunicazione peer to peer è in fondo un modello molto semplice per lo scambio di dati all'interno di una rete sociale.
Il Social Networking, infatti, non è soltanto la pratica di costruire dei grafi on-line in cui noi stessi diventiamo il link che mette in relazione diretta i profili virtuali dei nostri contatti, come accade con LinkedIn, Facebook, Plaxo Pulse e via cantando. E' la possibilità di tenersi in contatto e comunicare con persone con cui si condividono interessi e passioni.
Con l'avvento del Web prima, e delle nuove tecniche e funzionalità telematiche che vanno sotto il nome generico di Web 2.0 poi, ci si è offerta la possibilità di allargare la nostra cerchia di conoscenze e (perché no?) amicizie anche al di là delle possibilità offerte dalle frequentazioni della realtà quotidiana. Questo non vuol dire che ci teniamo in contatto con entità virtuali, ma persone vere e proprie in carne e ossa, tanto è vero che nelle reti sociali diventano importanti qualità come la reputazione.
E il peer to peer è il modello di comunicazione che meglio si adatta a questo tipo di realtà: se prima potevo soltanto invitare i miei amici a casa per condividere con loro la musica che mi piaceva ascoltando lo stereo, oggi posso farlo trasmettendo i brani che preferisco su quella radio privata wired che è il mio network sociale. Questo è il punto cruciale del discorso, ed il principio da difendere.
Da Shannon e Nyquist in poi, l'informazione analogica di qualunque natura è stata ridotta alla sua componente fondamentale: sequenze di bit. E come tale è diventata suscettibile di archiviazione, di riproduzione e di trasmissione. Il fatto che non sia possibile comunicare un brano impedendone l'archiviazione è una realtà fisica, un principio primo come l'indeterminazione di Heisenberg. Ciò che si può comunicare o riprodurre si può anche archiviare nell'era dell'informazione, e viceversa. Rompere questa relazione è come andare alla ricerca del moto perpetuo, come violare il secondo principio della termodinamica, oppure - per meglio rendere il fanatismo delle grandi case discografiche - come inseguire il Santo Graal.
L'interesse privato delle major non deve soverchiare il diritto privato del singolo cittadino, e delle comunità sociali di cui esso partecipa.
In un recente lavoro sull'Ipotesi dell'Intelligenza Sociale nell'evoluzione dell'uomo, il ricercatore e filosofo australiano Kim Sterelny ha osservato:
L'idea di base è che il grado di sofisticazione dell'intelligenza dei primati è il risultato della risposta adattativa alla complessità dell'ambiente sociale in cui i primati agiscono.
[...] La retroazione tra capacità individuale e complessità sociale fa dell'intelligenza sociale l'ipotesi della costruzione di una nicchia: l'evoluzione della cognizione umana dipende da contingenze ambientali che sono state generate dagli uomini stessi.
[...] E' la combinazione delle crescenti necessità di informazioni dell'attività di estrazione di risorse e la crescente complessità degli ambienti sociali che guida l'evoluzione degli ultimi ominidi.

Nella nostra società complessa e (iper?)-connessa la comunicazione è fondamentale per la vita sociale di ciascuno di noi: la sua moderna amplificazione è una conseguenza dei tempi, non un'aberrazione criminale e pirata, anche laddove questa comunicazione passa per la riproduzione di un brano o di un video che giudichiamo ci rappresentino. Video, brani, testi devono essere visti come metafore virtuali e multimediali del nostro io che vogliamo e dobbiamo comunicare agli altri per rappresentare noi stessi, e che possono essere ri-elaborati, re-mixati, mescolati, campionati da noi per consentire la nostra libera espressione: quindi si anche ai mesh-up.
Altrimenti ci dovremmo rassegnare ad essere soltanto i ricettori passivi di un'informazione generata come sotto-prodotto del profitto, e diffusa nelle nostre teste in ogni momento dalla pubblicità contenuta nei tanti mass-media.

martedì, settembre 23, 2008

Una storia dei sistemi complessi.


Il modo migliore per comprendere lo stato attuale delle conoscenze su quell’insieme di discipline che va sotto il nome (abusato…) di scienze della complessità è probabilmente quello di ripercorrere la storia delle idee e dei risultati scientifici e tecnologici che ci hanno portato fin qui.
Nel suo articolo What is a Systems Approach? Il ricercatore australiano Alex Ryan ne ripercorre le tappe in maniera ben organizzata: il risultato è una lettura scorrevole, documentata e chiara.
Scopriamo così che l’evoluzione delle idee sulla complessità percorre il tracciato dello sviluppo del Pensiero Sistemico, che si pone come alternativa alla visione puramente scientifica (o scientista?) della realtà in termini classici, intesa come visione riduzionista, ma senza la pretesa epistemologica di offrire una descrizione della natura come essa è. Con le (giuste) parole di Ryan:

La conoscenza che si può trarre utilizzando un approccio sistemico ha
maggiormente senso quando è considerata come una prospettiva da cui pensare il
mondo, piuttosto che una proprietà oggettiva di regioni delimitate dello
spazio-tempo. La definizione di sistema dovrebbe specificare come il mondo può
essere idealizzato, rappresentato e come si possa agire su esso quando è
descritto come un sistema.
[…] L’utilità della prospettiva sistemica consiste
nella capacità di condurre l’analisi senza la necessità di ridurre lo studio di
un sistema allo studio delle sue componenti isolate. La conoscenza ottenibile da
questa prospettiva può essere altrettanto “oggettiva” della conoscenza che è
offerta da una prospettiva scientifica riduzionista.


Fatta questa premessa, l’articolo prende le mosse dalle fasi embrionali del pensiero scientifico a partire da Cartesio, e dallo sviluppo successivo seguito alle fondamentali innovazioni apportate da Newton con la conseguente nascita della meccanica e del determinismo scientifico, eternamente ritratto nella celebre metafora di Laplace su quello che è poi passato alla storia come il suo Demone.
Le considerazioni di von Bertalanffy pubblicate nel 1950 sono indicate come determinanti per la nascita del pensiero sistemico: cogliendo evidenti incongruenze tra l’affermata impostazione della fisica classica basata sui sistemi chiusi, von Bertalanffy ne contestò l’inadeguatezza a descrivere i sistemi biologici:

Per esempio, la seconda legge della termodinamica asserisce l’inevitabilità
dell’aumento dell’entropia e della perdita di ordine, e tuttavia l’evoluzione e
lo sviluppo dei sistemi biologici manifesta aumenti progressivi di
ordine.


In quegli stessi anni Weaver introdusse il concetto centrale di complessità organizzata.
Ryan quindi passa in rassegna i risultati della Teoria Generale dei Sistemi (GST), la Cibernetica di Norbert Wiener e soci (che ha enfatizzato il ruolo regolatorio dell’informazione retroazionata) attraverso cui l’attributo di complessità viene associato alla quantità di informazione secondo Shannon necessaria per descrivere un sistema. In embrione, è questa la comparsa del concetto di complessità computazionale o algoritmica di Chaitin, assurta a metrica della complessità ai giorni nostri - sebbene non è stato ancora riscontrata la misurabilità di una grandezza così definita.
In successione seguono poi una disamina dell’Analisi Sistemica, della Ricerca Operativa e dell’insieme delle best practice che vanno sotto il nome generico di Ingegneria dei Sistemi con il loro arsenale di contributi euristici ai concetti del Pensiero Sistemico.
Tutte queste impostazioni, o prospettive, considerano sempre i sistemi collocati nel loro ambiente e interagenti con esso: sistemi aperti.
L’epilogo dell’articolo è, naturalmente, l’approdo ai Sistemi Complessi es alle maggiori scuole di pensiero, fucine di idee e centri di ricerca che stanno guidando lo sviluppo di questo settore, due per tutte: il Santa Fe Institute e il New England Complex Systems Institute. Prendendo queste due istituzioni come rappresentative della prospettiva odierna dei Sistemi Complessi, possiamo dire che tali sistemi sono inquadrabili essenzialmente come un raffinamento dei risultati della Cibernetica e della GST.

Ciò, naturalmente, non esaurisce affatto l'argomento, per cui la rassegna di Ryan dovrà presto essere aggiornata, probabilmente.

lunedì, agosto 11, 2008

Censura verso il P2P - Italia contro The Pirate Bay.


Rilancio da Punto Informatico la notizia che diversi ISP Italiani hanno ricevuto (ed eseguito) la richiesta di oscurare il sito The Pirate Bay, uno dei più famosi tracker / index usato da BitTorrent, il celebre protocollo per la comunicazione peer-to-peer.

A quanto pare l'intervento consiste in un filtro implementato sui server DNS utilizzati dagli ISP italiani: il blocco, però, si rimedia facilmente cambiando le impostazioni del DNS utilizzato dal proprio PC con quelle di server DNS pubblici non italiani (vedi OpenDNS).
Data la debole misura messa in essere dalle autorità Italiane - il rimedio per aggirare il blocco può essere configurato anche da utenti molto poco esperti - l'iniziativa ha più del politico che non dell'effettivo contrasto a quella che viene chiamata (ingiustificatamente nella maggioranza dei casi) pirateria.
Non uso BitTorrent ma sono favorevole al P2P. Quando un business model mostra crepe grandi come canyon, non bisogna fare altro che lasciarlo morire: questo accanimento terapeutico non può avere successo.
P.S.: se non vedete l'immagine qui sopra è perchè il vostro server DNS non risolve il nome in indirizzo IP; in tutto il resto del mondo i server DNS non hanno questo filtro.

giovedì, agosto 07, 2008

Ridondanza e multi-tasking.

Una lezione che dobbiamo imparare dalla natura che ci circonda è che un processo evolutivo efficiente per sostenersi - cioè per perdurare nel suo ciclo di generazione e adattamento in un ambiente esterno ad esso - deve avere almeno due caratteristiche: multi-funzionalità e ridondanza.
Per processo evolutivo qui intendo un qualunque sistema od organizzazione che agisca o reagisca in un ambiente esterno con cui interagisce ed entro cui compete con altri sistemi per la sopravvivenza ed il raggiungimento dei suoi obiettivi, quali che essi siano (es. moltiplicazione, profitto, accrescimento, potere, etc.). Tralasciando la formalizzazione di questi concetti che sarebbe necessaria per contestualizzare questo discorso, dico solo che un tale sistema si troverebbe in uno stato diverso ad ogni passaggio evolutivo proprio in virtù del processo evolutivo che lo caratterizza. In ciascuno stato le singole parti del sistema sono ben definite, operative ed ottimizzate rispetto all'obiettivo - l'ottimizzazione è il risultato dell'efficienza del processo evolutivo, evidentemente.
Senza multi-funzionalità un elemento del sistema prodotto dal processo ha una funzione specifica che, in quanto tale, non può essere abbandonata (altrimenti perché l'evoluzione la avrebbe selezionata per il successo?) delegata ad altri elementi (nel qual caso verrebbe meno la specificità, dato che vi sarebbe almeno un altro elemento del sistema in grado di espletare la stessa funzione). Quell'elemento rappresenta un vicolo cieco del processo evolutivo: esso non potrà ulteriormente evolvere - anche se questo non vuol dire che esso non sia destinato ad essere conservato con successo nel sistema.
Senza ridondanza ogni elemento è indispensabile alla sopravvivenza del sistema stesso: se anche esso fosse multi-funzionale, il semplice abbandonare una delle sue funzioni comprometterebbe il sistema nel suo complesso. Pertanto la sua necessità per il sistema reprime qualunque cambiamento evolutivo che lo riguardi.

Se tutti gli elementi del sistema fossero specifici (monofunzionali) e indispensabili (es. single points of failure), quel sistema non avrebbe ulteriori possibilità di evoluzione e, se si trovasse in un ambiente competitivo, non potrebbe più adattarsi e probabilmente soccomberebbe.

Questo è un risultato ormai consolidato della biologia evolutiva dello sviluppo, dal quale mutiamo questo concetto.


L'intuizione fondamentale che Darwin ebbe fu che lo stesso organo svolge
spesso funzioni completamente distinte allo stesso tempo, e che due organi
distinti possono contribuire contemporaneamente alla stessa funzione. Questa
multifunzionalità e ridondanza crea l'opportunità per l'evoluzione della
specializzazione attraverso la divisione dei compiti.
[...] Capita molto di rado che la natura inventi qualcosa dal nulla, più facilmente rimodella strutture esistenti con geni del kit degli attrezzi che sono già disponibili.
[...] Ciascuna parte di una struttura multifunzionale che sia almeno ridondante per quanto riguarda la funzione costituisce il prerequisito per la specializzazione verso la divisione dei compiti tra due strutture.

Sean B. Carroll - Infinite forme bellissime.



Ciò che ormai è evidente ai biologi per quanto riguarda l'evoluzione in natura appare sensato anche per altri sistemi soggetti a meccanismi evolutivi, come ad esempio il sistema economico in cui viviamo: per sopravvivere un'organizzazione deve essere preparata al cambiamento adattativo - che qui consideriamo alla stregua di un processo evolutivo - da cui scaturisce l'innovazione di cui ha bisogno per competere. Potendo contare su risorse finite, è ovvio che il cambiamento aziendale interviene sugli elementi esistenti trasformandoli.

Ad esempio, un'azienda che produca mobili da giardino potrebbe dover uscire da una situazione contingente di contrazione della domanda: se le sue linee di approvvigionamento e produzione sono multifunzionale potrà intraprendere anche la vendita di materiali per il bricolage specializzando un segmento di tali linee, le quali devono essere organizzate in modo ridondante altrimenti il tentativo di specializzazione non potrebbe essere attuato se non a scapito della produzione di arredamenti da giardino, vitale per l'organizzazione.

Multifunzionalità e ridondanza hanno un ruolo nell'evoluzione (o cambiamento adattativo, o auto-organizzazione) dei sistemi complessi.

sabato, agosto 02, 2008

Evo-Devo: complessità in evoluzione.


Per chi come me è interessato ai nuovi temi della complessità l'evoluzione della vita è senza ombra di dubbio la principale fonte di ispirazione.
Nella sua introduzione all'edizione italiana del libro Infinite forme bellissime di Sean B. Carroll, Telmo Pievani non manca di cogliere questo aspetto: l'evoluzione naturale narra l'incredibile storia della nascita di un'immensa diversità di forme a partire da un ristretto insieme di geni. E cosa altro è la complessità se non il corpus di teorie che studiano come con poche istruzioni si possano definire oggetti articolati, come dal semplice nasca il complesso, come una quantità di informazione grande si sviluppi a partire da poche regole. Lungi dal ridurre l'evoluzione naturale ad un semplice ambito di applicazione di queste teorie, dico anzi il contrario: che essa ne è l'insuperabile capolavoro.
Nel suo bellissimo libro sulla biologia evolutiva dello sviluppo (also known as Evo-Devo) Carroll ci spiega come da un ridotto set di geni e di interruttori genetici abbia avuto origine tutta la straordinaria complessità della vita, mettendo in risalto il ruolo della rete organizzativa che è alla base dello sviluppo per la diversità delle specie, e concludendo che:
L'architettura animale è un prodotto dell'architettura delle reti regolatorie genetiche.
Un richiamo al tema dello stato critico e, in qualche misura con quello del caos deterministico, si propone come un deja vu quando ci si sofferma ad analizzare le conseguenze di variazioni anche piccole alle condizioni iniziali nei processi di sviluppo delle forme animali:
Ci sono milioni di dettagli e i dettagli contano. Una piccola variazione in un processo ai primi stadi avrebbe una cascata di effetti in seguito. Quale processo è in grado sia di costruire un enorme dinosauro sia di dipingere i delicati dettagli di una macchia sulle ali di una farfalla?
Ma questi richiami, si sa, non sono scienza: tuttalpiù stimolano le menti meno pigre a interrogarsi su curiosi paralleli.
Scientifica è invece la relazione tra complessità biologica ed Evo-Devo, che riporto nelle parole dello stesso autore:
La complessità sorge dall'azione parallela e sequenziale dei geni del kit degli attrezzi, alcune dozzine dei quali agiscono nello stesso momento nello stesso posto, molti altri agiscono in diversi posti nello stesso momento e centinaia di essi agiscono in sequenza man mano che lo sviluppo progredisce. Ciò che dà luogo alla complessità è la catena di operazioni parallele e sequenziali.
Nessuna definizione rigorosa che ci illumini sulla natura di questa benedetta complessità, ma una relazione pienamente pertinente che viene a dirci che la natura, con i suoi processi evolutivi in atto da miliardi di anni, ha generato un'incredibile e complessissima biodiversità con una manciata di geni.

mercoledì, luglio 30, 2008

Il Margine del Caos: come ti confondo caos, complessità e vita.


Viviamo in un'epoca in cui i concetti e le idee che vanno sotto il nome altisonante di Teoria o Scienza della Complessità hanno destato l'attenzione dei guru dell'enterprise management, e fioriscono siti dedicati alla proposta di ricette per affrontare e governare la complessità aziendale.
Niente di sbagliato nel cercare applicazioni pratiche di questi concetti nell'ambito del business management, se non che nella foga di proporre soluzioni e servizi innovativi ed evocativi delle ultime frontiere della ricerca scientifica si travisano grossolanamente concetti che richiederebbero un po' più di riflessione e di preparazione.
Così accade che l'aggettivo casuale - o randomico - e caotico diventano sinonimi, che i fenomeni caotici e i modelli stocastici vengono confusi tra loro, e che tali vengono ad essere i sistemi complessi tout-court.
Questo post è dedicato a rivedere un concetto molto famoso, quello del Margine del Caos, anch'esso un cavallo di battaglia di quella letteratura digitale che si occupa di business management.
Tra gli addetti ai lavori questo concetto è sintetizzato nella sigla EOC (Edge of Chaos), che spesso viene affiancato all'altro celebre acronimo SOC (Self Organized Criticality).
Il concetto di Margine dei Caos nasce dalla pubblicazione di Langton del 1990 sulle capacità computazionali degli automi cellulari, in cui si conclude che esiste una soglia critica nella dinamica degli automi cellulari oltre la quale il sistema subisce una transizione di fase verso un comportamento randomico oppure caotico. Intorno a tale soglia l'automa cellulare, secondo Langton, è capace di calcolo universale, cioè diventa una Macchina di Turing Universale (UTM), perché viene a trovarsi nella sua zona di massima complessità - dove il termine complessità va inteso nel senso di Kolmogorov - Chaitin, ovvero come complessità algoritmica o computazionale. In poche parole, in tale condizione il sistema è al suo massimo in termini di capacità di gestione - elaborazione, generazione - delle informazioni.
Il significato di complessità in questo contesto è squisitamente informatico e quantificabile.
Negli stessi anni si andavano sviluppando nuove ricerche sul caos, e affermando concetti chiavi quali le rotte verso il caos nei sistemi dinamici, e le proprietà computazionali emergenti at the onset of chaos.
Da queste idee ha preso piede una specifica definizione di complessità quantificabile - quella algoritmica nel senso di Chaitin-Kolomogorov - che spesso viene considerata come complessità tout-court, e sono nate idee popolari come quella della vita al margine del caos.
Quest'ultima non è altro che l'infondata supposizione - non sostenuta da dimostrazioni scientifiche - che anche la natura dia luogo alle sue condizioni di maggior complessità - la vita, appunto - al margine del comportamento caotico, così come accade per la complessità computazionale di certi sistemi fisici.
Senza contare che anche i celebrati risultati di Langton sono stati fortemente ridimensionati da studi successivi.
Per concludere, queste idee non hanno un riscontro scientifico in biologia e nelle altre scienze della vita. Di contro, esse generano confusione nella cornice della teoria della complessità a cause delle illazioni cui danno luogo riguardo le (fraintese) relazioni tra caos, complessità e vita.

lunedì, luglio 28, 2008

Un inno alla biodiversità.


Tra il 200o ed il 2001 alcune indagini condotte su alcuni ecosistemi localizzati ha rivelato che essi corrispondono a piccoli mondi con pochi gradi di separazione tra le singole specie che ne fanno parte, in cui la distribuzione delle specie ordinate secondo il rispettivo grado di interconnessione all'interno della catena alimentare segue una legge della potenza.

Gli ecosistemi, quindi, sono davvero come le reti sociali e l'ottica di piccolo mondo consente di comprendere meglio quanto siano produttivi i legami deboli sotto il profilo ecologico. Una specie con funzioni di hub ha con le altre specie un gran numero di connessioni che, proprio in quanto numerose, sono perlopiù deboli: le due specie interagiscono di rado. Poichè i connettori possiedono una così alta percentuale delle connessioni di rete, la maggior parte delle connessioni della catena alimentare è debole; in altre parole, la preponderanza dei legami deboli in un ecosistema è la diretta conseguenza della struttura di piccolo mondo del sistema. Questa struttura rappresenta di per sè la valvola di sicurezza biologica che contribuisce a ridsitribuire l'alterazione e impedisce ad una specie di annientare un'altra predandola o competendo con essa in maniera incontrollata.
In tal senso la struttura di piccolo mondo di tipo aristocratico costituisce una naturale fonte di sicurezza e stabilità per gli ecosistemi del mondo.
[...] Se gli ecosistemi sani sono piccoli mondi caratterizzati da hub e se i legami deboli forniscono loro stabilità, la riduzione globale del numero di specie è una prospettiva molto allarmante; più specie scompaiono, infatti, più quelle restanti alla fine [...] interagiscono in maniera più forte.
[...] Poichè nessun organismo è mai lontano dagli altri, è difficile per una specie , ovunque essa viva, rimanere a lungo insensibile agli effetti dell'attività umana.

Mark Buchanan - Nexus.

La complessità degli ecosistemi è fonte di stabilità: l'impatto delle attività antropiche può avere effetti destabilizzanti e la riduzione della biodiversità può nuocere gravemente agli equilibri naturali. Tutto questo viene gridato da ogni dove spesso con toni infondatamente apocalittici - tuttavia vi è una base scientifica non ignorabile, che seppure non permetta di prevedere il futuro ci deve comunque mettere in guardia dai pericoli verso cui corriamo quando intraprendiamo come collettività azioni i cui effetti su scala ambientale non possiamo a controllare.

domenica, luglio 27, 2008

Le reti del potere.


I modelli individuati nello studio delle reti complesse sono serviti anche a dare una spiegazione di alcune dinamiche sociali.
Uno studio della University of Michigan Business School di qualche anno fa ha messo in luce la struttura di piccolo mondo nella rete di relazioni tra i dirigenti che siedono nei consigli di amministrazione delle grandi corporate americane: è come dire che questi personaggi, che influiscono più o meno direttamente nell'andamento dell'economia statunitense, partecipano in una rete relazionale in cui con poche strette di mano si può raggiungere uno qualunque degli importanti decision maker della elìte di manager della crema del mondo economico e finanziario a stelle e strisce.
Davis e altri hanno dimostrato che i legami interni a tale rete influiscono parecchio sulla comunità economico-finanziaria. Per esempio le aziende nei cui consigli di amministrazione siedono numerosi funzionari di istituti bancari prendono più spesso in prestito il denaro, e questo fa pensare che il legame con i banchieri influenzi le loro decisioni. In genere le relazioni interaziendali servono a diffondere le informazioni, rendere omologo l'atteggiamento dei vari consigli di amministrazione, permettere all'industria di intuire quanto accade nei diversi settori dell'economia.
Mark Buchanan - Nexus.
Lasciata a sé stante, il sistema delle relazioni tra i consigli di amministrazione assumerà sempre una struttura di piccolo mondo.
Va da sé che quanto è risultato evidente nel mondo della finanza e dell'industria americano ha validità anche in altre organizzazioni.
Nessuno ha mai compiuto, che io sappia, un analogo studio riguardo le relazioni che sussistono tra gli uomini che occupano i luoghi del potere politico, ma non mi sembra azzardato affermare che la rete di connessioni anche in quel caso ha una natura dello stesso genere, small world con pochi passaggi tra due qualunque personaggi politici.
Infatti ciascun uomo politico è un nodo di una rete di relazioni, che si estende verso le segreterie dei partiti amici ma anche di quelli avversari, verso le istituzioni e gli uomini degli apparati statali, verso i circoli territoriali e i politici che mobilitano localmente gli elettori, verso le testate giornalistiche e le direzioni dei telegiornali, verso i think tank che alimentano il dibattito politico intellettuale, verso le unioni dei lavoratori e i sindacati, verso le confederazioni economiche, gli istituti finanziari, e chi più ne ha più ne metta. Nel corso della propria carriera politica ognuno di questi personaggi compie sforzi per acquisire un maggiore numero di legami, di connessioni: segue cioè lo stesso meccanismo di crescita che Barabasi ha riscontrato alla base della formazione degli hub. In ultima analisi, un politico influente è un hub di questa rete complessa, con un elevato o elevatissimo grado di connessioni.
La teoria delle reti complesse di tipo aristocratico - quella di Barabasi appunto - offre un'efficace rappresentazione ai possibili scenari politici di una società umana.
Una rete con un solo hub, unico e iperconnesso, è certamente ancora una rete piccolo mondo: essa può rappresentare la rete delle relazioni tra un dittatore o un re ed i propri sudditi.
Una rete con un hub che raccoglie una diversità di hub più piccoli che a loro volta raccolgono dei sudditi, può rappresentare una monarchia in cui si sia formata una classe di nobili feudatari ad esempio.
Un numero limitato di hub iperconnessi, seguito da un numero maggiore di hub con un inferiore grado di connettività, e giù fino ad un enorme numero di individui (gli elettori anonimi) con poche connessioni, potrebbe essere una rappresentazione di un'evoluta democrazia occidentale, opulenta e corrotta, come l'Italia (tanto per fare un esempio).
Ho già osservato in passato che una società del genere può difficilmente evolvere spontaneamente verso un maggiore grado di eguaglianza: il sistema degli hub iperconnessi presenta una certa resilienza, per cui nel caso della scomparsa di uno di essi (ovvero della formazione di un vuoto di potere) un nuovo hub ne prenderebbe il posto: sia esso uno dei giganti iperconnessi già esistenti, oppure la promozione di uno degli hub immediatamente più in basso nella scala della connettività.
Una società del genere è naturalmente ancora una democrazia, in cui gli incarichi politici sono passati da un hub ad un altro, ed in cui gli esponenti politici affermati possono ancora cadere in disgrazia e scomparire dalla scena. Ma, come nel caso della rete dei consiglieri di amministrazione delle grandi corporate americane, una organizzazione siffatta tende a rendere omologo l'atteggiamento degli hub ed a limitare e condizionare l'affiorare di nuovi hub - e questo certamente dovrebbe farci riflettere.
La semplicità asettica del modello di rete aristocratico di Barabasi ha una grossa base scientifica per quanto riguarda l'organizzazione di molti sistemi complessi che sono stati oggetti di studio scientifico. L'estensione di questo concetto alla organizzazione politica della nostra società occidentale è un'estrapolazione personale, di cui non penso che esista una dimostrazione scientifica: se ne trovate una, come al solito, vi prego di segnalarmela.
Ciononostante, leggendo queste cose, penso che a più d'uno sia venuto in mente il parallelo nei termini in cui lo ho condotto io.
Ma se l'organizzazione di piccolo mondo è un requisito probabilmente imprescindibile di una società, non lo è la topologia aristocratica di Barabasi. Ci vengono in soccorso le reti di Watts-Strogatz, piccoli mondi con topologie più egualitarie, dove gli hub non dominano incontrastati. Esse si possono formare durante il processo di crescita continua di una rete aristocratica quando intervenga un meccanismo di limitazione della crescita:

Le reti piccolo mondo di tipo egualitario [...] sono molto più che mere curiosità matematiche. Come le reti aristocratiche di Internet o del World Wide Web, si formano attraverso un semplice processo storico di crescita. Ogniqualvolta intervengono costi o limiti che impediscono ai ricchi di arricchirsi ulteriormente, la rete piccolo mondo diventa più egualitaria [...].

Mark Buchanan - Nexus.

Allora il problema si risolve facilmente: dobbiamo solo mettere qualche limitazione alla "crescita" incontrollata del nostro corrotto sistema politico. Neanche a dirlo, introdurre limitazioni alla crescita matematicamente equivale a ridurre letteralmente la distanza tra hub ed elettori, ad avvicinare i luoghi del potere ai cittadini.

sabato, maggio 03, 2008

Autorganizzazione, evoluzione, progettazione, storia: le molte cause delle leggi di potenza, le molte facce della complessità.


L'autorganizzazione è un processo spontaneo perfettamente plausibile in sistemi di elementi interagenti, quindi organizzati a rete, di tipo autonomo, in cui cioè l'intervento esterno non c'è oppure è limitato alla regolazione di un parametro strutturale che inneschi il processo auto-organizzativo. Gli esempi classici sono innumerevoli: l'acqua ghiaccia quando la temperatura scende a 0°C, il ferro si magnetizza quando la temperatura scende oltre una soglia critica, una reazione di fissione nucleare è innescata quando le barre di cadmio sono estratte oltre una certa misura fuori dall'uranio arricchito. Altrettanti sono gli esempi in cui non è rintracciabile - o rintracciato - un parametro esterno regolatore: le placche terrestri sono organizzate nello stato critico come dimostrano i fenomeni sismici, un mucchio di riso su cui vengono fatti cadere altri chicchi raggiunge una condizione di criticità oltre la quale un solo chicco aggiuntivo può innesacare una valanga a seconda del punto esatto su cui cade.
L'ubiquità delle leggi della potenza in questi sistemi ha fatto trarre delle conclusioni affrettate, seppure condivise in alcuni settori della comunità scientifica, anche tra i fisici più illuminati protagonisti delle ricerche più significative nel campo delle reti complesse:

[...] le leggi della potenza non sono un modo come un altro per definire il comportamento di un sistema. Sono l'autentico marchio di fabbrica dell'autorganizzazione nei sistemi complessi.

A-L.Barabasi - Link


Si esprimono con maggiore precisione invece altri scienziati dello stesso calibro:

Il fatto è che le leggi di potenza sono l'indizio della possibile presenza di un sistema che si sta autorganizzando. Emergono in corrispondenza delle transizioni di fase, quando un sistema si trova sull'orlo del precipizio, in bilico fra l'ordine e il caos. Emergono nei frattali, quando una parte arbitrariamente piccola di una figura complessa è un microcosmo che riproduce il tutto. Emergono nelle statistiche dei pericoli naturali - valanghe e terremoti, inondazioni e incendi di foreste - le cui dimensioni variano in modo così irregolare da un caso all'altro che un valore medio non può fornire un'indicazione adeguata della distribuzione globale. Ma a dispetto di vent'anni di intensi sforzi, l'origine delle leggi di potenza rimane controversa.
[...] Esistono almeno sette meccanismi fisici distinti che possono generare leggi di potenza. In questo senso l'osservazione sperimentale di una legge di potenza non è, di per sé, una verifica convincente di ogni teoria che predice l'esistenza di una legge di potenza.

Steven Strogatz - Sincronia.


L'ubiquità delle leggi di potenza, celebrata nel volume Ubiquità di Mark Buchanan, non è sempre riconducibile al meccanismo della SOC (self-organized criticality), seppure lo possa essere in alcuni importanti casi.
Mark Buchanan tira in ballo la contingenza storica come meccanismo di base per le comprensione degli stati instabili:

La storia è il frutto non di pochi, bensì di infiniti fattori. Per capirne la possibilità dinamica, occorre quindi ricorrere alla scienza storica dei sistemi in cui interagiscono molti elementi indipendenti. E' questo il campo della fisica statistica del non equilibrio. [...] a compensare la carenza di ordine a livello di singoli eventi intervengono [...] le leggi della potenza [...] che mostrano come a monte di determinati eventi agisca in profondità un processo storico.

Mark Buchanan: Ubiquità.

Internet, il Web, ma anche gli ecosistemi, le cellule, sono sistemi complessi che originano da lenti e complicati processi di progettazione e ottmizzazione (i primi due) e di evoluzione (gli ultimi) che sono comprensibili solo se iscritti in un fitto intreccio di relazioni con i loro ambienti esterni, tanto da renderli a volte quasi indistinguibili da essi: è difficile, infatti, dire dove finisce un eco-sistema, ad esempio. Processi di progettazione ed evoluzione che hanno come scopo la robustezza e l'ottimizzazione nei confronti del proprio ambiente e di eventi incerti ma prevedibili, e che perdurano durante la vita del sistema.
Se, quindi, ci risulta ancora difficile comprendere le cause profonde della criticità auto-organizzata e delle sue universalità, la teoria dello stato HOT ci fornisce una spiegazione convincente del perchè insorgano, nei sistemi complessi ottimizzati ed evoluti, quelle condizioni peculiari strettamente legate alle leggi delle potenza (ipersensibilità a eventi rari, elevate performance in condizioni di progetto, resilienza nei confronti degli eventi previsti o nei confronti dei quali il sistema è evoluto). Se vogliamo, questo segna la demistificazione della teoria SOC.
Concludo segnalando questo ottimo articolo di Mark Newman pubblicato su Nature.

venerdì, maggio 02, 2008

Some like it HOT.


Crescita e aggregazione sono processi storici che, almeno nel caso di sistemi costituiti da molti elementi interagenti, spesso danno luogo a organizzazioni complesse caratterizzate da una legge della potenza della distribuzione degli eventi.
In un mio post precedente (criticità e crescita) ho scritto che lo stato critico è associato sempre ad una legge della potenza, in qualche modo la firma della complessità; ma non possiamo dire il viceversa: leggi della potenza possono essere generate anche in conseguenza di processi diversi da quelli che conducono allo stato critico, dei quali l'esempio più famoso è l'auto-organizzazione nello stato critico (self-organized criticality o SOC).
Un esempio di un processo di crescita ed aggregazione è quello della aggregazione limitata dalla diffusione (DLA), facile da osservare con un semplice esperimento domestico.
Un esempio classico di sistema organizzato nello stato critico è quello del mucchio di sabbia - o meglio di riso - in cui ci sono regioni di geometria frattale che se interessate dalla caduta di un granello danno luogo a frane: le aree di instabilità del mucchio sono frattali, in quanto tali auto-somiglianti e caratterizzate da leggi di potenza.
Entrambi questi esempi sono compatibili con il concetto di auto-organizzazione, ed entrambi manifestano una condizione di criticità - detta appunto stato critico - per cui diventa sensata l'idea di auto-organizzazione nello stato critico. Secondo questa idea sono le stesse proprietà interne del sistema a lasciare emergere spontaneamente, e indipendentemente dall'ambiente circostante, lo stato critico. Detto in altre parole, lo stato critico è un attrattore della dinamica del sistema. Le sole interazioni locali lasciano emergere spontaneamente un'organizzazione globale senza l'influsso di agenti esterni: questo è, probabilmente, il concetto al cuore della SOC.

Tuttavia le leggi di potenza sono state osservate anche in sistemi complessi in cui la crescita e l'aggregazione hanno un ruolo molto meno evidente, ovvero non ne hanno affatto.
Un esempio ormai classico, e forse anche il più studiato, è quello di Internet in quanto sistema complesso, con una serie di corollari che vanno dalle proprietà del traffico dati alla topologia delle pagine Web.
L'associazione tra le leggi di potenza estensivamente osservate in Internet e derivati (Web, traffico) ed il supposto stato critico manifesta delle incongruenze: in primis Internet non può essere spiegata semplicemente in termini di un processo di crescita e aggregazione essendo anche il frutto di uno sviluppo tecnologico ed ingegneristico che non possiamo liquidare come semplicemente spontaneo, alla stregua di un processo DLA; in secundis è discutibile che Internet (o uno dei suoi "derivati") si trovi nello stato critico, nonostante l'abbondante esibizione di leggi di potenza.
Sembra più convincente la spiegazione legata ai processi di progettazione ed ottimizzazione che generano lo stato HOT (highly optimized tolerance) come alternativa allo stato SOC.
Esso è il risultato di processi di progettazione, ingegnerizzazione o evoluzione che predispongono un sistema in modo che esso sia ottimizzato per operare o sopravvivere nel suo ambiente e sia robusto nei confronti delle incertezze attese.
Le caratteristiche che identificano lo stato HOT sono:
  1. alta efficienza, performance, robustezza nei confronti delle incertezze verso le quali il sistema è ottimizzato;
  2. ipersensibilità verso i difetti progettuali e verso le perturbazioni inaspettate;
  3. configurazioni strutturate, non generiche, specializzate;
  4. leggi della potenza.
La sola il comune con lo stato SOC è la presenza di leggi della potenza. Diversamente dagli stati SOC, gli stati HOT esistono anche oltre il punto critico, e hanno rendimenti migliori dei loro corrispondenti stati SOC: tutto questo è spiegato nell'articolo seminale di Carlson e Doyle pubblicato qui.

La teoria Highly Optimized Tolerance fornisce una risposta convincente alle domandae fondamentali: perchè emergono le leggi della potenza, e perchè nei sistemi complessi si riscontra frequentemente la predisposizione agli sconvolgimenti in corrispondenza di eventi apparentemente piccoli:
  • si può dimostrare con esempi matematici come un processo di ottimizzazione spinta avente per obiettivo la robustezza di un sistema verso incertezze attese o prevedibili dia luogo alla formazione di leggi di potenza;
  • questi sistemi esibiscono una ipersensibilità verso eventi non previsti in fase di progettazione (nel caso di sistemi ingegnerizzati) o ignorati nel processo evolutivo perchè troppo rari (nel caso di sistemi biologici o evolutivi).

domenica, aprile 20, 2008

Genio ed umiltà: è scomparso Edward Lorenz.


Ho letto parecchie cose di lui, alcune anche biografiche e anche se non ho mai avuto il privilegio di incontrarlo di persona, l'idea che mi sono fatto è che fosse un uomo dotato delle rare virtù della modestia e dell'umiltà.
Ci ha regalato una delle scoperte fondamentali per la fisica e la matematica del XX secolo, e la teoria del caos che in lui ha avuto uno dei massimi rappresentanti continuerà a indirizzare in modo importante - direttamente o indirettamente - la ricerca del XXI secolo.
Qualcuno dirà di lui che si sia semplicemente imbattuto nella scoperta di "quel piccolo modello", come si dice lo chiamasse spesso, senza ben comprendere quello che aveva tra le mani. Io penso che quello che aveva tra le mani non lo abbiamo pienamente compreso neanche adesso, a 50 anni di distanza. E che abbiamo lo stesso un grosso debito verso quest'uomo.

Tutte le volte che tenevo il mio corso sul caos, lui e io compivamo lo stesso rituale, ogni anno, tanto che ero giunto ad aspettare con ansia il momento in cui lo avremmo ripetuto. Telefonavo al professor Lorenz e lo invitavo a venire a tenere una lezione agli studenti del mio corso. Lui, con un imbarazzo genuino, come se fosse una questione aperta, chiedeva: "Di che cosa dovrei parlare?". "Che ne dice delle equazioni di Lorenz?" rispondevo io. "Oh, quel piccolo modello?". E poi, immancabile come le stagioni, si presentava davanti alla mia classe intimorita e adorante e non ci diceva nulla sulle equazioni di Lorenz; ci parlava invece di ciò su cui stava lavorando in quel momento. Non aveva importanza. Eravamo tutti lì per cogliere un'occhiata dell'uomo che aveva dato inizio al moderno campo della teoria del caos.

Steven Strogatz - Sincronia.

venerdì, aprile 18, 2008

Criticità e crescita.


Seppure oggetto di approfondite riflessioni, la criticità auto-organizzata con il suo manifestarsi dello stato critico in parecchi sistemi anche assai diversi tra loro non trova un'enunciazione che fornisca una spiegazione nè del motivo per cui i sistemi si auto-organizzano nello stato critico, nè dei nessi causa-effetto per cui ad eventi simili corrispondono effetti totalmente dissimili (es. il granello di sabbia che innesca una frana).
Penso di avere posto l'interrogativo in maniera chiara in un post precedente.


Per quanto riguarda il primo quesito (perchè tanti sistemi sono organizzati nello stato critico) possiamo provare a mettere insieme i pezzi del puzzle che abbiamo a questo punto disposto disordinatamente sul tavolo.

Deduciamo la presenza dello stato critico da due cose:
  • osservazione di fenomeni (fenomenologia): ad es. notiamo che un certo granello di riso fa franare il mucchio, mentre un altro no.
  • registrando e misurando le nostre osservazioni (analisi statistica) ci accorgiamo della presenza di una coda lunga nella distribuzione degli eventi, ovvero di una legge di potenza.

Ma le leggi della potenza hanno un'associazione stretta con le reti complesse di tipo aristocratico, ovvero con quelle reti in cui la connettività è dominata dalla presenza di rari Hub iperconnessi: nel senso che laddove vi è una rete complessa di questo tipo vi è anche una distribuzione con il profilo di una legge di potenza. Affermare anche il viceversa non mi è concesso. Questa associazione mi permette di dire, o almeno ipotizzare, che lo stato critico di un sistema è legato alla presenza di una rete di elementi interagenti in cui la topologia delle relazioni rispecchia una rete complessa di tipo aristocratico: essa rappresenta anche il più diffuso modello di rete risultante da un processo di crescita o aggregazione di elementi, e spiega molte proprietà dell'organizzazione collettiva che ne risulta.

La mia breve riflessione mi porta a rispondere a quella prima domanda in questo modo: lo stato critico si manifesta in quelle organizzazioni frutto di un processo di crescita o aggregazione, e che si possono ricondurre ad una rete di elementi interagenti. Il fatto che questo processo di crescita o aggregazione conduca ad uno stato critico ci fa parlare di auto-organizzazione nello stato critico: in questo senso il sistema si auto-organizza; l'auto-organizzazione nello stato critico non è altro che l'effetto che noi osserviamo di un processo storico di crescita. L'elemento storico consiste nella constatazione che la contingenza e l'accidentalità giocano un ruolo determinante nel processo di crescita, giacchè la variazione di un parametro organizzativo del sistema in crescita porterebbe a risultati diversi fin nei dettagli da quelli che avrebbero potuto essere.

La seconda domanda è più semplice: il perchè effetti diversi conseguono da eventi apparentemente simili risiede nell'instabilità del sistema organizzato nello stato critico. Se si riuscisse a costruire l'albero delle conseguenze di una coppia di eventi comunque scelti (quindi anche assai simili o vicini) tra quelli individuabili per il sistema, si osserverebbe che è sempre possibile trovare due eventi simili che producono risultati assai diversi tra loro. La struttura di questi alberi percorre la rete organizzativa del sistema in modi assai dissimili, ricostruibili soltanto sulla base delle relazioni fisiche esistenti tra gli elementi e delle contingenze storiche cristallizzate nella rete organizzativa. (Una nota a margine: seppure questo concetto non ha niente a che vedere con il caos deterministico propriamente detto, tuttavia non possiamo non notare l'affinità tra questa proprietà dello stato critico e la divergenza delle traiettorie di un sistema caotico.)
Ultima osservazione: un sistema organizzato nello stato critico è un sistema in cui il processo di crescita (da intendersi come trasformazione) non è ancora terminato. Infatti il termine del processo implica, per il sistema, uno stato in cui non si verificano più variazioni, o perchè è finita la sua storia (es. morte del sistema) oppure perchè ha raggiunto una condizione di stabilità: in entrambi i casi in un tale stato la criticità è venuta meno, e quindi il sistema non è più nello stato critico.
Non pretendo di avere dato una risposta esaustiva: mi pare almeno una "pista" lungo cui procedere con le indagini.

domenica, marzo 30, 2008

Frattali fluviali e il dilemma geometrico.


Resteremmo molto sorpresi se, lanciando il contenuto di un pacchetto di fiammiferi in aria, questi ricadendo sul pavimento formassero la figura di un triangolo ad ogni lancio. Altrettanto stupiti saremmo se ogni volta che rovesciamo un barattolo di zucchero sul tavolo questo si disponesse a formare un cerchio, oppure un'ellisse.
Naturalmente non ci accadrà mai di assistere ad un simile fenomeno, anche se sul piano probabilistico non si potrebbe escludere che accada.
Ma immaginiamo che dovesse accadere qualcosa del genere tutte le volte che ripetiamo l'esperimento, che sia il lancio dei fiammiferi o il rovesciamento dello zucchero da un barattolo.
Assistendo al ripetersi sistematico del fenomeno, concluderemmo necessariamente che vi è un sistema di leggi fisiche misteriose che sovrintende a quegli eventi. In un siffatto Universo dove accadono queste cose bizzarre, un giorno potrebbe nascere lo studioso di turno che giunge a formulare le leggi fisiche del moto peculiare dei fiammiferi o dei grani di zucchero, e tali leggi spiegherebbero il disporsi così regolare delle parti dopo la caduta.
Il punto che voglio mettere in luce sta qui: se lo zucchero rovesciato si dispone a caso ogni volta, allora nulla questio: le leggi classiche della fisica ci bastano. Lo stesso se i fiammiferi si sparpagliano sul pavimento nei modi più vari ogni volta che ci viene lo schiribizzo di fargli fare un volo. Se invece, lo zucchero o i fiammiferi, assumono cadendo una forma ordinata, regolare, come la familiare geometria di un cerchio o di un triangolo, allora le leggi fisiche note non ci possono più essere sufficienti, ma dobbiamo cercare una spiegazione ulteriore, dato che vi è necessariamente un processo fisico sconosciuto che governa questo continuo disporsi delle cose. Ciò anche se il cerchio ed il triangolo avessero di volta in volta dimensioni diverse: un cerchio più ampio una volta, più piccolo un'altra, un triangolo isoscele una volta, scaleno quella dopo.
Questo perché le forme geometriche hanno delle proprietà specifiche che il nostro occhio e il nostro cervello non mancano di riconoscere. Un cerchio è tale perché ciascun punto della circonferenza ha la medesima distanza dal centro. Un triangolo è quel luogo geometrico individuato da tre segmenti di retta che congiungono tre punti di un piano non allineati. Il fatto stesso di aver potuto descrivere queste figure geometriche con poche parole che ne definiscono le proprietà in modo completo, permettendo di riprodurne ad inifinitum, ci permette di affermarne il loro grado di complessità o, se vogliamo, di semplicità, col significato attribuito da Chaitin alla complessità computazionale. Avremmo probabilmente bisogno di pagine e pagine per poter spiegare in che modo si dispongono i fiammiferi al suolo dopo ogni volo - nella teoria di Chaitin questo vorrebbe dire che il processo è (almeno tendenzialmente) casuale.
Ma lasciamo da parte Chaitin, che mi è servito solo per stressare ulteriormente il fatto che una determinata figura geometrica è un oggetto concettuale le cui proprietà sono facilmente individuabili in termini di relazioni tra le parti e tra queste ed il tutto.
Passiamo invece ad osservare i sistemi fluviali reali: a partire dagli ultimi anni '80 si è constatato che quelli che apparentemente sembrano grovigli di effluenti e affluenti ramificati in forme complessissime, rispecchiano una morfologia frattale: un frattale è un oggetto in cui si possono individuare specifiche proprietà che mettono in rapporto le parti tra loro e le parti con il tutto. E' quindi a tutti gli effetti un oggetto geometrico al pari del cerchio e del triangolo, per quanto i frattali siano stati scoperti molto più recentemente.
In termini statistici, possiamo dire che una rete fluviale è tipicamente caratterizzata da una legge della potenza che stabilisce le relazioni tra il numero di segmenti fluviali che attingono acqua da un bacino di 10, 20, 30 km quadrati e via crescendo: al raddoppiare delle dimensioni del bacino idrologico di riferimento, il numero di segmenti di rete fluviale diminuisce di un fattore sempre costante. Si veda questa recente pubblicazione per dettagli e referenze. Queste proprietà sono state evidenziate in molti grandi reti fluviali del pianeta, tanto da poter stabilire che questa è una proprietà di questi sistemi.
La formazione di una rete fluviale è un processo ininterrotto che subisce l'influenza di un gran numero di fattori, dalla erosione delle rocce, alla orografia del territorio, alla permeabilità degli strati geologici, alle dinamiche meteorologiche locali e regionali, solo per citarne alcuni: un processo talmente articolato e con talmente tante variabili che mi fa venire in mente il lancio dei fiammiferi o il rovesciamento dello zucchero.
Eppure ogni rete fluviale che si forma ha le stesse caratteristiche geometriche: proprietà queste che evidentemente le sole leggi geofisiche non bastano a spiegare. Geometrie frattali sono state riscontrate in molti altri fenomeni o processi naturali oltre ai sistemi fluviali: segnalo qui una rassegna celebre, quella di Mandelbrot.

giovedì, marzo 20, 2008

Perchè la criticità?


Dunque la teoria della criticità autorganizzata ci dice due cose:
  1. che per molti sistemi in natura lo stato critico è un attrattore assai frequentato della loro dinamica;
  2. che, per questi sistemi che si vengono a trovare nello stato critico, non ha senso cercare di risalire alle cause che generano fenomeni di differente intensità, perchè cause del tutto simili possono generare effetti grandemente differenti.
La teoria quindi non ci fornisce una spiegazione nè del motivo per cui i sistemi si auto-organizzano nello stato critico, nè dei nessi causa-effetto per cui a eventi simili corrispondono effetti totalmente dissimili.
La teoria non nega che le relazioni causa-effetto siano di natura fisica e deterministica in ultima analisi, anzi lo da per scontato. Sorvolando su questi aspetti, ci sorprende rilevando che un gran numero di sistemi complessi, diversi fra loro, mostrano caratteristiche statistiche e geometriche affini: la frequenza degli eventi organizzata secondo una legge della potenza e l'invarianza di scala, ovvero la dimensione frattale. Da queste osservazioni lascia discendere un principio di universalità che concerne diverse classi di sistemi, dietro cui deve nascondersi un ordine profondo, non ancora rivelato, anzi appena percepito.
Dicendoci così poco, ci lascia in bocca l'inquietudine del romanzo incompiuto e la voglia di vederci più chiaro: perchè mai tanti sistemi trovano conveniente organizzarsi nello stato critico?

mercoledì, marzo 19, 2008

Il caso Bear Stearns e la criticità auto-organizzata.


L'evento viene riportato con i toni del cataclisma non preannunciato:
La caduta di schianto della banca d' affari ha lasciato senza fiato gli operatori per il fatto in sé - le parole più usate per la sua possibile scomparsa sono «impensabile» e «surreale».

Questo è come viene raccontato il fatto sul nostro Corriere della Sera del 15 marzo, ma anche oltreoceano i toni non sono diversi.
In questi giorni fior di cervelli dell'analisi economica si sono sforzati di provare a spiegare quello che sta succedendo.
E se fosse uno sforzo vano? Il dubbio non è campato in aria.
Cambiamenti improvvisi e senza una ragione apparente potrebbero essere legati ad uno stato di cose fortemente instabile ed in continuo cambiamento. E' l'essenza dello Stato Critico, osservato in fisica in diversi sistemi che operano lontano dall'equilibrio termodinamico.
L'esempio dell'acqua riguarda uno stato instabile sull'orlo di una transizione di fase, ma esso è indotto da una regolazione esterna di uno dei parametri fisici (volume, gas, pressione).
Lo stato critico più interessante è quello che sorge spontaneamente, senza l'intervento di una regolazione esterna: allora si parla di Criticità Auto-Organizzata. Esempi ormai classici sono gli ecosistemi, gli incendi boschivi, i terremoti. E tra queste vi è anche l'ipotesi della Borsa:
Secondo le cifre, i crolli improvvisi, lungi dall'essere improbabili, sono praticamente inevitabili. In pieno contrasto con la teoria del mercato efficiente, la matematica ci dice che le forti fluttuazioni delle quotazioni di Borsa sono causate dal naturale funzionamento interno dei mercati e che accadono anche se non vi sono "fonti di fragilità strutturale" o modifiche improvvise dei fondamentali. E il motivo del fenomeno forse è semplice: i mercati non sono affatto in stato di equilibrio.
[...] Negli anni Novanta i ricercatori si servirono delle simulazioni al computer per analizzare meglio le fluttuazioni del mercato mobiliare e del mercato valutario di tutto il mondo, e giunsero regolarmente a risultati analoghi [a quelli cui era giunto Mandelbrot]: le leggi della potenza e le fluttuazioni violente non avevano una scala intrinseca.
[...] La legge della potenza relativa alla fluttuazioni dei prezzi mostra come anche l'entità approssimativa della variazione imminente sia imprevedibile. In un mercato organizzato nello stato critico, anche i grandi crolli della Borsa valori sono eventi ordinari e naturali, per quanto in effetti sia lecito non aspettarseli spesso.

Mark Buchanan - Ubiquità.

Senza la minima pretesa di spiegare cosa sta succedendo a Wall Street, non penso che si possa escludere che la criticità autorganizzata sia all'opera nei recenti avvenimenti finanziari.

domenica, marzo 16, 2008

Le reti oltre il caos.


Il problema dei tre corpi è un classico della fisica: lungamente insoluto, attirò anche l'attenzione di Henri Poincarè nel secolo XIX. Non può essere risolto utilizzando le leggi di Newton, dato che quel sistema di equazioni non è integrabile per questo problema, e già il geniale francese rintracciò nella dinamica dei tre corpi i segni premonitori del caos deterministico.
Generalizzando al caso degli n-corpi, ci troviamo davanti ad un problema non risolvibile analiticamente, certamente caratterizzato da dinamiche non-lineari e fortemente sensibili alle condizioni iniziali. Se ci mettessimo alla ricerca di un modello fisico che segnasse l'anello di congiunzione tra i sistemi non-lineari "semplici" con comportamento caotico, e sistemi aggregati o collettivi costituiti da un gran numero di dinamiche che si influenzano reciprocamente, questo potrebbe essere rappresentato dal problema degli n-corpi.
Il nostro mondo è denso di fenomeni che si possono comprendere se li riconduciamo nel contesto di un sistema a molti componenti interagenti. Di più, l'interazione tra elementi semplici deve essere cercata per studiare fenomeni non comprensibili se valutati con un ottica riduzionistica.
La rete delle interazioni tra componenti considerata su diverse scale è la chiave per comprendere la complessità del mondo che ci circonda, specialmente laddove osserviamo mutamenti inspiegabili, repentini e drastici, tali da stravolgere senza apparente spiegazione la realtà intorno a noi - quei cambiamenti, insomma, per i quali spesso abbiamo necessità di tirare in ballo il concetto di caso.
"In fenomeni che prevedono l'interazione di migliaia o milioni di elementi, l'importante sono l'organizzazione e il comportamento collettivi, per comprendere i quali occorre una teoria generalmente valida per le reti di elementi interagenti.
[...] Il caos, di per sé, non spiega perché una farfalla possa provocare un temporale; spiega invece perché una causa di minima entità possa, in breve tempo, rendere il futuro diverso nei dettagli (es. la posizione di molte molecole) da quello che sarebbe potuto essere. [...] In poche parole, è lecito affermare che, sebbene spieghi la semplice imprevedibilità, il caos non spiega la predisposizione agli sconvolgimenti."
(Mark Buchanan - Ubiquità.)
Il modello delle reti di elementi interagenti è lo strumento concettuale appropriato per descrivere la realtà e studiarne la complessità sotto molteplici punti di vista e negli ambiti più disparati.

martedì, marzo 11, 2008

Predicibilità e catastrofismo mediatico.


L'ultima catastrofe annunciata è per fortuna abbastanza in là nel tempo da non destare preoccupazioni per noi e la nostra discendenza prossima. La Terra si dissolverà in gas tra 7,5 miliardi di anni a causa di perturbazioni della sua orbita dovute alla mutata attrazione magnetica esercitata dal sole, il tutto è descritto con soprendente assenza di informazioni su un articolo apparso oggi sul Corriere della Sera.
Ci sarebbe di che inorridire, se non fosse che queste catastrofi annunciate sono ormai un motivo ricorrente della stampa sensazionalistica. Naturalmente nessun giudizio per i presunti autori dello studio, che a quanto pare ad oggi non è neanche stato pubblicato. Ma se anche lo fosse stato, probabilmente sarebbe stato troppa grazia per il giornalista andarselo a leggere.
Ad ogni modo, a parte il mio personale disappunto per questo tipo di dis-informazione, traggo spunto per una riflessione che mi sta maggiormente a cuore.
In un sistema caratterizzato da caos deterministico, oltre ad un'elevatissima sensibilità alle condizoni iniziali, riscontriamo anche un'impredicibilità a lungo termine dell'evoluzione futura legata al fatto che l'incertezza iniziale cresce con una legge esponenziale, il cui esponente è noto come (massimo) esponente di Lyapunov del sistema.
Si dimostra facilmente che, per quanto piccolo possa essere questo esponente, per poter raddoppiare il tempo di previsione (cioè quel tempo per il quale siamo disposti ad accettare un errore dato) è necessario ridurre anche di qualche ordine di grandezza l'incertezza iniziale. Dato che questo è strutturalmente impossibile nel caso di misure o serie storiche di dati, ne consegue che il tempo di previsione, per sistemi caotici, è intrinsecamente limitato dalle caratteristiche del sistema stesso. Qualunque stima si collochi oltre il tempo di previsione massimo accettabile non è una previsione ma una divinazione, e come tale deve essere considerata.
La questione è spiegata nelle sue linee essenziali nelle prime dodici slide che segnalo, ad opera del prof. Andrea Rapisarda.
Alla luce di queste nozioni, del fatto che i sistemi astronomici ed il sole in particolare hanno, con molta probabilità, dinamiche caotiche (alcuni riferimenti, tra quelli rintracciabili con Google: Malhotra, Laskar), e che certamente non disponiamo di serie storiche sufficientemente lunghe per avere un'incertezza ragionevolmente piccola, davvero sorprende che si dia tanta enfasi catastrofista ad una ipotesi scientifica certamente discutibile.
Sarò comunque grato a chiunque vorrà postarmi l'articolo autentico, quando verrà pubblicato.

domenica, marzo 09, 2008

Leggi della potenza (power laws)


C'è molta speculazione intorno alle leggi della potenza, che sembrano fiorire in ogni angolo della conoscenza e che sono spesso associate al tema della complessità. Credo sia indispensabile avere una concezione corretta del tema per comprenderne le implicazioni.
Con questo post mi sforzo di dare una visione introduttiva, incoraggiando chiunque capiti da queste parti a emendare quanto scrivo se dovesse riscontrare inesattezze, o semplicemente arricchirlo con altre informazioni o link utili.
Leggiamo spesso che una distribuzione di probabilità che abbia il profilo di una legge di potenza è del tipo:
P{X>x} = cx-a
Va chiarito innanzitutto che questa espressione corrisponde alla definizione di funzione di distribuzione cumulativa complementare della variabile aleatoria X, essendo la funzione di distribuzione classicamente definitia come P{X <= x}. Naturalmente, stiamo implicitamente usando la definizione di probabilità come frequenza degli eventi casuali.
Si dimostra che una tale distribuzione di probabilità ha varianza infinita se a<= 2 e media infinita se a > 1.
Questo articolo di Michael Mitzenmacher contiene un'ottima introduzione matematica.

Il significato probabilistico di una distribuzione con il profilo di una legge della potenza è evidente nel fatto che non riusciamo ad individuare media e varianza caratteristici. Una varianza infinita è intuibile nel profilo della distribuzione, in cui gli eventi "grandi" (ovvero corrispondenti a grandi valori di X) sono pochi o pochissimi, mentre la maggior parte degli eventi si trova appiattita sui piccoli valori. Non si riesce a trovare un valore caratteristico, e non si riesce a trovare una scala caratteristica, ma si manifesta un fattore costante nel passaggio da una scala ad un'altra. A quest'ultima proprietà si è dato il nome di invarianza di scala: essa ha un ruolo assai rilevante nella caratterizzazione dei sistemi complessi, e, curiosamente, anche del caos deterministico e della geometria frattale.
Questa caratteristica ubiqua ha contribuito ad accrescere l'interesse intorno alle leggi di potenza, non senza fortuna, ma anche a far proliferare leggi di potenza in letteratura pseudo-scientifica. Per una dissertazione critica sulla validità di queste distribuzioni si vedano queste note del fisico statistico prof. Cosma Rahili Shalizi.
Se infatti le leggi della potenza hanno proprietà certamente interessanti e forniscono una base di studio per le dinamiche complesse, non è banale poterle dedurre da dati empirici e misure. A chi volesse tentare, eccovi un ottimo kit degli attrezzi.

venerdì, marzo 07, 2008

Il lancio della moneta, ovvero la fisica per caso.


La teoria matematica della probabilità nasce nel XVI secolo, prendendo le mosse dagli sviluppi dell'arte combinatoria. Ma fino ad allora il concetto di evento casuale, e di caso tout-court, non sembra avessero caratterizzato la cultura degli uomini. Le società antiche facevano più volentieri riferimento all'intervento divino per cercare ragioni di fenomeni e circostanze altrimenti inspiegabili. Penso che l'antropologia abbia scritto pagine di riflessioni affascinanti su questi temi.
Oggi il concetto di probabilità è comune a ciascuno di noi, e ci crea un leggero disagio soltanto quando viene contrapposto al determinismo dominante nella visione moderna del mondo. Per il resto, siamo abituati che il calcolo delle probabilità intervenga in moltissimi campi del vivere quotidiano. In questi giorni di campagna elettorale siamo già investiti dagli usuali pronostici delle parti in gara che, ahi noi, se ne infischiano dell'ovvia regola del 100% - ma questa è un'altra storia...
La definizione di probabilità è cosa tutt'altro che banale: quella classica che a tutti noi è stata raccontata a scuola, e cioè che la probabilità di un evento in una serie di n eventi equiprobabili è 1/n è chiaramente viziata da circolarità: occorre già sapere che gli eventi hanno pari probabilità, prima ancora di dire cosa sia questa grandezza. La fuorviante definizione è un lascito di Laplace, che pure ha dato un contributo fondante alla teoria.
Ci sono oggi due visioni fisiche che riguardano la probabilità, quindi il caso:
- la visione quantistica, secondo la quale il caso è alla base stessa dei fenomeni subatomici;
- la visione deterministica, secondo la quale invece il caso non esiste di per sé, ma è un concetto utile alla modellazione di sistemi altrimenti non suscettibili di analisi.
Non ci è ancora dato sapere da che parte stia la verità, ma penso che la seconda visione sia quella più intuitiva, almeno alla scala dei fenomeni che osserviamo noi uomini.
Consideriamo ad esempio il semplice lancio di una moneta, icona - insieme al lancio dei dadi - del fenomeno probabilistico. In realtà sappiamo che l'esito del lancio è stabilito dall'evoluzione dinamica del moto del solido successivamente alla sollecitazione ricevuta inizialmente. Per quanto complesse siano, sappiamo che è possibile scrivere le equazioni del moto della moneta, quindi sappiamo che è possibile, almeno teoricamente, prevedere se avremo testa o croce sulla faccia della moneta quando atterra: questa è l'essenza del determinismo, e non abbiamo dubbi che questo fenomeno sia deterministico. Eppure, regolarmente, constateremo che aveva ragione Laplace: testa e croce appariranno un numero pari di volte se ripetiamo l'esperimento sufficientemente a lungo. In altre parole, in barba alle sue equazioni differenziali deterministiche, non saremo mai in grado di predire se avremo testa o croce ad ogni nuovo lancio.
Provate on-line, se non avete una moneta a portata di mano...(non è un modello dinamico però, bensì probabilistico - se trovate un modello dinamico online, fatemi sapere).
Il caso come noi lo conosciamo nasce quindi da una modellazione matematica che non pretende di dire nulla di fisico, ma si rivela assai efficace nella previsione di fenomeni che, per loro natura, sarebbero altrimenti impredicibili.
Applichiamo infatti l'analisi statistica ai fenomeni reali - spesso con grande successo - per inferirne delle caratteristiche e produrre conoscenza di essi, non per sancirne la natura casuale.
Fino all'avvento della meccanica quantistica non si pensava realmente al caso come base dei fenomeni fisici. Dopo l'avvento del caos abbiamo scoperto che sistemi semplici e perfettamente deterministici possono produrre dinamiche randomiche.
Lo sforzo delle scienze della complessità è adesso capire cosa succede in sistemi complessi, di grandi dimensioni o lontani dall'equilibrio: non possiamo ancora sciogliere la riserva sulla casualità (e forse non potremo mai), ma certamente la teoria della probabilità potrà dirci molte cose.