sabato, giugno 05, 2010

Lavoro e alienazione: una visione emergente della questione

Il lavoro.
Questa forma di sussistenza si è trasformata in una forma di
alienazione che può spiegarsi solo come emergenza di un'organizzazione
di livello superiore.
Se questa frase può sembrare oscura, in realtà non lo è. Il
significato sta nella fenomenologia delle proprietà emergenti,
importante oggetto di studio della scienza della complessità.
Come agenti di un livello più basso noi non ci rendiamo conto di cosa
ci incastra in questo tipo di vincoli che sentiamo estranei.
Sono sorpreso di come queste riflessioni si accostino alle conclusioni
di Marx a proposito della alienazione del lavoro. Se avesse avuto
accesso a questo strumenti teorici forse il filosofo tedesco avrebbe
fornito un'analisi più precisa del sistema capitalistico, e chissà
che tante storture di quelle teoria l'umanità avrebbe potuto
risparmiarselele.

sabato, maggio 29, 2010

Il potere delle notizie in un mercato SOC.

Se il sistema economico e finanziario fosse organizzato nello stato
SOC, allora tutte le perturbazioni sarebbero virtualmente uguali tra
loro, proprio come i granelli di sabbia della celebre collinetta di
Per Bak. In ultima analisi le perturbazioni sarebbero informazioni che
riguardano questo o quel componente del sistema, che divengono di
pubblico dominio; in altre parole sarebbero notizie.
Se le cose stessero così allora non avrebbe importanza la notizia in
sè, ma la regione del sistema che ne é impattata ed il momento in cui
tale impatto avviene.
Questo spiegherebbe perché cambiamenti drammatici sulle quotazioni di
certi titoli accadono in conseguenza di notizie in apparenza
insignificanti, mentre altre notizie a prima vista ben più importanti
passano quasi inosservate.
Le agenzie di rating sono un esempio di componente esterna al sistema,
introdotta con lo scopo di controllarne la dinamica. Diversamente
dalle notizie che si sviluppano internamente al sistema, le
valutazioni delle agenzie di rating sono notizie che vengono forzate
dall'esterno e che propongono valutazioni oggettive (fortemente messe
in discussione ultimamente) che, in quanto percepite come tali, hanno
un'influenza globale e pervasiva, influenza sconosciuta alle notizie
interne la cui autorevolezza deve rimane dominio di valutazioni
soggettive da parte di tutti i partecipanti del sistema.

domenica, maggio 23, 2010

Fragilità e vulnerabilità.

La teoria dello stato Hot (Highly Optimized Tolerance), oltre ad offrire una spiegazione dell'origine delle leggi di potenza, ci dimostra come i sistemi complessi tecnologici - ovvero quei molti sistemi artificiali divenuti complessi per l'azione ripetuta di processi di ingegneria ed ottimizzazione - guadagnino in termini di affidabilità e tolleranza verso gli errori o guasti attesi (quelli cioe' presi in considerazione in fase di progetto ) a scapito di una fragilità verso guasti inattesi oppure attacchi deliberati.
Tra i sistemi che presentano una condizione HOT ci sono Internet, il Boeing 777, la rete di distribuzione elettrica, per citare gli esempi della letteratura . Tutti questi sistemi esibiscono delle fragilità insite nella loro struttura, e possiamo dire che queste sono delle caratteristiche - o proprietà - emergenti dei sistemi.
Come sappiamo, una minaccia esercitata su una vulnerabilità da luogo ad un incidente di sicurezza, che provoca un certo impatto in termini di conseguenze, o danni. Associare questi danni alle probabilità di accadimento e' l'essenza della disciplina della risk analysis.
Le fragilità sono delle vulnerabilità, quindi esse si trovano in diretta connessione con l'analisi e la gestione dei rischi.
Qualcuno, con una certa ragione, suggerisce che la gestione dei rischi per la sicurezza cistituisce un modo per gestire la complessità dei sistemi tecnologici complessi.

venerdì, maggio 01, 2009

La III Classe di Wolfram: caos dagli Automi Cellulari.


Il caos deterministico "classico" ha alcune caratteristiche fondamentali ben note:
- forte sensibilità alle condizioni iniziali
- divergenza esponenziale delle traiettorie (consegue dalla prima)
- regime dinamico totalmente aperiodico.

Da questo punto di vista, l'evoluzione dinamica di un sistema discreto con spazio di stato finito non può avere l'ultima delle tre caratteristiche: essendo finito lo spazio degli stati, l'evoluzione dinamica si troverà necessariamente a dover ripetere un ciclo di stati ad un certo punto.
Tuttavia è proprio da sistemi appartenenti a questa famiglia che sono venuti risultati tra i più importanti per lo sviluppo della scienza della complessità.
Gli Automi Cellulari sono i veri antesignani dello studio delle dinamiche complesse nei sistemi discreti. Per questa classe di sistemi, non esistendo un criterio universalmente accettato per identificarne il comportamento caotico, si utilizza la classificazione data da Wolfram, che ha diviso gli Automi Cellulari in 4 gruppi secondo il comportamento:
- stato omogeneo (classe I)
- strutture periodiche (classe II)
- caos (classe III)
- casualità pura (classe IV)

E' chiaramenta una classificazione basata sull'osservazione del comportamento di questi sistemi.
Trattandosi di sistemi discreti a spazio finito degli stati, balza agli occhi un'incongruenza: è evidente che dopo un periodo di tempo sufficientemente lungo il sistema dovrà comunque trovarsi ad avere esplorato tutti gli stati possibili, quindi (essendo un sistema deterministico) si troverà a ripercorrere un ciclo. Fino a che punto ha dunque senso parlare di "caos" e "casualità" in sistemi siffatti?

Soprattutto a chi ha avuto esperienza di sistemi dinamici continui, dove esiste sempre la possibilità che le traiettorie possano non auto-intersecarsi mai, questa distonia risalta.

Consideriamo però un semplice automa cellulare costituito da un vettore di N celle, ognuna delle quali può assumere k differenti stati discreti, a seconda degli input che gli provengono dal suo vicinato di n celle. Per ciascuna cella ci saranno k^n possibili configurazioni di input, tante quante sono le disposizioni con ripetizione di k simboli ad n ad n.

La rule table dell'automa cellulare assegna poi alla cella un valore specifico a seconda della configurazione di input: ci sono quindi k^n possibili associazioni tra input ed output per una cella, tante quante sono le possibili configurazioni di input. Chiaramente un AC è ben definito proprio fissando queste k^n associazioni: ma quanti modi ci sarebbero per definire un AC con questi presupposti? Facile: ce ne sarebbero k^(k^n), tanti quante sono le disposizioni con ripetizione di k simboli presi a gruppi di k^n. Questo è il numero degli AC possibili nello spazio definito dai parametri k ed n.

Per N sufficientemente grande, diventa virtualmente impossibile che l'AC possa esplorare tutto lo spazio delle configurazioni in un tempo dato. Ha quindi senso osservare il comportamento dell'AC (in un tempo finito) al limite per N che tende ad infinito nel caso di sistemi di classe III e IV (caos e random).

Wolfram ed altri comparano gli AC di Classe III a sistemi dinamici caotici [...] Dato uno spazio finito di dimensioni "ragionevoli", è quasi certo che gli AC di Classe III non "si ripeteranno" mai, ed anche quando accade essi possono avere cicli estremamente lunghi. Inoltre gli AC di Classe III mostrano sensibilità alle condizioni iniziali: anche la sola modifica di un paio di celle dello stato iniziale può produrre un comportamento radicalmente diverso.[...] Tracciando un paragone tra programmi e AC, i sistemi di Classe III sono molto simili ai generatori di numeri pseudocasuali (PRNG). Dato un "seme" iniziale, un PRNG può produrre sequenze talmente incorrelate che possono facilmente superare la maggior parte dei test usati per identificare i processi casuali (es. rumore bianco).
G.W. Flake - The Computational Beauty of Nature.

Fatte queste osservazioni, la classificazione di Wolfram acquisisce significato perchè permette di inquadrare questi sistemi discreti a stati finiti nell'ambito dei sistemi complessi. Pur non esistendo ad oggi un accordo unanime su cosa sia un comportamento caotico nel caso di sistemi discreti a stati finiti, questo tipo di definizione qualitativa è accettata e sarà usata in questo campo di studi finchè non ne apparirà una migliore.
I sistemi AC di Classe III sono dunque capaci di comportamento caotico - nei termini suddetti - che si manifesta nel tempo (sequenza di stati assunti da una singola cella) e nello spazio (formazione di pattern randomici): il che è già un bel risultato per un sistema in fin dei conti costituito da poche regole semplici.

E la complessità? Quella viene con la IV Classe di Wolfram, la più celebre. Per approfondimenti è disponibile in rete un tesoro di informazioni: The New Kind of Science gratuitamente consultabile.

Ultima riflessione. Se anche lo spazio di stato è finito, esso può essere talmente vasto da consentire una cornucopia di automi cellulari diversi, ognuno con una gran quantità di stati possibili. Se ipotizzassimo che la rule table di un automa cellulare possa mutare nel tempo per adattamento a condizioni ambientali, troveremmo che pur con vincoli così stringenti su k ed n lo spazio delle possibilità avrebbe una vastità davvero enorme: un numero minore di particelle ha generato un universo di diversità, quale quello in cui noi viviamo, avendo a disposizione probabilmente meno di 5 interazioni possibili con altre particelle.

domenica, marzo 08, 2009

Indizi di un'econosistema nella sicurezza informatica

TippingPoint è una nota società che produce sistemi di protezione per le informazioni, in particolare è leader di mercato per la tecnologia IPS (Intrusion Prevention Systems).
Dal 2005 questà società conduce una campagna chiamata Zero-Day Initiative, che consiste nel retribuire quei ricercatori nel campo della sicurezza informatica che dovessero venire a conoscenza di vulnerabilità informatiche non ancora divulgate.
Lo scopo è dichiaratamente duplice: fornire tempestivamente ai clienti gli aggiornamenti dei propri sistemi, ricavandone un vantaggio competitivo, e informare i produttori dei software che presentano tali vulnerabilità in modo che possano provvedere ad una patch. L'iniziativa retribuisce i ricercatori volontari con premi di qualche migliaio di dollari (anche diecimila) vincolandoli al silenzio: l'accordo siglato prevede l'esclusività dell'informazione.
E' curioso come una società che ha il suo core-business nella sicurezza informatica adotti una politica che, nei fatti, sovvenziona l'attività di chi si dedica alla scoperta delle vulnerabilità ed allo sviluppo dei relativi exploit. Inevitabilmente questo tipo di politica finisce con lo stringere un'alleanza coi nemici. Ma è una politica di successo, che nasce dall'esplorazione di opportunità economiche inedite, che vengono co-costruite da chi lotta per la prevenzione degli incidenti di sicurezza informatiche e - in qualche misura - chi quegli incidenti contribuisce a rendere possibili.
E' una spirale che ricorda la formazione di certe nicchie negli ecosistemi in natura: mi colpisce il confronto con l'organismo animale che, ad un certo momento della sua evoluzione, cessa di lottare contro i batteri nocivi e ne addomestica alcuni da cui trae benefici, e così facendo crea i presupposti per un nuovo tipo di organismo complesso in cui anche i batteri sfruttano una nicchia ecologica precedentemente inesistente.

lunedì, febbraio 02, 2009

L'evoluzione dietro le scene.


Sull'evoluzione, la natura è stata colta sul fatto: le prove a carico sono chiare e schiaccianti, e non lasciano spazio ad altre interpretazioni. Oltre ai fossili paleontologici, prova evidente delle diverse biosfere che hanno preceduto la nostra e delle differenti morfologie biologiche che divergono dalle attuali man mano che ci si allontana indietro nel tempo, anche la distribuzione geografica delle specie e lo studio dei codici genetici dimostra che i meccanismi di mutazione e ricombinazione del DNA hanno caratterizzato la progressiva trasformazione dei genomi specifici lungo un percorso di adattamento e ri-adattamento alle condizioni ambientali. Le conferme probabilmente definitive sono arrivate dalla biologia evolutiva dello sviluppo, nota anche come evo-devo, e la spiegazione di come lo sviluppo embrionale abbia verosimilmente influenzato i processi evolutivi dall'origine della vita sulla Terra fino a noi, conseguente alla scoperta che tutti gli animali, uomo compreso, discendono da un antenato comune semplice, con cui condividono un insieme di geni "master" che svolgono il ruolo di kit degli attrezzi per lo sviluppo dell'embrione in individuo adulto. Considerazioni che hanno portato il celebre biologo S.B. Carroll a concludere che "l'evoluzione consiste in gran parte nell'insegnare nuovi trucchi a vecchi geni!" - appunto geni vecchi centinaia di milioni di anni - e che è proprio nello sviluppo embrionale, vera e propria chiave per la compresione dei processi evolutivi, che si possono riscontrare le "pistole fumanti dell'evoluzione".
L'evoluzione è dunque prima di tutto un fenomeno della natura, come tale oggetto di osservazione e studio scientifico, ma ci sono domande fondamentali che attendono una risposta: è senz'altro vero che ad oggi non è chiaro quale sia stato l'impulso iniziale che ha dato origine all'evoluzione delle specie, quindi alla vita, nè è del tutto identificato in cosa consista il meccanismo evolutivo e perchè esso sia così diffuso. Ci sfugge, cioè, comprendere le ragioni del successo dell'evoluzione, ed i suoi meccanismi considerati globalmente. I risultati dell'evo-devo ci danno oggi conferma del ruolo del DNA nell'evoluzione, ma non ci spiegano ad esempio la selezione naturale, che deve essere considerata ad un livello superiore a quello in cui i processi genetici hanno luogo: a livello di ecosistema.
La comprensione dell'evoluzione nel senso più ampio richiede un necessario inquadramento di scala: se l'invenzione del kit degli attrezzi genetico per lo sviluppo della forma animale è stata una condizione necessaria per la biodiversità che oggi abbiamo davanti agli occhi, è solo a livello di ecosistema che possiamo meglio coglierne la dinamica. Allo stesso modo dobbiamo probabilmente modificare la nostra prospettiva di scala per comprendere come si è potuto arrivare dal cosiddetto "brodo primordiale" all'apparizione del codice genetico, condizione necessaria ma non sufficiente per la comparsa del suddetto toolkit.
La ricerca passa dunque dalla scala della biologia molecolare a quella, inferiore, della chimica e delle reazioni catalitiche, e ancora più giù alla scala delle interazioni fisiche, in virtù del fatto che i comportamenti attesi ad una scala sono connessi a quelli che avvengono a scale inferiori, i cui processi di crescita adattiva che, attraverso una o più transizioni di fase, conducono all'emergenza di comportamenti sistemici assai differenti ad una scala diversa. E' oggi noto che meccanismi di autorganizzazione di questo tipo sono tutt'altro che rari.
In fisica, le celle convettive di Bènard, la reazione di Belousov-Zhabotinsky, la condensazione di Bose-Einstein - cui sono legati fenomeni fisici oggetto di grande attenzione come la superconduttività, o che hanno conosciuto un ampio utilizzo nella tecnologia come il laser o l'effetto tunnel nelle giunzioni Josephson - o ancora le onde spiraliformi, sono tutti esempi che hanno a fattor comune il principio dell'autorganizzazione in sistemi lontani dall'equilibrio termodinamico, e che lasciano emergere comportamenti caratteristici a livello aggregato che non sono osservabili a livello individuale. Altrettanti esempi possiamo rintracciare in ambiti biologici, come il nodo senoatriale che governa il battito cardiaco, o anche la sincronia di lampeggiamento delle lucciole della Thailandia, per citare quelli forse più suggestivi.
Sembra, dunque, verosimile ritenere che l'autorganizzazione abbia giocato un ruolo fondamentale nell'evoluzione, in quel passaggio organizzativo dell'ambiente prebiotico che ha creato le condizioni perchè prendesse piede il processo evolutivo genetico. Se l'autorganizzazione che si instaura in un sistema fisico non può bastare da sola a spiegare l'insorgenza della vita, l'autorganizzazione in presenza di un meccanismo termodinamico che conduce un sistema molecolare fuori dall'equilibrio può avere innescato - anche più di una volta - un ciclo chimico (auto)catalitico che ha portato all'insorgenza di DNA. Per dirla con Stuart Kauffman: "l'autorganizzazione si mescola con la selezione naturale secondo modalità poco chiare e produce la nostra pullulante biosfera in tutto il suo splendore."
Qualcosa del genere deve essere avvenuto per dar luogo a quell'inesaurito effetto domino che ci accompagna tutti i giorni, e di cui anche noi siamo parte. Da quel momento in poi, certi aggregati molecolari hanno continuato a riprodursi, lontani dall'equilibrio termodinamico, e a selezionare strategie sempre nuove per la moltiplicazione, dando luogo nel tempo a membrane, cellule e batteri. A ciò aggiungiamo che è tutt'altro che bizzarro, oggi, ritenere che in un contesto caratterizzato da un'alta diversità molecolare, l'emergenza di sistemi molecolari autoriproduttivi sia una circostanza talmente probabile da apparire quasi inevitabile. E da una tale ineluttabilità può essere conseguito un mondo in cui milioni di specie si sono succedute nella creazione della sorprendente diversità che chiamiamo biosfera, che è certamente e provatamente stata preceduta da migliaia di biosfere scomparse, perchè sempre superate da nuove nella corsa del cambiamento evolutivo, nella continua esplorazione di nuove possibilità e generazione di nicchie ecologiche da sfruttare e popolare.
Le specie viventi non hanno colonizzato un mondo vergine, una specie di substrato passivo, un palcoscenico per la vita. Lo hanno letteralmente creato, costruito, assemblato. La biosfera in cui siamo immersi è emersa dall'ininterrotto cambiamento evolutivo che l'ha preceduta. E continuerà ad evolvere, man mano che ogni forma vivente continuerà instancabilmente ad esplorare nuove opportunità di successo e affermazione, a colonizzare nuove nicchie biologiche che a loro volta genereranno altre nicchie biologiche precedentemente inesistenti.
Se le spiegazioni scientifiche riguardo le ragioni o cause ultime della vita possono essere offerte sempre con approssimazione, è un fatto che tutta questa emergenza perpetua è davanti ai nostri occhi giorno dopo giorno. Ed è ciò che chiamiamo evoluzione.

giovedì, gennaio 15, 2009

La fisica e la biologia dell'emergenza: differenze tangibili e convergenze possibili.


Il concetto di auto-organizzazione è uno dei cardini della teoria della complessità, e ha destato molta attenzione la sua ubiquità in natura, particolarmente in diversi sistemi fisici. Richiede un certo coraggio associare questa proprietà ai sistemi biologici, specie nel caso di animali, dei quali non si possono trascurare le evidenti capacità cognitive, ancorché primordiali o elementari.
Per tornare ancora sugli insetti sociali, riporto un brano tratto da un'intervista a J.L. Deneubourg, chimico belga autore di parecchia ricerca sul tema dei comportamenti collettivi biologici, che aiuta nel difficile compito di contestualizzare l'auto-organizzazione nell'ambito degli animali sociali.

Se posizioniamo delle termiti sul fondo di una capsula Petri riempita di terra, notiamo che le termiti si adoperano a costruire pilastri distribuiti in maniera più o meno regolare. In questo caso abbiamo un fenomeno di pura autorganizzazione. Perché le termiti masticano delle palline di terra, le impregnano di feromone e infine le depositano, inizialmente a caso. Ma una pallina intrisa di feromone e in seguito depositata incita le altre termiti a depositare un'altra pallina nello stesso posto; in questo modo viene avviato un processo autocatalitico, che conduce allo sviluppo di un pilastro. [...] Questo processo di deposito di materiale e di attrazione esercitata dall'odore è sufficiente perché si produca una struttura spaziale regolare, ovvero una distribuzione regolare dei pilastri. Ma non esiste nessuna regola esplicita di misurazione nel cervello delle nostre piccole termiti. Non c'è nessuna istruzione nel sistema. La struttura emerge dalla dinamica, senza nessuna codificazione esplicita. Siamo molto vicini alla situazione prevalente in chimica e in fisica chimica.
J.L. Deneubourg, in La teoria della complessità di R. Benkirane.
Deneubourg mette giustamente in guardia dalla facile generalizzazione, dato che non tutti i comportamenti degli insetti possono essere ricondotti a schemi di auto-organizzazione in senso fisico:
E' a questo punto che iniziamo a distinguerci dai nostri colleghi che lavorano sull'auto-organizzazione chimica - e che sono prigionieri dell'auto-organizzazione! - in quanto l'animale non è come una molecola, e a differenza di quest'ultima è in grado di elaborare l'informazione. Talvolta abbiamo degli schemi di decisione, dei modi e delle procedure che non sono autorganizzate, ma che utilizzano la complessità individuale o la centralizzazione. A questo proposito possiamo ricorrere alla spiegazione di ciò che chiamiamo [...] template, vale a dire uno schema di organizzazione in cui la struttura che appare non risulta in realtà da una dinamica non lineare tra diversi elementi, ma corrisponde semplicemente a una struttura preesistente che non siamo in grado di vedere.
A proposito della costruzione della cella della termite regina, osserva:

[...] Siamo in presenza di un sistema che sembra molto sofisticato, mentre in realtà è molto più semplicemente la messa in atto di un piano, un pattern chimico.
[...] non ci troviamo in un quadro di autorganizzazione.
[...] l'autorganizzazione è definibile come la capacità di un gruppo di elementi di produrre una struttura a livello di insieme, senza che si avverta, alla scala del comportamento individuale, anche solo una minima traccia evidente di questa struttura.
Nell'esempio delle termiti [...] se avessi uno strumento in grado di farmi percepire il campo olfattivo intorno alla regina noterei una sorta di disegno tracciato dalle linee di isoconcentrazione del feromone, paragonabili alle curve di livello di una carta geografica, e vedrei che i mattoni della costruzione si dispongono seguendo una linea ben precisa. In qualche modo dunque il piano è preesistente.
J.L. Deneubourg, in La teoria della complessità di R. Benkirane
Se quindi è lecito parlare di comportamento emergente nei casi esposti, può invece essere improprio riferirsi ad essi in termini di auto-organizzazione. E questa è la prima conclusione cui possiamo arrivare nel caso di società di animali.
La seconda conclusione nasce invece dall'osservazione che l'auto-organizzazione, pur essendo una proprietà dinamica di un sistema di agenti - ovvero una proprietà della fisica del sistema - quindi non legata a capacità cognitive o alla presenza di "intelligenza", essa è scelta come strategia comportamentale in determinate circostanze dalle medesime collettività biologiche. La vera ragione del successo di questo tipo di comportamenti, che quindi sembra possibile riscontrare sia in biologia sia in fisica, pur con i dovuti distinguo, è sfuggente.
Le spiegazioni finora offerte dalla fisica poggiano sulla criticità auto-organizzata (SOC) oppure sui modelli di attaccamento preferenziale di Barabasi o della aggregazione limitata dalla diffusione (DLA).
Le spiegazioni in biologia, invece, affondano le proprie radici nell'evoluzione naturale.
Senza voler stabilire nessun primato dell'una sull'altra, concludo riportando che qualcuno (es. Stuart Kauffman) ha affermato che il denominatore comune potrebbe essere quel quarto principio della termodinamica che ancora nessuno ha potuto afferrare.