Lezione 4 - Sistemi Complessi

I sistemi complessi si affermarono nel ‘900 quale metodo di studio di eventi naturali e sociali.
Per comprenderli meglio dobbiamo prima chiarire la differenza che intercorre tra le nozioni di complicato e complesso: complicato è semplicemente qualcosa che si compone di un numero elevato di parti a sé stanti, mentre complesso è qualcosa di più, e cioè qualcosa che si compone di una serie di parti, ognuna con dei comportamenti locali, che entrano in interazione tra di loro generando una transazione globale che va a caratterizzare l’output del sistema e di conseguenza anche la descrizione del fenomeno preso in esame.

Metodi della Conoscenza

Nella storia del pensiero, i principali metodi utilizzati per definire le nostre conoscenze sono i seguenti:

Analitico - Deduttivo
Sintetico - Induttivo
Probabilistico - Abduttivo
Emergente – Selettivo

Già Aristotele con la sua teoria del sillogismo descriveva sillogismi di tipo deduttivo, induttivo e abduttivo.
Il sillogismo è una forma di ragionamento molto semplice che si compone di due o più premesse che messe in relazione tra loro mi portano a una conclusione.

esempio:

"Gli uomini sono mortali." "Aristotele è un uomo."
"Quindi Aristotele è un mortale."

In base al tipo di conoscenza che voglio rappresentare con i sillogismi, alcuni metodi della conoscenza si presteranno meglio a descriverli.

Il metodo Analitico - Deduttivo parte da una serie di assiomi (deduzioni teoriche), e da esse ne deriva una conseguenza (teorema).
E questo era il metodo più utilizzato in origine.

Il metodo Sintetico – Induttivo parte da una serie di fatti e generalizza un comportamento/proprietà, che si osserva presente in tutti i fatti, rendendolo valido per tutti gli oggetti di quel tipo.
E questo è il metodo classico utilizzato dalla scienza moderna.

Il metodo Probabilistico - Abduttivo si ha quando in un sillogismo una o più premesse non sono certe, ma solo probabili, e quindi anche la conseguenza che ne derivo sarà solo probabile e non certa.

Galileo stabilendo che le proprietà misurabili permettono di costruire induzioni molto più solide rispetto alle proprietà non misurabili, e Sir Francis Bacon che impose l’osservazione dei fenomeni quale metodo per determinarne le proprietà, diedero vita alla scienza moderna rendendo la scienza indipendente dalla teologia, che in passato aveva inquinato i risultati di natura scientifica con assiomi di natura teologica.
E proprio per accentuare questo distacco Galileo stesso propose di descrivere nel modo più analitico possibile gli assunti delle ricerche, rendendoli meno “vaghi”.
In seguito, nell’ ‘800 iniziarono a percepirsi gli aspetti probabilistici e statistici degli eventi.

Il metodo Emergente – Selettivo si basa sul concetto di selezione naturale e cioè cerca di descrivere in maniera razionale un sistema che si auto-organizza.
Comparve a cavallo tra l’850 e il ‘900 e fu fondato da Darwin con “La Teoria della Selezione Naturale”, dove per l’appunto il sistema in questione è la natura che seleziona gli esseri che la popolano.
In seguito sono stati individuati altri fenomeni, naturali o sociali, che potevano essere associati a sistemi auto-organizzanti e quindi in grado di far emergere delle proprietà globali da una serie di iterazioni locali.

1812 - Laplace e la Filosofia Deterministica

Nell’ 800 il mondo accademico scientifico, influenzato da una corrente positivista, pensava di poter rappresentare l’intera realtà attraverso leggi deterministiche, quindi si pensava fosse possibile descrivere qualsiasi aspetto della realtà tramite postulati, come già aveva fatto Newton per le leggi fondamentali della fisica, eliminando completamente il fattore divino che fino ad allora era stato il punto di partenza di ogni studio.

Ad emblema di questa “visione” vi è una famosa citazione del 1812 di Pierre Simon Laplace:
« Possiamo considerare lo stato attuale dell'universo come l'effetto del suo passato e la causa del suo futuro. Un intelletto che ad un determinato istante dovesse conoscere tutte le forze che mettono in moto la natura, e tutte le posizioni di tutti gli oggetti di cui la natura è composta, se questo intelletto fosse inoltre sufficientemente ampio da sottoporre questi dati ad analisi, […] per un tale intelletto nulla sarebbe incerto. »

Quindi secondo Laplace la realtà è la conseguenza di un insieme di cause, che se conosciute e osservate nella loro totalità, e quindi analizzate per mezzo di un processo deduttivo basandosi su degli assiomi, ci permetterebbe di prevedere quella che sarà la realtà futura.
E questo vale per qualsiasi fenomeno, anche per sistemi più piccoli della realtà che ovviamente richiedono un minor numero di informazioni.

1860 - James Clerk Maxwell e la Meccanica statistica

Maxwell, partendo dall’idea di Laplace che tutto sia rappresentabile in termini deterministici, studiò i gas fino ad arrivare, nel 1860, a formulare le leggi che ne descrivono il comportamento.
Seppure gli fosse chiaro che il comportamento dei gas è regolato da tre variabili fondamentali (volume, temperatura e pressione), aveva però problemi a rappresentare a livello atomico le collisioni tra gli atomi che determinano le variazioni dei valori di questi tre variabili, infatti il principale problema della visione atomistica è la rappresentazioni della posizione e delle velocità di ogni singola particella componente un gas.
Per questo creò quelle che furono le prime leggi fisiche non deterministiche, fondando la meccanica statistica, così da poter esprimere i fenomeni in termini statistici per mezzo di media e deviazione standard.
In tal modo poté descrivere il comportamento dei gas tramite velocità media delle particelle e la forma della distribuzione della velocità in base alla temperatura dei gas.

Queste metodologie di rappresentazione, che andarono a rivoluzionare le abitudini della comunità scientifica, furono quasi sin da subito sottoposte a una forte ibridazione per poi applicarle anche in campo sociale/politico, come per esempio a fine ‘800 quando furono utilizzate per la prima volta per determinare la densità demografica di uno stato. E quello fu solo il primo passo del loro affinamento, che le ha portate al giorno d’oggi a esser uno strumento di descrizione della realtà.

1948 – Norbert Wiener e il Feedback

Nell’immediato dopoguerra le nazioni iniziarono a investire ingenti somme nella ricerca scientifica, e una delle innovazioni principali del diciannovesimo secolo fu la nascita della Cibernetica ad opera di Norbert Wiener.
Alla base di questa nuova disciplina vi è la nozione di retroazione (feedback).

Immagine1.jpg

Il feedback fu creato per introdurre un effetto di retroazione all’interno di sistemi auto-organizzati così da ottenere l’output da noi desiderato tramite una serie di ripercorrenze del sistema stesso, andando progressivamente ad affinare i nuovi input tramite l’effetto di retroazione.
Seppure inizialmente Wiener l’avesse pensato per applicarlo a dei servomeccanismi, ovvero dei macchinari utilizzati per migliorare la precisione della contraerea tramite oscillazioni ripetute sempre più prossime al bersaglio, alla fine questa innovazione fu così grande da divenire il punto di partenza di quasi tutte le ricerche che vedremo da qui in poi.
La cibernetica ebbe un così grande successo che furono organizzati numerosi seminari in tutto il mondo, nei quali aspetti puramente ingegneristici si andarono a mescolare con aspetti sociologici.
Tuttavia l’evoluzione della cibernetica seguì due strade diverse a causa della guerra fredda che caratterizzò gli anni a seguire.
Proprio dall’Europa venne la Teoria Generale dei Sistemi, ad opera di Von Bertalanffy.

1968 - Von Bertalanffy: Sistemi Aperti e Sistemi Chiusi

Nel 1968 Bertalanffy fonda la Teoria Generale dei Sistemi che ha come obiettivo quello di descrivere i sistemi come un insieme di stati che si trasformano nel tempo e che hanno come operatori coloro in grado di modificare uno stato, mentre gli operandi sono gli stati stessi.
L’operatore è anche detto feedback, che se retroattivo è per l’appunto un feedback retroattivo, proprio come era visto nella Cibernetica di Wiener.
Notando la grande somiglianza tra la sua teoria e quella del collega, Bertalanffy unì le due teorie, andando così ad aggiungere alla Cibernetica il concetto di sistema chiuso e sistema aperto.
La distinzione tra i due sistemi si basa sull’origine degli input che ne modificano gli stati: se l’input proviene dall’ambiente il sistema è aperto, altrimenti è un sistema chiuso.

esempio:
Le macchine sono sistemi chiusi.
Il sistema biologico è un sistema aperto, dato che aumenta il suo ordine interno attingendo energia dall’ambiente.

Ecco alcuni aspetti che caratterizzano la distinzione tra sistemi aperti e sistemi chiusi:

Immagine2.jpg

In presenza di Feedback Negativo, anche detto feedback regolativo, il sistema tende all’equilibrio, fino a portare il sistema a stabilizzarsi; ciò avviene con andamento logaritmico o tramite oscillazioni.

Col Feedback Positivo il sistema segue una crescita esponenziale, che porta a un continuo aumento dello squilibrio del sistema stesso.

Per Morfostasi si intende che il sistema modifica la sua organizzazione, ma fino a un certo punto. Da quel punto in poi manterrà quella organizzazione.

Si ha Morfogenesi se il sistema modifica la sua organizzazione continuamente.

Ecco alcuni esempi di sistemi aperti con feedback positivo:

1. La crescita della popolazione mondiale, che all’aumentare degli individui vedrà aumentare il futuro livello di crescita della popolazione. Quindi avremo una crescita della popolazione con andamento esponenziale.
2. La rete telefonica, in cui ad ogni inserimento di un nuovo nodo corrisponde un nuovo valore a cui tutti i nodi preesistenti dovranno fare riferimento, e quindi si riscontra una crescita esponenziale dei collegamenti.

Generalizzando, le reti bidirezionali, ovvero reti che possono essere percorse in entrambi i sensi dei propri archi, si basano tutte sul modello di sistema aperto con feedback positivo.

Le Reti

Inizialmente le reti si svilupparono a solo scopo di studio, come branca della matematica, e seppure già verso fine ‘700 Eulero avesse fondato la teoria dei grafi per determinare quali operazioni fossero applicabili a un grafo in base alle sue proprietà, ci si limitava allo studio di grafi regolari.
Solo a partire dalla seconda metà del ‘900, si iniziò a considerare le reti come dei sistemi complessi, passando dal mero studio alla loro genesi per mezzo di modelli matematici, fino al loro utilizzo in campo sociale e naturale.

1959 – Erdos e Renyi: Teoria delle Reti Casuali

I primi a sviluppare questo nuovo modo di intendere le reti furono Erdos e Renyi che osservarono come nelle feste gli invitati facendo conoscenza andassero progressivamente a costruire dei legami, più o meno diretti, che portavano tutti gli invitati a conoscersi.
Da questo studio dell’ambito sociale ottennero le basi per arrivare a formulare la Teoria delle Reti Casuali (Random Graphs): « Un insieme di nodi sconnessi può diventare una rete, se ogni nodo si collega in modo casuale a un altro nodo. »
Ipotizzando delle leggi del caso, e esprimendo il concetto in termini probabilistici, si può dire che eventi apparentemente isolati sono tra loro dipendenti se ogni evento (nodo) è collegato ad almeno un altro evento coinvolto nel fenomeno in studio; e quindi ogni nodo sarà raggiungibile da qualsiasi altro nodo, anche se non tutti utilizzeranno lo stesso percorso.
Formularono quindi un modello matematico basato sulle leggi di probabilità che descriveva come una rete può costruirsi e assumere una certa tipologia in base alla probabilità di connessione che viene assegnata ai vari nodi che la compongono, riuscendo così a costruire reti di varia tipologia caratterizzate da proprietà con differenti valori (ad esempio i tempi di comunicazione delle reti).

1965 – Andrey Kolmogorov e la Complessità

Nel 1965, a pochi anni di distanza dalla creazione della Teoria delle Reti Casuali, Andrey Kolmogorov diede una nuova e più semplice definizione di Complessità:
« Ammettendo che una descrizione D identifichi in modo univoco un oggetto O, la lunghezza di questa descrizione potrebbe rappresentare la sua complessità.
Una sequenza è tanto più complessa quanto la lunghezza della sua descrizione si approssima alla lunghezza della sequenza. »

Quindi Kolmogorov teorizzò che la complessità di qualsiasi oggetto sia direttamente proporzionale alla lunghezza della descrizione necessaria per identificarlo univocamente (per descrizione si intende una descrizione a livello testuale come anche un algoritmo matematico).
Perciò quanto più noi siamo in grado di sintetizzare la descrizione di un oggetto, tanto più questo sarà semplice, ed è quindi complesso quell’oggetto che non può essere ridotto/semplificato a dei componenti.
Questa descrizione di complessità si adatta perfettamente ai sistemi complessi ed è in accordo con la teoria matematica di Erdos e Renyi; infatti essendo una rete il frutto di una serie di connessioni casuali tra i nodi che la compongono, è anch’essa un sistema complesso dato che per descriverla posso solo generare una rete identica che abbia le stesse probabilità di connessione tra un nodo e l’altro, e non esiste modo più sintetico per descriverla.

La visione delle reti come sistemi casuali fu la teoria di riferimento fino a pochi anni fa, quando fu modificata a seguito di scoperte in ambito sociologico e ingegneristico, ma soprattutto grazie alla comparsa del web.
In ambito sociale è la comparsa delle reti sociali a determinare questo cambiamento.

1967 – Stanley Milgram e le Reti Sociali

Le distanze sociali non equivalgono alle distanze fisiche, ma equivalgono al grado di familiarità che si ha con una persona. Il sociologo Stanley Milgram, nell’intento di studiarle, avviò un esperimento che consisteva nel recapitare tramite passamano una lettera al suo destinatario. Unica condizione era che chi fosse entrato in possesso della lettera, senza esserne il destinatario, avrebbe dovuto passarla a uno fra i suo conoscenti, che reputava essere il più “vicino” fra tutti al destinatario.
Va chiarito che la definizione di conoscente fu “una persona a cui si dà del TU” e che per vicinanza si fa riferimento alle distanze sociali.
Il risultato fu che in media ci vollero 5,5 passaggi per fare arrivare a destinazione la lettera e da qui nacque l’espressione “sei gradi di separazione”.
Tralasciando i valori puramente numerici, che hanno una ristretta validità, e passando dall’ambito sociale a quello delle reti, questo esperimento ci dimostra che moltiplicando tra di loro il numero medio di connessioni di ogni nodo e il diametro della rete (ovvero il numero di salti necessari per passare da un nodo all’altro) otterremo il numero di nodi che io sono in grado di raggiungere tramite le mie connessioni.
Nel passaggio da ambito sociale alle reti, i nodi vanno a sostituire le persone e le connessioni le conoscenze.
E’ chiaro che più si allarga la definizione di conoscenza e maggiori saranno le persone che conosco, con di conseguenza anche un incremento nel numero di persone che posso raggiungere indirettamente, inoltre lo stato sociale della società determina la facilità di comunicazione tra le persone.

Nel 1997 uno studio sul web dimostrò che il diametro della rete cresce molto più lentamente rispetto alla grandezza della rete.
Data una rete composta da N nodi, il suo diametro cresce al ritmo di: $0,7 * ( log N )$

1973 – I Cluster (Granovetter)

Un altro passo fondamentale fatto dalla sociologia fu lo studio su “La Forza dei Legami Deboli” e la conseguente introduzione della nozione di CLUSTER quali componenti delle reti.
Fu Granovetter a stabilire,in seguito a osservazione, che le persone organizzano le loro conoscenze in gruppi omogenei ma si servono di una serie di legami deboli per amplificare le loro conoscenze.
Da qui si individuarono i cluster ovvero insieme di persone fortemente connesse tra di loro e aventi una serie di caratteristiche simili: gusti simili, interessi simili, ma soprattutto conoscenze simili.
Proprio per la omogeneità di conoscenze fra i partecipanti del cluster si rende necessario creare dei legami deboli con qualcuno al di fuori del cluster, così da poter reperire nuove conoscenze altrimenti inaccessibili.
Notò quindi che in campo sociale esistono delle relazioni, definite deboli, che connettono delle aree più fortemente connesse.

Immagine3.jpg

Piccolo Mondo (Watts e Strogatz)

Le idee di Granovetter furono portate da Watts e Strogatz nel mondo delle reti proponendo così un modello alternativo a quello di Erdos e Renyi che potesse descrivere la generazione di reti casuali.
Il loro modello, detto modello a Piccolo Mondo, parte dall’idea di una rete composta da cluster, invece che di nodi.
I cluster tra loro vicini sono connessi e a queste connessioni si vanno ad aggiungere delle connessioni generate casualmente che li mettono in comunicazione coi cluster più lontani.
In tal modo il diametro della rete, e quindi il numero di passaggi necessari per comunicare nella rete, diminuisce radicalmente.

Immagine4.jpg


Il termine “Piccoli Mondi” (Small Worlds) deriva proprio dalla semplicità d’individuare, in un insieme così grande, dei gruppi di nodi tra loro connessi.

1999 – Leggi di Potenza (Barabási, A-L. e Albert)

Seppure il modello a Piccolo Mondo avesse riscosso un gran successo, nel 1999 fu sostituito da un nuovo modello che dimostrava che le generazioni casuali delle reti seguono le Leggi di Potenza.
Per mezzo di un programma che navigò il web, Barabási, A-L. e Albert studiarono empiricamente la sua struttura.
I dati così ottenuti dimostrarono che né il modello a generazione casuale, né il modello a piccoli mondi descrivevano esattamente il web, in quanto non erano in grado di individuare gli HUB che sono punti fortemente connessi utilizzati per mettere in comunicazione tra loro tutti i nodi di una rete.

Immagine5.jpg


Una semplice dimostrazione di Hub la otteniamo dall’immagine sopra, dove vengono paragonate la rete stradale statunitense (a sinistra) con la rete del traffico aereo statunitense (a destra).
Nella prima i collegamenti avvengono solo tra autostrade contigue, perché vicine geograficamente.
In questa rete la distribuzione dei collegamenti di ogni nodo segue un andamento a campana: tanti nodi hanno un numero di collegamenti prossimi alla media dei collegamenti dei nodi della rete, mentre i restanti nodi vanno progressivamente ad avere un sempre minor numero di collegamenti, fino ad arrivare ai nodi che non ne hanno.
Invece nella seconda rete, e più genericamente nel caso di reti ad Hub, non abbiamo alcun vincolo geografico di strutturazione per la rete e teoricamente ogni nodo può collegarsi con qualsiasi altro nodo, tuttavia la topologia più razionale è quella con alcuni Hub che fungono da connettori per tutta la rete.
Nel caso degli aeroporti avere dei grandi aeroporti che fungono da Hub per gli aeroporti più piccoli è sicuramente più comodo in quanto permette un notevole risparmio nei costi di gestione.
L’utilizzo degli Hub implica che la distribuzione delle connessioni della rete segua una legge di potenza: molti nodi con pochi collegamenti e pochissimi nodi (HUB) con moltissimi collegamenti.
Più aumentiamo il numero di collegamenti, più diminuisce in modo radicale il numero di nodi che hanno tanti collegamenti, accentuando così la differenza di collegamenti tra nodi con tanti collegamenti e nodi con pochi collegamenti.
Quindi la distribuzione dei collegamenti nel web non segue la distribuzione di Poisson, come teorizzato da Erdos e Renyi, ma si basa sulle Leggi di Potenza, infatti la distribuzione di Poisson fa si che le “ali” della campana decrescano con velocità esponenziale, con la conseguente assenza di nodi altamente connessi, mentre nella distribuzione della legge di potenza, la curva decresce più lentamente, dando luogo a Hub.

Barabási stabilì che il numero N di nodi con k link in ingresso è pari a:

Immagine6.jpg

Dove y indica l’esponente di grado, che varia da rete a rete. Internet ha y = 2,1.

Le Leggi di Potenza vengono anche dette leggi ad invarianza di scala che vuol dire che esaminando la stessa rete su due versioni che differiscono per numero di nodi, il rapporto tra il numero dei nodi e dei collegamenti rimane costante, dato che y non varia a meno di cambiare il tipo di rete.

Questo tipo di leggi erano già state osservate in ambito sociale con Paleto, nella sua formulazione delle leggi sulla distribuzione della ricchezza da cui è poi stata derivata la legge dell’80-20 che dice:
« L’80% della ricchezza è posseduto dal 20% delle persone, e il restante 20% della ricchezza è posseduto dal restante 80% delle persone. »
Le Leggi di Potenza si presentano anche in fenomeni naturali e sociali come: la magnitudo dei terremoti, l’ampiezza degli incendi, o le dimensioni delle città dove ci sono poche città grandissime e tantissime piccole.
Questo tipo di leggi furono per la prima volta riconosciute in ambito scientifico quando le si osservarono nei passaggi di stato della materia da una fase all’altra, in cui si hanno delle soglie critiche, ovvero delle soglie raggiunte le quali vi è un passaggio di stato, e progressivamente questo stato va a propagarsi a tutta la rete di molecole fino a che l’intero corpo di materia va ad acquisire un altro stato.
Un esempio lo possiamo trovare nel passaggio da acqua a ghiaccio, dove col decrescere della temperatura arriviamo a un momento in cui la disposizione delle molecole di acqua va a costruire una particolare configurazione detta configurazione rigida; quindi noi passiamo da uno stato in cui c’è equilibrio tra i legami di libertà e i legami d’organizzazione, a uno stato in cui si ha rigidità.

Crescita della Rete

Ma quindi, il fatto che il web sia un sistema organizzato che segue queste leggi significa che in origine era in uno stato di caos che poi si è progressivamente organizzato?
La risposta è “No”: è stato osservato che esiste un processo di organizzazione che porta alla formazione di cluster e quindi si basa sulla regola « chi è più visibile andrà ad acquisire sempre più centralità all’interno della rete » forse più nota nella forma « chi è più ricco diventa sempre più ricco ».

Immagine7.jpg


Il fenomeno, del concentramento della “ricchezza” (vedi immagine sopra), lo si osserva a tutti i livelli della formazione di una rete.
Le reti, come il web, seguono questo modello di crescita in tutti i momenti della loro formazione proprio perché governate dalle regole ad invarianza di scala.

Nelle lezioni precedenti abbiamo visto che serve un monopolio affinché un prodotto sia economicamente sostenibile e la sua distribuzione nella rete funzionale; a questo si va ad aggiungere un meccanismo regolativo che determina la formazione e la tipologia della rete e che si basa sul concetto di Hub come zona di attrazione.
In qualsiasi rete abbiamo la necessità di identificarne le risorse e i servizi, e quindi la possibilità di poterli disporre attorno a un punto di aggregazione ne facilita l’organizzazione e la navigazione.
Quindi la rete non è un sistema complesso, per quanto riguarda la topologia che assume, in quanto non siamo costretti a generarla per poterla descrivere, e questo perché è sintetizzabile per mezzo dei meccanismi da cui deriva la formazione della sua topologia.
Tuttavia la nozione di complessità si applica ancora in quanto sistema emergente, nel senso che è composta da una serie di interazioni locali che danno vita a un sistema globale, anche se l’origine del termine “complesso” è legata alla capacità di descrivere un sistema.

Possiamo quindi concludere che:
1. La topologia di una rete non è puramente casuale, ma si basa sulla Legge di Potenza.
In seguito vedremo che questo non è sempre vero per ogni aspetto di reti con topologie differenti.
2. La nozione di “Sistema Complesso” dipende dal nostro grado di conoscenza e dalla nostra capacità di descrivere il sistema stesso.

Unless otherwise stated, the content of this page is licensed under Creative Commons Attribution-ShareAlike 3.0 License