Di fronte alla complessità degli oggetti e dei fenomeni osservabili in
natura, sta emergendo nel mondo scientifico la questione se tale
complessità possa trovare una cornice interpretativa appropriata, che
integri l'approccio riduzionistico prevalente.
La novità di tale
approccio concettuale e metodologico sta nel fatto che esso prende in
considerazione lo studio delle leggi della complessità in quanto tale,
non solo gli oggetti complessi nella loro specifica composizione,
argomento delle singole discipline specialistiche. E' chiaro che uno dei
primi settori in cui il problema è avvertito in modo particolarmente
acuto è quello biomedico, perché sono proprio gli organismi viventi e le
loro possibili modificazioni patologiche (malattie) a rappresentare il
vertice della complessità in natura.
Qui si espongono alcuni temi
generali di tale problematica, accompagnati da brevi esemplificazioni
che si riferiscono sia a fenomeni naturali che a modelli matematici.
Maggiori dettagli e più elaborate formalizzazioni matematiche potranno
essere trovati nella bibliografia citata in calce ed in un lavoro
recentemente pubblicato dagli Autori, dal titolo "Omeostasi, Complessità
e Caos.
Un’Introduzione" (edito da Franco Angeli, Milano). Nella parte
finale di questo scritto si farà cenno anche a due temi correlati al
paradigma della complessità, come quelli della libertà e del dolore. Si
potrà quindi constatare come l'emergere di tale nuovo paradigma abbia
vaste e profonde implicazioni anche sul piano culturale ed
epistemologico, interessi cioè il modo con cui l'uomo considera se
stesso e si pone di fronte alla realtà.
Limiti del riduzionismo scientifico
Il termine complessità fa parte del vocabolario comune ed è di immediata comprensione, riferendosi a quegli oggetti che ci appaiono costituiti da molte e diverse componenti, oppure a quei fenomeni le cui dinamiche (variazioni nel tempo) sono difficili da comprendere e da prevedere. Dal punto di vista della scienza, lo studio di un oggetto o di un fenomeno complesso viene tradizionalmente affrontato con il metodo riduzionistico, detto anche cartesiano: scomporre l'oggetto o il sistema in sub-componenti più piccole o più semplici ed analizzarle una per volta.
Limiti del riduzionismo scientifico
Il termine complessità fa parte del vocabolario comune ed è di immediata comprensione, riferendosi a quegli oggetti che ci appaiono costituiti da molte e diverse componenti, oppure a quei fenomeni le cui dinamiche (variazioni nel tempo) sono difficili da comprendere e da prevedere. Dal punto di vista della scienza, lo studio di un oggetto o di un fenomeno complesso viene tradizionalmente affrontato con il metodo riduzionistico, detto anche cartesiano: scomporre l'oggetto o il sistema in sub-componenti più piccole o più semplici ed analizzarle una per volta.
Così, ad esempio, lo studio del corpo umano è proceduto dal
macroscopico al microscopico, cominciando con il sezionarlo in diversi
organi, poi - con lo sviluppo di nuovi strumenti - procedendo dagli
organi alle cellule ed infine dalle cellule alle molecole: il paradigma
della biologia molecolare è oggi di gran lunga prevalente nel modo con
cui si analizzano e si interpretano i fenomeni biologici ed anche le
patologie.
L'approccio riduzionistico, estremamente fecondo di nuove conoscenze, di risultati sperimentali, di tecnologie, non ha "risolto" la complessità, piuttosto l'ha documentata ad ogni livello dell'indagine.
Qualche linea di pensiero nei secoli scorsi aveva
prefigurato la possibilità per le scienze fisiche, chimiche e biologiche
di poter pervenire ad una descrizione esatta della realtà: come
sosteneva il matematico francese Laplace nel 1776, se si conosce lo
stato di un sistema in un certo istante e le leggi che ne regolano le
modificazioni, si sarebbe in grado di prevederne il comportamento
futuro:
"Se noi immaginassimo un'intelligenza che a un istante dato comprendesse tutte le relazioni fra le entità di questo universo, essa potrebbe conoscere le rispettive posizioni, i moti e le disposizioni generali di tutte quelle entità in qualunque istante del passato e del futuro" (da Essai philosophique sur les Probabilités di Pierre Simon de Laplace).
Lo stesso sviluppo scientifico ha invece mostrato che
quello di Laplace è un sogno irraggiungibile: l'aumento delle conoscenze
scientifiche da una parte ha aperto nuovi ed inaspettati orizzonti di
studio, dall'altra ha rivelato come esistono proprietà intrinseche ai
sistemi fisici che limitano la possibilità di conoscerli completamente e
di prevederne il comportamento.
Tali limiti invalicabili alla
conoscenza del mondo fisico potrebbero essere compendiati essenzialmente
nei seguenti:
a) il principio di indeterminazione di Heisenberg, per cui ogni miglioramento nella misura della posizione di una particella comporta una perdita di precisione nella determinazione del suo momento e viceversa; la meccanica quantistica dà una visione probabilistica dei fenomeni, a differenza della visione determinista della meccanica classica;
b) la teoria dei sistemi dinamici, la cui scoperta centrale è la prevalenza dell'instabilità, ossia del fatto che piccoli cambiamenti delle condizioni iniziali possono determinare grandi amplificazioni degli effetti finali. Quest'ultimo fenomeno è noto come "sensibilità alle condizioni iniziali", che è in pratica la definizione scientifica del caos.
Già nel 1903 il matematico Poincaré riconosceva questo
fatto:
"Se pure accadesse che le leggi naturali non avessero più alcun segreto per noi, anche in tal caso potremmo conoscere la situazione iniziale solo approssimativamente. Se questo ci permettesse di prevedere la situazione successiva con la stessa approssimazione, non ci occorrerebbe di più e dovremmo dire che il fenomeno è stato previsto, che è governato da leggi. Ma non sempre è così; può accadere che piccole differenze nelle condizioni iniziali ne producano di grandissime nei fenomeni finali. Un piccolo errore nelle prime produce un errore enorme nei secondi" (da Science et méthode di Henri Poincaré).
Qualcuno
si è chiesto se può esistere un "programma", come il "software" di un
calcolatore, che contenga un pacchetto di leggi fisse sufficienti a
governare l'evoluzione cosmica. Si è parlato della "Teoria del tutto",
"Theory of Everithing", che potrebbe rappresentare il trionfo della
descrizione scientifica di tutta la storia universale. Una tale teoria
presuppone però la computabilità, la completezza algoritmica
dell'oggetto, la necessità a tutti i livelli delle leggi e degli eventi.
Ma c'è il teorema dell'incompletezza di Gödel. Esso stabilisce che in qualunque sistema di assiomi e regole formali abbastanza complesso vi saranno sempre dichiarazioni matematiche vere che non possono essere dimostrate all'interno del sistema. Quindi, afferma P. Davies,
"la ricerca per un'unica teoria del tutto che eliminerebbe ogni contingenza, e dimostrerebbe che il mondo fisico dev'essere necessariamente così com'è, sembra condannata all'insuccesso. Nessun sistema razionale può essere provato insieme coerente e completo. Sempre rimarrà qualche apertura, qualche elemento di mistero, qualcosa di inspiegato".
Gödel ha
provato che ogni sistema matematico è incompleto, cioè che vi saranno
sempre domande che non trovano risposta in qualsiasi sistema logico; la
teoria del caos prova che vi sono questioni fisiche cui non si può dare
risposta.
Accertata l'infondatezza della pretesa riduzionistica e "scientistica", resta comunque la necessità di descrivere, capire e, possibilmente, regolare i fenomeni complessi e caotici. La scienza cerca sempre delle regolarità ed in questo campo si potrebbe quindi parlare di una ricerca delle "leggi del disordine", di una ricerca che si muove su quel frastagliato confine che sta fra l'ordine ed il caos.
Ordine e disordine
Una
delle caratteristiche fondamentali ed universali dei sistemi complessi è
rappresentata dal fatto che in essi si manifestano simultaneamente
l'ordine ed il disordine, sia nella forma (o struttura), che nel
comportamento (o dinamica nel tempo). Ciascuno ha la percezione
immediata di cosa siano l'ordine e il disordine, essi ci si presentano
all'esperienza immediata nel mondo circostante ed anche, certamente,
dentro di noi.
Osserviamo il costante susseguirsi del giorno e della
notte, il moto dei pianeti, il regolare moto di un pendolo, le linee
rettilinee proiettate verso l'alto di un grattacielo, la simmetria
perfetta delle nostre mani o delle ali di una farfalla, e così via.
D'altra parte, osserviamo molti altri fenomeni in cui prevale il
disordine: basti pensare alle variazioni climatiche, ai terremoti, alle
frane in montagna, al pensiero di un paranoico, all'andamento delle
quotazioni della moneta sui mercati internazionali.
In realtà, pochi fenomeni sono totalmente ordinati o disordinati: la lunghezza del giorno e della notte varia con le stagioni, un pendolo prima o poi si ferma, persino il moto dei pianeti, se giudicato sul lungo periodo, non è così regolare come Galileo credeva in base alle sue, precise ma non assolutamente esatte, misurazioni.
D'altra parte, anche i fenomeni
apparentemente disordinati "nascondono" delle regolarità, avvengono
secondo delle "regole di comportamento" che in parte sono definibili,
almeno in termini di probabilità: un temporale scoppia molto più
probabilmente di estate che di inverno, le onde del mare e le onde della
sabbia del deserto hanno alcune regolarità, le forme delle nuvole,
delle coste, delle montagne, presentano ripetizioni di forme a seconda
del determinarsi di condizioni fisiche adeguate.
Le perturbazioni
dell'economia sono sì imprevedibili, ma alcune regole del mercato sono
ben note e si applicano sempre.
Nel campo della materia, un esempio
di strutture molto ordinate sono i cristalli: una o poche specie
molecolari, immobilizzate da regole fisse di interazione che lasciano
poca libertà di scelta nel disporsi delle configurazioni.
Tra i sistemi
più disordinati si possono citare i gas ad alta temperatura: miliardi di
particelle molecolari in rapido movimento, ciascuna molecola va dove
gli urti casuali con le altre e le proprie vibrazioni interne la
spingono.
In termini tecnici, questo stato si chiama equilibrio
termodinamico, ed in esso l'entropia (funzione che definisce la
probabilità di un sistema di esistere in un certo modo) raggiunge il suo
valore massimo.
Chiamiamo questo stato disordine, perché le particelle
non "ubbidiscono" a nessun "ordine", non presentano nessuna
"organizzazione", nessuna "forma" che permetta di distinguere il sistema
da un altro fatto dello stesso materiale, nessuna "coerenza" né nella
disposizione, né nel moto.
Quando il disordine, compatibilmente alla
natura del sistema considerato e alla sua temperatura, ha raggiunto il
suo massimo, nessun processo potrà verificarsi tale da poter riportare
nel sistema qualche tipo di ordine, se esso è isolato dall'ambiente.
I
sistemi isolati, nei quali non è permesso alcuno scambio con
l'ambiente, tendono in maniera irreversibile verso uno stato finale di
equilibrio, in cui non vi sono più diversità, asimmetrie, modificazioni.
Questo comportamento della materia è espresso dalla seconda legge della
termodinamica (dS/dt > 0), per la quale la quale la variazione di
entropia dS nel tempo dt è maggiore o uguale a zero, che è come dire che
esiste un'inevitabile tendenza al disordine.
Tra ordine perfetto e
disordine totale, esiste un'infinita varietà di forme intermedie, in
cui la fissità convive con la variabilità: è il dominio della
complessità. Una delle principali caratteristiche dei sistemi viventi,
che ne spiega in parte sia l'evoluzione che il permanere in uno stato di
organizzazione, è il fatto che sono "sistemi aperti", cioè sono in
continuo cambiamento ed interscambio con altri sistemi.
Si consideri un sistema che presenta due stati A e A' tra loro teoricamente in equilibrio e reversibili. A e A' potrebbero rappresentare una variabile fisiologica o biochimica, oppure il numero di individui in una popolazione, o qualsivoglia altro parametro avente valori oscillanti da un minimo A ad un massimo A'.
Il sistema è aperto, nel senso che riceve
un input (x) di materia, energia, informazioni dall'ambiente (altri
sistemi) e produce un output (x') in uscita, sempre di materia, energia
ed informazioni. Lo stato di A e di A' in un determinato tempo sarà
condizionato dal "vincolo" costituito dalla variazione di x e x' in quel
tempo, oltre che, naturalmente, dai limiti fisici "intrinseci" al
sistema stesso. Quindi un simile sistema difficilmente sarà stabile, ma
subirà continui cambiamenti.
Nel sistema aperto la seconda legge della termodinamica subisce un correttivo: l'entropia dipende sì dallo stato interno del sistema, ma anche dall'interscambio di energia, informazione e materia con l'esterno. E' proprio grazie a tale interscambio che l'entropia può avere segno negativo: essere più l'entropia che si dissipa di quella che entra nel sistema.
I sistemi aperti, come i sistemi viventi, scambiano materia energia e informazione. Vi è un flusso in entrata (ad esempio cibo, luce solare, ossigeno) ed un flusso in uscita (scorie, metaboliti, irradiazione termica, anidride carbonica). L'esistenza di questo flusso garantisce che il sistema, almeno per un certo periodo, possa organizzarsi, restare organizzato e sopravvivere.
La vita si mantiene e si riproduce
come un evento termodinamicamente lontano dall'equilibrio, grazie
all'interscambio di energia e di materia che il sistema vivente instaura
con l'ambiente. La vita è un'isola complessa di parziale ordine che si
mantiene per un certo tempo a spese dell'aumento di entropia
dell'ambiente.
Caratteristiche tipiche dei sistemi complessi
Caratteristiche tipiche dei sistemi complessi
Abbiamo
detto che né i cristalli (sistemi molto ordinati), né i gas (sistemi
molto disordinati) si possono definire sistemi complessi; la loro
struttura può essere descritta fisicamente e chimicamente in modo
abbastanza semplice, cosicché la conoscenza delle leggi che la determina
consente di prevederne il comportamento con sufficiente
approssimazione.
La complessità, invece, origina là dove le componenti
di un sistema sono molteplici, diverse tra loro e, soprattutto, là dove
tali componenti sono in mutua interazione. Tale interazione produce
strutture spazio-temporali, forme e comportamenti caratteristici e nuovi
rispetto a quelli prodotti dalle singole componenti.
Ad esempio, una
proteina è fatta di molti aminoacidi, ma alcune sue proprietà, come
potrebbero essere quella enzimatica, o quella tossica, o quella
anticorpale, dipendono dall'esistenza di un insieme ben organizzato;
nessun aminoacido ha di per sé quelle proprietà, tanto è vero che gli
stessi aminoacidi, disposti in diverse sequenze, hanno diverse funzioni.
Così un pensiero della mente o una azione del corpo non sono contenuti
dentro nessun singolo neurone, ma emergono dal comportamento collettivo
di molti di essi.
L'interazione di componenti di un sistema fisico su una scala di osservazione porta ad un comportamento globale complesso su una scala più ampia che in generale non può essere previsto dalla conoscenza delle componenti individuali. Una delle maggiori acquisizioni della teoria dei sistemi dinamici è che tale imprevedibilità non è dovuta alla mancanza di informazioni sul sistema stesso, non può essere colmata dall'acquisizione di nuove informazioni, bensì è una proprietà intrinseca dei sistemi fisici, che si manifesta in modo più o meno evidente a seconda delle condizioni interne o esterne al sistema stesso.
I sistemi complessi presentano facilmente, anche se non
necessariamente, comportamenti caotici. Il caos, termine facilmente
utilizzato in modo equivoco, per la scienza non coincide con la
casualità; piuttosto, esso sta ad indicare il comportamento di un
sistema fisico che appare casuale, ma non lo è, perché soggiace a leggi
deterministiche.
In altri termini, si potrebbe definire il caos come un
comportamento di un sistema dinamico che dipende sensibilmente dalle
condizioni iniziali, da meccanismi di amplificazione e di retroazione e
da fenomeni di coerenza (moti collettivi).
L'irregolarità e
l'imprevedibilità dei fenomeni caotici deriva sia dal fatto che essi
sono determinati simultaneamente da molti fattori, sia dal fatto che la
loro dinamica dipende in modo sensibilissimo dalle condizioni iniziali.
Perciò, dato che le condizioni iniziali di qualsivoglia sistema non
possono essere misurate con infinita esattezza, è inevitabile che
l'evoluzione di un sistema caotico sia impredicibile.
Gli esseri viventi sono partecipi in sommo grado di questa complessità, proprio perché essi sono composti di moltissime parti, diverse tra loro, che instaurano relazioni basate su contatti diretti e indiretti (mediati da segnali a lunga distanza).
Questo tipo di complessità di un sistema
biologico, se analizzata in relazione alle sue componenti, è di tipo
quantitativo, è detta complessità statica, perché si riferisce a
proprietà che non cambiano nel tempo. Da questo punto di vista, la
complessità del DNA è superiore a quella della plastica perché contiene
più variabili nelle costituenti e nella loro disposizione in sequenze.
Si
deve però considerare il fatto che un sistema biologico evolve nello
spazio e nel tempo. Persino il codice genetico di un organismo non può
dirsi completamente statico ma cambia, almeno in alcune parti, nel corso
della vita. Vi è quindi un salto qualitativo nel tipo di complessità,
salto qualitativo che è descritto dal termine complessità dinamica.
Le
reti costituite dalle relazioni tra i molteplici elementi di un sistema
biologico sono in continua attività e in continuo rimodellamento, anche
perché ogni sistema biologico, si qualsiasi scala lo si consideri
(molecolare, cellulare, organica, neuropsicologica, di popolazione,
ecc...) è aperto all'esterno, nel senso che instaura rapporti di
interscambio di informazione, di materia e di energia con altri sistemi
dello stesso grado o di diverso grado di complessità.
I sistemi che controllano le variabili fisiologiche (peso, altezza, pressione del sangue, concentrazione dei metaboliti, bioritmi, ecc.) sono tipicamente dei sistemi dinamici. La cosiddetta omeostasi è la capacità dei sistemi viventi nel loro insieme o di loro sub-componenti di conservare costanti, o meglio variabili entro determinati limiti, dei parametri biochimici o delle funzioni in modo che tali parametri e tali funzioni concorrano al buon funzionamento del sistema nel suo insieme.
Per garantire la normale omeostasi sono necessari continui aggiustamenti
delle velocità con cui avvengono determinate reazioni biochimiche e
determinati processi di trasferimento di informazione, per cui i diversi
parametri fisiologici sono in continuo "disequilibrio" e vanno soggetti
a continue oscillazioni.
Nei sistemi complessi (ed in primis in
quelli biologici) l'ordine ed il disordine convivono e "collaborano" al
buon funzionamento del sistema stesso: in estrema sintesi, si potrebbe
affermare che mentre l'ordine garantisce costanza dei parametri ed
interscambio significativo di informazioni, il "disordine" garantisce
l'accesso alla novità ed alla diversificazione.
Quell'aspetto della
complessità che parrebbe porre un limite alla conoscenza scientifica,
cioè la perdita di possibilità di previsione globale, ha un risvolto
positivo: la natura può impiegare il caos in modo costruttivo.
Attraverso l'amplificazione di piccole fluttuazioni, il caos può fornire
ad un sistema naturale diverse possibilità di configurazione e di
comportamento, quindi la flessibilità rispetto al mutare dell'ambiente.
L'evoluzione biologica chiede variabilità ed il comportamento caotico
dei sistemi fornisce una sorta di "strutturazione" a tale variabilità,
in modo che essa può essere in qualche modo controllata e posta al
servizio dell'evoluzione stessa. In sintesi, le caratteristiche tipiche
della complessità sono le seguenti:
a) sensibilità alle condizioni iniziali e presenza di dinamiche non-lineari;
b) caos deterministico;
c) l'insieme ha proprietà superiori alle singole componenti;
d) formazione di reti interne al sistema e comunicazioni con l'esterno.
Alcuni
temi-chiave della complessità possono essere affrontati e descritti
utilizzando modelli matematici, di cui viene dato un esempio nella
sezione successiva.
Ordine e caos in un modello a feed-back
Ordine e caos in un modello a feed-back
Il
modello che qui presentiamo consiste in un algoritmo, cioè in un elenco
di istruzioni che specifica le operazioni da svolgere per risolvere un
determinato problema: An+1 = An + An k (Amax-An) dove An+1 è il valore
del ciclo successivo n+1 che può essere calcolato in base a quello
risultante dal ciclo precedente (An) sommato della crescita dovuta al
ciclo stesso, che è uguale ad An moltiplicato per un parametro di
crescita k e per un fattore dato dalla differenza tra il massimo
consentito (Amax) e An.
I risultati forniti da questo algoritmo al
variare del parametro k consentono di illustrare molti degli aspetti
fondamentali della teoria del caos e del suo rapporto con l'omeostasi
biologica. Un algoritmo simile fu descritto già verso la metà
dell'ottocento dal matematico Verhulst per simulare la crescita delle
popolazioni nel corso del tempo.
L'algoritmo riproduce in modo
essenziale lo schema di un sistema omeostatico: quest'ultimo, infatti,
può essere descritto come un sistema dinamico a controllo retroattivo
(feed-back): in esso il risultato ad un certo tempo tn condiziona il
funzionamento del sistema al tempo successivo tn+1, e se la variabile
considerata supera un massimo stabilito, un segnale porta a ridurre la
velocità del cambiamento al tempo successivo. Il valore massimo di A
tollerabile (Amax) è dato, nel modello più semplice qui considerato,
come una costante.
Ponendo sull'asse delle ascisse il numero delle
iterazioni (cicli successivi) e sull'asse delle ordinate il valore di A,
si ottengono le soluzioni illustrate nella figura 2. Ponendo il valore
di Ainiziale = 1.0 ed un parametro k di un determinato valore (ad
esempio 0.1), si osserva che la funzione genera una sequenza di punti
che, partendo da 1 raggiunge gradualmente il massimo (posto uguale a 5)
rimanendo quindi stabile (Fig. 2A). Anche modificando di molto la
partenza, (Ainiziale = 2), la funzione si auto-regola e tende comunque a
raggiungere il valore stabilito come massimo.
Aumentando il valore
di k (circa 0.4), si osserva che la funzione va crescendo rapidamente
verso il massimo, poi supera il valore di Amax, poi iterazioni
successive portano a valori oscillanti in più ed in meno rispetto ad
Amax (figura 2C).
Le oscillazioni si generano perché se il parametro k è
sufficientemente alto, il risultato della funzione fa sì che An possa
superare il valore di 5 (Amax), quindi nell'iterazione successiva il
valore (Amax-An) risulti negativo e di conseguenza An+1 risulti
inferiore ad An. Pur in presenza di oscillazioni, la funzione è comunque
stabile, anche modificando di molto le condizioni iniziali (figura 2D).
Aumentando ancora k, l'ampiezza delle oscillazioni aumenta rispetto
al caso precedente. Superando un altro valore critico di k
(approssimativamente 0.49), iniziano a manifestarsi suddivisioni tra
periodi di maggiore ampiezza e periodi di minore ampiezza, finché, sopra
il valore di 0.53 compare il caos nella sequenza dei picchi con
ampiezze diverse: non si hanno più cicli ripetuti di oscillazioni
periodiche, non si può ritrovare nessun ordine e nessuna predicibilità.
Il grafico in figura 2E, ottenuto con un coefficiente k di 0.58,
mostra che i punti corrispondenti al valore di A possono comparire in
tutte le posizioni che vanno approssimativamente da 0 a 7. Tale fascia
di posizioni nello spazio in cui si collocano i vari punti nei cicli
susseguentisi si chiama, in termine tecnico, attrattore. Esistono vari
tipi di attrattori:
a) L'attrattore puntiforme, in cui il sistema si situa in un solo stato e vi rimane (Fig. 2A e 2B). Esempio fisico: un peso lasciato cadere da una certa altezza dopo alcuni rimbalzi si ferma e così rimane.
b) L'attrattore periodico, descrive un sistema che passa attraverso cicli o sequenze ripetitive (Fig. 2C e 2D). Esempio fisico: l'orbita di un pianeta attorno al sole.
c) L'attrattore strano, rappresentato da una regione nello spazio che descrive traiettorie che variano ad ogni ciclo (Fig. 2E e 2F). Esempio fisico: un pendolo doppio, in cui un secondo pendolo sia applicato al termine del braccio del primo pendolo. Le oscillazioni del secondo pendolo influiscono su quelle del primo, rendendo il sistema caotico.
Tornando
al grafico della figura 2, si vede che nelle condizioni di regime
caotico, il risultato diventa molto sensibile alle variazioni delle
condizioni iniziali: ad esempio, si vede che modificando anche di solo
1/100 la Ainiziale (da 1.00 a 1.01), l'evoluzione del tracciato della
figura 2F cambia drasticamente rispetto all'evoluzione ottenuta in Fig.
2E: dopo alcune iterazioni i due tracciati non hanno alcun punto in
comune.
Una piccola variazione si amplifica rapidamente a tal punto che
dopo alcune iterazioni si perde completamente la periodicità precedente.
Ciononostante, una somiglianza fondamentale tra i due percorsi deve
essere sottolineata: i valori rimangono "confinati" entro due estremi,
un massimo ed un minimo in alto ed in basso. Quest'area potrebbe essere
considerata il bacino d'attrazione della funzione descritta (fissati i
parametri k e Amax).
Quanto più un sistema omeostatico è complesso,
tanto più è complesso il suo controllo, che può essere effettuato da
molti elementi disposti in sequenze ed in reti. Tali reti dinamiche
(networks) connettono diversi elementi e gestiscono l'informazione con
meccanismi di amplificazione o di inibizione multipli ed incrociati.
Nell'organismo umano, esempi di tali reti sono quelle neurali, quelle
del sistema immunitario, delle citochine (proteine con funzioni di
segnale che si scambiano varie cellule), dei sistemi che controllano i
recettori cellulari e la trasmissione del segnale dai recettori al
nucleo, ecc.
I sistemi a rete sono presenti a tutti i livelli, compreso
quello che considera i fenomeni sociali e culturali. Inoltre, i vari
livelli sono a loro volta collegati, in quanto un livello inferiore (ad
esempio reti molecolari o cellulari) influenza il superiore (ad esempio
il pensiero, o le relazioni interumane) e viceversa.
Quando una
rete è ben funzionante, ben "connessa" al suo interno, il comportamento
dell'insieme regola il funzionamento delle singole variabili, ciascuna
delle quali dà il suo contributo, direttamente od indirettamente, alla
regolazione delle altre.
Per cercare di costruire modelli di tali
complessi sistemi, è stato proposto il metodo delle reti Booleane (dal
matematico G. Boole). Le reti booleane sono dei sistemi di variabili
binarie, ciascuna con due possibili stati di attività (ON e OFF),
accoppiate vicendevolmente in modo che l'attività di ciascun elemento è
regolata dalla precedente o concomitante attività di altri elementi.
L'elaborazione
al calcolatore di sistemi booleani con molti elementi mostra che il
sistema passa da uno stato ad un altro in modo deterministico e quindi,
poiché le combinazioni possibili sono molte, ma finite, per quanto
complessa sia la rete, essa finirà prima o poi per ritrovarsi in uno
stato già precedentemente formato, riprendendo quindi il ciclo di
trasformazioni. I cicli di stati che le reti booleane percorrono nel
tempo (attrattori dinamici) mostrano che ogni rete lasciata a sé stessa
finisce prima o poi in uno di questi attrattori e vi rimane.
Le
reti con molti elementi possono essere più o meno ordinate. Variando
opportunamente il numero degli elementi ed il numero delle loro
connessioni si possono trovare empiricamente dei momenti di transizione
tra ordine e disordine. Oltre alle reti booleane, esistono molti altri
modi per rappresentare le reti e simularne, con l'ausilio del
calcolatore, il comportamento.
Possibili applicazioni
Possibili applicazioni
Si
potrebbe legittimamente chiedersi se questi o simili modelli non siano
dei giochetti matematici, interessanti ma che non dicono nulla sul mondo
reale. Ciò è parzialmente vero e si deve constatare che le ricadute
pratiche della teoria del caos nelle varie discipline sono ancora molto
scarse. E' chiaro che nessun modello matematico può descrivere
esattamente la complessità del mondo naturale e che solo la verifica
sperimentale può aumentare in modo attendibile le conoscenze.
Non è però
vero che i modelli descritti siano solo delle semplici astrazioni, in
quanto comportamenti caotici di sistemi fisici reali sono stati
descritti e documentati in modo inequivocabile, proprio facendo
riferimento ai modelli matematici.
Ad esempio, recentemente è stata
fornita un'elegante descrizione di un sistema caotico, rappresentato
dalle oscillazioni di un'asta flessibile accoppiata ad un magnete che
genera impulsi alle frequenze desiderate, che può essere regolato
variando di poco le frequenze degli impulsi erogati dal magnete
(Shinbrot e coll. 1993).
I modelli matematici delle reti booleane
sono stati sviluppati progettando delle reti che simulino il genoma
umano, ponendo ad esempio il numero N = 100.000 (cioè il numero dei
geni) ed il coefficiente K = 10 (cioè il numero di ingressi, di
controlli, che ogni gene subisce).
Utilizzando simili metodi, è stato
possibile calcolare approssimativamente quanto lungo dovrebbe essere il
ciclo di una cellula, per passare attraverso tutti gli schemi di
espressione dei suoi geni (cioè, in termini matematici, percorrere tutto
l'attrattore per tornare al punto di partenza). I risultati ottenuti
(tra 370 e 3700 minuti) approssimano i dati delle osservazioni
sperimentali del ciclo mitotico (Kauffman 1991).
Una buona parte
delle applicazioni pratiche della teoria del caos sono state avanzate in
cardiologia. E' stato scoperto che la frequenza cardiaca di un
individuo sano varia nel tempo con periodicità intrinsecamente caotica:
il battito cardiaco normale non è perfettamente regolare nei soggetti
sani, ma presenta ampie variazioni che mostrano dinamiche caotiche,
mentre soggetti con scompenso cardiaco congestizio hanno minore
variabilità nella frequenza cardiaca.
La variabilità nel ritmo
diminuisce in corso di grave malattia coronarica, uso di digossina o
cocaina ed anche semplicemente nell'invecchiamento. La morte cardiaca
improvvisa è preceduta talvolta da periodi in cui si è evidenziata la
scomparsa del caos normale e l'insorgere di una periodicità più regolare
ma, proprio per questo, patologica.
In psichiatria, si potrebbe
considerare come esempio di perdita di caoticità l'insorgere di idee
fisse o di ossessioni: mentre la psiche normale segue un attrattore
"strano", ricco di variabilità pur con delle caratteristiche di
stabilità, nell'ossessivo emergono comportamenti stereotipati,
ripetitivi o fissi, difficili da modificare e curare.
Anche la patologia
psichica spesso origina e trova consolidamento dalla perdita di
capacità di comunicare con i propri simili (perdita di complessità e di
flessibilità). Varie malattie del sistema immunitario vengono oggi
interpretate come un difetti di funzionamento del network immunitario.
E' stato riportato che gli schemi di fluttuazione degli anticorpi
naturali sono alterati nell'uomo e nel topo affetti da malattie
autoimmunitarie: le fluttuazioni sono o totalmente ritmiche, o
totalmente casuali (random), mentre nel normale le fluttuazioni hanno
schemi caotici ma non totalmente casuali (cioè una situazione intermedia
tra i due estremi).
Un'applicazione dei modelli del caos riguarda
anche l'epidemiolologia delle malattie infettive: l'insorgenza e la
ricorrenza di epidemie, che come è ben noto hanno un andamento ciclico
ma irregolare, ha dinamiche che sono state analizzate con la matematica
del caos.
Ad esempio, pare che le epidemie di varicella presentino una
variabilità in cui si possono comunque evidenziare andamenti temporali
ciclici con periodo di un anno, mentre le epidemie di rosolia mostrano
un andamento tipicamente caotico, cioè più irregolare e più sensibile
all'influenza di piccoli fattori climatici o ambientali.
In
generale, si può pensare che l'introduzione di un "modo di pensare" che
tiene conto della complessità e cerca di razionalizzarne il ruolo nei
fenomeni tipici del vivente debba portare un beneficio all'esercizio
della medicina "al letto del paziente".
Infatti, uno dei rischi
dell'alta tecnologizzazione e della specializzazione della professione
medica è proprio la perdita della capacità di affrontare i problemi del
paziente in modo unitario e complesso, tenendo conto delle molteplici
variabili in gioco e delle loro interazioni.
Se l'alta specializzazione è
utile e determinante in alcuni casi (soprattutto in chirurgia), non è
sufficiente in molte altre situazioni, quando lo squilibrio che ha
portato il paziente ad ammalarsi è fatto da molte piccole e diverse
cause concomitanti, che derivano dallo stile di vita,
dall'alimentazione, dall'atteggiamento psicologico, dall'esposizione ad
inquinanti ambientali, dall'età, ecc...
In questi casi, che
rappresentano la maggior parte delle patologie correnti, per raggiungere
la massima efficacia l'approccio "scientifico" convenzionale deve
affiancarsi all'approccio "olistico" e sistemico. La "scienza della
complessità" si appresta a fornire supporto teorico e sperimentale
adeguato a questo importante obbiettivo della medicina.
Incompletezza e libertà
Incompletezza e libertà
Se
la materia di cui è costituito il nostro organismo e in particolare il
cervello obbedisse totalmente al determinismo causale come lo pensava
Laplace, ogni evento neurale avrebbe una causa fisica proporzionata, a
sua volta connessa ad altre cause analoghe precedenti, per cui
difficilmente potrebbero ipotizzarsi eventi neurali (con correlati
comportamentali) non determinati dalla catena della cause fisiche. Ogni
vera libertà sarebbe esclusa.
Ma si è detto che i sistemi naturali
lontano dall'equilibrio presentano comportamenti dinamici "complessi",
al limite tra ordine e caos. Questa classe di comportamenti dinamici è
stata rappresentata per analogia come una transizione di fase tra le due
classi fondamentali, fase "solida" (ordine, computabilità) e fase
"fluida" (caos, incomputabilità), dei comportamenti dinamici in
generale. E' intuitivo che in tale condizione-limite un sistema è dotato
di un certo grado di ordine ma insieme ne è svincolato e possiede una
certa creatività e libertà.
L'importanza del caos nelle funzioni
cerebrali è tale che alcuni autori si sono spinti a considerare questo
fenomeno la base per la creatività intellettuale o addirittura il
corrispondente fisiologico dell'esistenza di un libero volere
(Crutchfield e coll. 1986; Freeman 1991).
Che il cervello degli
organismi superiori rappresenti un esempio di estrema complessità
strutturale e dinamica è fuori dubbio.
L'assemblaggio di un sistema
nervoso può richiedere miliardi di precise connessioni tra cellule
nervose ma anche tra queste e cellule muscolari e di altri tessuti. Il
cervello umano contiene oltre 1011 neuroni, molti dei quali hanno
migliaia di connessioni con altri neuroni.
Ma non si tratta solo di un problema quantitativo: anche se l'organizzazione dei neuroni sembra essere così strettamente simile in tutte le aree neocorticali, esse compiono tuttavia molte funzioni completamente differenti.
Questo è in
parte spiegato dal fatto che le sinapsi si formano con una specificità
capace di discriminare tra milioni di neuroni. A questa precisa
discriminazione dei collegamenti neuronici contribuiscono le neurexine,
proteine superficiali delle terminazioni nervose di cui esistono oltre
mille isoforme includenti recettori capaci di operare il riconoscimento
tra cellule.
Le oscillazioni della scariche della corteccia
cerebrale sono probabilmente molto importanti per garantire il
coordinamento di diversi gruppi di cellule e di centri nervosi. Tecniche
di analisi non-lineare possono essere applicate
all'elettroencefalogramma per costruire modelli di funzionamento della
corteccia cerebrale.
In questi modelli, i vari stati comportamentali
(sonno, veglia, attenzione, ecc.) sono visti come un'attività corticale
caotica nello spazio e nel tempo, soggetta però ad un controllo che ne
aumenta la coerenza per collegamenti provenienti dal talamo od altre
aree (ad esempio la corteccia visiva riceve informazioni dalle vie
ottiche). E' stato sostenuto che le dinamiche caotiche possono fornire
la possibilità di codificare un infinito numero di orbite periodiche
instabili.
Si tratta quindi di un sistema incredibilmente complesso,
nel quale l'approccio microscopico, attraverso lo studio delle
proprietà di singoli neuroni, non permette di comprendere i fenomeni
della percezione se non è accompagnato da osservazioni sull'attività
globale e cooperativa, dipendente dal simultaneo coinvolgimento di
milioni di unità. E qui è risultato evidente il comportamento
tipicamente caotico, cioè la tendenza di vasti insiemi di neuroni a
transizioni improvvise e simultanee, da un certo grado di attività
complessa ad un altro, in risposta a stimoli anche molto piccoli.
La
rappresentazione nello "spazio delle fasi" di elettroencefalogrammi
generati da modelli computerizzati, che riflettono l'attività
complessiva del sistema olfattivo a riposo o durante percezioni, rivela
che in entrambi i casi l'attività cerebrale è caotica, con una
transizione ad immagini più ordinate, più approssimate a moti periodici,
durante la percezione.
L'attività caotica dei neuroni cerebrali sembra derivare dalla mutua eccitazione di due o più aree, in assenza di una comune frequenza di oscillazione. Ne risulta una notevole sensibilità e instabilità del sistema, e la capacità di creare nuovi quadri d'attività in rapporto all'apprendimento.
I sistemi caotici
possono agire entro ampi spettri di condizioni per la loro flessibilità,
e quindi i vantaggi funzionali di tali dinamiche sono importanti, non
soltanto per il sistema nervoso ma anche per altri sistemi, come le pulsazioni cardiache, che sono sotto il controllo del sistema nervoso.
A
livello mentale - si suggerisce - il caos come amplificazione di
fluttuazioni potrebbe essere il motore della creatività e come
generatore di imprevedibilità potrebbe essere garanzia di libero
arbitrio, pur in un mondo governato da leggi esatte.
"L'emergenza di stati mentali - sostiene K.Mainzer - è spiegata dall'evoluzione di parametri d'ordine (macroscopici) di insiemi di unità cerebrali che vengono causati da interazioni non-lineari (microscopiche) di cellule nervose in strategie di apprendimento lontano dall'equilibrio termico".
La capacità del cervello di rispondere in modo flessibile alle
sollecitazioni del mondo esterno e di generare nuovi tipi di attività,
compreso il concepire idee nuove, è connessa alla tendenza di ampi
gruppi di neuroni a passare bruscamente e simultaneamente da un quadro
complesso di attività ad un altro in risposta al più piccolo degli
stimoli. Questa capacità è una caratteristica primaria di molti sistemi
caotici.
Secondo la scienza classica deterministica dei tempi di
Laplace, ogni evento naturale dovrebbe avere la sua specifica causa
dello stesso ordine di grandezza. Ciò significa che cause di entità
relativamente trascurabile non potrebbero generare eventi notevoli. Ma
recentemente sono state fornite molte dimostrazioni del fatto che
sistemi caotici di vario tipo possono essere influenzati e addirittura
"regolati" da minime perturbazioni dei parametri di controllo del
sistema.
Quando si tratta di oscillazioni di variabili biologiche
(oscillazioni molecolari accoppiate ad oscillazioni di un campo
elettromagnetico) è notevole che campi elettromagnetici, di diversi
ordini di grandezza più deboli del gradiente di potenziale
trans-membrana, possono modulare azioni di ormoni, anticorpi e
neurotrasmettitori a livello di recettori e di sistemi di trasduzione e
che anche l'attività proliferativa cellulare è influenzata da campi
elettromagnetici, anche di intensità molto debole (0.2-20 mT, 0.02-1.0
mV/cm).
Molte di queste interazioni sono dipendenti dalla frequenza più
che dall'intensità del campo, cioè compaiono solo in determinate
"finestre" di frequenza, fatto che suggerisce l'esistenza di sistemi di
regolazione non-lineari e lontani dall'equilibrio.
In conclusione si
può fare l'ipotesi che eventi mentali attraverso piccole perturbazioni
potrebbero interferire per es. sulla frequenza del campo
elettromagnetico che può modulare azioni di neurotrasmettitori, e infine
modificare dinamiche del sistema, attrattori e campi delle forme.
Questa ipotesi non fa che estendere la prospettiva di azione degli
eventi mentali quale ipotizzata già da altri che l'hanno paragonata a
quella dei campi di probabilità della meccanica quantistica su eventi
probabilistici sinaptici.
L'influenza mentale sugli eventi sinaptici
potrebbe infatti esponenzialmente amplificarsi attraverso la nota,
estrema sensibilità delle dinamiche caotiche alle piccole perturbazioni.
La presenza di caos deterministico è stata dimostrata su semplici
sistemi neuronali "in vitro", e così pure la possibilità di controllare i
sistemi caotici, cioè di rendere il loro comportamento regolare o periodico; o viceversa di "anticontrollare" comportamenti periodici inducendo il caos.
Libertà e dolore
Libertà e dolore
Libertà
e dolore sono strettamente correlati. E' a tutti evidente che tanta
parte della sofferenza umana viene dalla libera scelta degli uomini, dal
cattivo uso della libertà. Questa sofferenza così provocata pone
certamente dei problemi interpretativi, ma in qualche modo è spiegabile
perché la sua causa sta nell'esistenza di esseri liberi, come tali
capaci di scegliere fra diversi possibili comportamenti. Se non si
vuole annullare la libertà, si deve accettare che esista questo male,
anche nell'estensione e nell'intensità che rappresenta uno scandalo come
Auschwitz.
Ma vi è anche un'altra sorta di male, che non è così
direttamente imputabile alla cattiveria umana, e che tuttavia provoca
tanta ingiusta sofferenza, scandalo dunque ancora maggiore perché sembra
implicare una cattiveria radicale della natura: chi ha visto gli occhi
scavati e smarriti di un bambino leucemico ne ha riportato
un'impressione, come quella che si può avere di fronte al dolore e alla
morte prodotti dalle diverse calamità naturali.
Tradizionali
interpretazioni del dolore e della morte hanno attribuito in definitiva
anche questo tipo di male all'uso (e all'abuso: "peccato originale")
della libertà da parte dell'uomo. Noi qui non affrontiamo questo tema,
di competenza metafisica, ma vogliamo esporre alcune considerazioni sul
rapporto tra complessità, libertà e dolore.
Se la materia di cui è
costituito il nostro universo e in particolare il nostro organismo
obbedisse totalmente al determinismo causale come lo pensava Laplace,
difficilmente potrebbero accadere eventi quali quelli che noi definiamo
imprevedibili sciagure, calamità, errori accidentali che comportano
malattia, e dunque la presenza di dolore.
Ciò vale infatti sia per
quanto riguarda in generale l'ambiente (la biosfera), sia per quanto si riferisce alla relativa instabilità dell'ordine biologico.
In
questa sede pensiamo sia significativo un esempio concreto, ormai
classico e del resto ampiamente conosciuto, che riguarda
l'imprevedibilità meteorologica. E' dimostrabile (Ruelle, 1992) che
violentissime alterazioni della stabilità atmosferica e, per es., una
catastrofe aerea, possono essere provocate da una perturbazione tanto
piccola quanto quella conseguente alla sospensione per un istante
dell'attrazione gravitazionale esercitata sulle molecole dell'aria da un
solo elettrone situato al limite dell'universo.
Si produrrà infatti
un'infima deviazione delle traiettorie delle molecole dell'aria e ci si
può chiedere dopo quante collisioni una molecola eviterà l'incontro con
un'altra che avrebbe incontrato se non fosse stato sospeso l'effetto
gravitazionale dell'elettrone lontano.
Nel corso delle collisioni, la
infima differenza iniziale si amplifica in modo esponenziale, per un
fattore l/r (l = distanza percorsa; r = raggio delle molecole), e dopo n
collisioni la traiettoria non ha più nulla a che vedere con quella che
avrebbe seguito la particella non perturbata.
Se la massa dell'elettrone
è distante 1010 anni luce e le molecole in questione hanno le
caratteristiche dell'ossigeno a pressione e temperatura normale, si è
calcolato che n = 56; questo numero di collisioni si realizza in una
frazione di secondo.
Se c'è la normale turbolenza di un po' di vento, i
particolari della turbolenza a piccola scala non saranno più esattamente
gli stessi. Il mutamento dopo un certo tempo produrrà un cambiamento
nella struttura della turbolenza a grande scala, che in termini di ore o
giorni arriva alla scala di qualche chilometro e in una o due settimane
si estende su scala planetaria. Un uragano violentissimo può scatenarsi
in un punto nel quale vi sarebbe stato il sereno.
Questo esempio
dimostra come nei sistemi complessi in generale, fisici o biologici, le
condizioni che permettono il gioco delle dinamiche caotiche implicano
l'estrema sensibilità alle piccoli perturbazioni.
L'impredicibilità su
larga scala è stata dimostrata per molti sistemi nei quali dinamiche
caotiche amplificano piccole fluttuazioni fino a espressioni
macroscopiche, risultando che attrattori "strani" rimuovono
l'informazione iniziale rimpiazzandola con nuova informazione, per cui
non vi è più alcuna connessione causale tra passato e futuro.
Oggi i
fisici parlano di "principio antropico" per interpretare l'universo.
Secondo tale principio, perché fosse possibile la presenza di
osservatori, quali noi siamo, questo universo doveva proprio essere per
tanti aspetti così com'è: dovevano esserci pianeti termostatati, stelle
capaci di radiazioni energetiche costanti per miliardi di anni, ecc.
Spostando un poco il punto di vista, un'applicazione del principio
antropico potrebbe essere la seguente: se gli osservatori, quali noi
siamo, dovevano essere dei soggetti dotati di libertà, allora era
necessario che la stoffa dell'universo non fosse strettamente
condizionata da leggi deterministiche, risultando rigida come
l'inferriata di una prigione; viceversa essa avrebbe dovuto garantire un
certo ambito di aleatorietà dei processi, di non determinazione, uno
spazio e un modo perché l'influenza della volontà libera potesse
esplicarsi, perché gli eventi mentali potessero causare eventi neurali.
Ma
una materia non completamente determinata nella successione degli
eventi possibili, se può servire a supporto di soggetti con libertà
d'azione, è però un orologio che può sbagliare il tempo, è un congegno
passibile di errore, ed errore in biologia vuol dire spesso dolore.
L'estensione del principio antropico ci consente dunque di dire: perché
fosse possibile la presenza di osservatori liberi, quali noi siamo,
questo universo doveva essere così com'è, doveva essere luogo di dolore.
Ogni sorta di male ha dunque una relazione causale con la libertà, o
perché può essere provocato dalla libera volontà defettibile: il male
di Caino; o perché la stessa esistenza della libertà, di soggetti
liberi, in questo universo è permessa soltanto da quella incompletezza
della algoritmicità dalla quale sono permesse anche le catastrofi, e che
viene descritta oggi dalle teorie del caos.
Le leggi che governano la
natura non sono rigidamente deterministiche, ma lasciano ampi spazi
all'indeterminazione, all'imprevedibilità, quindi all'incomprensibile
sciagura. Solo una stoffa materiale di questo tipo può d'altra parte
permettere l'esistenza di soggetti capaci di esercitare la libertà in
questo universo.
Infine, ci si può chiedere se esiste una positività
diretta del dolore, cioè se esso serve a qualcosa di per sé. In altre
parole: al di là della sua inscindibile relazione con l'esistenza della
libertà nell'universo, esiste una positività nel dolore? Esistono varie
risposte a questa domanda, a seconda dei punti di vista.
Un certo
approccio al senso del dolore ci viene fornito dalla medicina
scientifica. Considerando la fisiopatologia degli organi e dei sistemi
degli esseri viventi, si vede chiaramente che il dolore fisico è sempre
associato a una situazione di disordine, localizzato o generalizzato,
dell'omeostasi cellulare o tissutale.
Esso rappresenta insieme sia un
sintomo della malattia, cioè un campanello di allarme che, avvertito a
livello centrale, induce a un comportamento protettivo, sia un
meccanismo che di per sé mette in moto la risposta reattiva e riparativa
a livello periferico.
Gli stessi mediatori (istamina, serotonina,
prostaglandine, neuropeptidi, ecc...) che causano dolore in quanto
irritano le terminazioni sensitive dei nervi innescano la
vasodilatazione che richiama sangue nell'area colpita e potenziano la
funzione delle cellule delle difese biologiche (ad esempio i globuli
bianchi).
Quindi, da un punto di vista biologico e biomedico, se non
esistesse il dolore l'organismo non sarebbe in grado, per mancanza di
segnali e di meccanismi, di compensare e di rimediare alla lesione. Il
dolore di una ferita richiama l'attenzione sulla causa che l'ha
provocata, ad esempio una spina o una scheggia, inducendo a rimuoverla;
il dolore di un'ischemia (rallentato flusso di sangue in un certo
distretto) può salvare dall'infarto o dalla gangrena, inducendo al
riposo; il dolore di un'infezione dentale può salvare dalla setticemia
(diffusione dei batteri nel sangue e quindi in tutto l'organismo),
promuovendo l'infiammazione e quindi la difesa anti-batterica.
Il dolore
quindi, da questo punto di vista, si presenta come un'esperienza che
favorisce un rimodellamento di una serie di funzioni e di reazioni in
modo più adatto alla sopravvivenza dell'organismo nel suo insieme.
Questo
approccio alla problematica del dolore, soprattutto quello fisico, ne
dà sicuramente una visione per certi aspetti positiva, che induce il
medico (ed il paziente) a vedere il dolore non solo come un nemico da
combattere ma come un momento, necessario, di passaggio verso uno stato
di salute riconquistato.
Tuttavia, tale discorso ha un preciso limite
allorché si considera l'esistenza di mali incurabili e di dolori
assolutamente sproporzionati alla causa scatenante.
Inoltre, l'uomo
prova anche il dolore psicologico, morale e spirituale (il dolore
per la perdita di qualcuno o qualcosa di caro, compresa la stessa vita,
il dolore della coscienza del male in sé e nel mondo) e questo è il
dolore più tipicamente umano.
Per questo tipo di dolore una spiegazione
fisiopatologica è chiaramente insufficiente e si deve necessariamente
ritornare a qualche considerazione di altro genere.
Nella
prospettiva sopra delineata, che consente di vedere in qualche modo un
ruolo positivo del dolore si può cogliere un positivo non nel dolore in
quanto tale, ma solo in relazione a qualcosa d'altro e precisamente in
relazione alle prospettive di guarigione dell’organismo nel suo insieme e
la sua salute. Può questo concetto essere applicato anche al dolore
apparentemente privo di finalismo fisiologico?
Forse si, se ammettiamo
che la "legge della complessità" valga anche per la vita psichica e la
vita spirituale. In questo campo l'uomo ha dato molte risposte al
problema del dolore, che è stato trattato da filosofi, poeti, mistici e
ha costituito un punto forte di tutte le religioni.
In generale, è
chiaro che il dolore non è totalmente negativo solo se chi lo prova
riesce a trovarvi un senso.
Ma è possibile un approccio razionale ed è
possibile qualche generalizzazione, al di là delle esperienze soggettive
dei singoli, che sono ciascuna unica e in un certo senso forse anche
non comunicabili?
Secondo la prospettiva della complessità, tale senso
non può che risiedere nell'apertura del sistema-uomo a qualcosa d'altro o
a qualcun altro-da-sé, apertura che faccia sperimentare un
ri-assestamento del proprio io (interno) verso uno stato di maggiore
armonia e di maggiore consapevolezza.
In precedenza si è illustrato il
concetto di sistema vivente come sistema aperto e dissipativo, nel senso
che mantiene il proprio ordine interno per il continuo flusso di
energia, materia e informazione che lo attraversa e per la continua
dispersione di entropia nell'ambiente.
L'"apertura" del sistema vivente,
che si mantiene in uno stato di continuo disequilibrio e di continua
cooperazione di molti sotto-sistemi, fa si che esso sia in grado di
disperdere l'entropia che altrimenti - se fosse chiuso - lo porterebbe
inevitabilmente, secondo le leggi della fisica, all'equilibrio
termodinamico e alla dissoluzione. Quindi apertura, comunicazione,
instaurazione di legami, dissipazione dell'entropia di un sistema
caotico equivalgono a vita ed evoluzione.
L'uomo è un sistema
complesso, che potrebbe essere rappresentato come un insieme organizzato
di molti piani sovrapposti, o di sfere concentriche: un livello
fisico-molecolare, un livello cellulare-organico, un livello
psichico-mentale, un livello spirituale e "ontologico".
L'"apertura" del
sistema-uomo in quanto uomo non può che essere in primo luogo verso
l'altro uomo, la società degli uomini e il proprio padre-creatore (una
volta ammessane l'esistenza). Se il dolore è funzionale a questo,
possiamo prenderlo in considerazione come occasione di crescita
dell'uomo in quanto uomo.
Così come, all'opposto, se il piacere non è
funzionale a questo sviluppo, può rivelarsi ultimamente anti-umano,
perversione. Allora il dolore, che potrebbe non avere un senso su un
determinato piano (ad esempio, sul piano cellulare e organico perché
incurabile e "non-curante"), potrebbe assumere un senso se visto in un
contesto diverso, che tiene conto dei rapporti dell'uomo - in quanto
uomo - con i propri simili o con il creatore. Si entra qui in un campo
in cui la scienza sa e dice poco, forse nulla, perché il dolore appare
come un grande mistero, inscindibilmente legato al mistero dell'uomo.
Tuttavia, il "modo di pensare" secondo il paradigma della complessità ci
induce a sostenere che analogie esistano tra i diversi piani della
realtà, dal microcosmo al macrocosmo, che le leggi della complessità
siano applicabili alle molecole, alle cellule come alla vita psichica e
relazionale. Perciò una prospettiva di apertura all'altro-da-sé e
quindi al trascendente non solo non è irrazionale ma è profondamente
funzionale alla natura stessa dell'uomo e della sua evoluzione.
A
questo proposito, ci pare interessante proporre a conclusione qualche
pagina di alcuni pensatori che hanno colto questo punto (ovviamente non
possiamo essere completi nello spazio qui disponibile).
E. Mounier,
un filosofo che ha molto riflettuto sul mistero del dolore, provato
acutamente per la lunga e incurabile malattia della figlioletta
Françoise, scrive:
"Non voglio coprire in maniera puerile la sofferenza. No, la sola autentica sventura è soffrire separatamente, come volgendoci le spalle, quando non si avverte più nel male comune quella fraternità crudele, quell'intimità sofferta che ha la capacità di togliergli la spina profonda. Qualunque sia la sfumatura della sofferenza in me o in te, noi ci siamo alimentati ad una verità più grande delle sfumature. Eterna, cioè presente, fedele, questa mattina come questa sera, anche se non le siamo fedeli, anche se non potessimo esserle fedeli in qualche parte di noi stessi, per distrazione, per imbecillità, per ebbrezza, o per sonnolenza.... Tutto ciò che appartiene all'ordine spirituale progredisce attraverso le morti e le successive resurrezioni, e non c'è più nulla che conti quando manca al cuore questo assoluto dell'amore" (a Paulette Mounier, Pasqua 1943).
V.E.
Frankl:
"Per poter intendere il dolore devo trascenderlo. In altre parole, io posso intendere il dolore, posso soffrire in modo significativo solo se soffro per amore di qualcosa o di qualcuno. Cosicché il dolore, se deve essere pieno di significato, non può essere fine a se stesso".
Ed infine L. Pareyson:
"L'eccesso di male crea un credito difficilissimo da saldare. Impossibile un pareggio affidato ai soli peccatori: la situazione rimane smisuratamente deficitaria. Un profondo sgomento suscita la necessità di ricorrere alla sofferenza degli innocenti, che a sua volta si rivela insufficiente. Un ricorso ulteriore s'impone, ancora più orribile e raccapricciante: quello alla sofferenza di Dio. Solo l'incommensurabilità divina rende possibile il pareggio"... "Il male e il dolore, che sono quanto c'è di più incomprensibile e inaccettabile nella realtà, stanno addirittura al centro dell'universo e abitano nel cuore della realtà".
BIBLIOGRAFIA
- F.T. ARECCHI, I. ARECCHI, I simboli e la realtà, Jaca Book, Milano 1990.
- U. BARTOCCI, Le origini dell'ordine. Su un libro di S.A. Kauffman, in "Biology Forum" 87, 1994, pp. 387-394.
- P. BELLAVITE, G.C. ANDRIGHETTO, M. ZATTI, Omeostasi, complessità e caos. Un'introduzione. Franco Angeli, Milano 1995.
- E. Bertola, U. Curi (a cura di), The Anthropic Principle. Cambridge Univ. Press, Cambridge 1993.
- G. CASATI (a cura di), Il Caos. Le leggi del disordine. Le Scienze S.p.a., Milano 1991.
- F. Cramer, Chaos and Order. The Complex Structure of Living Systems. VCH Verlagsgesellschaft, Weinheim (Ger.) 1993.
- J.P. CRutchfield, J.D. Farmer, N.H. Packard, R.S. Shaw, Chaos. Scientific American 55, 1986, pp. 38-49.
- P. Davies, The Mind of God. Simon & Schuster, London 1992.
- A. DE GIOVANNI, Il dolore. La Scuola, Brescia 1988.
- W.L. Ditto, L.M. Pecora, Padroneggiare il caos. Le Scienze 302, 1993, pp. 58-64.
- J.C. Eccles, Do mental events cause neural events analogously to the probability fields of quantum mechanics? Proc. R. Soc. Lond. B 227, 1986, pp. 411-428.
- W.J. Firth, Chaos - predicting the unpredictable. British Medical Journal 303, 1991, pp. 1565-1568.
- W.J. Freeman, The Physiology of Perception. Scientific American 264/2, 1991, pp. 34-42.
- M.W. Ho, Che cos'è la neghentropia di Schrodinger? Biology Forum 87, 1994, pp. 164-172.
- S. GALVAN, Introduzione ai teoremi di incompletezza. Franco Angeli, Milano 1992.
- H. Jurgens, H.O. Peitgen, D. Saupe, Il linguaggio dei frattali. Le Scienze 266, 1990, pp. 42-49.
- F. Kaiser, Theory of non-linear excitations. In: Biological Coherence and Response to External Stimuli (H. Fröhlich ed.). Springer Verlag, Berlin 1988.
- S.A. Kauffman, Anticaos ed evoluzione biologica. Le Scienze 278, 1991, pp. 82-91.
- S.A. Kauffman, Origins of Order: Self-Organization and Selection in Evolution. Oxford University Press, Oxford 1993.
- L.A. Lipsitz, A.L. Goldberger, Loss of complexity and aging: potential applications of fractals and chaos in senescence. Journal American Medical Association 267, 1992, pp. 1806-1809.
- K. MAINZER, Thinking in complexity. The complex dynamycs of matter, mind, and mankind, Springer-Verlag, Berlin Heidelberg 1994.
- H. Margenau, Il miracolo dell'esistenza. Armando, Roma, 1987.
- D.R. Matthews, Physiological implications of pulsatile hormone secretion. Annales N. Y. Academy of Sciences 618, 1991, pp. 28-37.
- E. MOUNIER (a cura di Davide Rondoni), Lettere sul dolore. Biblioteca Universale Rizzoli, Milano 1995.
- G. Nicolis, Y. Prigogine, La Complessità. Esplorazioni nei ???? nuovi Campi della Scienza. Einaudi, Torino 1991.
- T.F. Nonnemacher, G.A. Losa, E.R. Weibel (a cura di), Fractals in Biology and Medicine. Birkhäuser Verlag, Basel 1994.
- L. PAREYSON, Ontologia della libertà. Einaudi, Torino 1995.
- D. Ruelle, Caso e Caos. Bollati Boringhieri, Torino 1992.
- S.J. Schiff, K. Jerger, D.H. Duong, T. Chang, M.L. Spano, W.L. Ditto, Controlling chaos in the brain. Nature 370, 1994, pp. 615-620.
- T. Shinbrot, C. Grebogi, E. Ott, J.A. Yorke, Using small perturbations to control chaos. Nature 363, 1993, pp. 411- 417.
- J. E. Skinner, m. Molnar, T. Vybiral, M. Mitra, Application of Chaos Theory to Biology and Medicine. Integrative Phys. and Biol. Sci. 27, 1992, pp. 39-53.
- J.C. Sommerer, E. Ott, A physical system with qualitatively uncertain dynamics. Nature 365, 1993, pp. 138-140.
- T.C. Südhof, The synaptic vesicle cycle: a cascade of protein-protein interactions. Nature 375, 1995, pp. 645-653.
- A. Vulpiani, Determinismo e Caos. La Nuova Italia Scientifica, Roma 1994.
- J.N. Weiss, A. Garfinkel, M.L. Spano, W.L. Ditto, Chaos and chaos control in biology. J. Clin. Invest. 93, 1994, pp. 1355-1360.
- M. Zatti, Anthropic biology. In: The Anthropic Principle (F. Bertola and U. Curi, eds.). Cambridge Univ. Press, Cambridge 1993, pp. 129-142.
- M. Zatti, Il dolore (nel) creato. Dehoniane, Bologna 1994.
Paolo Bellavite, Zatti Mauro
fonte: http://www.informasalus.it/it/articoli/paradigma_complessita.php
Nessun commento:
Posta un commento