You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Paolo Vezzoni
Intersezioni
Questioni biologiche
di rilevanza filosofica
Prefazione di
Renato Dulbecco
Affermare che la Filosofia sia un sottoinsieme della Scienza potrebbe apparire
eretico sia ai filosofi che agli scienziati. Tuttavia questo è quanto il presente
libro sostiene con due diversi tipi di argomentazioni.
Il primo consiste nell’adottare un’accezione ampia di Scienza, del tipo di
quella in vigore presso gli antichi Greci (scienza come conoscenza, senza ulteriori
distinzioni) e nel definire come Filosofia l’insieme delle proposizioni di
interesse ‘vitale’ per l’uomo. Il secondo è di mostrare di fatto quante di queste
proposizioni ‘vitali’ per l’uomo siano presenti nel settore della Scienza che va
sotto il nome di Biologia.
L’autore esamina tutto ciò che la Biologia ci dice sui fenomeni viventi e su
come si sono formati nel corso dell’evoluzione, sulla relazione tra geni e personalità,
sulla coscienza, il linguaggio e gli altri aspetti che hanno a che fare
con la specificità della natura umana.
Paolo Vezzoni, nato a Milano nel 1950, ha conseguito il diploma
di maturità classica presso l’Istituto Salesiano Sant’Ambrogio di
Milano e si è laureato in Medicina e Chirurgia nel 1974 presso
l’Università di Milano.
Ha lavorato come Dirigente di Ricerca presso il CNR, occupandosi
di genetica umana nell’ambito del Progetto Genoma Umano, diretto
dal prof Renato Dulbecco, Premio Nobel per la Medicina,
di cui è stato vicecoordinatore. Attualmente dirige il Laboratorio di
Biotecnologie Mediche del CNR presso l’Istituto Clinico
Humanitas.
E’ autore di oltre centottanta pubblicazioni scientifiche e di vari
libri e articoli, tra cui: “Biotecnologie della vita quotidiana”,
Laterza, 2000; “Si può clonare un essere umano”, Laterza, 2003;
“Il futuro e il passato dell’uomo”, Bruno Mondadori, 2006. Per
la rivista “Le Scienze” ha curato insieme a Renato Dulbecco il dossier
“Il Progetto Genoma Umano”, Le Scienze, Quaderni n. 100 D,
1998 e un inserto su “Clonazione: problemi etici e prospettive
scientifiche, Le Scienze, suppl, maggio 1997. E’ autore della voce
“Biotecnologie” per l’Enciclopedia Treccani.
Il presente libro “Intersezioni. Questioni biologiche di rilevanza
filosofica” è stato pubblicato da McGraw-Hill nel 2000.
Email: paolo.vezzoni@itb.cnr.it
A Paolo Raineri
Amico e maestro
Medicus atque philosophus
A mia moglie e ai miei figli
QUESTIONI BIOLOGICHE DI RILEVANZA FILOSOFICA
Paolo Vezzoni
Prefazione di Renato Dulbecco
1
QUESTIONI BIOLOGICHE DI RILEVANZA FILOSOFICA
Prefazione
Avvertenza
Prima parte: Introduzione, Materiali e Metodi
1. Le basi evolutive della conoscenza
. Uomini e conigli
. Il problema della conoscenza
. Terreno sdrucciolevole
.. Postulati
.. Termini e definizioni
.. Fede nella natura
. La base biologica della conoscenza
. Scienza e filosofia
.. Scienza e filosofia: anatomia di un rapporto
. Uno ed un solo metodo di conoscenza per un’enorme vastità di problemi differenti
.. Ritorno al coniglio
.. Materiale e metodi (i metodi della conoscenza)
.. Verificabilità e falsificabilità
.. Miseria della falsificabilità
.. Ci sono più proposizioni in cielo e in terra che in tutta la filosofia della scienza
.. Un metodo proteiforme
.. Castelli di carte
.. Costruttivismo
. Conclusioni
. Tesi del volume
Seconda parte: Risultati
2. Ordine meccanicismo ed ereditarietà
. La biologia molecolare
. La molecola principe
. L’uovo o la gallina
. Il lato oscuro del DNA
. Come si formano i genomi
. Il livello dell’organismo
. Lo sviluppo embrionario
3. L’evoluzione
. L’evoluzione è
. Come funziona l’evoluzione
. La genetica dell’evoluzione
. L’evoluzione umana
.. Paleontologia
.. Genetica
. Progresso e disegno versus caso e necessità
. Pensiero finale
2
4. Geni e comportamento
. L’altruismo
. Geni e comportamento
. Lipidi egoisti e memi egoisti
. I gemelli
. Animali modificati
. La genetica umana e i geni del comportamento
. Rilevanza filosofica
5. La coscienza
. Le neuroscienze
. Biologia molecolare e cervello
. Tecniche di imaging
. La coscienza
6. L’intelligenza artificiale
. L’eresia catara (continua)
. Il dibattito sulla macchina di Turing
. L’intelligenza Artificiale
. COG
7. Gli effetti comportamentali delle alterazioni cerebrali
. Le malattie ereditarie neurologiche
. Lesioni cerebrali con effetti comportamentali
. Alterazioni selettive della coscienza
. Il cervello splittato
. Le malattie mentali
. False e vere memorie
. Una personalità assai fragile
8. Il linguaggio
. Le basi biologiche del linguaggio
. Le basi cerebrali del linguaggio
. Origine evolutiva del linguaggio
. Linguaggio e pensiero nelle scimmie
. Conclusioni
Terza parte: Discussione
9. La maledizione di Hume
. Cos’è la filosofia
. Proposizioni rilevanti per la vita
. La saggezza della filosofia
. Di ciò di cui si può parlare non è lecito tacere
. Il 40% degli scienziati sono francamente dualisti
. Gli scienziati fanno filosofia?
. Ma chi esattamente cade sotto a maledizione di Hume?
10. L’argomentazione di Paley
. L’ordinatore cosmologico
3
. L’ordinatore biologico
. L’unità di tutti i viventi e l’unità del vivente con il non vivente
. La derivazione del vivente dal non vivente
. Tutto è spiegabile all’interno del sistema
. I buchi neri della teoria
11. Il dilemma di Delgado
. Monisti, dualisti, panpsichisti, riduzionisti, emergentisti
. Il difficile concetto di anima
12. Il monito di Epicuro
. La schiavitù dei geni
. Libertà e cervello
. Determinismo oltre i geni (interazionismo)
. La paura sociale del determinismo
. Un punto a favore dei dualisti
Parte quarta: Conclusioni
13. L’invettiva di Feyerabend
. E’ la scienza che definisce i confini dell’indagine filosofica
4
PREFAZIONE
Abbastanza spesso un biologo, uno sperimentatore, dopo un certo numero di anni di esperienza, comincia a guardare a
ciò che sta facendo in un modo nuovo: non si limita a considerare solo l’oggetto a cui sta lavorando, ma guarda oltre, a
problemi più vasti. E così è indotto a cercar di capire l’organizzazione del mondo vivente, le sue leggi, includendo
quelle con cui lui stesso ha familiarità, ma in un disegno più ampio. Egli sente la necessità di evitare una trappola:
quella “di essere così immerso nel mare della scienza da non accorgersi che c’è qualcosa fuori di esso”. Questo è il caso
del collega Paolo Vezzoni, il cui interesse principale sono stati i geni responsabili di malattie ereditarie, e che ora, con
questo libro, affronta i più vasti problemi della biologia, quelli di natura filosofica. Leggendo il suo libro si incontrano
alcuni dei nomi di scienziati spesso illustri che lo hanno preceduto su questo cammino.
Il ventaglio degli argomenti contenuti nel libro è molto esteso, ma si concentra su due domande principali: qual è la
base della conoscenza di noi stessi, ossia della nostra coscienza, e qual è l’origine della vita. Questi problemi trovano
nel libro un’ampia trattazione, che include i precedenti storici, a cui si dà grande importanza, e le conseguenze
biologiche attuali, che vengono discusse in considerevole dettaglio per quel che riguarda il ruolo che possono avere nel
chiarificare i due problemi.
Una speciale attenzione viene rivolta al ruolo del cervello umano come possibile determinazione della coscienza.
Vengono anche esaminati nello specifico i metodi con cui si può arrivare alla conoscenza di questi problemi, per
arrivare alla conclusione che il metodo scientifico, sperimentale, è il solo utile.
I problemi vengono discussi con la logica severa che consenta i pro e i contro di ogni proposizione. Di notevole aiuto in
queste trattazioni sono gli abbondanti riferimenti ad autori precedenti allo scopo di presentare vedute spesso contrastanti
ma rilevanti rispetto ai punti in discussione; molti autori sono citati con precisione in modo che sia facile per un lettore
interessato identificare alter fonti.
In queste discussioni l’autore prende una posizione essenzialmente imparziale. Da buon biologo e sperimentatore egli
considera tutti i dati a disposizione per cercare di giungere ad una conclusione. A un certo punto egli scrive: bisogna
“mostrare quanto di bello produce la conoscenza e lasciare che la gente scelga”. Contrariamente a molti dei suoi
predecessori, egli non argomenta per difendere una sua posizione, ma per arrivare a qualche cosa che si avvicini ad un
consenso. Questo non è facile, data la natura dei problemi: l’autore è ben conscio di questa difficoltà, e cerca di
attenuarla ricorrendo all’umorismo.
I problemi discussi nel libro potrebbero facilmente sfociare in considerazioni religiose, ma l’autore per lo più riesce ad
evitarlo, rimanendo nell’ambito della logica. Solo verso la fine viene posta una domanda che fa intravedere questa
possibilità: “Deve la storia della biologia degli ultimi 3 – 4 secoli venir necessariamente letta come la progressiva
scomparsa dell’ordinatore biologico? O potrebbe essa venir letta come la storia della progressiva purificazione dell’idea
di ordinatore?”. L’idea dell’ordinatore è supportata dall’esistenza di ordine e causalità nella Nature e dalla grande
quantità di incognite riguardanti la vita e l’Universo. Perciò è possibile una Weltanshauung delle nostre conoscenze che
sia più vasta, ma basata e centratasu di esse. Si parla ora di Dio, ma non un “Dio tappabuchi”. Il libro conclude con un
dilemma: “Che Dio esista è assurdo. Ma non si capisce come questa assurdità diventi intelleggibile se le sue aporie
vengono trasferite alla realtà materiale. Per incredibile che possa apparire qualcosa sembra proprio che esista”. E infine
l’ultima domanda: “C’è qualcuno che crede di risolvere facilmente questo problema?”.
Ho letto il libro con molto piacere: ci ho pensato molto e ho imparato molto.
Renato Dulbecco, aprile 2000
5
AVVERTENZA INDISPENSABILE
Jean Piaget, il fondatore dell’epistemologia genetica, sosteneva che i ragazzi di 15-20 anni
attraversano una fase maturativa caratterizzata da una certa propensione alle questioni filosofiche.
Col passare degli anni questa fase viene superata, così che al raggiungimento dell’età adulta queste
problematiche perdono interesse.
Una piccola porzione di persone sembra tuttavia essere incapace di procedere alla fase successiva e
mantiene un certo interesse per domande di carattere filosofico. Molti ritengono che questo possa
nuocere all’individuo, limitando la sua capacità ad affrontare i problemi concreti della vita
quotidiana, e probabilmente hanno ragione.
Questo piccolo libro in realtà è scritto esclusivamente per questa categoria di disadattati,
sicuramente meno dell’1% della popolazione generale, che, a quanto sembra, ha ancora tempo da
perdere. In effetti, non riesco a pensare ad un solo valido motivo per cui una persona sana di mente
debba interessarsi di problemi filosofici, a meno che non faccia parte dell’establishment dei filosofi
di professione per i quali la filosofia è un problema di sopravvivenza.
La biologia è una scienza così vasta e la mia ignoranza è talmente profonda che questo testo sarà
certamente ricco di errori ed omissioni, e di questo mi scuso. In particolare mi sarebbe piaciuto
avere molta più esperienza in un settore quale quello della neurofisiologia e dell’imaging cerebrale
che sono affascinanti, pur essendo estremamente specialistici.
I settori della biologia che sono di pertinenza filosofica sono, nella mia opinione, così numerosi che
non è possibile elencare né tutti i fatti né i punti di vista di ognuno. Ho cercato di riportare
fedelmente il pensiero di tutti quelli che ho menzionato, facendo spesso uso di citazioni dai lavori
originali. Malgrado ciò, è possibile che in certi casi io abbia travisato il pensiero di qualcuno, e sono
pronto a far ammenda fin d’ora.
Ho pensato di dividere il testo in alcune sezioni, con una cadenza che vuole ricordare quella di un
articolo per una rivista scientifica. Secondo questo schema generale, il primo capitolo funge da
Introduzione e da Materiali e Metodi: in esso si fa il punto sulla situazione e si espone il metodo con
cui si vuole procedere. Nei Risultati (capitolo 2-8) si elencano i dati raccolti, mentre nella
Discussione (capitolo 9-12) si cerca di interpretarli. Segue un capitolo conclusivo (capitolo 13).
Questa divisione è evidenziata nell’indice.
Le frasi che precedono ogni sezione sono tutte prese dal primo capitolo di un libretto di Thorton
Wilder. In “Il ponte di St. Louis Rey” un frate assiste al crollo del ponte sulla strada che da Lima
porta a Cuzco e si chiede perché proprio quei cinque uomini e non altri siano morti: essendo per sua
natura portato alla sperimentazione, egli decide allora di analizzare le loro vite in maniera
dettagliata per avere la risposta alla sua domanda. Racchiude le sue conclusioni in un grosso tomo,
che, giustamente, viene bruciato sulla pubblica piazza insieme al suo autore. Naturalmente si tratta
di una storia inventata, l’unica cosa vera sembra sia stato il crollo del ponte.
Impossibile ricordare tutte le persone da cui ho preso qualcosa scritto in questo libro. I miei
familiari, tutti, quelli deceduti e quelli viventi, da cui ho imparato tutto. Poi gli amici con i quali ho
discusso di filosofia per tanto tempo da giovane: Amedeo, Andrea, Piero, Roberto, Ugo, Franco,
Daniele, Claudio. Poi i padri salesiani del Liceo Classico di Milano negli anni dal 1963 al 1968,
alcuni dei quali erano dei veri crani. Un pensiero particolare va poi a Franco Pozzi e Paolo Raineri.
6
Infine vorrei ricordare alcuni dei miei colleghi del CNR di Milano. Nessuno di tutti quelli che ho
menzionato, ovviamente, è responsabile per le aberrazioni qui contenute.
7
Parte prima
Introduzione e Materiali e Metodi
“On Friday noon, July the twentieth, 1714, the finest bridge in all Peru broke and precipitated five
travellers into the gulf below. This bridge was on the high road between Lima and Cuzco, and
hundreds of persons passed over it every day….The bridge seemed among the things that last for
ever; it was unthinkable that it should break….
Everyone was deeply impressed, but only one person did anything about it, and that was Brother
Jupiter. By a series of coincidences so extraordinary that one almost suspect the presence of some
Intention, this little red-haired Franciscan from Northern Italy happened to be in Peru converting
the Indians, and happened to witness the accident.
It was a very hot noon, that fatal noon, and coming around the shoulder of a hill, Brother Juniper
stopped to wipe his forehead…At all events he felt at peace. Then his glance fell upon the bridge,
and at that moment a twanging noise filled the air, as when the string of some musical instrument
snaps in a disused room, and he saw the bridge divide and fling five gesticulating ants into the
valley below.
Anyone else would have said to himself with secret joy: ‘Within ten minutes myself!…’. But it was
another thought that visited Brother Juniper: “Why did this happen to those five? If there were any
plan in the universe at all, if there were any plan in a human life, surely it could be discovered
mysteriously latent in those lives so suddenly cut off. Either we live by accident and die by accident,
or we live by plan and die by plan. And on that instant Brother Juniper made to resolve to inquire
into the secret lives of those five persons that moment falling through the air, and to surprise the
reason of their taking off.”
Thorton Wilder, The Bridge of Saint Louis Rey
8
Capitolo 1.
LE BASI EVOLUTIVE DELLA CONOSCENZA
Uomini e conigli
A Natale mi è giunto in casa un coniglio nano. Se la vita di un coniglio è dura, quella di un coniglio
nano lo è ancora di più. In inverno essenzialmente vive in una piccola gabbia passeggiando talora
per casa, distruggendo tutto quello che riesce. A parte gli improperi che si prende, finchè è in casa
la sua vita è tranquilla, ma in estate i problemi per lui sono maggiori. Quando arriva la bella
stagione parte del suo tempo lo trascorre in un giardino relativamente aperto, perché lui è così
piccolo che passa in tutti buchi e il recinto è assai basso.
Fare del rabbit-watching mentre sta in giardino è assai istruttivo. Si capisce bene perché si dice
“meglio un giorno da leone che cento da coniglio”. Per giunta il nostro coniglio ha degli handicap
ulteriori: non ha buche in cui nascondersi e rilassarsi e secondo, non ha avuto il necessario training.
Il poveretto bruca due secondi e poi alza il muso. Fiuta il vento, ascolta i suoni, spia dappertutto, al
più piccolo rumore sospetto scatta e cambia posizione. Tutti i suoi sensi sono tesi al massimo. Per
lui veramente “nihil est in intellectu quod prius non fuerit in sensu”. Se Raffaello avesse disegnato
un coniglio nella sua Scuola di Atene, non c'è dubbio che l'avrebbe raffigurato con le quattro zampe
ben piantate per terra.
In questa cornice, si capisce come il coniglio debba sfruttare al massimo tutte le informazioni che
gli arrivano. Il loro processamento deve essere corretto, pena la vita. Il coniglio è una macchina per
fare associazioni: odori, rumori, e ovviamente immagini devono essere collegati ai mille pericoli
che lo circondano. Fare associazioni è il suo mestiere, ma cosa associare tra loro? E’ probabile che
il coniglio lo impari da piccolo, presumibilmente anche guardando il comportamento dei suoi simili.
In questo, appunto, il mio coniglio è svantaggiato, non ha avuto nessuno da cui imparare. E così
all’inizio non è stato in grado di comprendere che il giardino accanto era un luogo pericoloso.
Peraltro ho dei dubbi persino che gli fosse chiaro il concetto di cane. E così il giorno che
spontaneamente si è infilato nel giardino di mio fratello, ho potuto per la prima volta nella mia vita
assistere ad un buon esempio di vera lotta per la sopravvivenza. Per la mia generazione, che non ha
fatto nessuna guerra e che è aliena anche dalla caccia, è stato uno spettacolo angosciante, perché né
il cane né il coniglio erano più controllabili, e solo il ricorso al getto d’acqua, come si fa nelle
manifestazioni di piazza, ha potuto distogliere il cane dal fare il suo mestiere. Per il coniglio fare
cattive associazioni o non fare quelle giuste ha un prezzo che generalmente lui paga con la vita, se
non interviene un deus ex machina che cambia il corso degli eventi e risolve situazioni difficili.
Nel corso dei milioni di anni, l’apparato nervoso ha stabilito una stretta connessione tra organismi e
mondo esterno. Era necessario che questa associazione si stabilisse perché le forme viventi più
evolute potessero aver successo. Nelle ultime centinaia di migliaia di anni processi ancora del tutto
ignoti hanno fatto sì che l’interazione con il mondo esterno diventasse così sofisticata da creare un
organismo in grado di riflettere su questo processo ed in ultima analisi su se stesso e sulla realtà che
lo circonda. Non sappiamo nulla su come questo sia avvenuto e quale sia il suo substrato anatomico
e fisiologico, ma la base di questo processo trae certamente origine dalla necessità che alle proprie
sensazioni corrisponda qualcosa di reale. Meccanismi che fossero stati slegati dalla realtà non
avrebbero avuto successo. Quando ci domandiamo come sia possibile che la nostra mente sia in
rapporto corretto con la realtà, dobbiamo tenere presente che organismi da essa avulsi non
avrebbero neanche potuto evolversi.
Ovviamente la natura non ha alcun interesse per gli organismi che essa produce, per lei uno vale
l’altro. Tuttavia gli organismi sono stati in grado di sfruttare alcune contraddizioni della natura,
9
quali l’esistenza di regole. Anche in questo caso non sappiamo perché la natura abbia le sue leggi,
ma constatiamo di nuovo che, se non le avesse, non sarebbero possibili organismi di una certa
complessità. Questa è la miglior risposta a chi sostiene che le leggi di natura siano un’invenzione
della mente umana. Le associazioni, come quella tra un certo odore e la presenza di un carnivoro,
valgono se non sempre, assai spesso. In realtà non sta scritto da nessuna parte che i sensi debbano
dirci sempre cose valide, ed in effetti essi possono essere limitanti o addirittura ingannevoli. Un
puma può avvicinarsi contro vento. Il rumore di un cucchiaio contro una scodella può venir
associato al pasto che contiene, come ben sa il cane di Pavlov. E’ probabile che associazioni
fraudolente avvengano anche in natura, e che in un primo momento durante il suo addestramento
l’animale associ tante sensazioni ad uno stesso evento. La maggior parte di esse probabilmente non
perdurerà, ma alcune, quelle evoluzionisticamente vantaggiose, potrebbero rinforzarsi. Per il
coniglio nano ci sono solo associazioni, non causalità. David Hume sarebbe soddisfatto in un
mondo di conigli 1 .
Il problema della conoscenza
Rimane il problema: quello che è vero per il coniglio è vero anche per l’uomo? Con l’apparire
dell’uomo, le associazioni tra stimoli vengono processate ulteriormente in maniera completamente
nuova. Per quanto tutti i fenomeni biologici si siano evoluti nel tempo e si possano ricostruire
alcune tappe di ogni trasformazione, rimane che il risultato finale si manifesta con delle novità che
non sarebbe stato facile prevedere dall’inizio. L’anatomia e fisiologia comparata, più recentemente
supportate dalla genetica comparata, mostrano come i geni comandino le strutture, la cui evoluzione
è chiara solo col senno di poi. Anche se non possiamo sapere se l’intelletto infinito postulato da
Laplace non possa essere in grado di prevedere tutta la storia evolutiva, noi umani assistiamo alla
comparsa di proprietà che definiamo emergenti, perché non riusciamo a spiegarne la genesi. Il che
non vuol dire che non esistano.
Così la capacità di conoscere è una capacità emergente, stupefacente quanto si vuole, ma è una
realtà. Vi è una specie che pretende di dire qualcosa sul mondo di cui essa stessa fa parte. Come ciò
abbia potuto svilupparsi rimane un mistero. Negarne a priori la possibilità è dogmatismo,
esagerarne il contenuto, superbia.
Dalla notte dei tempi l’uomo ha cercato di stabilire ciò che è. Si è trovato così a discutere dei
metodi per conoscere, dei limiti della conoscenza, del ruolo dei sensi, del loro superamento, del
concetto del concetto, fino a giungere alla messa in discussione della realtà esterna. “Nulla esiste, se
anche qualcosa esistesse non si potrebbe conoscere, se anche qualcosa si potesse conoscere non si
potrebbe comunicare” dichiara Gorgia, punito per questo con la qualifica di Sofista. In realtà questo
aforisma ci prova che i Greci avevano già raggiunto un grande livello di riflessione sulla
conoscenza umana, giungendo a dubitare dei propri sensi. I paradossi di Zenone ne sono un’altra
prova. Chi ci assicura dei nostri sensi, affidarci a loro è una “petitio principii”. In realtà i Greci
hanno già detto tutto, noi siamo qui solo per i dettagli.
Un paio di millenni dopo, Copernico e Galileo potranno costruire su questa dualità sensi-ragione un
nuovo sistema per niente intuitivo. Se da un lato Galileo se la prende con coloro che non vogliono
credere a quello che i sensi dicono loro tramite un nuovo strumento, il cannocchiale, dall’altro li
1 La dottrina di Hume reagisce contro il concetto di legame causale, sostenendo che la nostra mente
ha la propensione di associare degli eventi tra loro, ma che questa associazione non rivela un
legame necessario di tipo causale.
10
accusa anche di non sapersi liberare dai sensi, quando invocano esperienze di ogni giorno per
sostenere la fissità della Terra.
“Né posso a bastanza ammirare l’eminenza dell’ingegno di quelli che l’hanno ricevuta [la teoria
copernicana] e stimata vera, ed hanno con la vivacità dell’intelletto loro fatto forza tale ai propri
sensi, che abbiano possuto antepor quello che il discorso gli dettava, a quello che le sensate
esperienze gli mostravano apertissimamente in contrario” 2 .
Quello che ci vuole è un misto di tutti e due. Non c’è niente nel nostro intelletto che non sia passato
attraverso i sensi, ma non tutto quello che ci è entrato è buono e lodevole.
Nasce così una necessità profonda, quella di riflettere sulla conoscenza e sulle vie per ottenerla. Se
esiste l’intelletto che si pone di fronte alla realtà e la indaga, è anche vero che il più delle volte si
tratta di un lavoro sporco. Come sempre nella vita, non è tutto oro ciò che luccica. Si può
trascorrere notti intere ad ammirare gli astri e a discutere dei massimi sistemi, ma si deve anche
scendere il Rio delle Amazzoni infestato da sciami di incredibili insetti, viaggiare col mal di mare
su una nave per cinque anni intorno al mondo, inseguire l’Eldorado quando tutti asseriscono che
non esiste, seguire il corso del sole per raggiungere le Indie, somministrare dei vaccini per
dimostrare che proteggono dalla rabbia, scavare nel deserto dell’Etiopia per trovare ossa vecchie di
milioni di anni, cercare la pietra filosofale o tentare di rievocare gli spiriti passati. Tutte queste sono
manifestazioni dello stesso desiderio di conoscere. Il problema è riuscire a capire quando sono i
sensi e quando è la ragione che sbaglia.
Terreno sdrucciolevole
1.Postulati
Si dice sovente che alla base di ogni conoscenza vi sono alcuni presupposti senza i quali non si
potrebbe neanche cominciare a discutere. Essi sono: che il mondo esiste, che noi esistiamo, che il
mondo è conoscibile e che noi possiamo conoscerlo.
Ogni tanto qualcuno si dà da fare per dimostrare che è proprio così. Alcuni vogliono cercare di
provare tutto dall'inizio, così da fondare tutta la nostra conoscenza con certezza. In realtà, preistoricamente
parlando, che il mondo esista e che noi esistiamo, non è un presupposto, bensì la
prima delle nostre conoscenze. Se non avessimo stabilito che noi esistiamo e che c'è qualcosa fuori
da noi non avremmo quella dote che va sotto il nome di coscienza.
Se pertanto è vero che non saremmo qui a leggere e a discutere se questa prima scoperta non fosse
mai stata effettuata, è anche vero che non siamo in grado di rispondere all'obiezione che tutto
quello che ci circonda è un'illusione e che quello che crediamo di conoscere è una costruzione
mentale.
Né si può pensare che questa critica sia monopolio di poche menti astruse. In India, l’idea che il
mondo fosse un'illusione da cui doversi liberare risale all'alba della civiltà. Platone nella Grecia
razionale asseriva pur sempre che la realtà è quella che sta fuori dalla caverna e che a noi toccano
2 Vedi G. Galilei: Dialogo sopra i due massimi sistemi del mondo. Opere, Ed.Naz, vol VII. Torino,
1964. Vedi anche R. S. Westfall: The construction of modern science. Cambridge University Press,
Cambridge, 1977, p 21 e P.K. Feyerabend: Il realismo scientifico e l’autorità della scienza. Il
Saggiatore, Milano, 1983, p. 299-343: il passo citato si può trovare a p. 321.
11
solo le ombre. I Pirroniani dubitavano di tutto, tanto da meritare secoli dopo l’attenzione di Pascal,
mentre il suo contemporaneo Descartes non poteva escludere l'esistenza di un demone ingannevole,
anche se sosteneva di poterlo a sua volta raggirare con un gioco di parole.
Checché se ne dica, è veramente grande che queste conclusioni abbiano potuto nascere migliaia di
anni fa. Ci aspetteremmo al contrario una piatta accettazione dei dati sensoriali da parte di popoli
pieni di superstizioni e credenze le più svariate. Il fatto che il livello di critica delle apparenze possa
essere stato così elevato testimonia che la riflessione su se stessi e sul pensiero trae origine dalla
notte dei tempi. Conclusione che del resto va di pari passo con lo stupore che ci coglie davanti alle
pitture rupestri di decine di migliaia di anni fa.
A queste obiezioni in effetti cosa possiamo rispondere? Essenzialmente, il massimo della nostra
risposta nel corso dei millenni è stata del tipo riassumibile nella frase di Engels: "The proof of the
pudding is eating". Di meglio non abbiamo saputo dire. L’unica risposta che abbiamo saputo dare è
stata a livello pratico, non teorico. Abbiamo così mostrato come, se accettassimo questa obiezione,
dovremmo trarre conseguenze fastidiose, compreso l'invito a buttarsi nel pozzo, perché comunque è
un’illusione, o impopolari, come l’invito a regalare dollari perché tanto non esistono. Vista la
scarsità di argomenti conviene accettare una soluzione di compromesso. Vi è una base biologica del
nostro rapporto conoscitivo col reale, ma questa asserzione non è in grado di convincere tutti,
pertanto accettiamo che il reale esiste ed è conoscibile come un postulato. In fondo la geometria di
Euclide comprende cinque postulati e di questi quattro non sono mai stati posti in discussione in
oltre duemila anni.
2. Termini e definizioni
Mentre Descartes cercava di fondare tutto dall’inizio, Blaise Pascal scriveva un piccolo libretto “De
l’esprit geometrique et de l’art de persuader”. Dell’arte di convincere e di persuadere” in cui
riassumeva brevemente lo stato dell’arte della conoscenza 3 . Il nostro modo di conoscere è simile a
quello della geometria, vi sono assiomi che non possiamo dimostrare e vi sono termini che non
possiamo definire. Mentre Cartesio asserisce di pensare e quindi di essere, Pascal mostra
semplicemente come il termine essere sia per l’appunto indefinibile, rendendo pertanto vana la
formulazione di Descartes. Se tutto il nostro linguaggio si basa sul verbo essere, che non sappiamo
definire, evidentemente le basi del nostro ragionamento sono fragili. Quasi due secoli dopo, la
formulazione delle geometrie non euclidee avrebbe confermato che i punti di partenza di tutti i
nostri ragionamenti sono arbitrari, che anche quello che non sembra intuitivo può essere costruito in
un sistema formale. Ma se il terreno su cui si lavora non è solido, se non possiamo neanche dire che
due rette parallele non si incontrano mai, allora qual è lo stato delle costruzioni che vengono
edificate su di esso?
Il verbo essere, che è alla base di tutto, non è definibile e quindi qualsiasi costruzione edificata in
maniera formale su di essa non sa in realtà di cosa parla. Come è possibile basare tutto un sistema
che deve parlarci della terra e dei cieli senza sapere cosa esso voglia dire? D'altro canto, da dove
nasce questa difficoltà? Dal fatto che questo concetto di essere è primitivo, coincide con
l'acquisizione stessa della capacità conoscitiva, è il presupposto senza il quale non saremmo umani.
E' una modificazione che intercorse nel cervello di un ominide che diede origine alla specie H.
sapiens. Questa modificazione ce l'abbiamo tutti ed è per questo che ne possiamo parlare. Essa è
intersoggettiva, tutti abbiamo la stessa modificazione cerebrale e le abbiamo dato il nome di essere.
3 B. Pascal: Sullo spirito geometrico e sull’arte di persuadere. In Opuscoli e lettere. Edizioni
Paoline, Milano; p. 80-120. Il libro fu scritto circa nel 1658
12
Ma le difficoltà non si fermano al concetto di essere. La verità è che abbiamo grande difficoltà
anche a definire operazioni che stanno alla base di ogni forma di conoscenza. Termini indicanti
processi come "spiegazione", "dimostrazione", e altri sono in realtà mal definiti, tanto che alla fine
ci si deve rivolgere al "senso comune", o più prosaicamente, all'autorità di un dizionario, che
ovviamente di autorità non ne ha alcuna, anche se può essere utile per superare gli esami di greco o
di latino.
Il sistema stesso del ragionare è in realtà assai meno certo di quanto possa sembrare. Il problema del
nesso non è chiaro per niente. Prendiamo la migliore delle forme possibili, quella del formalismo
logico o matematico. Certo, alcune forme di ragionamento, come quella del sillogismo, può essere
descritta facendo uso della teoria degli insiemi. Ma cosa dire di alcune nozioni che stanno alla base
di tutto, ad esempio qual è lo status dei connettivi ? Noi li usiamo, addestriamo i bambini ad usarli,
ma non possiamo far di più. In realtà, c’è bisogno di un lungo training perché tutti li usino allo
stesso modo, tanto che anche persone di un certo livello non sempre sanno maneggiarli
correttamente. E' probabile che siamo di fronte a concetti primigeni, che, come accade per il verbo
essere, sono comprensibili solo in quanto hanno un correlato neuronale che è uguale o simile in tutti
i cervelli, almeno in quelli che vengono addestrati nella logica matematica. Il sospetto pertanto è
che ci voglia un addestramento speciale perché tutti possiamo utilizzare termini, concetti ed
operazioni nello stesso senso. In effetti questo potrebbe spiegare perché molti non capiscono la
matematica, in quanto non sono in grado di "sintonizzarsi" sulla stessa lunghezza d'onda degli altri.
3. Fede nella natura
L'ultimo grande presupposto per la conoscenza è la fede nella regolarità della natura. Se la natura
non avesse un comportamento regolare, ogni nostro tentativo di conoscere non sarebbe mai
sommatorio. Ogni dato singolo potrebbe venir acquisito, ma non faremmo alcun passo avanti.
Potremmo presumibilmente dire proposizioni del tipo "ora, qui", ma non generalizzazioni. Se il
giaguaro non riflettesse la luce sempre allo stesso modo e se i fotoni non seguissero sempre le stesse
regole, il coniglio potrebbe accorgersi di un giaguaro una volta sì e una no, e la sua corsa
terminerebbe presto.
In effetti, come scrisse Hume,
“If there is any suspicion that the course of nature may change, and that the past may be no rule for
the future, all experience become useless and can give rise to no inference or conclusion” 4 .
Anche la fede nella regolarità della natura non è in realtà un dato acquisito, ma è il risultato di una
serie di analisi del nostro rapporto con il mondo esterno. E' un'estrapolazione di dati, un’inferenza
su base induttiva, una conclusione cui i primi uomini arrivarono senza che noi possiamo risalirvi.
Inferenza che tra l’altro ha ricevuto alcune conferme da misurazioni. Ad esempio, l’analisi ha
consentito di misurare la costante gravitazionale di Newton, in un arco di oltre 3 millenni, nel quale
è stato determinato che il mutamento annuale è inferiore a quello di una parte su un miliardo 5 .
La nostra presa di coscienza circa la regolarità della natura è pertanto un’inferenza su base empirica,
e va di pari passo, e forse coincide con l’enunciazione del principio di causalità. Cos'è il principio di
causalità? non è una categoria kantiana, non è un principio, ma è la prima delle leggi empiriche.
Pertanto potrebbe essere fallibile, ma malgrado la critica di Hume pochi credono che l’associazione
4 D. Hume. An enquiry concerning human understanding. IV-II-32 (Encyclopedia Britannica,
Chicago, 1952)
5 Citato in Goddard Lynch, A. “Did Popper solve the Hume’s problem?”. Nature 366:105,1993.
13
ipetuta di fenomeni non significhi proprio nulla. Da numerose osservazioni della natura, venne
posta l'ipotesi che ogni evento è collegato ad altri in maniera indissolubile e a questo legame si
diede il nome di causalità. Le osservazioni successive hanno rafforzato questa ipotesi e, con buona
pace di molti meccanici quantistici, ci vuol altro che un principio di indeterminazione per scuoterla.
Rimane tuttavia che il termine di “causa” rientra tra quelli che sono difficilmente definibili, che
possiamo chiamare primitivi, e che per parlarne tra noi dobbiamo assumere o sperare che anche i
nostri interlocutori intendano la stessa cosa, cioè che abbiano avuto la nostra stessa modificazione
cerebrale. Il che in effetti sembra che succeda.
La base biologica della conoscenza.
Il substrato materiale della nostra conoscenza si è evoluto da quello degli animali inferiori, ma ha
acquisito delle capacità imprevedibili. Theodosius Dobzhansky inizia un suo libro osservando che
"Ciò che è strano, meraviglioso, non è l’esistenza reale di Dio, ma che l’idea della necessità di un
Dio sia sorta nella mente di una bestia selvaggia e immorale come l’uomo” 6 .
Se a quell’epoca ci fossero state riviste scientifiche, la nascita dell’idea di Dio sarebbe stata
certamente considerata un breakthrough e avrebbe meritato lunghi editoriali favorevoli. Il problema
è che non ci sono registrazioni dirette delle prime grandi conquiste conoscitive dell’umanità. La
ruota è arrivata tanto, tanto tempo dopo.
Queste grandi conquiste, non sono acquisite per sempre e non sono ancora state cooptate nel
genoma, né si può sapere se un giorno lo saranno. Devono ancora essere apprese da ogni membro
della nostra specie, ma quello che c’è nel nostro genoma ci consente di candidarci ad entrare nel
club. Nei club più esclusivi si entra solo in base al pedigree. Per questo, lo scimpanzé, per ora ne
resta fuori. Però siamo in un periodo di grande democrazia e non sappiamo cosa succederà nel
prossimo millennio.
Che vi sia una base biologica nella nostra conoscenza e che questa possa essersi evoluta, può essere
accettato da molti, ma non da tutti. D’altro canto questa interpretazione ci potrebbe spiegare perché
mai possiamo conoscere la realtà. Perché ci siamo nati dentro. Vi è un gap di qualche milione di
anni tra l’Homo sapiens e l’antenato comune con le scimmie antropomorfe e le tappe intermedie
vengono indagate con gran difficoltà. Sotto i nostri occhi abbiamo ora una specie che non solo
esegue meccanicamente associazioni e comportamenti, ma una specie che formula domande su
tutto. Su ciò che è necessario sulla sua sopravvivenza, ma anche su questioni di fondo: chi è l’uomo,
cos’è la coscienza, da dove origina l’universo e l’uomo stesso, sull’esistenza del mondo reale, che
formula concetti astratti, che si interroga sugli universali, che analizza il proprio cervello, che cerca
di fondare su basi certe le proprie convinzioni. L’uomo vuole conoscere tutto. Sono situazioni
completamente nuove, proprietà emergenti la cui base è ignota, prima di noi non se ne trova traccia.
La domanda pertanto è: come è possibile con tutte queste limitazioni costruire qualcosa che stia
in piedi? La risposta è che è possibile, anche se quello che si ottiene è soggetto a rovinosi crolli.
D'altro canto è possibile costruire palafitte senza conoscere minimamente la legge di gravitazione
universale che tuttavia governa la statica della palafitta. Cuore e polmoni fanno il loro lavoro da
decine di milioni di anni, anche se noi non sappiamo come.
6 T. Dobzhansky: Le domande supreme della biologia. De Donato, Bari, 1969; p. 11. Dobzhansky
cita la frase da Dostoevskij che la fa pronunciare a Ivan Karamazov.
14
Il coniglio nano poveretto, si dà da fare come può. Si attacca a tutto quello che può essergli utile per
salvarsi la pelle. Noi non siamo in una situazione tanto migliore per certi aspetti. E' vero, dopo
centinaia di migliaia di anni di lotta e dopo avere sviluppato una considerevole astuzia, vogliamo
conoscere il mondo non solo per portare a casa la ghirba ma anche per avere risposte a domande che
nessun coniglio si porrebbe mai. Ciononostante, siamo su un terreno assai sdrucciolevole per quanto
riguarda la nostra conoscenza e possiamo scivolare ad ogni pie’ sospinto.
Per fortuna, possiamo far tesoro di tutti i tentativi ed errori fatti dal coniglio. Nel corso di decine di
milioni di anni, le forme viventi cosiddette superiori hanno sviluppato un profondo rapporto con il
mondo reale a prezzo del loro sangue. Non abbiamo idea di quanti organismi si siano sacrificati per
consentire all'uomo di arrivare ad avere non solo degli ottimi sensori, ma soprattutto una capacità
processiva che anche i computer ci invidiano. L'eredità che abbiamo ricevuto è consistente e,
bisogna dire, noi non l'abbiamo certo seppellita sotto terra, ma l'abbiamo investita al meglio.
Abbiamo ereditato la capacità di raccordarci con il reale, anche se non sappiamo come, né quale sia
la base di questo fenomeno, e l'abbiamo applicata così bene che gli dei ci guardano ora con
sospetto. Essi hanno incatenato Prometeo e ci hanno scaricato addosso tutto il contenuto del vaso di
Pandora, ma questo non ci ha fermato. Ci siamo fatti scacciare dal giardino dell'Eden, ma tutto
quello che abbiamo ora ce lo siamo procurato da soli. Fra tutto ciò non vi è dubbio, la conquista
principale è l'affermazione che noi esistiamo.
Pertanto la nostra conoscenza si basa su una serie di risultati grandiosi ottenuti nella notte dei
tempi da sistemi cerebrali che hanno operato una serie di analisi che ci hanno esse stesse
permesso di diventare uomini. Questi risultati, che hanno avuto luogo in tempi e modi che per ora
ci sfuggono completamente, sono tuttavia indimostrabili, nel senso che attribuiamo a questa parola
nelle rigorose analisi scientifiche. Almeno per ora.
Può darsi che questa conclusione getti qualcuno nella disperazione e lo induca all'abbandono e alla
rinuncia. Non credo che per costoro si possa far nulla, sono persi per la conoscenza (la loro scelta
comunque può avere ottime motivazioni). Ma con tutti gli altri ci si può incamminare verso il
terreno della discussione. D'altro canto, cosa dire ad uno che vuole giocare a calcio con le mani ? Se
questo ci chiede perché le regole sono così o, peggio, se ci comincia a chiedere da dove discende
l'obbligo di non usare le mani, cosa si può fare? si può solo chiedergli di togliere il disturbo o nei
casi estremi lasciarlo a parlare da solo.
D'altro canto, il calcio si fa diffondendo sempre più, anche negli Stati Uniti sempre refrattario a
questo sport 7 . Evidentemente il calcio è dotato di un certo fascino tra i giovani. L'analogia però si
dovrebbe fermare qui. Se non c'è nessun motivo per preferire il calcio al basket o al baseball, è
probabile che ci siano numerosi motivi perché la conoscenza sia piacevole per le menti giovani (o
ce ne sono di più che incentivano l'irrazionalità ?). Questi motivi non sono assoluti, ma si spera ci
siano: chi mai sceglie di giocare a cricket oggidì ?. E' bene che sia chiaro fin dall'inizio che si può
decidere di vivere nelle tane fino a diventare ciechi, ma anche i timidi conigli hanno scelto di non
limitarsi a vivere nei cunicoli (da cui il loro nome dotto, Oryctolagus cuniculus, da cui
presumibilmente è derivato il termine italiano) perché evidentemente qualcosa di piacevole c'è
anche fuori, anche se si rischia la pelle.
Pertanto, l'unica possibilità è mostrare quanto di bello produce la conoscenza e lasciare che la gente
scelga. Anche se il terreno è sdrucciolevole, possiamo pure tentare di costruire qualcosa. Date le
7
Trovandomi nell’occasione negli Stati Uniti, ho avuto recentemente modo di verificare
l’entusiasmo degli americani per la vittoria ai mondiali di calcio della nazionale femminile (1999),
vittoria che solo una decina di anni fa avrebbe lasciato tutti indifferenti.
15
premesse, possiamo pensare ai castelli di carte. Non hanno alcuna fondamenta, eppure stanno in
piedi e sono tanto più belli quanto più è bravo l'artista. Ogni tanto cadono giù, ma i materiali sono
sempre riutilizzabili e possono servire per riedificare castelli più belli di quelli di prima.
Scienza e filosofia
Storicamente, ci sono state due grosse pretese alla conoscenza. Sono stati chiamati scienza e
filosofia, anche se vi è grande confusione sui termini. A volte il nucleo centrale della filosofia è
andato sotto il nome di metafisica.
1. Scienza e filosofia: anatomia di un rapporto
L’uomo occidentale parla in diverse lingue, ma pensa in greco. Non che non vi siano state
nell’estremo Oriente sistemi di pensiero di notevole complessità, ma tutti noi viviamo in
problematiche formalizzate dagli antichi Greci.
E’ noto, e viene insegnato in tutte le scuole di ogni ordine e grado, che per gli antichi greci la
conoscenza è una sola, e nei dialoghi platonici vi è un solo modo di ragionare. Aristotele, che fece
una summa delle conoscenza nel suo tempo, distinse nei suoi libri la Fisica (da φυσισ, natura) dalla
Metafisica, anche se le origini di questa denominazione non sono certe 8 . E’ anche noto che nel
Medioevo tutto fu denominato dalla teologia, che per i Greci era una parte della filosofia:
“Philosophia ancilla theologiae”. Non vi è nessuna opposizione tra Teologia e Filosofia, e San
Tommaso è perfettamente aristotelico. Nel Rinascimento però si assiste alla rimessa in discussione
di questo rapporto. La scienza diventa un partner esigente, anche se l’oggetto del contendere non è
la Teologia in se stessa bensì l’interpretazione letterale delle Scritture. La diatriba tra teologia,
filosofia e scienza raggiunge il culmine con la condanna di Galileo 9 . In realtà, Galileo è aristotelico
nel metodo, perché si richiama all’esperienza, e cos’è l’esperienza se non ciò che passa attraverso i
sensi ? 10 Una serie di eventi culturali e politici fanno sì che Galileo si opponga ai neo-aristotelici.
Quali che siano state le cause che portarono al processo di Galileo, rimane che “nell’immaginario
collettivo”, il processo rappresentò sempre il momento che rese indipendente la scienza dalla
Teologia.
Data la potenza della Chiesa di Roma in quel periodo, sorse per gli scienziati la necessità di trovare
un modus vivendi che consentisse loro di perseguire i propri studi senza correre rischi. Nasce così la
separazione tra scienza e filosofia, tra sapere scientifico e sapere filosofico e teologico, tra chi si
interessa del contingente e chi si interessa dell’assoluto. Una buona soluzione dal punto di vista
pragmatico, ognuno è padrone del suo campo e non invade quello dell’altro. L’enorme aumento
delle conoscenze facilita questa separazione: è difficile impadronirsi di più di una branca del sapere.
Se nel tardo Rinascimento la gente può ancora perseguire ambedue gli interessi, basti pensare a
Isacco Newton che scrisse tanti saggi scientifici quanti teologici, man mano che si procede
l’aumento delle conoscenze diventa tale da rendere difficile la pratica di entrambi i settori, il che
contribuisce a divaricare ulteriormente i due tipi di conoscenze.
8 Potrebbe essere che il termine “metafisica” tragga origine dal fatto che veniva dopo il libro di
Fisica o che si volesse indicare argomenti che andavano al di là delle cose fisiche.
9 Vi sono varie interpretazioni delle motivazioni che portarono alla condanna di Galileo, alcune
delle quali addirittura vedono il processo come un sistema per proteggere Galileo da accuse più
pesanti che non la difesa della teoria copernicana, che sarebbe all’epoca stata appoggiata dalla
Chiesa. Vedi P. Redondi: Galileo eretico. Einaudi, Torino, 1983.
10 Vedi quanto affermato sopra sul sottile gioco tra sensi e ragione in Galileo.
16
In Inghilterra tuttavia le cose si svilupparono un po’ diversamente. Qui in seguito allo scisma
anglicano, l’influenza della Roma cattolica era minore. Se è vero che David Hume, col suo invito a
bruciare tutti i libri che non contengano discorsi sulla esperienza o sulla matematica, deve essere
considerato il precursore dei positivisti logici, è anche vero che nell’ambito della Royal Society fu
molto attiva una corrente di pensiero che traeva fiducia dalla religione per lo studio della natura. Il
magnifico ordine naturale veniva considerato una manifestazione divina e l’indagine della natura
veniva vista come una via che portava a Dio. Pertanto la divisione tra scienza e teologia fu inferiore
nell’isola a quella che si manifestò nel continente. Numerosi studi supportano l’ipotesi che, ben
lungi dall’ostacolare la scienza, i presupposti del Cristianesimo abbiano favorito l’indagine
scientifica 11 .
C’è da chiedersi appunto se la visione cristiana non sia stato un elemento decisivo nella nascita
della nuova fisica. Perché la scienza è nata in Occidente ? Come avrebbe potuto nascere in India, in
un paese dove la realtà viene considerata illusione e l’agire ostacola il raggiungimento del nirvana ?
O dove la discussione è impedita dalla mistica ? Nella Summa di Tommaso d’Aquino, tutto vuole
essere rigorosamente dimostrato, il ruolo della ragione è fondamentale: essa è buona e può portarci
alla conoscenza della verità (che in fondo coincide con Dio). Il mondo è il nostro regno, e il precetto
biblico di andare e conquistare il mondo stimola l’uomo non solo a conoscere ma anche ad agire.
Come Weber attribuisce al protestantesimo un ruolo nella genesi del capitalismo, così Robert
Merton sostiene l’enorme importanza del Puritanesimo e del suo ethos nella genesi della scienza del
Settecento 12 . La Royal Society stessa era piena di Puritani. Thomas Sydenham, Robert Boyle, Isaac
Newton e tantissimi altri vedevano gli studi della natura come la glorificazione di Dio e della sua
opera. “The wisdom of God manifested in the work of creation” è il titolo di un libro di John Ray.
William Derham scrive una “Physico-Theology”. Nasce e si diffonde una “Natural Theology” che
si propone di dimostrare l’esistenza e la bontà di Dio attraverso lo studio della natura: William
Paley ne è l’esponente più noto, e il suo libro, uscito nel 1802, porta appunto questo titolo 13 .
La teoria dell’evoluzione segna un nuovo punto di frizione tra scienza e teologia, da cui nel
frattempo anche la filosofia si era emancipata. Pertanto non si può parlare di diatriba tra scienza e
filosofia, in quanto vi erano ormai molte e diverse filosofie ufficiali. Quando le memorie di Darwin
e Wallace vengono presentate alla Royal Society, la Rivoluzione francese e l’Illuminismo sono già
passati e Lamettrie ha già scritto il suo libro “L’homme machine” da oltre un secolo 14 . E’ noto che
solo da pochi anni la Chiesa Romana ha ufficialmente riabilitato dopo Galileo anche Darwin. Ma di
nuovo in Gran Bretagna, malgrado il noto dibattito tra Thomas Huxley e il vescovo Samuel
Wilbeforce, l’accettazione della teoria dell’evoluzione negli ambienti ecclesiastici anglicani è assai
più rapida. Nel 1896, Frederick Temple diviene arcivescovo di Canterbury, la massima carica della
11 C.A. Russell (editor): Science and religious belief. Vedi soprattutto i contributi di R. Merton e di
D.S. Kemsley. Inoltre, vedi R. Hooykaas: Religion and the rise of modern science. Scottish
Academic Press, Edimburgo, 1977
12 R.K. Merton: Puritanism, pietism ans science. Sociological Review 28, part I, gennaio 1936.
Reprinted in C.A. Russell: Science and religious belief. The Open University Press, Londra, 1973;
vedi nota 13, p 20-54. “It is the thesis of this study that the Puritan ethics, as an ideal-typical
expression of the value-attitudes basic to ascetic Protestantism generally, so canalized the interests
of seventeenth-century Englishmen as to constitute one important element in the enhanced
cultivation of science”. p. 20.
13
W. Paley: Natural Theology, or Evidence of the existence and attributes of the Deity collected
from the appearances of nature. Londra, 1802
14 J. Offroy de Lamettrie: L’homme machine, Leida, 1748
17
Chiesa d’Inghilterra. Dodici anni prima aveva tenuto le “Bampton lectures” a Oxford sulla relazione
tra religione e scienza, dove l’evoluzione veniva considerata un assioma 15 .
Ma soprattutto la tregua viene rotta dai neopositivisti o positivisti logici. Nell’accezione di
Wittgenstein, di ciò di cui non si può parlare bisogna tacere; ma se questo non implica ancora un
giudizio negativo sull’ineffabile, per i filosofi del Circolo di Vienna la metafisica è puro nonsenso.
Ciò che ha senso, logica e matematica a parte, è solo ciò che è suscettibile di verifica sperimentale,
e la metafisica non lo è. Karl Popper introdurrà il concetto di falsificabilità invece di quello di
verificabilità, il che, dal punto di vista dei metafisici, non fa alcuna differenza. In seguito però
l’accusa di nonsenso viene in parte mitigata. La verificabilità o la falsificabilità diventano semplici
criteri di demarcazione e non criteri di senso. Siamo di nuovo alla tregua armata, alla guerra fredda,
ma per lo meno i due schieramenti smettono di accapigliarsi.
La separazione tra scienza e filosofia potrebbe dipendere dal fatto che il metodo di conoscenza è
diverso, dal fatto che il dominio di interesse è diverso o da entrambe le cose. Nell’accezione più
diffusa è l’ultima accezione ad essere preferita dai sostenitori di entrambe le parti. Analizziamo
innanzitutto il problema del metodo di conoscenza.
Uno ed un solo metodo di conoscenza per una enorme vastità di problemi differenti
1. Ritorno al coniglio
Il metodo scientifico è la diretta conseguenza della conoscenza animale. Per l’animale, i dati
sensoriali entrano nel sistema nervoso centrale e vengono automaticamente messi in relazione con
altri dati, il tutto viene poi collegato con alcune risposte comportamentali che tendono
essenzialmente alla conservazione dell’individuo. Il rapporto temporale è estremamente importante
e per l’animale vale assolutamente il “post hoc ergo propter hoc”. Quello che funziona qui è una
specie di induzione automatica. A valle di tutto ciò c’è la verifica del mondo esterno. Se il coniglio
ha sentito un odore ed è fuggito nella tana, la realtà potrà premiarlo se la sua induzione ha
funzionato bene o potrà punirlo se ha funzionato male 16 . Per l’uomo l’induzione è cosciente e anzi
soggetto di accesi dibattiti sulla sua importanza e sul suo significato. Quello che per l’animale è uno
strumento di sopravvivenza diventa qui un principio di conoscenza. Anche per l’uomo comunque il
mondo esterno emette sentenze, ma in campo conoscitivo ormai chi muore sono generalmente le
teorie.
2. Materiali e metodi (i metodi della conoscenza)
Che io sappia, nel corso della storia sono stati reclamati essenzialmente tre tipi (o modi o metodi) di
possibile acquisizione di nuove conoscenze:
1. Il metodo sperimentale, che ha le sue radici nel famoso “nihil est in intellectu quod prius non
fuerit in sensu”, ha permeato tutto il mondo occidentale a partire almeno da Aristotele, tanto da
essere accolto con Tommaso d’Aquino anche nella sfera religiosa e diventare la dottrina
ufficiale dell’Occidente per numerosi secoli: esso prevede che ogni nuova conoscenza derivi
all’uomo attraverso l’interazione tra il suo sistema nervoso (centrale + periferico + organi di
senso) e la realtà esterna.
15 O. Chadwick: Evolution and the churches, 1966, ristampato in Science and Religious belief, vedi
op.cit p.282-293, 1977
16 Nell’esempio in questione, il coniglio salva la pelle se c’è effettivamente in giro un predatore, ma
se in assenza di predatore continuasse a rifugiarsi nei cunicoli, la sua alimentazione ne soffrirebbe.
18
2. Il metodo basato sull’intuizione, che ammette che nuove conoscenze possono essere acquisite
anche senza che queste passino attraverso i sensi, riconosce due varietà, a seconda che a) queste
conoscenze fossero già in noi e andassero solamente risvegliate o invece b) non fossero
precedentemente in noi e noi potessimo acquisirle ex-novo sia in maniera attiva (“meditando”)
che in maniera passiva (per “folgorazione o illuminazione”). Questo metodo, pur ritrovandosi
più frequentemente nella cultura orientale, è presente anche in quella occidentale, basti pensare
oltre che a Platone anche a Bergman. Per alcuni addirittura questo è il metodo di tutta la
filosofia o per lo meno di quella parte di essa che va sotto il nome di metafisica. Generalmente,
ma non è detto che la distinzione sia costante, si ritiene che la versione occidentale motivi
queste sue affermazioni con ragionamenti (pensiamo anche solo alla teoria delle Idee e
dell’Iperuranium di Platone, che, seppure presentata sotto forma dialogica e non con un vero
trattato, tuttavia è sufficientemente chiara e motivata, mentre la versione orientale si fa spesso
un vanto di non essere comunicabile con ragionamenti chiari e distinti, ma solo intuita, sentita,
partecipata o vissuta).
3. Il metodo basato sulla rivelazione in senso lato, può essere definito come segue: è il metodo per
cui un individuo acquista una nuova conoscenza in quanto un altro individuo gliela comunica;
mentre tuttavia l’individuo efferente ha ottenuto o sostiene di aver ottenuto la conoscenza
attraverso l’esperienza diretta del fatto in questione, l’individuo afferente ha precluso questa
possibilità. Questa situazione è presente in molte religioni, ma è anche parte integrante della
nostra vita quotidiana; inoltre molte proposizioni riferite al passato e non regolate da leggi note
appartengono a questa categoria.
Vediamo ora di dire qualche parola in più su ciascuno di questi presunti metodi.
1. Il metodo sperimentale
Il metodo sperimentale si basa sull’esperienza. Attraverso i sensi noi possiamo acquisire un certo
numero di conoscenze che non hanno bisogno di ulteriore elaborazione: possiamo chiamare le
proposizioni che esprimono questo tipo di conoscenza “proposizioni protocollari”, avvisando
tuttavia che non tutti concorderebbero sulla loro semplicità; alcuni infatti sostengono che non si
danno osservazioni pure, ma solo osservazioni mediate da teorie (o nell’ambito di teorie); altri, più
biologicamente, fanno notare che ogni osservazione è sempre elaborata e quindi trasformata dal
nostro sistema nervoso. Come abbiamo detto, vi sono delle limitazioni che minano alla base
l’assunzione del dato come dato puro. Le prime definizioni e le prime assunzioni hanno una base
biologica ed evolutiva che da un lato le rendono incarnate e non astratte (in senso buono), ma
dall’altro assicurano l’ancoraggio alla realtà.
Tutto ciò è senz’altro vero, ma noi qui le considereremo ugualmente come proposizioni semplici e
certe in quanto questo è l’uso che ne fa lo scienziato nel suo lavoro di ogni giorno. Esse vengono
anche dette “atomiche” perché, oltre a rappresentare delle conoscenze, sono anche le unità con cui
vengono costruite conoscenze più generali; è proprio l’enunciazione delle relazioni più generali,
anzi è proprio l’enunciazione delle relazioni tra più fatti (o più proposizioni) che costituisce le
grandi scoperte della scienza. Ora, mentre possiamo considerare le proposizioni atomiche come
immediatamente date attraverso i nostri sensi, abbiamo invece dei procedimenti precisi per valutare
la validità delle conoscenze che parlano di relazioni tra queste proposizioni, e che in genere
vengono chiamate leggi. Pur con qualche schematismo, si può dire che una legge nasce passando
attraverso varie fasi, da tempo riconosciute come caratteristiche del metodo sperimentale.
In una prima fase, che potremmo chiamare di elencazione, si selezionano le proposizioni atomiche e
non atomiche (queste ultime già precedentemente valutate) tra le quali si vuole descrivere una
nuova relazione; potremmo dire semplicemente che in questa fase si elencano i fatti che si vuole
spiegare, senza che abbia alcuna importanza il modo con cui questi siano stati ottenuti: non
interessa cioè sapere se sono stati ottenuti in maniera casuale o addirittura nell’ambito di un’ipotesi
che si vuole controbattere.
19
Nella seconda fase, che potremmo chiamare delle ipotesi, si enuncia la proposizione che descrive in
che modo i fatti precedentemente elencati stanno in relazione tra loro; questa proposizione viene
chiamata ipotesi in quanto se ne riconosce già in partenza l’aspetto di incertezza. In linea di
principio, non vi sono limiti all’arditezza delle ipotesi, essendo questo per molti addirittura un
momento governato dalla libera fantasia o un’attività simil-artistica: unica limitazione che tale
ipotesi sia testabile, cioè che l’ipotesi preveda delle condizioni in cui possa essere verificata o
falsificata, o meglio, in cui possa essere corroborata o indebolita.
E’ importante sottolineare che non vi sono regole fisse per la seconda fase. Per formulare ipotesi
che spieghino tutti i dati raccolti, la mente umana può fare quello che vuole. Può lavorare di
immaginazione, può fare ricorso alle esperienze personali, al proprio senso estetico, alla semplicità,
alla complessità, può trarre spunto dai sogni o dalla cabala, da antichi scritti o da intuizioni
fantascientifiche. Einstein può immaginare di viaggiare su un raggio di luce e Kekulè può sognare
le bisce che si mordono la coda 17 . Si può essere mossi da convinzioni religiose o dal freddo
materialismo, quello che conta non è la psicologia o la sociologia della genesi dell’ipotesi bensì le
sue conseguenze predittive: l’ipotesi deve tornare a confrontarsi colla realtà per ricevere il premio o
il castigo.
Quello che pertanto distingue il metodo scientifico è essenzialmente il fatto che a giudicare delle
bontà di una modificazione cerebrale, quale è una ipotesi, viene chiamato non la mente stessa ma un
arbitro esterno. Naturalmente in pratica vi sono dei limiti alla formulazione di teorie, limiti che sono
psicologici e tecnici. Le ipotesi più pazze possono venir formulate, ma dal momento che la loro
verifica è un processo costoso sia per l’individuo che per la società nel suo insieme, ognuno di noi
opera una certa selezione, cercando di scegliere quelle che sembrano meno strambe o più facili da
verificare.
Quindi mentre porre ipotesi può essere considerata un’attività a priori, l’aggancio con l’esperienza
viene assicurato dal confronto con i fatti, e in questo appunto consiste la terza fase che chiameremo
perciò fase della verifica (non avendo a disposizione nella lingua italiana un semplice sostantivo
corrispondente all’aggettivo “testabile”, di origine anglosassone). La verifica delle ipotesi avviene
mediante il confronto tra le proposizioni previste dalla nuova ipotesi e quelle che descrivono i fatti
realmente verificatesi in seguito all’esperimento. L’esecuzione degli esperimenti costituisce
pertanto la terza fase del metodo sperimentale, e la valutazione dei risultati in rapporto all’ipotesi ne
costituisce la fase conclusiva.
Riassumendo, le proposizioni ottenute mediante le regole del metodo sperimentale hanno le
seguenti caratteristiche: esse sono empiriche, cioè sono ancorate alla realtà; sono sintetiche, cioè ci
danno delle novità, sono provvisorie, cioè possono essere sostituite da altre in qualsiasi momento.
2. Il metodo intuitivo
I sostenitori di questo metodo non rifiutano affatto le conoscenze ottenibili mediante il metodo
precedente; tuttavia sostengono che anche con questo metodo si possono ottenere conoscenze
genuine. Forse si può caratterizzare sufficientemente bene questo metodo se si dice che sostiene che
le prime due fasi del precedente metodo da sole sono in grado di fornire conoscenze: la terza fase
viene considerata inadatta in certe situazioni. Il momento della verifica viene spesso soppresso per
via del fatto che si pretende di parlare di un mondo che va al di là delle esperienze sensibili e per
questo si etichetta frequentemente questo metodo come “filosofico” o “metafisico”, ma sarebbe
possibile applicarlo anche alla realtà sensibile. Le conoscenze che si crede di aver ottenuto mediante
questo metodo vengono spesso definite dai loro sostenitori come assolute; con questo termine
17
Questi sono solo alcuni esempi dei modi più pazzi in cui le ipotesi possono nascere. Einstein
sostiene che da bambino sognava di farsi trasportare da un raggio di luce e che questo lo aiutò
nell’ideazione della teoria della relatività. Kekulè sostiene di aver avuto l’idea della struttura
dell’anello aromatico del benzene sognando dei serpenti che si mordevano la coda.
20
sembra che si intenda dire che esse non sono suscettibili di modificazione nel tempo e nello spazio,
almeno per quanto riguarda il loro nucleo centrale.
Il distacco netto tra questi due metodi viene generalmente attribuito al rifiuto galileiano del “tentar
l’essenza”, riecheggiato poi dal newtoniano “hypotheses non fingo”, dove il termine ipotesi veniva
utilizzato in un senso completamente diverso da quello che poi si è imposto nell’accezione
moderna. L’esistenza di un mondo al di là dei sensi non accessibile tramite la semplice esperienza,
già presente in Platone e ovviamente nelle filosofie indiane, ha in realtà permeato di sé il dibattito
filosofico di tutti i tempi, compreso quello moderno, ritrovandosi non solo in Kant, ma anche in
Wittgenstein, anche se spesso ne veniva sostenuta l’inconoscibilità. Altre volte, se richiesti di
spiegare le modalità con cui si possa avere accesso a questo mondo, i sostenitori della sua esistenza
tirano in ballo concetti a loro volta non facilmente verificabili, quali l’introspezione, la meditazione
e così via. Talora si sostiene che questo mondo possa venir conosciuto attraverso l’esperienza
mistica o che semplicemente basti risvegliare in noi conoscenze sopite come appunto fa la
maieutica socratico-platonica.
Una variante estrema di questo metodo di conoscenza è quello di tipo zen. Io conosco, io so. Tu non
sai e non ci posso far niente. Chiuso il discorso. Al massimo posso raccontarti una bella favoletta.
Con tutto il rispetto per le filosofie orientali e per le loro magnifiche intuizioni, questo approccio,
assai riverito nel mondo orientale, da noi viene riservato in genere ai bambini piccoli, a cui noi ci
rivolgiamo con la versione occidentale dello zen: “E’ così, perché di sì”. Gli psicologi dell’età
infantile ed evolutiva ci dicono che questo atteggiamento è assai dannoso nel rapporto adultibambini.
3. Il metodo della rivelazione
Bisogna subito precisare che qui intendo il termine in senso molto ampio, non nel senso
strettamente religioso. Il singolo individuo può venir a conoscenza di un fatto di cui non ha avuto
esperienza, attraverso l’informazione che gli viene comunicata da un altro individuo che sostiene di
averne avuto esperienza diretta (se non sostiene di averne avuto esperienza diretta si ricade nel caso
precedente, anzi in un sottotipo ancora più debole). Molte proposizioni riguardanti il mondo
materiale del passato cadono in questa categoria, in quanto noi dobbiamo basarci per la loro verifica
su quanto ci viene testimoniato da altri; fanno eccezione quelle che obbediscono a leggi che si
presume funzionassero anche in passato (ad esempio, molti eventi cosmologici possono venir testati
in base a queste assunzioni) o eventi che hanno lasciato tracce ancor oggi rilevabili (ad esempio in
campo biologico, lo studio del DNA consente ora di esplorare almeno parzialmente il passato di
specie e individui). Per altri eventi di cui l’unica traccia è il resoconto scritto, figurato o parlato di
uno o più uomini, la storia, configurandosi come disciplina scientifica che procede per verifica di
ipotesi, ha elaborato una serie di regole per stabilire l’autorevolezza della fonte, come si suol dire.
Infine nel passato vi sono eventi che non hanno lasciato tracce né sulla carta né nella pietra e non
sono più testabili. Qual è lo status di proposizioni intorno ad essi ?
Nella nostra vita quotidiana, questo metodo di accrescere le nostre conoscenze è tanto frequente che
neanche ce ne accorgiamo; in realtà, il fatto che i vari uomini attribuiscano autorevolezza diversa a
fonti diverse è una delle cause per cui vi siano versioni contrastanti di un medesimo evento in teoria
facilmente constatabile, tanto da dover rientrare addirittura nell’ambito delle proposizioni atomiche:
basta pensare ai fatti che accadono durante una manifestazione politica per concludere che il più
delle volte un osservatore imparziale avrebbe tutte le possibilità per enunciare una proposizione che
rispecchi l’accaduto, ma che generalmente chi non ne ha avuto esperienza diretta si troverà
nell’impossibilità di decidere quale delle due versioni rispecchi veramente quello che è successo.
Questo capita naturalmente perché l’evento non è ripetibile, il che al contrario è un assunto di base
per chi studia i fenomeni col metodo sperimentale: lo scienziato, quando esamina un articolo su una
rivista scientifica, anche se non ripete l’esperimento, sa che altri laboratori lo faranno; ciò oltretutto
agisce da deterrente, perché in teoria chi bara sa in partenza che verrà scoperto.
21
Le varie religioni riconoscono spesso fondamentale importanza a questo metodo, e alcune di esse,
ad esempio il Cristianesimo, procedono con dei criteri che sono di tipo storico, valutando i
documenti e analizzando le fonti con criteri precisi e riconosciuti, reclamando che i fatti accaduti
siano valutati con lo stesso spirito con cui si valutano quelli riferiti da Tacito o Tucidide.
Ci si può chiedere quali caratteristiche abbiano le proposizioni ottenute con questo metodo: esse
sono senza dubbio incerte, anche se stabilirne la validità o almeno la probabilità sembra essere
ancora più difficile che per quelle ottenute col metodo sperimentale in senso stretto. Parimenti sono
provvisorie. Sono tuttavia empiriche e sintetiche, per lo meno quelle su eventi che hanno lasciato
una traccia.
4. Valutazione di questi tre metodi di conoscenza
Quello che dovrebbe essere chiaro a tutti è che non conosco nessuna argomentazione che costringa
ad accettare o rifiutare l’uno o l’altro o una combinazione di questi metodi. La valutazione di un
metodo deve basarsi su criteri che non fanno parte del metodo stesso. L’unico criterio cui sembra
possibile appellarsi è quello dell’analisi dei risultati. Ora sembra sufficientemente palese che quanto
a conoscenze prodotte il metodo sperimentale ne ha prodotte infinitamente di più del metodo basato
sul metodo dell’intuizione (ammesso pure che questo ne abbia prodotta qualcuna). Inoltre, anche se
i singoli scienziati possono ostinarsi a seguire convinzioni errate, a lungo andare generalmente
riescono a mettersi d’accordo. Vi è quindi un certo progresso nelle proposizioni ottenute col metodo
scientifico, mentre questo progresso non è ben visibile nelle pretese conoscenze ottenute col metodo
intuitivo, e questo per il semplice motivo che non vi sono criteri per stabilire chi ha intuito giusto.
Insomma, l’unica argomentazione che un seguace del metodo sperimentale potrebbe addurre per
convincere gli altri della bontà del suo metodo consiste nel mostrare come l’interlocutore viva
immerso in un mondo costruito in base ad esso; se poi lo stesso volesse argomentare contro il
metodo intuitivo dovrebbe mostrare come questo metodo si sia mostrato tremendamente sterile o
addirittura abbia provocato dei danni rallentando l’acquisizione di nuove conoscenze.
Si capisce tuttavia come ci si stia avventurando su un campo minato, in quanto un seguace del
metodo intuitivo potrebbe replicare che il cosiddetto progresso della scienza è in realtà un regresso,
tanto è vero che siamo pieni fino al collo di problemi nati proprio da questa società tecnologica fino
al punto di vivere colla spada di Damocle del nucleare sulla testa (anche se in questo periodo la
minaccia sembra essersi ridotta) o da distruggere tutta la natura che ci circonda. Si potrà obiettare
che così facendo si sposta la discussione sull’eticità e non solo sul puro valore conoscitivo del
metodo sperimentale, ma si potrebbe rispondere di nuovo che, visto che i criteri devono
necessariamente essere a misura d’uomo, non si vede perché ci si debba limitare ad un criterio di
pragmaticità senza introdurre altri criteri.
Penso che la discussione potrebbe durare a lungo. Personalmente ritengo che non vi siano
conoscenze ottenibili al di fuori del metodo sperimentale 18 , ma sono costretto ad ammettere che
non ho argomentazioni cogenti per convincere nessuno.
3. Verificabilità e falsificabilità.
Come abbiamo visto, la terza fase del metodo scientifico prevede che sulla base dell’ipotesi
formulata si possano effettuare delle previsioni che avranno luogo nel mondo reale: se queste
18 Eppure in matematica sembra che questo succeda. Una persona si mette lì davanti ad un triangolo
rettangolo di cui conosce solo due lati e scopre come determinare l’altro lato senza misurarlo, anzi
dimostra che questo varrà per qualsiasi triangolo rettangolo. Ora, come questo avvenga ha in realtà
del misterioso. Si risponde in genere che la matematica è una tautologia, che non dice nulla sul
mondo reale, che nella conclusione non c’è nulla di nuovo che non sia già contenuto negli assiomi e
nelle definizioni della geometria, che si tratta di un mondo di convenzioni che ci siamo costruiti
noi…. Non so se questa spiegazione sia convincente. Rimane il dubbio che qualcosa ci sfugga.
22
previsioni, che possono accadere spontaneamente in natura o che noi possiamo provocare in seguito
ad operazioni che vanno sotto il nome di esperimenti, si verificheranno nel modo atteso, l’ipotesi
verrà confermata, in caso contrario verrà screditata. La verificabilità e la falsificabilità di una teoria
sono state spesso contrapposte, e per molti l’idea di falsificare le teorie invece di verificarle sembra
essere l’uovo di Colombo 19 . Da dove deriva questa sensazione?
In primo luogo deriva da una pessima comprensione dell’attività di ricerca, in parte dovuta al ruolo
preponderante ed eccessivo che gioca la fisica tra i filosofi della scienza. La stragrande
maggioranza dei filosofi della scienza sono di estrazione fisica e tendono a trarre i loro esempi da
questa disciplina. Per nostra fortuna, a forza di leggerli, dal momento che gli esempi sono sempre
gli stessi e i dibattiti sono sempre su principio di indeterminazione, esperimento EPR, dualità ondacorpuscolo,
diavoletto di Maxwell e gatto di Schroedinger, meccanica newtoniana in rapporto a
quella relativistica, alla fine ci si abitua. Questo però è un grosso limite, che deve essere apprezzato
nella sua interezza. Naturalmente, gli spettacolari risultati ottenuti a partire da Copernico
giustificavano questo approccio limitativo. In fondo, fino alla fine dell’ottocento la biologia era
poca cosa. La fisica inoltre sembrava parlare propriamente della realtà, perché cercava di rispondere
a domande sulla materia.
In quest’ottica, Rudolf Carnap e il Circolo di Vienna introdussero il criterio di verificazione come
criterio di senso del problema in oggetto. Una teoria aveva senso se era verificabile. Come abbiamo
visto, successivamente la verificabilità divenne un criterio non di senso della teoria, ma solo di
demarcazione tra proposizioni scientifiche e tutto il resto (metafisica).
Ma cosa voleva dire verificabile ? Secondo Hume, non c’era modo di arrivare alla certezza perché il
verificarsi di cento previsioni non implicava nulla a proposito della centounesima. Dal momento
che due fenomeni non sono in relazione causale ma sono solo associati tra loro dalla nostra mente,
ne discendeva che il centounesimo poteva essere tranquillamente diverso. Per Hume ogni nuovo
evento è, come nel lancio della moneta, assolutamente casuale: 10.000 teste non aumentano la
probabilità che esca croce. Ma neanche aumentano la probabilità che esca testa, come sarebbe
portato a pensare un empirista che al contrario comincerebbe a sospettare che la moneta abbia due
teste.
Onestamente non c’è uno scienziato che sia disposto a dar retta a Hume nella pratica, e ci si può
giurare che anche dopo solo cento sequenze identiche con probabilità ½ o 1/6, ogni giocatore
d’azzardo comincerebbe a pensare che la moneta o il dado siano truccati. Sarei proprio curioso di
leggere i giudizi dei referee 20 davanti ad un lavoro che presentasse una simile sequenza di eventi
sperimentali come prodotta dal caso. Ma dal momento che i filosofi della scienza non sono giocatori
d’azzardo e spesso neanche scienziati, questo problema l’hanno preso sul serio. Così, davanti alla
proposta della sostituzione della verificabilità con la falsificabilità, molti hanno pensato che questo
problema fosse stato risolto.
Il ragionamento che sta sotto ci è noto. Mentre non bastano centomila predizioni positive
confermate, ne basta una sola negativa per falsificare una teoria. In questo modo ci possiamo
chiedere quando una teoria è scientifica? Risposta: quando è falsificabile.
19 K. Popper: La logica della scoperta scientifica. Einaudi, Torino, 1970. La prima edizione è del
1934.
20 Oggi ogni articolo che deve essere pubblicato su una rivista scientifica viene esaminato da due o
più referee che hanno il compito di sviscerare il lavoro nei più piccoli dettagli e di valutarne
l’importanza, così da consigliare l’editore se accettare o no il manoscritto per la pubblicazione.
23
4. Miseria della falsificabilità
Ma è la falsificabilità un buon criterio di demarcazione nelle discussioni teoriche sulla scienza o
almeno un buon criterio pratico?
Diciamo subito che per quanto riguarda la seconda parte della domanda, la risposta è senz’altro
negativa. Di fatto vi sono pochissime situazioni in cui gli scienziati si mettono a pensare di
falsificare una teoria. Può accadere che quando vi sono due teorie, entrambe molto accreditate ma
incompatibili, qualcuno possa pensare che sia bene cercare di fare esperimenti o osservazioni che ne
annullino una, così l’altra automaticamente acquista maggior credito. Oppure a volte, nella diagnosi
medica, può succedere che si richiedano esami (cioè che si compiano osservazioni) per escludere
una diagnosi: è pur sempre importante poter dire al paziente, “guardi non sappiamo ancora cosa ha,
ma abbiamo comunque accertato che un tumore non ce l’ha”. Ma quest’ultima situazione, come
vedremo, è una situazione particolare, perché ci si muove non nel completo ignoto, bensì in un
sistema di caselle che è già predeterminato. Ma nella stragrande maggioranza delle ricerche che
vengono pubblicate ogni settimana, si chiedono e vengono riportate verifiche e non confutazioni.
Hermann Bondi e Fred Hoyle qualche decennio orsono lanciarono una teoria detta dello “steady
state” per la formazione dell’universo in concorrenza con il Big Bang. Essendo ammiratori di
Popper, dichiararono che la loro teoria sarebbe stata falsificata da alcune condizioni specifiche.
Quando l’occorrenza di queste condizioni fu accertata, essi cercarono comunque di modificare la
loro teoria in modo da includere anche i nuovi fenomeni 21 .
Certamente questa resistenza potrebbe essere attribuita al principio di Planck, secondo cui le idee
sbagliate scompaiono perché i loro sostenitori muoiono e ai giovani non gliene frega niente della
vecchia teoria, ma sarebbe tuttavia sbagliato pensare che la falsificazione sia sempre efficace. Molto
spesso, accade che la vecchia teoria, che è stata screditata da esperimenti o da osservazioni, possa
venir salvata da apposite modifiche, dette ipotesi “ad hoc”, che, da molti storici della scienza che le
esaminano però in periodo posteriore, vengono trattate più o meno alla guisa delle giustificazioni di
un bambino colto con le dita sporche di marmellata. Chi ha detto che le ipotesi “ad hoc” sono
sbagliate per principio ?
Consideriamo questo esempio “paradigmatico”, direbbe qualcuno. Con i suoi lavori eseguiti nella
seconda parte dell’Ottocento, Mendel aveva stabilito che i geni si ereditano in maniera indipendente
l’uno dall’altro e aveva formulato le leggi che vanno sotto il suo nome. Ma quando, dopo la
riscoperta delle sue leggi, gli studi vennero ripresi, si notò che questo non era vero per tutti i geni.
Alcuni venivano ereditati insieme. Per fortuna invece di eliminare Mendel e i suoi piselli, si
provvide a fare un’ipotesi “ad hoc” che spiegava come mai questo succedeva: i geni avrebbero
potuto risiedere su strutture che venivano ereditate globalmente. Le eccezioni pertanto erano vere,
l’ipotesi “ad hoc” si rivelò esatta, e le leggi di Mendel vengono ancora chiamate leggi anche se i
geni sullo stesso cromosoma possono venir ereditati insieme.
Ma poi c’è un altro problema pratico: c’è una certa reciprocità di verifica e confutazione. Se un
esperimento che dovrebbe falsificare la teoria dà un risultato negativo, la teoria non l’ho falsificata,
ma in fondo ho anche contribuito ad aumentare il suo grado di verifica. Vi possono poi anche essere
casi in cui dopo aver fatto falsificazioni e verifiche non si capisce più niente e si deve enunciare un
nuovo principio per dire che in fondo entrambe le teorie avevano ragione (è il caso della natura
della luce).
Ma il vero problema che rende poco importante la falsificazione è che i fisici hanno sempre
presente teorie universali, mentre i biologi convivono facilmente con teorie imperfette. Ora, i fisici
21 S.G. Brush: How cosmology became a science. Sci Am, agosto 1992; p. 62-70
24
ammettono, subendo l’influenza di Hume, che c’è sempre la possibilità che se lascio cadere un
bicchiere, questo invece di fracassarsi in terra si metta a volare per aria, ma poi rimarrebbero assai
stupiti se questo accadesse. I biologi invece non si stupiscono molto quando qualcosa va storto: non
si scompongono affatto davanti alle eccezioni.
Se la prima metà del XX secolo è stato l’era della fisica, la seconda metà è il dominio della
biologia. Tra i brillanti risultati ottenuti dalla genetica, c’è naturalmente l’attribuzione al DNA di un
ruolo fondamentale come base dell’ereditarietà. La scoperta del codice genetico ha unificato i
viventi e ha dato il “la” ad un’infinità di scoperte. Questo codice prevede che ad ogni tripletta
corrisponda un aminoacido, ma qualcuna di queste triplette ha invece il significato di stop.
Meccanismo universale, verificato in un’infinità di organismi; tuttavia in alcuni casi queste triplette
codificano per un particolare aminoacido, la selenocisteina, o possono venir “aggirate”,
consentendo così di proseguire la decodificazione della successiva parte del messaggio 22 . Si
potrebbe dire: ho falsificato la teoria generale secondo la quale tutte le triplette UGA sono triplette
stop. E sarebbe giusto. E poi cosa faccio? Continuo ad usare il mio codice come prima, e nessuno si
straccia le vesti per questo. E ancora: il dogma centrale della biologia diceva che l’RNA veniva
prodotto dal DNA e non viceversa, ma quando venne dimostrato che anche l’altra via era possibile
si diede un premio Nobel agli scopritori e si andò avanti più contenti di prima.
In generale, tutte le proposizioni particolari non sono falsificabili. Il problema è che in biologia ce
ne sono un’infinità. Non conosco abbastanza bene la fisica per dire se ce ne sono tante anche lì, ma
in biologia, geologia, medicina una parte preponderante è fatta di proposizioni di questo tipo.
Tuttavia tutte queste proposizioni particolari possono essere verificate. Ben venga pertanto la
falsificabilità, ma non la si ritenga una panacea. Se proprio si volesse mantenere un criterio di
demarcazione si metta e/o. Una teoria o una proposizione è scientifica se è soggetta a verifica e/o a
confutazione.
5. Ci sono più proposizioni in cielo e in terra che in tutta la filosofia della scienza.
L’equazione testabilità = senso ha delle difficoltà. Qui ne elencheremo alcune.
Verificabilità in linea di principio.
L’idea di demarcare ciò che è scienza e ciò che è metafisica muoveva dal desiderio di dare il colpo
di grazia alla metafisica e presumibilmente anche alla religione. Tuttavia presentava anche un
aspetto molto attraente anche da un punto di vista pratico, perché rivelava la speranza di eliminare
tutta una serie di questioni assolutamente insulse, quali “quanti angeli ci stanno sulla capocchia di
uno spillo ?”. Con questa attrattiva si spiega il grande successo che ha ancor oggi il concetto di
verificabile. Un’infinità di articoli di commento a nuove tesi, sono in genere del tipo “la proposta di
X.Y. e collaboratori è nuova ed interessante, ogni conclusione è prematura, ma almeno l’ipotesi è
testabile”.
“Di ciò di cui non si parlare, è meglio tacere” pertanto, intesa in senso letterale questa
formulazione è innanzitutto un buon compromesso che dovrebbe funzionare come formula magica
per dirci ciò che vale la pena di prendere in considerazione ed evitare perdite di tempo inutili. In
realtà però, se è comprensibile che il singolo scienziato ritenga preferibile dedicare i propri sforzi a
qualcosa di investigabile (se no corre il rischio di non ottenere risultati pubblicabili), è fastidioso per
i teorici escludere tutto ciò che al momento è non investigabile.
22 B. Alberts et al: Molecular biology of the cell. Garland Publishing, New York, 1994; p. 467.
25
Per comprendere quali problemi siano reali (e quindi affrontabili) Moritz Schlick introdusse il
concetto di verificabilità in linea di principio: noi non possiamo verificare se ci siano crateri
sull’altra faccia della luna, ma possiamo per lo meno, in linea di principio, immaginare le
operazioni per poterlo fare 23 . Schlick scriveva alla fine degli anni venti.
Il problema tuttavia è che la verificabilità, o la falsificabilità, sono in parte funzione dello spazio e
del tempo, delle teorie in voga, nonché dello strumento conoscitivo con cui noi conosciamo e cioè il
nostro cervello. Questo fa sì che introdurre il concetto di verificabilità in linea di principio rischia di
farci prendere delle cantonate. La formulazione di un problema, ad esempio quello della nascita
dell’universo, potrebbe venir catalogato come metafisico in un’epoca ma come scientifico in
un’altra. Inoltre siccome molti problemi sono completamente immersi in una teoria, l’abbandono
della teoria potrebbe rendere il problema metafisico per coloro che vengono dopo e perfettamente
valido per quelli che vi sono immersi. Data una sistemazione concettuale di tipo tolemaico, un
uomo medievale potrebbe pensare che la costruzione di una torre sufficientemente alta potrebbe
risolvere il problema di cosa c’è al di là delle stelle fisse (torre di Babele). O potrebbe pensare di
riuscire a bucare la sfera celeste come nel famoso dipinto, un’immagine ripresa da un recente film
24 .
Prendiamo due discipline come la psicologia e la cosmogonia. Queste oggi vengono usualmente
ritenute parte della scienza (anche se non da tutti). E’ vero che la radiazione cosmica di fondo può
essere una verifica del big bang, ma come si procede quando di sente parlare di concetti quali
universi paralleli, singolarità, creazione continua di materia ? Siamo in grado di verificare una
singolarità ? E se è lecito chiedersi cosa succede dal 10/-37 al 10/-35 secondo, perché non ci si può
chiedere cosa succedeva tra il tempo zero e il 10/-44 secondo? Forse non lo sapremo mai, ma questi
microbi di secondo non sono reali quanto gli altri? E siamo proprio sicuri che non ha senso
chiedersi cosa succedeva al tempo zero ? Se questi universi paralleli esistono, come facciamo a
dimostrarlo ? Non solo, ma spostiamoci indietro di cento anni, quando comunque la mentalità
scientifica era già perfettamente stabilita. Cosa avrebbero pensato i fisici di allora di tutti questi
discorsi ? Certamente alcuni li avrebbero bollati tutti come metafisici. E cosa dire dell’azione a
distanza postulata da Newton ? Pura metafisica, come facciamo a pensare che qualche forza agisca
a distanza, potrebbero dire i suoi contemporanei. Tre secoli dopo Einstein, in un altro contesto,
ironizzava su una “misteriosa azione a distanza” che dovrebbe legare tra loro gli elettroni 25 . E poi
gli esperimenti teorici che status hanno ? E’ più metafisico il gatto del Cheshire o il felino di
Schroedinger ?
In psicologia, la coscienza è sempre stato un terreno minato. Cinquant’anni fa imperava il
behaviorismo, che partiva dal presupposto che quello che c’è dentro nella testa degli individui è
metafisica. E’ una scatola nera, è inutile indagare quello che c’è dentro, quello che possiamo
studiare è quello che entra (stimolo) e quello che esce (risposta). In effetti, non è chiaro come si
possa verificare quello che uno realmente pensa. Forse che il problema scompare per questo? Per
giunta, non siamo neanche d’accordo su ciò di cui stiamo parlando, perché non riusciamo a definire
23 citato in A.J. Ayer: Linguaggio, verità e logica. Feltrinelli, Milano, 1961; p. 14.
24 Nella nota immagine, che secondo H. Robin sarebbe apocrifa (vedi il suo The scientific image
from caveman to computer, Abrams, New York, 1992), un uomo buca il guscio delle stelle fisse,
giungendo a vedere le grandi ruote che muovono i corpi celesti). Nel film “Truman’s show” questa
immagine viene ripresa al termine del film quando Truman arriva al limite della calotta che copre il
villaggio su cui egli ha vissuto ignaro. In questo film vi sono almeno due livelli di lettura. Il primo è
quello dell’incredibile, totalizzante e diseducativo ruolo che svolge la televisione nella nostra
società. Il secondo, invece, può essere compreso ricordando la famosa immagine citata.
25 R.G. Newton: La verità della scienza. McGraw-Hill Libri Italia, Milano, 1999 p 177
26
ene neanche il concetto di coscienza. Tuttavia negli ultimi anni, questo atteggiamento è mutato, il
fantasma del behaviorismo non si aggira più nelle aule dei congressi europei e oggi con le nuove
tecniche di immagine che vengono eseguite nel cervello, si comincia a pensare che forse qualcosa
su alcuni aspetti della coscienza si può anche dire.
Queste difficoltà, e la funzione positiva che concetti vaghi o teorie non ben formulate o per il
momento mancanti di una chiara strategia di verifica, sono alle base di più recenti allargamenti
dell’attributo di scientifico a teorie o qualcosa del genere che vengono chiamati da Lakatos
“programmi scientifici di ricerca” 26 e da Popper “programmi metafisici di ricerca” 27 . Per Popper,
anche la teoria dell’evoluzione non sarebbe una teoria ma un programma metafisico di ricerca, in
quanto non obbedisce al suo criterio di falsificabilità. Ora, questo esempio chiarisce come si rischi,
non il ridicolo, ma almeno la plausibilità, se non si rimane un po’ elastici e se si vuole ingabbiare
l’attività conoscitiva umana in rigidi armature, che ci proteggono magari dagli attacchi dei
metafisici, ma non ci consentono poi di piegarci a raccogliere un fiore che scorgiamo lungo il nostro
cammino. Ora, considerando lo status che occupa in biologia la teoria dell’evoluzione, se la
qualifica di programma metafisico di ricerca è un titolo nobiliare che viene attribuito alle grandi
teorie esplicative per i loro sublimi meriti di servizio, va bene, ma se metafisico viene usato nel
significato usualmente attribuitogli dai filosofi della scienza, allora, pensando alla teoria
dell’evoluzione, non resta che dichiararsi tutti metafisici.
Inoltre, la verificabilità dipende anche dal sistema che conosce, e cioè dal nostro cervello. Per il
momento crediamo che la nostra possibilità di costruzione di teorie verificabili sia superiore a
quella dello scimpanzé. Lo scimpanzé, come del resto il coniglio nano, secondo studi recenti
potrebbe forse essere in grado di fare alcune verifiche. Quale era il grado di teorizzazione
dell’Australopiteco o dell’Homo erectus? Certamente l’insieme delle proposizioni scientifiche di
questi due ominidi sarebbe più limitato del nostro, ma la luna esisterebbe ugualmente 28 . E anche le
supernove, anche se nessun Australopiteco sarebbe in grado di concepire come verificare la loro
esistenza. E quali saranno le possibilità di un uomo fra un milione di anni? Dal momento che la
possibilità conoscitiva dal coniglio a noi ha fatto molta strada, non è impossibile che ne faccia
dell’altra. Tuttavia il reale (o per lo meno le leggi di natura) non è mutato apprezzabilmente negli
ultimi dieci miliardi di anni. Pertanto se definire un problema scientifico vuol dire definire un
problema reale, non dovremmo peccare troppo di antropocentrismo. Quello che noi possiamo
conoscere non si identifica con ciò che è reale e neanche con quello che deve ritenersi sensato.
Un altro problema. Quanto deve essere verificabile una teoria per essere considerata scientifica.
Prendiamo ad esempio l’ipotesi che ci siano altri uomini (cioè esseri intelligenti, sempre che noi
possiamo considerarci tali) nello spazio. In attesa di ricevere un elenco di numeri primi dal cosmo o
di spedire nelle galassie delle sonde del tipo Star Wars che ci trovino la principessa Amidala, cosa
possiamo fare ? Non si sa bene, però qualcuno potrebbe sostenere che questo problema sia
metafisico ? Qualcuno potrebbe argomentare che dato l’enorme numero di pianeti simili alla Terra
26
I. Lakatos: Falsification and the methodology of scientific research programmes. In Criticism
and the growth of knowledge. A cura di I. Lakatos e A. Musgrave, Cambridge University Press,
Cambridge, 1970
27 K. Popper: Unended quest: an intellectual autobiography: William Collins Sons, Glasgow, 1976,
p. 167-180
28 L’immagine è presa da N.D. Mermin: Is the moon there when nobody looks ? Reality and the
quantum theory. Physics Today, aprile 1985, p. 38-47. A sua volta Mermin la prende da A. Pais
(Rev Mod Phys 51:863, 1979) che egli cita nel suo articolo: “We often discussed his notions on
objective reality. I recall that during one walk Einstein suddenly stopped, turned to me and asked
whether I really believed that the moon exists only when I look at it”.
27
che ci deve essere nell’universo 29 , è probabile che questi esseri esistano. Ma di quanto questa
affermazione, che si basa su un’osservazione scientifica, muta i termini del problema ? Intendo dire:
le verifiche non sono tutte dello stesso tipo, ci sono quelle che ci convincono di più e quelle che ci
convincono di meno. Se è disponibile solo una verifica il cui potenziale di conferma è piccolo a
piacere, la teoria diventa scientifica? O rimane ancora nel limbo ?
Un ultimo grande problema è quello che chiamerei il potere esplicativo statico di una teoria. O
anche metodo scientifico abortivo. Un’ipotesi che si adatti bene ad un certo numero di fatti, e che li
colleghi tutti in un’unica spiegazione, ma che non preveda ulteriori verifiche o più frequentemente,
le cui verifiche non siamo al momento ottenibili, che status ha ? Se ne deve parlare o bisogna
tacere? E’ scientifica o metafisica ? Se completiamo la fase 2 del metodo scientifico, cioè
prendiamo un certo numero di fatti e facciamo un’ipotesi che li collega tutti, e non riusciamo a
vedere come andare avanti nella sua verifica, come dobbiamo considerarla ? In fondo, si basa su
fatti: spiega tutte le “postdizioni” ma non ha predizioni. E’ chiaro che nell’accezione ristretta, non
dovrebbe essere scientifica, e ciò certamente ci ripara dall’inserimento di ipotesi assurde. Ad
esempio, che le piste di Nazca siano state fatte dagli alieni, magari spiega un paio di fatti,
essenzialmente l’esistenza di disegni visibili solo dall’alto, ma se si cerca di pensare ad altre
verifiche, nessuno saprebbe come andare avanti. E’ facile dire che quest’ipotesi è ridicola
(incidentalmente, i suoi sostenitori direbbero che in linea di principio essi sanno benissimo come
provare l’ipotesi, basterebbe che gli alieni si facessero vedere), ma è metafisica ? Oppure, poniamo
che noi spieghiamo certi comportamenti e addirittura certi stati patologici con alcune teorie, con
l’inconscio: dal momento che questo non è (anche per sua stessa definizione) indagabile, cosa
dobbiamo pensare del suo status ? e quando avessimo un’ottima teoria, trovata all’ultimo minuto,
che spiega un sacco di fatti proprio bene, ma non si possa poi andare avanti con altre verifiche, cosa
ne sarà di lei ? Le postdizioni non hanno proprio alcun valore ? 30
Proposizioni esistenziali
E' stato detto che la scienza si interessa delle leggi generali, quelle che sono suscettibili di indagini
ripetute, verificabili. Il particolare invece non sarebbe oggetto di scienza. Ma non è esattamente
così. Questo è uno degli svantaggi della fisicizzazione eccessiva della filosofia della scienza. La
scienza di ogni giorno è fatta di indagini che non possono essere espresse sotto forma di leggi
generali bensì di conclusioni particolari. Anche queste conclusioni hanno la loro dignità, anzi in
alcune discipline sono preponderanti.
Prendiamo per esempio lo studio delle malattie. Possiamo chiederci se un gene specifico è
responsabile di una certa malattia ereditaria. Cosa dobbiamo fare ? Essenzialmente dobbiamo
prendere il DNA di pazienti affetti da quella malattia e sequenziarlo. Se ne troviamo anche uno
solo, possiamo concludere che la nostra ipotesi di lavoro è corretta ed è stata verificata: ad esempio
"il gene JAK3 è responsabile di una grave forma di immunodeficienza" 31 . Possiamo forse
falsificare la nostra ipotesi? Come abbiamo visto, per le proposizioni particolari ci si rende conto
che la falsificabilità cade nelle stesse sabbie mobili della verificabilità delle leggi generali. Se
29 G.W. Wetherill: Occurrence of Earth-like bodies in planetary systems. Science 253:535-538,
1991
30 Questo discorso verrà ripreso più avanti. Vedi capitolo 9.
31 P. Macchi et al:. Mutations of JAK3 gene in patients with autosomal severe combined
immunodeficiency (SCID). Nature 377:65-68, 1995
28
esamino 100 casi di SCID 32 e non trovo neanche un caso in cui il gene JAK3 è alterato posso
sempre pensare che il prossimo paziente lo possa avere. E se anche esamino tutti i pazienti con
SCID che ci sono sulla terra, posso sempre pensare che ne nasca uno con l’alterazione di questo
gene.
Il metodo scientifico si applica sia all’ignoto universale che all’ignoto parziale. Mi spiego: se sto
studiando come nasce il cancro, parto da quello che so per indagare altri aspetti al momento
sconosciuti per i quali non c’è alcun sistema di riferimento. Viceversa, se voglio effettuare una
diagnosi, voglio ad esempio sapere se un particolare paziente ha un cancro o un’altra malattia. In
questo caso, dispongo di un certo numero di caselle, ognuna corrispondente ad una diagnosi, che io
stesso ho definito. Devo solamente sapere in quale casella mettere i sintomi e segni del paziente 33 .
Tuttavia per far questo, formulo comunque delle ipotesi, e verifico se il paziente mostra anche i
sintomi, segni o test di laboratorio che dovrebbe avere se appartenesse a quella casella.
In questo caso, è interessante notare come il teorema di Bayes ci consenta di valutare la probabilità
di una diagnosi, dati un certo numero di sintomi. Questo perché ci si muove, nel caso della diagnosi,
in un sistema parzialmente da noi stessi definito. Se noi abbiamo stabilito la probabilità a priori che
associa un sintomo (oppure un segno, esame di laboratorio o altro) ad una serie di malattie, allora la
diagnosi diventa un semplice calcolo e noi possiamo avere automaticamente la completa diagnosi
differenziale del paziente, cioè tutta la serie di possibili diagnosi con annessa una probabilità 34 .
Questo precisamente è quello che manca nella diatriba verificabilità e falsificabilità quando si fa
ricerca in ambiente assolutamente ignoto: la verifica non è quantificata. Gli scienziati compiono i
loro esperimenti, ma la valutazione della verifica è generalmente a spanne. Ne consegue che
nessuno è in grado di dire quanto un’ipotesi sia stata verificata, il che per una ideologia che fa della
quantificazione un mito, è un fattore limitante.
Proposizioni del passato
Ugualmente interessanti i problemi rivolti al passato. I problemi del passato sono talora ritenuti
non-scientifici in quanto non soddisfano il criterio della ripetibilità. Si ritiene in genere che
caratteristica della scienza sia la possibilità che ognuno possa ripetere indipendentemente gli
esperimenti, e che questi siano accessibili a tutti. Ma anche qui il reale e il sensato si dimostrano
relativi al tempo e allo spazio. Durante la guerra di secessione americana, ci si poteva chiedere se
Abramo Lincoln fosse affetto da ulcera e da sindrome di Marfan. Problema perfettamente lecito: se
ne poteva parlare. E problema anche sensato. Morto Lincoln, la diagnosi di Marfan, studiando le
caratteristiche delle sue ossa, potrebbe ancora venir discussa senza giungere ad alcuna certezza, ma
la possibilità di porre diagnosi di ulcera non esiste più: trattandosi di parti molli, il suo stomaco non
c’è più ed ogni prova di ulcera è scomparsa. Oggi, è possibile fare diagnosi di Marfan con certezza
sulle ossa di Lincoln, prelevando il suo DNA, ma la diagnosi di ulcera rimane per il momento non
indagabile. E’ insensato chiedersi se Lincoln avesse l’ulcera ?
Naturalmente il passato può essere oggetto di scienza, tramite una serie di esperimenti che possono
venir effettuati e che sono accessibili a tutti. Ma vi sono certamente fatti che al momento attuale non
sono più suscettibili di esame. Anche la linea di sostenere la dimostrabilità in linea di principio è
discutibile. Dire che l’ulcera di Lincoln è un problema scientifico perché centocinquanta anni fa io
32 SCID: severe combined immunodeficiency, immunodeficienza severa combinata: si tratta di una
grave malattia ereditaria in cui il paziente non ha difese immunitarie e muore perché non riesce a
superare le infezioni
33 “Diagnosticare non è altro che atribuire il caso in esame ad una determinata classe o specie
nosografica.” P. Raineri: Diagnosi clinica. Storia e metodologia. Borla, Roma, 1989
34 E. Poli: Metodologia medica. Rizzoli, Milano, 1965; p.83-91.
29
avrei potuto indagarla può ancora passare. Ma che dire di quello che è successo alcuni milioni di
anni fa, o quando la terra era un ammasso fiammeggiante ? Non avrei neanche la più pallida idea
delle condizioni che potrebbero consentire di fare la verifica. O di cosa è successo durante il primo
secondo dopo il big bang? Tutta la teoria dell’evoluzione si basa su avvenimenti del passato, dei
quali la maggior parte sfugge alla nostra analisi e forse anche ad analisi future. Cosa dobbiamo
pensare di essa ?
Proposizioni su proposizioni
C’è un’ultima categoria di proposizioni che ci interessa in particolar modo. Nella ricerca scientifica
incappiamo in diversi tipi di proposizioni. Possiamo dire: una mutazione nel gene JAK3 causa
un’immunodeficienza grave. Questa proposizione può anche essere espressa nella forma: tutti gli
individui che hanno un’alterazione della funzione della proteina Jak3 hanno un’immunodeficienza.
O possiamo dire: lo studio dei geni homeobox e delle loro mutazioni dimostra che una struttura
embrionaria viene diretta da una sequenza nucleotidica 35 . Ma che dire della seguente: i geni
homeobox hanno giocato un ruolo importante nell’evoluzione delle specie. Questa proposizione è
già di un tipo un po’ diverso. E ancora: lo studio dell’embriologia sperimentale dimostra che lo
sviluppo dell’embrione è regolato da interazioni tra molecole che possono venir perfettamente
descritte con le leggi della chimica e della fisica. E infine: lo studio dell’embriologia sperimentale
non ha bisogno di postulare alcuna forza che non possa essere descritta in termini chimico-fisici.
Questa potrebbe essere descritta come la formulazione dell’ipotesi derivata per induzione dai
risultati di numerosi esperimenti in cui l’analisi di mutazioni spontanee o provocate di geni, insieme
agli altri esperimenti di manipolazione embrionaria, causano alterazioni nello sviluppo embrionario.
Tuttavia, non solo la rilevanza per l’uomo è diversa, ma ci rendiamo anche conto che stiamo
descrivendo livelli diversi della nostra conoscenza, e non solo perché quasi un secolo fa Driesch ha
postulato un’entelechia 36 come responsabile dello sviluppo embrionario e quindi c’è bisogno di
controbattere questa affermazione. Se il vitalismo non fosse mai esistito, l’affermazione potrebbe
comunque comparire in un testo moderno di embriologia. Semplicemente l’ultima proposizione
riguarda un problema più vasto. Guardando le mutazioni della Drosophila in cui il moscerino della
frutta presenta quattro ali invece di due, vogliamo conoscere la causa di questo fenotipo, ma una
volta identificatala, abbiamo ancora voglia di chiederci: questa scoperta ci dice qualcosa sulle leggi
che regolano lo sviluppo embrionario? E questo a sua volta ci dice qualcosa sull’uomo? Ben lungi
dall’essere insensate, queste domande raggiungono il livello più profondo della conoscenza, che si
avvicina al noumeno, o addirittura vi si identifica. Il fatto che adesso si abbia paura di tentare il
livello più profondo della conoscenza è un portato storico della diatriba scienza-filosofia, che ci fa
sospettare di cadere in un pozzo senza fondo, ma in realtà è lo scopo ultimo della conoscenza. Vi è
stato probabilmente un eccesso di reazione nel corso della storia. Così il fatto che si corre il rischio
di infilarsi nelle sabbie mobili non ci può far negare la loro esistenza. Potremmo deciderci di
tenercene alla larga, ma con questo potremmo rinunciare a interessanti prospettive. Alla fin fine,
Colombo ha scoperto l’America rischiando di lasciarci la pelle e questo ha portato nuove
conoscenze (anche se gli indios avrebbero preferito che se ne restasse alla corte di Isabella di
Castiglia). Cosa sia il noumeno, la realtà in se stessa, non è ben chiaro, proprio perché per
definizione si tratta di cose inconoscibili a detta dei creatori del termine, ma è probabile che vi siano
35 Mutazioni nei geni homeobox possono provocare l’assenza, la formazione o la duplicazione di
intere strutture come un’ala o una zampa nella Drosophila melanogaster, un insetto che viene molto
studiato dai genetisti. Vedi il capitolo sullo sviluppo embrionario e sull’evoluzione. Qui basta dire
che mutazioni di questa portata potrebbero aver avuto un ruolo nell’evoluzione delle specie.
36 Vedi capitolo sullo sviluppo embrionario. Entelechia è un termine introdotto da Driesch per
indicare un’entità non materiale che guiderebbe lo sviluppo embrionario.
30
conclusioni scientifiche che esauriscono quasi completamente questo aspetto o che comunque ci
fanno sentire intellettualmente assai soddisfatti.
6. Un metodo proteiforme.
In realtà il metodo scientifico non è affatto esclusivo della nostra attività di ricerca. Si tratta, a
pensarci bene, di un metodo che utilizziamo in ogni momento e in qualsiasi circostanza. Questa
varietà di problemi non viene sempre apprezzata. Però così si rischia di avere una visione limitata
dei meccanismi della conoscenza. Non c'è invece nessuna differenza sostanziale tra come noi
affrontiamo il problema di sapere se dietro all'angolo c'è un giaguaro o di sapere se il protone
decade. Certamente la portata della conoscenza è diversa sotto molti aspetti, ma il meccanismo che
utilizziamo per arrivare alla conoscenza è lo stesso.
Vi sono altri aspetti della vita di ogni giorno. La similitudine tra casi polizieschi e ricerca sono stati
menzionati spesso. Ma se perdiamo le chiavi della macchina, cosa facciamo? Formuliamo delle
ipotesi su dove possiamo averle dimenticate e poi le verifichiamo. In questo caso spesso la ricerca
ha una fine e le chiavi vengono trovate, ma il procedimento è lo stesso, anche se ci si muove talora
in zone non completamente ignote.
Così come il coniglio analizza i dati, effettua associazioni e agisce in conseguenza, cercando di
massimizzare tutte le informazioni e tutte le passate esperienze sue e dei suoi compagni con cui in
precedenza è venuto a contatto, così ogni individuo e per riflesso ogni specie sulla terra, ha la
necessità di rispondere a diversi tipi di problemi in cui una buona conoscenza dei termini della
questione, degli attori e delle circostanze nonché delle regole del gioco non possono che giovargli.
In un modo assolutamente misterioso, le esperienze fondamentali dei suoi antenati sono state pian
piano trasferite nel suo genoma durante la storia evolutiva della specie. Il coniglio è predisposto a
scappare se vede un cane, mentre il cane è predisposto a corrergli dietro. Esempi di questo genere
vanno dalla danza delle api all’imprinting dei paperini di Lorenz. Altre esperienze invece non sono
codificate nel genoma e dobbiamo commettere degli errori per potercene giovare. Come può
accadere ciò ? Esiste solo una filosofia che ha tentato veramente di rispondere a questa domanda, ed
è la dottrina dell’armonia prestabilita di Leibniz. In realtà, non vi è un’armonia prestabilita, ma
questa armonia ce la siamo guadagnata nel corso dell’evoluzione a forza di lacrime e sangue.
Certo il terreno è sdrucciolevole, non sappiamo neanche se sogniamo o siam desti, non sappiamo
bene di cosa parliamo e non sappiamo neppure se dar retta ai nostri sensi o alla nostra ragione, anzi
sappiamo che a seconda della circostanza a volte avranno ragione gli uni e a volte l’altra. Usiamo
termini su cui si basa tutto il nostro sapere che però non sappiamo definire e termini che potrebbero
essere classificati come “metafisici” in un senso sgradevole, ma che corrono il rischio di diventare
dopo un po’ di tempo perfettamente scientifici. Campo magnetico, fattore, azione a distanza,
telepatia, coscienza, introspezione, principio di complementarietà, singolarità. Alcuni di questi
hanno già raggiunto uno status scientifico, altri potrebbero esserne sempre esclusi, altri ancora
stanno lottando per raggiungerlo.
Come il coniglio, e come Pascal sosteneva, non possiamo restare inerti. Dobbiamo scommettere.
Bisogna pur muoversi con una visione pragmatica, ma sapendo che non tutto è uguale, non tutte le
risposte hanno lo stesso valore. Qualsiasi cosa ci fa andare avanti va bene, ma non sappiamo
neanche qual è la direzione in avanti. Malgrado ciò è certo nessun coniglio vuole finire in bocca al
giaguaro.
31
7. Castelli di carte.
Come è allora possibile ottenere qualcosa di valido? Se le definizioni e la logica si basano su
modificazioni del cervello, che da sole non provano il mondo reale, come fanno le nostre
osservazioni a esprimere qualcosa di vero? L’idea di fondare tutto su basi solide, non rispecchia
quello che succede in realtà nell’attività scientifica. Queste solide basi non esistono. Piuttosto, tutti i
nostri sforzi sono come castelli di carte, non tanto perché questi possono crollare, perché anche le
altre costruzioni lo fanno, ma perché questa immagine sottolinea l’interdipendenza delle
osservazioni e delle ipotesi stesse. Mentre un muro di mattoni può stare in piedi da solo, ogni
ipotesi si basa su altre, così come una carta da sola non può stare in piedi. Quando affrontiamo una
nuova tecnica che speriamo ci dica cose nuove su un pezzo di realtà, otteniamo dei dati, ma chi ci
dice che sono quelli buoni ? Ma dopo un certo numero di osservazioni, e confrontando con tutto
quello che si sapeva in precedenza, si vede se i nuovi dati (letteralmente) stanno in piedi. Se stanno
in piedi, il castello di carte tenderà ad ampliarsi, potrà fondersi con altri castelli o demolirli per
utilizzarne lo spazio. Mano a mano potrà succedere che i vari castelli si appoggino l'un l'altro, fino a
raggiungere dimensioni e strutture sorprendenti, ma saranno sempre poggiati su un terreno
sdrucciolevole e l'eventuale crollo di un settore potrebbe trascinarne altri con sé.
Come mai riusciamo – sembra - a ragionare su gli stessi concetti se non possiamo definirli ? Non
c’è prova in realtà che tutti intendiamo la stessa cosa con lo stesso termine, ma il fatto che
riusciamo a fare un certo numero di transazioni significa che esiste un certo grado di
intersoggettività. Qual è la base di questa intersoggettività? La base sta nell’anatomia e nella
fisiologia del nostro cervello. E’ probabile che il verbo essere sia quanto è rimasto del momento
decisivo in cui è nata la coscienza e l’uomo è diventato tale. I cervelli devono avere delle regolarità
che sono sempre le stesse per tutti gli uomini. E’ possibile che l’educazione (il training)
contribuisca a far sì che complessi sistemi di eventi procurino le stesse modificazioni. In realtà
viene troppo sottovalutata la base di questa intersoggettività. La logica sembra a noi adulti un
qualcosa di ineluttabile, ma è chiaro che per i bambini non lo è. Abbiamo ragionato per millenni e
posto delle regole per i sillogismi, senza conoscere la teoria degli insiemi a livello esplicito. Come
poteva succedere questo? La risposta è che deve esserci una struttura cerebrale che è stata forgiata
dalle regole ferree della logica della natura. I bambini greci e latini, e oggi ancora i tedeschi usano
le declinazioni con disinvoltura, senza minimamente sapere cosa sono i casi e i complementi 37 .
Probabilmente l’allenamento guidato dagli adulti, sulla base di una serie di stabili connessioni
cerebrali determinata dai nostri geni e presenti in tutti gli individui appartenenti alla specie umana,
sta alla base di questo fenomeno. Presumibilmente, non esiste solo una struttura per il linguaggio,
come postulano Chomski e i suoi seguaci, ma anche una struttura per la logica.
In realtà, ci siamo evoluti con o per la capacità di prendere decisioni sulla base di dati talora assai
scarsi. Ovviamente, se il coniglio vede un bulldog scappa. Ma cosa deve fare se ne sente l’odore? E
se non lo sente? Può attraversare una strettoia se non sente niente? E se inseguito si trova di fronte
ad un bivio, cosa fa, si siede a pensare un esperimento? Ovviamente no. Ma ci sono situazioni in cui
noi veniamo buttati e dobbiamo scegliere prima di poter compiutamente analizzare tutte le
circostanze. Diremo allora che il problema non ha senso? O cercheremo allora di affrontarlo al
37 E’ impressionante pensare come gli antichi Greci, che inizialmente erano dei barbari, potessero
avere una lingua del genere, e prima di loro probabilmente ce l’avevano altre popolazioni
indoeuropee. Quanto ai tedeschi, mi sono sempre chiesto se il fatto di avere mantenuto questa
proprietà che altre lingue hanno perso abbia qualche relazione con le caratteristiche che vengono
generalmente attribuite a questo popolo. D’altro canto, ci sono poche lingue misere come l’inglese,
ma le nazioni che parlano questa lingua hanno mostrato negli ultimi tre secoli un grande successo
evolutivo.
32
meglio ? Come vedremo, studi recenti ci confortano nell’idea che abbiamo strutture adeguate per
compiere decisioni su dati dubbi ed incerti.
L’approccio logico che può essere usato in queste circostanze è il seguente: cominciamo a muoverci
e a mettere insieme qualcosa. Utilizziamo definizioni temporanee o comunque rifacciamoci
implicitamente all’idea di un rapporto mente/natura. Quando avremo ottenuto qualcosa, vediamo se
sta in piedi. Il fine, in questo caso, giustificherà i mezzi. Se il castello di carte starà in piedi, ci
congratuleremo tra noi e cominceremo ad abitarci.
Dobbiamo pertanto iniziare a costruire sapendo che tutto può franare, ma che comunque, visto
l’ambiente non proprio socievole che ci circonda, è meglio avere a disposizione una palafitta di
tronchi che dormire per terra. Come potremo convincere la gente ad abitare nella nostra palafitta o
addirittura a seguirci in un tempo successivo in abitazioni di livello superiore ? A coloro che ci
mostreranno i disagi dei tronchi, la possibilità che si rompano i pali, l’umidità del lago, e la
possibilità di mostri lacustri, onestamente non potremo ribattere nulla. Non si può pensare che su
alcuna attività umana si arrivi al consenso universale. Non si tratta più di dimostrare (cosa che
probabilmente non è possibile) ma di mostrare la piacevolezza degli edifici che man mano verranno
costruiti.
8. Costruttivismo
Una volta accettate tutte queste limitazioni e aver convenuto che la base dell’armonia tra il nostro
cervello e il mondo reale è la nostra storia evolutiva, la polemica recente con i costruttivisti viene a
cadere. Nel senso che abbiamo nello stesso istante le ragioni del nostro condizionamento e della
nostra libertà di pensiero.
In realtà il dibattito su quanto le nostre abitudini, i nostri preconcetti, le nostre credenze, i nostri
malesseri, le nostre frustrazioni ecc possano influire sulla ricerca della verità, di cui il processo
scientifico è una manifestazione, è di vecchia data. Negli ultimi tempi, a tutte queste preoccupazioni
si è aggiunta anche quella del controllo sociale. La critica marxista ad esempio, oggi meno
aggressiva di un tempo, mostrava come la politica determina anche quale scienza venga fatta, e
poneva l’accento sui danni provocati da una scienza al servizio del capitalismo. Entro certi limiti,
questo è sempre stato vero, basti pensare alla ragione per la quale i finanziatori tiravano fuori i soldi
per finanziare i viaggi intorno al mondo nel secolo sedicesimo.
Oggi tuttavia il controllo politico della ricerca è al massimo: ogni anno si aspetta il bilancio dello
stato per sapere se la risorse saranno minori e maggiori. La scelta di quale progetto finanziare è
sempre più ad alto livello, e, visto che, come si dice, il denaro è del contribuente, si invoca sempre
più l’intervento del cittadino nel giudizio sulla bontà e validità della ricerca. Questo è per certi versi
giusto, per altri errato, ma certamente è inevitabile. Tutto questo è pacifico, né vale la pena di
insistervi troppo. Le decisioni sociali e politiche plasmano tutto l’indirizzo della ricerca. Così pure è
pacifico che la scienza abbia portato ad applicazioni tecnologiche perverse.
Ma il costruttivismo dice qualcosa di più rispetto a questo. Dice che il modo stesso con cui
conosciamo il mondo, i termini della scienza, l’intero suo orizzonte sono costruzioni sociali 38 .
38 Una buona esposizione delle dottrine costruttivistiche è, secondo la mia opinione, quella
presentata in R.G. Newton: La verità della scienza. McGraw-Hill Italia, Milano, 1999. La prima
edizione inglese è del 1997; p. 17-39. Dal momento che si tratta di un settore in cui la polemica è
accesa e che Newton milita nel campo contrario, se uno volesse farsi un’idea delle tesi
costruttivistiche di prima mano può leggere le opere di D. Bloor, B. Latour & S. Wolgar, e di altri
ivi citati.
33
Questo ha provocato la reazione dura di coloro che ritengono che la scienza sia comunque un
riflesso della realtà. La polemica è poi stata acuita dalla beffa di Alan Sokal, un fisico
anticostruttivista che scrisse un articolo infarcito di assurdità e lo spedì a una rivista costruttivista
che glielo accettò 39 . Quando la beffa fu resa nota, molti realisti furono soddisfatti: era stato
dimostrato che il costruttivismo era una massa di stupidaggini.
In realtà la beffa di Sokal dimostra solo che la rivista cui l’articolo fu spedito aveva dei pessimi
referee, o al massimo che il comitato editoriale è ignorante o disattento. Tuttavia chi sa quanto è
difficile talora giudicare un articolo potrebbe essere più comprensivo: anche le grandi riviste
scientifiche talvolta hanno accettato delle patacche. Quello che invece è veramente buffo è il tono
del dibattito, dove i realisti concedono che la scienza è in parte condizionata dai tempi in cui uno
vive, mentre i costruttivisti sostengono che loro sono i primi difensori della parziale oggettività
della scienza. In pratica, il dibattito ricorda altri tipici, ad esempio quello sul ruolo rispettivo della
genetica e dell’apprendimento su alcune caratteristiche umane. Vi sono le due tesi estreme, e poi la
maggior parte delle persone che sono nel mezzo, e nessuno ha gli strumenti per quantificare quello
che dice. Certamente, le idee correnti possono plasmare il pensiero di uno scienziato e dirigere il
corso della scienza, ma fino ad un certo punto. Il problema è che nessuno ha dei metodi per dire
quanto spesso e in che misura questo succede. Soprattutto non può dirlo quando ne è ancora in
mezzo: chi ci riesce è un precursore del suo tempo e generalmente è destinato all’oblio. Quanti
studenti liceali sanno che Aristarco di Samo formulò una teoria eliocentrica abbastanza
soddisfacente quasi due millenni prima di Copernico ? Infine, è presumibile che questa influenza
non sia uguale per tutti i settori scientifici, che in alcuni la liberazione dalle pastoie della società sia
più lenta, che in altri le lenti colorate sociali ci impediscano di apprezzare alcuni aspetti, che in altre
ancora esse siano così scure da farci sfuggire alcuni aspetti della realtà.
Certo, se per società si comprende tutto, incluse le idee scientifiche e gli aspetti tecnologici che esse
determinano, il condizionamento è complesso. Ma questo è ovvio. Quello che conta è che l’uomo
continuamente opera tentativi di “astrazione” verso la realtà, e che questa possibilità gli è data dalla
sua storia evolutiva che è stata forgiata dal suo costante rapporto con le leggi naturali senza il quale
nessun organismo vivente avrebbe potuto propagarsi con successo.
Conclusioni
La conclusione è che il metodo scientifico è l’unico mezzo per conoscere. In realtà, se questo
termine sembra troppo riduttivo, anche solo per motivi storici, potremmo chiamarlo il metodo
razionale (meglio ancora, visto quello che è stato detto, sarebbe meglio: ragionevole). Esso trae
origini dalla nostra storia evolutiva. La raccolta di dati (tramite i sensi) e la loro elaborazione
(tramite il cervello) è alla base dell’esistenza stessa delle forme superiori e il motivo migliore per
pensare che il mondo fuori da noi esista veramente e noi possiamo in parte conoscerlo, perché se il
39 Alan Sokal, professore di fisica alla New York University, spedì un articolo infarcito di
inesattezze dal titolo “Transgressing the boundaries: towards a transformative hermeneutics of
quantum gravity” e lo spedì alla rivista costruttivista “Social Text” che lo pubblicò. La rivelazione
della beffa scatenò una viva polemica tra le due fazioni, che non fu limitata alle riviste scientifiche,
raggiungendo le prime pagine di quotidiani come il New York Times, l’International Herald
Tribune, il London Observer e Le Monde. In Italia, a mia conoscenza, i quotidiani non hanno
ripreso il problema non perché volessero mettere a tacere la cosa, ma semplicemente perché in Italia
la scienza non interessa a nessuno. Sokal ha poi scritto un libro “Imposteures Intellectuelles”,
pubblicato prima in Francia e poi in America. Vedi anche le opinioni apparse in Nature 386:545-
547, 1997; 387:331-334, 1997; 387:543-546, 1997
34
nostro rapporto con la realtà fosse scorretto (cioè se i nostri sensi e la nostra capacità di analisi), non
avremmo avuto fortuna. Ma ad un certo punto è sorta nell’uomo la capacità di mettere in dubbio la
correttezza di questo rapporto, cioè di chiedersi come questo sia possibile, e nel contempo di
prendere coscienza che nulla di quello che ci appare con i sensi non possa essere ingannevole. Ci si
parano allora di fronte problemi di facile soluzione e problemi formidabili. La nostra mente oscilla
pertanto tra il desiderio di avere davanti problemi solubili e quello di affrontare quelli più grossi
anche se nessuno li ha mai risolti. In una delle oscillazioni di questo pendolo, si è stati tentati di dire
che tutto ciò che non è solubile (in linea di principio) è puro nonsenso. O che per lo meno che non
valga la pena di parlarne. Oppure che si può parlarne solo con la poesia.
Scopo del presente libro è mostrare come in realtà l’approccio scientifico sia il solo approccio
possibile, ma che vi è stata troppa enfasi sulla verificabilità attuale. Un australopiteco neopositivista
probabilmente classificherebbe il problema se vi siano crateri sull’altra faccia della luna come
chiaramente metafisico. Al contrario alla domanda se gli dei ogni tanto si arrabbino risponderebbe
che è provato, come verificabile da tuoni e fulmini. Ad un ragazzo del Bangla Desh fu chiesto una
volta se secondo lui gli spiriti esistevano, ed egli rispose che ne era certo. Richiesto della base della
sua certezza, disse che ne era sicuro perché avevano ucciso suo zio. D’altro canto, se introduciamo
il concetto di verificabilità attuale in un determinato momento nel tempo e nello spazio rischiamo di
finire come gli austrolopitecini ipotetici, di elevare la nostra limitatezza a metro di misura di tutte le
cose (παντων των κρεματων αυστραλοπιτεχον μετρον ειναι). Non vorrei che fra 5000 anni ci
considerassero una specie di mente ristretta.
Infine il metodo scientifico non va sovravvalutato. Non è in grado di risolvere il problema delle
definizioni, anzi, più la branca è moderna e più le definizioni sono traballanti e più ci si deve
appellare al senso comune. Il verbo essere è, apparentemente, la base di tutta la conoscenza, ma non
sappiamo cos’è. Probabilmente è uno stato dei nostri neuroni, cui corrisponde non si sa che cosa in
una mente che non si sa che cosa è. Anche le procedure di ragionamento, che ci sembrano tanto
belle, devono essere accettate sulla base del senso comune (buon senso). Impariamo a ragionare
dagli altri, e presumibilmente questo processo, che non è completamente arbitrario, anzi forse non
lo è affatto, viene accettato senza valide motivazioni. Siamo ben lontani da un sistema formale.
Ogni tanto ci troviamo di fronte a nuove frontiere per le quali dobbiamo creare nuovi termini, e non
sappiamo bene quali siano metafisici e quali no. Siamo proprio certi che fra mille anni il principio
di complementarietà di Bohr non venga considerato come un residuo metafisico? 40 Nei territori di
frontiera, dove i sentieri non sono segnati, questi pericoli sono maggiori. Ma spesso le ricchezze
maggiori si raccolgono in territori inesplorati.
Tesi del volume
Una delle prime cose che si imparano facendo pratica di ricerca è distinguere i fatti dalle
interpretazioni. Questo, nelle memorie scientifiche viene sottolineato mediante la distinzione tra il
capitolo che verte sui “Risultati” e quello che li interpreta che viene indicato come “Discussione”.
Ho pensato di mantenere questa separazione anche in questo libro, perché in teoria sui Risultati tutti
dovrebbero essere d’accordo, essi o sono o non sono (in realtà non è esattamente così), mentre sulle
interpretazioni l’accordo è, comprensibilmente, più difficile. Così, il capitolo introduttivo che ho
finito di esporre può essere considerato come l’Introduzione di un lavoro scientifico, in cui viene
tratteggiato in grande linee il problema che deve essere esaminato. Nello stesso capitolo introduttivo
40 A parte le ben note idee di Einstein sull’argomento, vale la pena di menzionare il giudizio di
Schroedinger, che riferendosi al principio di complementarietà notò, citando Goethe, che quando
mancano i concetti si inventano dei nomi.
35
è stato anche fatto cenno a quelli che possono essere considerati i “Materiali e i Metodi” che si
seguono nell’analisi, che in un articolo scientifico rappresentano una sezione fondamentale.
Nei capitoli che seguiranno immediatamente, verrà riportato un certo numero di dati, che
rappresentano una sezione analoga ai “Risultati” di una memoria scientifica. In questa sezione si
esporranno i risultati che sono stati ottenuti in varie discipline, e che come tali dovrebbero essere
riconosciuti da tutti. Nella parte finale del libro troveremo dei capitoli in cui i temi dell’introduzione
vengono ripresi alla luce dei risultati e dove questi vengono commentati più o meno come avviene
nella sezione “Discussione” dei lavori scientifici.
Naturalmente, anche in un lavoro scientifico, non su tutti i risultati vi è sempre accordo comune.
Spesso gli scienziati hanno a disposizione risultati non univoci, talora anche contradditori. Queste
discrepanze possono talora anche trasformarsi in feroci polemiche tra scuole di pensiero scientifico
che possono anche andar avanti per anni. Esse possono dipendere da diverse tecniche adottate, da
disegni sperimentali differenti, dall’esperienza dello sperimentatore, da errori involontari e
raramente da manipolazioni consce o inconsce introdotte dallo sperimentatore. Queste discrepanze
tuttavia vengono generalmente risolte in un tempo relativamente breve, salvo alcune eccezionali che
tornano alla superficie persino in epoche diverse 41 .
Per quanto queste discrepanze sui risultati possano essere rilevanti, quelle sull’interpretazione dei
risultati sono ben più complesse e talora insolubili. Pertanto nella Discussione, lo scienziato
generalmente le esamina tutte, elencando gli argomenti contro o a favore, e talora prendendo
posizione, generalmente con prudenza, accompagnando i suoi rilievi con perifrasi del tipo:
“secondo me”, “sembrerebbe ragionevole concludere”, “alcuni sono portati a sostenere che” e così
via. Nella Discussione bisogna mantenere una mentalità elastica ed essere aperti anche alle ipotesi
che sembrano meno probabili.
Vi è tuttavia un’ulteriore avvertenza da prendere in considerazione, e riguarda la sezione che
potremmo chiamare dei Risultati. Vi è un’infinità di risultati possibili da elencare e una scelta è
stata effettuata su base per così dire arbitraria. Ho cercato di selezionare quei settori della biologia
che hanno una pertinenza filosofica, secondo un approccio che è stato accennato nell’introduzione e
che verrà maggiormente motivato nella Discussione. L’esposizione della sezione Risultati ha per
certi aspetti le fattezze di una review, cioè di quel tipo di articolo scientifico in cui, dopo anni di
lavoro su un particolare argomento che si crede rilevante per la rivista e per la biologia in generale,
si fa una revisione di tutti i dati disponibili, si tentano delle conclusioni e soprattutto si indicano le
linee future di ricerca che dovrebbero chiarire gli aspetti ancora rimasti oscuri.
Essenzialmente, nell’Introduzione abbiamo accennato che la conoscenza ha una base biologica,
legata in un qualche modo alla storia evolutiva del nostro sistema nervoso. Questa prospettiva
storica è l’unica in grado di spiegare come mai può succedere che conosciamo qualcosa sul mondo
reale. Tuttavia, questa stessa incarnazione biologica della conoscenza è la fonte della sua
limitatezza, caratterizzata da postulati, termini e definizioni che non hanno ulteriore riduzione se
non quella del nostro cervello, che per ora ci sfugge, e che comunque non può essere la garanzia
aprioristica di alcuna certezza. I materiali su cui bisogna lavorare e i metodi, o meglio, l’unico
metodo, da seguire, quello che mantiene l’ancoraggio con la realtà, sono pure stati esposti e
motivati brevemente in questo capitolo introduttivo.
41 Un classico esempio di disputa che andò avanti secoli per questioni tecniche è quello della
generazione spontanea.
36
Lo scopo principale del libro non è quello di discutere di singole proposizioni scientifiche, bensì
quello di fare filosofia. Per questo la prima preoccupazione è di chiedersi se questo ha un senso o se
si tratta di discorsi vuoti. La tesi che sosterrò è che fare filosofia è possibile e addirittura doveroso.
Nelle pagine seguenti mostrerò infatti come esistano di fatto proposizioni scientifiche che sono di
importanza filosofica e che pertanto definiscono un insieme di proposizioni che interessano l’uomo
in quanto tale. A differenza di quanto molti sembrano pensare, sarà facile dimostrare che non è vero
che i dibattiti filosofici non portano mai a nulla, ma che al contrario portano ad un sensibile
progresso i cui tempi sono tuttavia assai più lenti di quelli generalmente attribuiti all’impresa
scientifica.
37
Parte seconda
Risultati
“ It seemed to Brother Juniper that it was high time for theology to take its place among the exact
sciences, and he had long intended putting it there. What he had lacked hitherto was a laboratory.
Oh, there had never been any lack of specimens….But these occasions had never been quite fit for
scientific examination. They had lacked what our good savants were late to call proper
control….But this collapse of the bridge of San Luis Rey was a sheer Act of God. It afforded a
perfect laboratory. Here at last one could surprise his intentions in a pure state.
You and I can see that coming from anyone but Brother Jupiter this plan would be the flower of a
perfect scepticism. It resembled the effort of those presumptuous souls who wanted to walk on the
pavements of heaven and built the Tower of Babel to get there. But to our Franciscan there was no
element of doubt in the experiment. He knew the answer. He merely wanted to prove it, historically,
mathematically, to his converts….
This was not the first time that Brother Juniper had tried to resort to such methods. Often on the
long trips he had made (scurrying from parish to parish, his robe tucked up about his knees, for
haste) he would fill to dreaming of experiments that justify the ways of God to man; for instance, a
complete record of the Prayers for Rain and their results….”
Thorton Wilder, The Bridge of Saint Louis Rey
38
Capitolo 2.
ORDINE, MECCANICISMO ED EREDITARIETA’
La biologia molecolare
Il vitalismo era una dottrina biologico-filosofica che supponeva che i processi vitali fossero
intrinsecamente diversi da quelli della materia inanimata. Oggi al contrario si accetta facilmente che
il comportamento dell’unità elementare della vita, la cellula, sia spiegabile completamente con le
leggi della chimica e della fisica. Il termine biologia molecolare indica appunto che tutti i fenomeni
vitali possono essere spiegati a livello molecolare. E’ presumibile che nel prossimo secolo prenderà
piede una biologia “atomica”, che del resto è già in atto, o addirittura una biologia subatomica.
Il termine di biologia molecolare, che ha assunto poi significati più ristretti 42 , in realtà sta ad
indicare che siamo in grado di studiare e descrivere i viventi a livello delle molecole che li
compongono. In realtà, se è vero che una completa descrizione in questi termini non è ancora
compiuta nei dettagli, è anche vero che in alcuni specifici settori la descrizione si confronta già con
livelli inferiori, submolecolari. Questo progressivo aumento di conoscenze per livelli progressivi, in
cui la realtà assume, per così dire, una struttura a cipolla, è stata descritta da molti, tra cui, Francois
Jacob. Nel suo libro “La logique du vivant” 43 , la similitudine delle bamboline russe viene utilizzata
per illustrare questo concetto: le nostre spiegazioni aprono nuove domande che devono a loro volta
essere spiegate ad un livello più profondo, il cui raggiungimento dopo un certo periodo esigerà di
passare ad un livello successivo, in una progressione che si spera, ma non ne siamo certi, prima o
poi abbia a finire.
Il fatto che tutto possa essere spiegato a livello molecolare significa che il biologo utilizza per i suoi
studi leggi e concetti che prende a prestito dalla chimica e dalla fisica. Interpretata in questo senso,
la biologia molecolare è diretta discendente del meccanicismo seicentesco iniziato da Descartes.
All’epoca di Descartes la meccanica era il settore della fisica più avanzato e poteva sembrare adatto
spiegare il vivente in questi termini. Ancora un secolo dopo, Lamettrie usava il termine macchina
per descrivere l’uomo. In seguito divenne evidente che la meccanica da sola non poteva spiegare
tutto, e per questo il termine “meccanicismo” risultò un po’ obsoleto, e viene oggi sostituito con il
termine “riduzionismo”, col quale appunto si indica che il vivente può essere ampiamente “ridotto
a”, cioè “descritto con” leggi fisiche e chimiche comprese quelle che eventualmente non avessimo
ancora scoperto. A sua volta anche questo termine presenta delle difficoltà 44 : vi sono delle
proprietà del vivente che vengono considerate emergenti, nel senso che riesce difficile ascriverle a
livelli più bassi, tanto che alcuni invocano nuovi approcci non riduzionisti. Se anche descriviamo
perfettamente la struttura e la fisiologia di una cellula, il comportamento sociale non dico di
organismi ma anche di popolazioni cellulari gode di proprietà che non si immaginerebbero se si
studiasse solo le singole cellule. Ad esempio, il riconoscimento del self da parte del sistema
immunitario non avrebbe senso se esistessero solo cellule isolate. Quello che si vuole indicare oggi
42 Oggi, senza fare troppa attenzione si usa questo termine per indicare un insieme di tecniche che
nello stesso tempo si basano su, e contribuiscono allo studio del DNA. Esso viene spesso usato in
opposizione al termine biochimica. Ci sono i biologi molecolari che sono distinti dai biochimici:
questi ultimi hanno un’impostazione più classica, mentre gli altri essenzialmente sono i padroni
delle tecniche di ingegneria genetica che applicano ai più svariati problemi biologici. Qui invece
viene mantenuto il significato originario, che è quello di una scienza che si dedica allo studio dei
fenomeni biologici a livello delle molecole.
43 F. Jacob. La logique du vivant. Einaudi, Torino, 1971. L’edizione francese è del 1970.
44 Vedi la discussione del riduzionismo nel capitolo 11.
39
con questi termini in realtà è che i costituenti degli organismi sono molecole che obbediscono alle
leggi di natura che regolano anche il mondo inanimato, e che non bisogna postulare leggi di tipo
sostanzialmente diverso, anche se le proprietà di sistemi viventi organizzati non sarebbero
facilmente predicibili conoscendo le proprietà dei suoi costituenti isolati.
Si possono fornire alcuni esempi di queste descrizioni, che coinvolgono alcuni degli aspetti più
spettacolari del vivente, senza pretendere di scendere in dettagli che sono assolutamente al di fuori
dallo scopo del presente libro. La cellula, che è l’unità fondamentale del vivente, è un insieme
organizzato di molecole. Le strutture che in esse sono riconoscibili, sono tutte composte da
molecole ordinate. La membrana cellulare, ad esempio, che separa la cellula dall’ambiente
circostante e che è la base della sua individualità, è formata da un doppio strato di fosfolipidi in cui
sono comprese numerose proteine, di cui molte diverse da cellula a cellula. La regolazione di molte
interazioni con l’ambiente avviene a questo livello, e meccanismi fisici e chimici vengono utilizzati
per descriverle. Si parla così di gradienti, di diffusione, di costanti di dissociazione e di cinetiche di
legame.
La produzione di energia viene pure descritta in termine di calorie acquisite o utilizzate, l’energia
dei legami chimici viene ceduta od immagazzinata, a livello della membrana mitocondriale
vengono scambiati protoni ed elettroni, ecc. La cellula è un sistema aperto e pertanto essa elude il
secondo principio della termodinamica. L’energia viene immagazzinata nei legami chimici di una
molecola, l’ATP, che rappresenta la moneta di scambio valida per ogni reazione.
La duplicazione cellulare viene osservata tranquillamente al microscopio ed è una successione
precisa di eventi molecolari. Vi è tutta una serie di checkpoint che devono essere superati perché la
replicazione possa aver luogo e se tutti i controlli sono a posto, si procede. In primo luogo viene
duplicato il DNA, poi il DNA si condensa per poter essere impacchettato, così da essere sicuri che
venga mantenuto durante il viaggio. Sono ormai note molte molecole che giocano un ruolo in
questa condensazione. Poi il DNA condensato, sotto forma di cromosomi, attaccati a dei
microtubuli si dispongono in maniera ordinata lungo un fuso mitotico e vengono divisi in modo
esatto tra le due nuove cellule. Se alcune delle molecole implicate in questi meccanismi sono
alterate, la corretta segregazione del materiale cromosomico è impedita o avviene in maniera
erronea.
Il movimento cellulare si basa su una rete di proteine che compongono quello che viene detto il
citoscheletro. Tra queste, due sono fondamentali per il movimento cellulare, l’actina e la miosina.
Facendo presa su punti di contatto con la membrana interna, le miosine scivolano su filamenti di
actina che vengono incessantemente demoliti e ricostruiti, trascinando con sé parte del citoplasma e
contribuendo al movimento cellulare. Questo movimento interno, questa volta ripetuto e coordinato
in tutte le cellule, è alla base della contrazione muscolare. I filamenti di actina sono in contatto con
quelli di miosina, e quando la miosina si contrae, avvicina tra loro i vari filamenti di actina che,
essendo fissati a punti d’ancoraggio intracellulari accorciano le distanze tra questi punti,
provocando la contrazione della cellula muscolare.
Non solo le strutture sono formate da molecole ordinate, ma anche le interazioni tra cellule e i
segnali che tra loro si scambiano sono descrivibili in questi termini. La trasduzione del segnale
dall’esterno all’interno del citoplasma e via via fino al nucleo è uno dei campi più attivamente
studiati, in quanto è alla base di fenomeni fisiologici quali il differenziamento e la replicazione
cellulare, o patologici quali la trasformazione neoplastica. Questo meccanismo, che è un
meccanismo a cascata dove un evento ne stimola degli altri fino a che non viene esso stesso inibito
con un ritorno allo stato iniziale, può venir esemplificato dal modo d’azione di alcune citochine
come le interleuchine 2, 4 o 7, piccole molecole che giocano un ruolo fondamentale nella
40
maturazione dei linfociti. Queste interleuchine si legano a delle proteine presenti sulla membrana
cellulare (recettori), che hanno una porzione esterna che lega la interleuchina, una porzione che
attraversa la membrana e una porzione interna che è a contatto con altre molecole, ad esempio le
kinasi JAK. Queste fosforilano il recettore stesso, e altre proteine, tra cui quelle denominate STAT,
che vengono attivate, entrano nel nucleo e si legano in alcuni punti al DNA. In seguito, altre
proteine defosforilano il recettore che ritorna nella conformazione iniziale, pronto ad essere
riutilizzato; alternativamente in seguito all’avvenuto segnale, la cellula può passare ad uno stadio in
cui il recettore non ha più alcun ruolo e in questo caso può venir degradato. Il segnale cioè non
arriva direttamente dall’esterno ma agisce tramite una cascata di interazioni molecolari che
provocano nella cellula una risposta.
La molecola principe
Tra tutte le molecole che costituiscono la cellula, una però ha un ruolo fondamentale: l’acido
desossiribonucleico, più conosciuto come DNA. Esso è la sede di tutte le informazioni necessarie
per il funzionamento della cellula. Esso raggruppa in sé tutto il necessario per processi complessi
come la moltiplicazione cellulare, la differenziazione tissutale, il funzionamento o il
malfunzionamento di cellule ed organismi, ecc.
Come Gregorio Mendel, il fondatore della genetica formale il cui lavoro rimase sconosciuto per
oltre 30 anni, anche il DNA è stato per lunghi anni ignorato. Scoperto più o meno all’epoca in cui
l’abate moravo enunciava le sue famose leggi, pur risiedendo nel nucleo come implica il suo nome,
venne considerato troppo ottuso per essere la base dell’ereditarietà: si trattava di un polimero
lunghissimo ma monotono, perché composto da una successione di solo quattro piccole molecole
dette nucleotidi. Le proteine sembravano assai più attraenti e meno noiose, consistendo di un
assortimento svariato di 20 aminoacidi. Ma nel 1944 il gruppo di Oswald Avery alla Rockefeller
University lo buttava sulla scena e dal 1953 il brutto anatroccolo diventò un cigno. Da allora il
DNA continua ad avere sempre maggiori riconoscimenti: base della ereditarietà, software della vita,
principio unificante di tutte le forme di vita, partner della selezione naturale, determinante del
comportamento umano e così via. Non sappiamo ancora se tutto ciò gli spetta di diritto, ma si sa, è
sempre bello balzare sul carro del vincitore. In realtà, come spesso succede, non è tutto oro ciò che
luccica, e per essere equilibrati bisogna ricordare che il DNA è anche la base di un’infinità di
malattie ereditarie per non parlare del cancro.
Il genoma dell’uomo, che non è altro che il suo DNA, come più o meno quello di tutti i mammiferi,
contiene circa 100.000 geni. I geni sono una realtà fisica, in quanto non sono altro che dei pezzi di
DNA, un polimero formato a sua volta dall’alternarsi o il succedersi (da cui la parola sequenza) di
quattro piccole molecole, dette basi o nucleotidi. Il genoma dell’uomo è composto di circa 3
miliardi di nucleotidi, presenti in duplice copia. Una piccola parte, forse il 5-10%, rappresenta un
codice, da noi parzialmente conosciuto, che contiene appunto circa 100.000 informazioni per
costruire proteine. La funzione della restante parte non è ancora ben nota, potrebbe anche essere che
parte del DNA non abbia alcuna funzione, sia “junk DNA”, DNA spazzatura. Le proteine sono poi
responsabili della forma stessa della cellula e quindi di un organismo e occupano un posto centrale
perché regolano anche la produzione e il metabolismo di altri costituenti quali i lipidi e i glucidi,
oltre a presiedere al metabolismo degli stessi acidi nucleici, tra cui il DNA stesso.
Non c’è alcun bisogno di entrare nei dettagli che ci porterebbero lontanissimo. Può però essere utile
insistere nella similitudine del computer, perché questo è ormai a noi molto familiare. Questo
perché nel corso dell’evoluzione, la cellula ha avuto la necessità di immagazzinare in maniera
sicura i buoni risultati che otteneva e questo lo ha fatto sotto forma di informazione. Se nascondo un
41
tesoro, posso poi allontanarmi di migliaia di chilometri e tornare decine di anni dopo, o addirittura
affidare le istruzioni ad un altro, e il tesoro può essere ritrovato. Quello che conta è il loro contenuto
informativo. Ciò che sfuggiva nei secoli precedenti era proprio questo, che un’informazione può
essere immagazzinata in una struttura chimica. I geni sono pertanto pezzi di DNA i quali sono
istruzioni codificate. Tali istruzioni sono in grado però di produrre sia l’hardware che il software, è
come se un computer avesse le istruzioni non solo per funzionare ma anche per produrre altre copie
del suo stesso hardware.
Queste istruzioni consentono non solo di replicare le cellule e di assegnare ad ognuna di esse un
compito diverso, ma sono anche in grado di modificare le cellule in risposta a vari stimoli. Questo
vale sia per gli organismi monocellulari che per le singole cellule di organismi complessi, ma le
risposte saranno di livelli diversi. Un microrganismo risponde ad un cambio delle sostanze nutritive
nel suo terreno di cultura attivando informazioni (geni) diversi. Naturalmente questo può avvenire
entro limiti ben determinati, al di là dei quali la cellula non può rispondere e pertanto muore.
Tutte queste interazioni stimolo-risposta vengono effettuate in maniera automatizzata e molte di
queste possono essere descritte, modificate, manipolate e sfruttate sulla base di teorie consolidate,
contribuendo così ad aumentare la nostra fiducia nelle teorie stesse. Pertanto nessun scienziato fa
più uso di “proprietà vitali” specifiche della cellula. La possibilità di convertire la fisiologia
cellulare in denaro contante tramite le biotecnologie contribuisce certamente a diffondere la fiducia
in questa descrizione chimico-fisica della cellula sia nel grosso pubblico che tra i venture capitalists
di Boston e gli gnomi di Zurigo.
L’uovo o la gallina
La spiegazione dell’ereditarietà è ovviamente uno dei successi più clamorosi ottenuti dalla biologia
negli ultimi 50 anni. L’ereditarietà aveva sempre interessato gli uomini: un figlio assomiglia ai
genitori, ma può anche essere assai diverso nel carattere come nel fisico. Nel Settecento e
nell’Ottocento ci si chiedeva come questo potesse avvenire. Teorie come il preformismo cercavano
di spiegare questo incredibile fenomeno. Si invocavano homunculi dentro cui c’erano altri
homunculi e così via fino ad Adamo ed Eva.
Oggi sappiamo che non viene conservata alcuna forma, solo informazione per farla. Concetto
facilmente accettabile in un periodo in cui siamo passati dall’archiviazione di documenti cartacei,
destinati prima o poi al rogo, a quella di microfilm, fino a quelle di bit. La miniaturizzazione
dell’informazione ha luogo ovunque, negli ospedali come nelle banche, ma nessun sistema ha
ancora raggiunto le prestazioni fornite dal DNA.
L’informazione viene replicata ad ogni cellula, e ogni nuova cellula contiene generalmente tutta
l’informazione della cellula da cui è originata. Tuttavia cellule diverse (differenziate) non usano le
stesse informazioni, ma solo un sottoinsieme di esse. Come questo possa avvenire non è ancora
chiaro, anche se, per parti limitate di questo processo, sappiamo quali informazioni dicono quali
altre informazioni devono essere usate. Vi sono dei geni, detti fattori di trascrizione, che attivano
altri geni, e conosciamo anche un certo numero di “master genes” che stanno molto in alto in questa
gerarchia. Il “primum movens” tuttavia non ci è ancora noto. Per ogni organismo superiore, esso è
da rintracciarsi a livello della prima cellula dell’embrione. Tutto è mantenuto in una catena continua
in cui veramente non si può dire se è nato prima l’uovo o la gallina. In questo senso, il problema
dell’homunculus è risolto dal punto di vista delle dimensioni, ma non dal punto di vista della
regressio ad infinitum. In principio probabilmente era l’acido nucleico, o una miscela acido
nucleico-peptide.
42
In pratica ogni cellula attiva solo alcune delle istruzioni (= geni) contenute nel genoma, quelle
necessarie per la sua sopravvivenza, ed eventualmente quelle necessarie per la sua replicazione o
per esercitare una funzione relativa a tutto l’organismo nel caso degli organismi multicellulari.
Quando si replica, esegue prima un duplicato di tutte le istruzioni che vengono così passate ad ogni
nuova cellula. Ognuna di queste utilizzerà solo alcune delle informazioni codificate nel DNA, che
potranno variare nel caso nell’ambiente circostante siano avvenute delle modificazioni importanti.
Così i vari geni possono venire accesi o spenti in risposta alle necessità della singola cellula,
dell’intero organismo o delle modificazioni ambientali.
Pertanto, quali geni verranno espressi viene deciso dall’interazione tra il determinismo genico,
rappresentato dal DNA, e l’ambiente circostante. Cambiando l’ambiente, le istruzioni possono venir
mutate. Nell’ambiente si deve comprendere anche il citoplasma, che rappresenta quella parte
dell’ambiente, delimitata dalla membrana cellulare, più intimamente a contatto con il nucleo, in cui
il DNA è localizzato. Normalmente, il DNA della specifica cellula dirige la composizione del
citoplasma analizzando i segnali che riceve dall’esterno e rispondendo con l’attivazione di un
determinato set di istruzioni pertinenti, meccanismo che è alla base del progressivo
differenziamento cellulare. Questi riassestamenti possono essere massivi, come avviene ad esempio
dopo esposizione ad un fattore di crescita, ma sono comunque mediati da ciò che è presente nel
citoplasma (ad esempio, se la cellula non ha in precedenza prodotto un particolare recettore, potrà
essere completamente insensibile ad un determinato stimolo). Tuttavia, recenti esperimenti fanno
pensare che la capacità di riprogrammazione del DNA possa essere veramente notevole. Negli
esperimenti di clonazione, infatti, in cui un nucleo di una cellula adulta viene trasferito nel
citoplasma di un uovo, tutto l’insieme di istruzioni che quella particolare cellula aveva, viene
resettato e il DNA torna ad esprimere un altro set di istruzioni adatto al suo nuovo stato: è
presumibile che ciò avvenga in seguito all’esposizione al nuovo microambiente con cui è ora a
contatto e che manda segnali diretti all’attivazione di geni tipici di un precoce stadio embrionario.
Tuttavia, la composizione dello stesso citoplasma può, entro certi limiti, subire cambiamenti
notevoli anche in seguito a segnali che vengono dall’esterno, come testimoniato dai recenti
esperimenti di trans-differenziazione, in cui cellule nervose sono state spinte a differenziarsi in
cellule ematopoietiche tramite inoculo in vivo, senza che fosse necessario il trasferimento nucleare
45 . Tutto questo sta ad indicare che, pur nell’ambito di uno stretto determinismo genetico,
l’interazione con l’ambiente è pur sempre rilevante per il destino della cellula.
Il lato oscuro del DNA
L’alterazione di una singola istruzione può avere conseguenze drammatiche per la cellula o per
l’intero organismo. Il fenomeno è stato studiato sia in organismi unicellulari che in organismi
complessi. Nell’uomo ad esempio, vi sono almeno 5000 malattie ereditarie, che sono cioè dovute ad
un’alterazione di una delle istruzioni contenute nel DNA. Anche se non tutti i geni responsabili
delle malattie ereditarie sono ancora noti, tuttavia nella maggior parte di queste malattie in cui
l’istruzione errata è stata identificata, è possibile predire con estrema precisione chi è ammalato e
anche chi si ammalerà, anche nel caso che il soggetto sia ancora asintomatico perché la malattia
insorge in età avanzata. Bisogna tuttavia notare che i geni coinvolti in queste 5000 malattie sono
quelli la cui alterazione consente comunque un certo sviluppo dell’organismo. Altre istruzioni sono
di importanza vitale e un loro malfunzionamento non consente neanche di portare a termine la
45 Bjornson et al.: Turning brain into blood: a hematopoietic fate adopted by adult neural stem cells
in vivo. Science 283:534-537, 1999
43
gravidanza: quando questo avviene precocemente nello sviluppo dell’embrione, la malattia
generalmente non viene neppure riconosciuta.
Oltre alle malattie ereditarie che appaiono spontaneamente nell’uomo, vi è ora una tecnica assai
potente che consente di distruggere singole istruzioni nell’animale da esperimento, in particolare in
quello che è il modello principe per lo studio di genetica di mammiferi, il topo di laboratorio 46 . In
questo modo è possibile studiare la funzione di una singola istruzione nel complesso della fisiologia
della singola cellula e dell’intero organismo. In questo modo, sono state ricreate nel topo malattie
umane; inoltre è possibile studiare anche quelle che sono vitali per l’embrione e che nell’uomo non
è possibile indagare.
Il quadro che si ottiene è un quadro di completa automazione e le previsioni possibili sono
vastissime. Il fatto che studiando la sequenza del DNA di un bambino si possa conoscere il suo
destino è soltanto una delle dimostrazioni più eclatanti o sorprendenti della potenza esplicativa della
teoria.
Le conseguenze sono drammatiche per chi ne viene coinvolto personalmente. Ugo Foscolo
assegnava due quarti del nostro destino alla sorte 47 , ma non conosceva il lato oscuro della genetica.
Il fatto che basti che un solo nucleotide su 3 miliardi sia mutato per condannare un uomo alla
sofferenza e alla morte, deve far meditare profondamente chi è stato così fortunato da essere passato
indenne tra le maglie della sorte.
Come si formano i genomi
Nell’ambito del progetto Genoma Umano disponiamo ormai di un primo draft di circa il 90% della
sequenza della nostra specie e della sequenza completa di numerosi organismi unicellulari e di
alcuni multicellulari, tra cui spiccano il C. elegans e la D. melanogaster. Quello che sappiamo è che
questi genomi hanno una storia entro certi limiti ricostruibile e che alla base della formazione di un
genoma complesso quale quello umano c’è una serie di eventi assai diversi che non rivelano un
piano preciso ma piuttosto una serie di eventi scollegati tra loro.
Nel nostro genoma ad esempio troviamo le tracce di duplicazioni geniche di segmenti di una certa
lunghezza, cioè di segmenti di DNA che nel corso dell’evoluzione si sono duplicati. Questo ha
permesso che uno dei due geni duplicati sfuggisse alla pressione selettiva esercitata dalla sua
46 Questa tecnica, i cui risultati sono menzionati anche in capitoli successivi, si basa sul fatto che,
nel topo, vi sono cellule, dette staminali embrionarie, che mantengono la capacità, pur essendo
coltivate in provetta, di ripopolare l’embrione, dando origine quindi ad un individuo che è in parte
originato da loro stesse. Pertanto, se noi alteriamo un gene a queste cellule è possibile,
reimmettendole in un altro embrione normale, ottenere un individuo in cui parte delle cellule
derivano da quelle col gene alterato e che per questo viene detto chimerico. Dopo opportuni incroci
è possibile ottenere un topo in cui tutte le cellule portano l’alterazione prefissata che si voleva
studiare. In questo modo è possibile valutare la funzione di un gene per difetto, osservando cioè
cosa succede quando l’organismo non ce l’ha.
47 “La fama degli eroi spetta un quarto alla loro audacia; due quarti alla sorte; e l’altro quarto ai
loro delitti”. U. Foscolo: Ultime lettere di Iacopo Ortis. Rizzoli, Milano, 1975; p. 144. Il libro fu
pubblicato nella sua interezza nel 1802. Grande figura di poeta romantico, coetaneo di Byron e altri,
pur deluso dal Bonaparte, si batté per la causa repubblicana e dimostrò la validità del suo aforisma
morendo in miseria (a causa delle eccessive spese) e in esilio a Londra dopo aver rifiutato di
lavorare per il Governo Austriaco che aveva ripreso la Lombardia dopo la parentesi napoleonica.
44
importanza nell’economia della cellula e fosse libero di evolversi a produrre un gene diverso anche
se in parte ancora simile nella sua struttura a quello originario. Si è così andati incontro alla
formazione di famiglie geniche, cioè di geni che sono imparentati tra loro perché hanno un’origine
in comune, potendo tuttavia aver assunto funzioni completamente diverse e addirittura opposte. Non
solo, ma le modificazioni intervenute nelle regioni regolatrici possono portare ad un’espressione del
gene solo in particolari tessuti, così che la funzione del gene duplicato può manifestarsi in alcuni
tessuti ma non in altri. Geni nuovi vengono formati anche dall’assemblamento di pezzi di geni
originariamente presenti su tratti diversi di DNA, così che il nuovo gene può avere in comune delle
parti ( “domini”) con due geni diversi: ne può derivare un prodotto proteico che ha alcune proprietà
di entrambe le proteine originarie ma che svolge funzioni parzialmente nuove.
Non solo, ma i geni possono migrare all’interno del genoma. Essi possono venir trascritti in RNA
che per motivi ancora non chiariti può in certi casi reintegrarsi in un altro segmento cromosomale
dando così origine ad un’ulteriore copia del gene che tuttavia ha molte possibilità di non funzionare
più, cioè di non produrre la proteina originaria: nasce così uno pseudogene, un relitto evolutivo, che
via via tende ad accumulare mutazioni inattivanti. Oppure, in rari casi, tutto o parte della sequenza
trasposta viene riutilizzata o entrando a far parte di un nuovo gene o integrandosi in un punto che ne
consente l’espressione. Alcuni di questi “trasposoni” hanno avuto grande fortuna, perché sono
presenti nel genoma umano in un numero stimato vicino al milione di copie. La loro funzione non è
chiara, e potrebbero anche non averne alcuna, oppure potrebbero aver contribuito a particolari
passaggi evolutivi, avendo quindi svolto una funzione in un passato lontano che ora è andata
perduta 48 .
I genomi complessi pertanto sono un coacervo di geni che sono stati messi insieme in maniera
diversa senza un vero disegno preciso durante un processo assai lungo. Essi sono organizzati in
cromosomi che a loro volta sono strutture in parte conservate in parte modificate. Se si confrontano
cromosomi di specie diverse, si nota che alcuni geni sono associati tra loro (sono cioè l’uno accanto
all’altro lungo un determinato segmento cromosomico) in molte specie, ma che ad un certo punto
del cromosoma questa relazione termina bruscamente per rivelare una serie di geni che sono tra loro
nuovamente associati ma che in un’altra specie sono localizzati su un differente cromosoma. In altre
parole, a partire da un determinato progenitore comune sono avvenuti dei riarrangiamenti nei
cromosomi delle varie specie da esso derivate, alcuni dei quali possono anche avere contribuito al
processo stesso di speciazione.
Infine materiale genetico può venir inglobato nel genoma anche dall’esterno. E’ il caso di retrovirus
o altri elementi trasponibili che in casi relativamente rari riescono ad integrarsi nel genoma della
linea germinale, così da essere trasmessi alla progenie. Per quanto rari, questi eventi sono
cumulativi, e ogni specie contiene pertanto un certo numero di virus endogeni la maggior parte dei
quali ormai inattivati. In altri casi invece i geni dei virus integrati sono entrati a far parte del pool
genico della specie contribuendo sequenze codificanti o regolatrici. Questa integrazione tra
materiale genetico diverso ha assunto una particolare valenza nel caso del DNA mitocondriale: i
mitocondri sono organelli presenti nel citoplasma e coinvolti nel metabolismo energetico cellulare,
che si crede siano il risultato del inglobamento di un protobatterio nel citoplasma di un’antica
cellula. Si tratterebbe di un antico caso di simbiosi, testimoniato dal fatto che il mitocondrio ha
conservato alcuni dei suoi geni originari che vengono tramandati di cellula in cellula in maniera
indipendente dal DNA nucleare.
48 L’esistenza di DNA presente in grande numero di copie e che per giunta non ha alcuna funzione
è uno degli argomenti a favore dei sostenitori del DNA egoista, vedi più avanti.
45
Il livello dell’organismo
La descrizione molecolare dei fenomeni legati alla vita non si ferma a livello della singola cellula
ma si estende anche a livello dell’organismo nella sua interezza e non solo nel caso di anomalie
cellulari come potrebbero essere le malattie ereditarie. Come abbiamo detto, le proprietà di un
sistema di ordine di complessità maggiore non sempre sono così ovvie da poter essere predette al
livello inferiore. Tuttavia per molte di queste è possibile una buona descrizione molecolare. Qui ne
descriveremo un esempio, quello della risposta immunitaria adattativa.
E’ noto a tutti che una delle più efficienti difese immunitarie si basa sulla produzione di anticorpi 49 .
Queste molecole riconoscono molecole presenti sui nostri tessuti e molecole che sono presenti solo
su cellule estranee all’organismo. Si dice che sono in grado di distinguere il self dal non-self. Questo
processo, che ha la sua base a livello genetico, viene comunque acquisito durante lo sviluppo fetale
mediante dei complessi fenomeni descrivibili a livello molecolare e cellulare. Da un lato c’è la
necessità di riconoscere tutte le molecole estranee, che sono potenzialmente tossiche per
l’organismo, dall’altro c’è il bisogno di non danneggiare le proprie cellule.
I meccanismi genetici che stanno alla base di questo fenomeno, e cioè la produzione di anticorpi o
comunque di recettori specifici per le varie molecole “buone o cattive” sono sufficientemente noti
nei dettagli. Vi è un numero estremamente elevato di molecole da riconoscere e, a quanto pare, vi è
un numero altrettanto elevato di anticorpi che l’organismo riesce a produrre. In particolare, vi sono
anticorpi anche per molecole che l’organismo non ha mai incontrato né nella sua vita né in quella
della sua specie, anzi, possono venir prodotti anche anticorpi contro sostanze che in natura non
esistono. Dal momento che gli anticorpi sono proteine e che devono essere prodotti da geni, l’idea
che nel DNA di ogni specie potessero esservi tutti i geni anche per fare anticorpi per molecole che
abbiamo creato noi, sembrava assurda.
E in effetti non è così. L’anticorpo è formato da una parte costante e da una regione variabile che
differisce da anticorpo a anticorpo. Mentre la parte costante è codificata da un numero assai piccolo
di geni, la parte variabile è codificata da un numero elevato di piccoli segmenti di DNA che sono
presenti nel genoma di tutte le cellule, ma che nelle cellule che producono gli anticorpi, i linfociti,
vengono assemblati in maniera estremamente varia. Ne consegue che si possono formare una serie
di pezzi di DNA riarrangiati nella maniera più diversa, i quali alla fine di questo processo
produrranno un determinato anticorpo. Dal momento che vi sono miliardi di linfociti, saranno
disponibili un enorme numero di anticorpi predeterminati che sono candidati a legarsi ad un
antigene, inizialmente con un’affinità relativamente bassa. Malgrado questa bassa affinità, il legame
con l’antigene scatena una proliferazione dei linfociti che hanno quel determinato anticorpo, che
così aumentano grandemente di numero. Non solo, ma a seguito di fenomeni che avvengono a
livello del DNA di queste cellule proliferanti, il gene che produce l’anticorpo acquista delle
mutazioni che faranno produrre anticorpi leggermente diversi, la cui affinità per l’antigene potrebbe
essere minore o maggiore. Tuttavia, per un meccanismo selettivo, le cellule che producono un
49 Gli anticorpi, o immunoglobuline (Ig) sono prodotti da un sottoinsieme di linfociti, detti di tipo B.
Si distinguono 5 classi di anticorpi, denominati IgM, IgD, IgG, IgA, IgE. Per una loro corretta
produzione sono tuttavia necessari anche altre cellule tra cui i linfociti di tipo T. Questi a loro volta
producono una serie di molecole che appartengono alla stessa grande famiglia delle Ig, e i cui geni
pure vengono riarrangiati con un processo del tutto analogo a quello che viene utilizzato per
produrre gli anticorpi. Tutte queste molecole cioè hanno una parte costante codificata da uno o
comunque pochissimi geni e una parte variabile che varia da molecola a molecola. Vedi S.
Tonegawa: Somatic generation of antibody diversity. Nature 302, 575-581, 1983
46
anticorpo più “forte” verranno avvantaggiate sulle altre e cresceranno di più, aumentando la risposta
dell’organismo all’antigene dannoso.
Siamo davanti pertanto ad un meccanismo selettivo per cui il legame con l’antigene scatena la
produzione ed il miglioramento di un anticorpo specifico per l’antigene stesso a partire da un panel
di anticorpi che sono prodotti secondo uno schema generale ma con notevole variazioni individuali.
Parimenti, con un processo che però è meno conosciuto, si suppone che le cellule che producono
casualmente anticorpi contro molecole proprie dell’organismo (autoanticorpi) vengano eliminate: se
questo processo non è correttamente completato possono insorgere quelle che sono conosciute come
malattie autoimmuni.
Ma il livello di profondità dell’analisi arriva anche a livello molecolare. Il meccanismo alla base
della diversità anticorpale, come abbiamo visto, è dato dal riarrangiamento di piccoli pezzi di DNA.
Si tratta essenzialmente di un processo di taglia e cuci, in cui pezzi di DNA vengono tagliati e
quello che rimane alle loro estremità viene ricongiunto. Le molecole coinvolte in questo processo
sono oggi sufficientemente note, ed è noto nelle linee essenziali il loro funzionamento. I pezzi di
geni che devono essere assemblati hanno alla loro estremità interna delle sequenze nucleotidiche
specifiche che vengono riconosciute da molecole particolari, dette RAG, che sono in grado di
tagliare in corrispondenza di queste sequenze con una precisione quasi assoluta. Pertanto il taglio da
parte delle RAG fa sì che un pezzo di DNA venga eliminato dal genoma, e che il restante pezzo di
DNA possa venir ricongiunto mediante l’azione di altre molecole il cui mestiere è appunto quello di
ricucire le rotture del DNA. Dal momento che vi sono tantissimi pezzi che possono essere
ricongiunti con vario assortimento, e che per giunta questa giunzione è sempre un pochino diversa e
il numero di linfociti è altissimo, e che infine il gene riarrangiato può ancora mutare, si capisce
come il sistema possa funzionare in modo da proteggerci dalla maggior parte dei microrganismi che
incontriamo durante la nostra vita.
Esempi come questi ce ne sono a centinaia, ma sarebbe inutile dilungarci. Quello che conta qui è
capire la logica della descrizione. Questo esempio tratto dal sistema immunitario illustra il principio
generale secondo cui le interazioni delle cellule dell’organismo tra loro e con altre cellule estranee
possono venir descritte a livello molecolare. La descrizione avviene a posteriori, nel senso che non
sarebbe possibile, al momento per lo meno, prevedere ad esempio la via scelta dai vertebrati per
risolvere il problema dell’immunità studiando, non dico i procarioti, ma neppure gli invertebrati,
che non hanno questo sistema adattativo.
Potrebbe essere anche possibile andare oltre al livello dell’organismo individuale e tentare di
descrivere organizzazioni meta-individuali, cioè organizzazioni sociali ? Questo problema verrà
trattato più avanti in un capitolo successivo.
Lo sviluppo embrionario
La produzione di un organismo adulto a partire da una sola cellula è probabilmente il fenomeno
biologico più stupefacente, e ci riempie di commozione tanto quanto il cielo stellato sopra di noi e
la legge morale dentro di noi. E non solo nel caso dell’uomo, ma anche per organismi modesti come
i nematodi, i moscerini, i ricci di mare, le rane, i pesciolini o i topolini, tutti modelli che vengono
utilizzati in quella disciplina che va sotto il nome di embriologia sperimentale. Come viene
acquisito, a partire da una singola cellula, non solo il differenziamento in vari tessuti, ma anche la
disposizione tridimensionale e la formazione di strutture che sono identiche in tutti i membri della
stessa specie, oltre a presentare leggere variazioni tra una specie e l’altra?
47
Nel corso dei secoli questo problema era rimasto assolutamente confuso, e le teorie proposte erano
state vaghe o, peggio, ridicole. Per tre o quattro secoli si confrontarono preformisti ed epigenetisti. I
primi sostenevano che tutti gli embrioni esistevano già preformati nell’uovo o nello sperma: ne
conseguiva che ogni embrione doveva contenere dentro di sé un numero enorme di “homunculi”,
nel caso della generazione umana, perché dentro il seme di ogni homunculus doveva essercene un
altro in miniatura. Questa conseguenza della teoria, chiamata anche dell’inscatolamento (in francese
“emboitement”), era chiaramente facile bersaglio del sarcasmo da parte degli epigenetisti. Questi
proponevano invece l’esistenza negli embrioni di una “forza” che fosse in grado di indirizzare lo
sviluppo dell’embrione, ma naturalmente avevano il loro punto debole nella loro assoluta incapacità
a dare qualche dettaglio su di essa, così che le loro specifiche proposte erano estremamente facili ad
essere smantellate dalla critica degli avversari.
Hans Driesch, uno dei fondatori dell’embriologia sperimentale, lavorando all’inizio del secolo XX
presso la Stazione Zoologica di Napoli, giunse alla conclusione che l’embrione era dotato di tali
proprietà che non potevano essere spiegate dalle leggi che regolano la materia. L’embriologia
sperimentale consiste nel manipolare l’embrione o il “milieu” che lo circonda e vedere cosa
succede: da questi dati si può costruire una teoria che suggerisce poi nuovi esperimenti in una
sequela che è quella classica del metodo scientifico. L’embrione, è noto, origina come singola
cellula, poi si divide in due, quattro, otto cellule e così via. Tra i vari esperimenti di cui fu pioniere,
Driesch separò le cellule degli embrioni allo stadio di due o quattro cellule (blastomeri) e constatò
che ognuna di esse era in grado di produrre un embrione intero, seppure più piccolo. Parimenti, era
possibile fondere tra loro due embrioni al livello di blastula ed ottenere un unico organismo, questa
volta più grande. Questo ed altri esperimenti lo portarono a concludere:
“E’ quindi provato per alcuni fenomeni vitali che nessun meccanismo di qualunque tipo può essere
la loro base causale. Vi sono necessariamente degli agenti non meccanici. Diamo loro il nome
aristotelico di entelechia, pur sapendo che esso non corrisponde esattamente al concetto
rappresentato dal termine aristotelico…” 50
E’ interessante notare come Driesch sottolinei ripetutamente che le sue conclusioni sono la
migliore, anzi l’unica, spiegazione dei fatti che egli esamina. Egli è convinto che la sua conclusione
derivi dai fatti e che sia pertanto assolutamente scientifica.
“Abbiamo appena mostrato che vi è empiricamente una causalità vitale”. E più avanti: ”Molti non
vedono di buon occhio l’uso che il vitalismo fa del concetto di affinità dei mezzi e del fine, di
teleologia e anche di causa finale. Si potrebbe forse notare che nessuna di queste parole figura in
quest’articolo”. 51
Driesch viene considerato come l’ultimo vitalista (per lo meno di una certa importanza). Oggi in
realtà questi esperimenti che egli eseguì all’inizio del Novecento con grande perizia tecnica sono
alla portata di numerosi laboratori che si sono spinti assai più in là. Oggi è possibile eseguire i suoi
esperimenti su embrioni di topo, prenderne le cellule ai primi stadi di sviluppo e coltivarle in vitro,
reinserirle nella blastocisti e ottenere animali chimerici, cioè animali in parte derivati dalle cellule
50 H. Driesch. Le vitalisme. Scientia 7:13-22, 1907. Versione italiana citata in B. Fantini: La
macchina vivente. Longanesi, Milano, 1986 p 84. Nel termine vi è la radice ev (dentro, interna) e
quella tele (scopo, fine). Fantini (p 22) la definisce come un “fattore naturale non spaziale,
distribuito in tutta la materia vivente, è il principio direttore che permette di raggiungere un fine
preciso univoco seguendo strade diverse in condizioni diverse”. Il termine è tratto dal trattato
“Sull’anima” di Aristotele.
51 Ibidem, p 85.
48
della blastocisti ospite e in parte derivati dalle cellule in essa iniettate. In altre parole, le cellule dei
primi stadi dell’embrione sono totipotenti, e se trattate appropriatamente possono riformare tutto
l’organismo. Addirittura, il nucleo di una cellula, non solo embrionaria ma anche originata da un
tessuto differenziato contiene tutta l’informazione necessaria per ricostruire un organismo, come
hanno dimostrato gli animali clonati che vengono prodotti da qualche anno a questa parte. 52
La risposta è ormai chiara. L’entelechia coincide con il DNA. Nel DNA vi è il programma con tutte
le istruzioni che la prima cellula e poi tutte le altre devono seguire per arrivare a produrre
l’individuo adulto. La concomitante esplosione della teoria dell’informazione e dell’informatica
rende oggi questa spiegazione assai facile da comprendere e da accettare. Su cosa si basa questa
conclusione ?
Vi è un numero sproporzionato di osservazioni genetiche che si sono accumulate nel corso di questi
ultimi due decenni, costruite su osservazioni embriologiche eseguite nell’arco di tutto il secolo
ventesimo. Queste osservazioni sono di due tipi, essenzialmente, a seconda che siano eseguite su
fenomeni spontanei o su fenomeni provocati artificialmente. Abbiamo visto che in un mammifero
come l’uomo e il topo, a dispetto delle diversità nelle dimensioni e nelle capacità, esistono circa
100.000 geni. Come abbiamo detto, è oggi possibile inattivare in maniera assai precisa uno solo di
questi geni e vedere qual è il fenotipo che ne deriva: i risultati ottenuti getteranno luce sulla
funzione del gene indagato. Oppure è possibile studiare i fenotipi anormali insorti spontaneamente
nelle colonie di topi o altri animali e cercare di individuare qual è il gene la cui alterazione ha
provocato il difetto riscontrato.
La formazione delle strutture embrionarie sembrerebbe a prima vista essere troppo complessa per
poter essere spiegate con i geni. Come potrebbero le cellule venir istruite a disporsi a strati, a
formare strutture tubulari, a organizzarsi in organi che mantengono sempre la stessa forma in tutti
gli individui della stessa specie? Non sembra logico postulare l’esistenza di un organizzatore? E
questo organizzatore non sembra dover essere di una natura diversa dalle molecole? Se ci si
trasporta all’inizio del Novecento, quanti non si sentirebbero attratti dalle considerazioni di
Driesch?
Gli studi recenti hanno dato torto a Driesch anche in questo caso. Oggi possiamo causare facilmente
l’assenza di una struttura alterando un singolo gene. Lavorando come abbiamo detto nel topo con la
tecnica della ricombinazione omologa, possiamo inattivare un gene a piacere e vedere cosa ne
consegue. In alcuni casi otteniamo la scomparsa di un’intera struttura o di un organo. Pertanto un
singolo gene può essere o è responsabile della formazione di strutture tridimensionali. Non solo, ma
una loro alterazione può provocare la comparsa di strutture intere.
La storia delle mutazioni omeotiche è emblematica. Si tratta di un esempio eclatante e facile da
comprendere. L’embriologia molecolare, essendo di difficile studio nell’uomo per motivi ovvii, si
dedica con piacere allo studio di piccoli animali che vengono usati come modelli. Il vantaggio è che
su questi modelli si possono effettuare esperimenti con grande facilità; inoltre il tempo di
riproduzione è sensibilmente più corto che nell’uomo. Nel caso della Drosophila, si possono
ottenere progenie grandissime in poco tempo; nel topo la gravidanza dura 21 giorni e ogni 3 –4
mesi si ha a disposizione una nuova generazione di animali.
52 Per dettagli sulla vasta gamma di animali che possono essere ottenuti manipolando l’embrione si
può consultare l’articolo “Animali chimerici, transgenici, knockout e clonati” in Dulbecco et al.
“Clonazione: problemi etici e prospettive scientifiche". Edito come supplemento a Le Scienze del
maggio 1997.
49
Molti embriologi classici, anche prima dell’avvento delle tecniche di ingegneria genetica che hanno
consentito di studiare i geni, hanno fatto uso di mutanti. I mutanti, che sono veramente centrali per
lo studio dell’embriologia come di altri settori di ricerca biologica, sono stati definiti inizialmente
per il loro fenotipo, cioè per il loro aspetto. La parola viene dal greco, φαινω, appaio, la stessa
radice di fenomeno. Il fenotipo è come uno appare, intendendo però ormai anche quello che appare
a livello di test di qualsiasi natura. Il genotipo invece è quello che vi è dietro al fenotipo, la base del
fenotipo. Per decenni, nella prima parte del secolo il genotipo è stato qualcosa di misterioso, oggi
sappiamo che coincide praticamente con il DNA. Un uomo affetto da una malattia ereditaria, per
esempio, da fibrosi cistica, è un mutante.
L’importanza dei mutanti è dovuta al fatto che possiamo sperare di identificare il loro genotipo, cioè
l’istruzione sbagliata. Gli embriologi pertanto guardano le loro colonie di animali per vedere se
insorgono organismi con fenotipi interessanti, ma questa comparsa spontanea è rara. E’ naturale
quindi che abbiano cercato di aumentare la frequenza di queste mutazioni, semplicemente
esponendo gli animali ad agenti che danneggiano il loro DNA, quali, ad esempio, le radiazioni.
Durante un lavoro di questo tipo, furono identificati dei mutanti che dal punto di vista embriologico
erano enormemente interessanti: alcune mosche avevano quattro ali invece di due (Bithorax), altri
avevano una gamba al posto di un’antenna (Antennapedia). Si aveva quindi la possibilità di testare
l’ipotesi secondo cui singoli geni comandano la formazione di un’intera struttura. Se fosse stato
possibile identificare un gene alterato solo nei mutanti, l’ipotesi sarebbe stata confermata.
E in effetti l’ipotesi si rivelò esatta con l’identificazione di geni che erano alterati specificatamente
in questi due mutanti e che definirono una nuova classe di geni. Dal momento che mutazioni di quel
genere venivano chiamati omeotiche (dal greco “ομοιοσ”, simile 53 ), i nuovi geni vennero chiamati
“homeobox”. Quindi non solo vi erano dei geni la cui alterazione comportava l’assenza di una
struttura, ma anche geni la cui alterazione provoca la comparsa di strutture in sedi anormali. Anche
se il meccanismo alla base del fenomeno è ben lungi dall’essere conosciuto nei dettagli, vi sono
ormai numerosi casi del genere a carico di geni della stessa o di altre famiglie, che dimostrano come
anche i fenomeni embriologici più complessi dipendono dall’azione di singoli geni o dalla loro
interazione.
Prendiamo il caso dell’occhio. Più di cent’anni oro sono, William Paley aveva scritto:
if we had no other “example in the world of contrivance except that of the eye, it would be alone
sufficient to support the conclusion that we draw from it, as to the necessity of an intelligent
Creator” 54 .
Ma nel 1995, Walter Gehring e i suoi collaboratori hanno preso delle Drosophilae e hanno fatto
esprimere un gene da loro isolato (“eyeless”) in vari tessuti embrionali (imaginal disks) che
normalmente danno origine a strutture quali le ali e le zampe o gli occhi stessi. Ne vennero fuori
moscerini con occhi sulle ali e sulle zampe. Alcuni avevano occhi in cima alle loro antenne. Questi
occhi “ectopici” (cioè insorti in sedi anomale) erano molto simili a quelli normali e i loro
fotorecettori rispondevano alla luce 55 .
53 Termine introdotto alla fine del secolo XIX dal naturalista William Bateson per indicare il
fenomeno di trasformazione di un organo in un altro.
54 W. Paley. Natural Theology. vol I, p. 81 citato in C.A. Russell: Science and religious belief. The
Open University Press, Londra, 1973; p. 185.
55 G. Halder et al: Induction of ectopic eyes by targeted expression of the eyeless gene in
Drosophila. Science 267:1788-1792, 1995
50
Questi studi dimostrano che i geni regolano anche strutture così perfezionate come quegli occhi
davanti ai quali Paley si riempiva di ammirazione. Curiosamente, questo gene, la cui alterazione
provoca un fenotipo denominato appunto “eyeless”, ha un omologo nel topo, le cui mutazioni
causano un fenotipo denominato “small eye” 56 . Pertanto, in specie così distanti come le mosche e i
topi, lo stesso gene regola lo sviluppo dell’occhio, e la cosa è tanto più sorprendente in quanto gli
occhi degli insetti e dei mammiferi sono apparentemente profondamente diversi. Ma le sorprese non
finiscono qui: il gene omologo nell’uomo, chiamato anche “aniridia” (dalla malformazione che
provoca) è anch’esso responsabile di una malformazione ereditaria dell’occhio e omologhi del gene
sono stati trovati anche in organismi assai lontani evolutivamente quali le planarie.
Un altro esempio è costituito dalla formazione delle dita. Anche la mano, come l’occhio, sembrava
ai tempi di Darwin un esempio eccezionale di struttura che richiedeva un disegno. I pesci, come
noto, non hanno dita ma pinne. Si ritiene che le pinne siano gli antenati degli arti. Tuttavia non è
ben chiaro cosa se ne facessero i pesci delle dita, né come il primo abbozzo delle dita potesse essere
di vantaggio evolutivamente parlando. Questo problema, noto come l’enigma della transizione tra
pesci e tetrapodi (cioè animali con quattro arti), è un problema non ancora risolto. Si può ipotizzare
che le dita si siano sviluppate sulle pinne di pesci che avessero il loro habitat in fondali bassi e pieni
di vegetazione, e che questi primi abbozzi potessero dare un vantaggio di movimento in acque
basse. Il numero delle dita può essere assai diverso, è noto ormai che vi sono fossili che dimostrano
sei o otto dita: la pentadattilia non è più ritenuta necessariamente primitiva. Anche l’aspetto delle
dita può essere assai diverso: il cavallo corre su un monodito, la mucca cammina su due, l’uccello
vola con ali a tre dita, cammina su due o quattro dita a seconda della specie, mentre l’uomo ne ha
cinque sia alle mani che ai piedi, ma nella mano hanno subito un’evoluzione eccezionale. Quello
che però è chiaro è che nella formazione di arti così diversi quali quelli che si hanno negli uccelli e
nei mammiferi, sono implicati sempre gli stessi geni. Come nel caso della formazione degli occhi,
geni omologhi si ritrovano coinvolti in tutte le specie. Questo è dimostrato in maniera classica
tramite l’analisi dei mutanti, siano essi spontanei o ottenuti artificialmente, siano essi nell’uomo o
negli animali d’esperimento.
Come abbiamo visto, i geni homeobox sono fondamentali per la formazione di numerose strutture
durante lo sviluppo embrionario. I classici geni homeobox sia nell’uomo che nel topo sono raccolti
in quattro gruppi (“cluster”) su quattro differenti cromosomi. Ognuno di questi gruppi, la cui
struttura generale è simile in tutti e quattro, è formato da una successione ordinata di geni, simili tra
loro e simili anche a quelli degli altri gruppi. Tuttavia, in generale ogni gene di un determinato
gruppo è più simile al gene degli altri gruppi che occupa la stessa posizione che non a quelli del suo
gruppo. In altre parole, ognuno di questi geni può essere indicato con una lettera da A a D che
indica il cluster di appartenenza e da un numero che indica la sua posizione nel cluster. Geni con lo
stesso numero, che occupano cioè la stessa posizione hanno spesso una funzione correlata e spesso
ridondante. Questo termine significa che questi geni hanno talune funzioni proprie, che nessun altro
gene può sopperire, e altre che invece sono in comune con altri geni. Pertanto l’inattivazione di un
gene homeobox a volte dà origine ad un difetto leggero, mentre l’inattivazione combinata di due o
più geni causa un deficit che è maggiore di quello che ci si aspetterebbe dalla somma dei due singoli
deficit (questo perché alcune ognuno sopperiva a parte delle funzioni dell’altro).
I geni homeobox con i numeri più bassi sono coinvolti in difetti più craniali, mentre quelli con i
numeri più alti causano difetti nella formazione degli arti. Questo fatto è in correlazione con la loro
espressione che appunto viene regolata in maniera tale che i singoli geni vengono espressi durante
56 R. Quiring et al: Homology of the eyeless gene of Drosophila to the small eye gene in mice and
aniridia in humans. Science 265:785-789, 1994
51
lo sviluppo prima nelle regioni craniali e poi in quelle caudali. Questa corrispondenza tra la regione
in cui si esprimono e la loro localizzazione ordinata nel genoma è assai importante, ma la base di
questo fenomeno non è ancora chiara. Si è comunque visto che alcuni di questi geni, insieme a
numerosi altri di cui si comincia a comprendere il ruolo, sono coinvolti nella formazione degli arti
57 . In particolare quelli che occupano una posizione verso la fine di ogni cluster, che hanno la
numerazione tra 9 e 13, sono espressi negli arti durante il loro sviluppo embrionario. Come nel caso
dell’occhio, le mutazioni di questi geni nel topo e nell’uomo hanno dato dei quadri abbastanza
sovrapponibili, dimostrando come questi geni dirigano la formazione di queste strutture e come
questa loro proprietà sia conservata nell’evoluzione 58 .
L’inattivazione artificiale mirata del gene Hoxd-13 nel topo provoca un difetto nella formazione
delle dita, mentre l’inattivazione combinata dei geni Hoxd-11, -12 e -13 provoca una
malformazione più grave. L’inattivazione del gene Hoxa-13 provoca una malformazione lieve, ma
l’inattivazione sia del Hoxa-13 che del Hoxd-13 provoca l’arresto della formazione dell’intera mano
59 . Tutte queste mutazioni, come pure un’altra mutazione insorta spontaneamente (ipodattilia)
dovuta anch’essa al gene Hoxa-13 60 , sono studiate nel topo, ma anomalie dello sviluppo simili si
ritrovano anche nell’uomo. Nella nostra specie infatti, una mutazione del gene Hoxd-13 provoca
una condizione denominata sinpolidattilia 61 , mentre un’altra, che coinvolge invece il gene Hoxa-
13, provoca la sindrome mano-piede-genitali (hand-foot-genital syndrome) 62 . Pur con le leggere
differenze tra il fenotipo delle mutazioni umane e murine, il quadro globale suggerisce le stesse
conclusioni che sono state tratte dallo studio dei geni coinvolti nella formazione dell’occhio.
Oggi si ritiene che l’azione dei geni, in un delicato network di attivazione e inattivazione genica, sia
in grado di spiegare tutto lo sviluppo dell’embrione dal momento della fusione tra uovo e
spermatozoo fino al suo completamento. Non solo, ma l’embriologia comparata consente di studiare
tutta la meravigliosa varietà di soluzioni che sono state ideate per consentire un adattamento
all’ambiente. Il pitone, ad esempio, non ha arti, ma ha oltre 300 vertebre, tutte assai simili. Una
diversa regolazione dei geni homeobox e di altri geni sono responsabili di questa estrema soluzione
del pitone 63 , così come lo sono per la formazione delle ali degli insetti o di quelle degli uccelli. Vi
sono veramente pochi dubbi che i geni e la loro interazione con l’ambiente non siano in grado di
spiegare ogni cosa, dall’apparizione della testa che ha avuto luogo centinaia di milioni di anni or
sono, fino al pollice sovrapponibile dell’H. sapiens, apparso nell’ultimo secondo della giornata
evolutiva.
57 S. Manouvrier-Hanu et al: Genetics of limb anomalies in humans. Trends Genet 15:409-417,
1999
58 T. Kondo et al: Genetic control of murine limb morphogenesis: relationships with human
syndromes and evolutionary relevance. Mol Cell Endocrinol 140:3-8, 1998
59 J. Zakany & D. Duboule: Synpolydactyly in mice with a targeted deficiency in the HoxD
complex. Nature 384:69-71, 1996; T. Kondo et al: Of fingers, toes and penises. Nature. 390:29,
1997; Y. Herault & D. Duboule: Comment se construisent les doigts. La Recherche 305:40-44,
1998 .
60 D.P. Mortlock et al: The molecular basis of hypodactyly (Hd): a deletion in Hoxa13 leads to
arrest of digital arch fromation. Nature Genet 13:284-289, 1996
61 Y. Muragaki et al: Altered growth and branching patterns in synpolydactyly caused by mutations
in HOXD13. Science 272:548-551, 1996.
62 D.P. Mortlock & J.W. Innis: Mutation of HOXA13 in Hand-foot-genital syndrome. Nature Genet
15:179-180, 1997
63 M.J. Cohn & C. Tickle: Developmental basis of limblessness and axial patterning in snakes.
Nature 399:474-479, 1999
52
Capitolo 3.
L’EVOLUZIONE
L’evoluzione è ormai una teoria che viene utilizzata in tutti i campi della biologia. La sua vastità è
tale che Karl Popper le attribuisce il rango di programma di ricerca metafisico 64 . Questa
affermazione di Popper non è in verità piaciuta ai biologi evoluzionisti, e lo stesso Popper ha
parzialmente modificato la sua posizione. Forse nella sua definizione il filosofo austriaco voleva
solamente riconoscere la vastità della portata della teoria evoluzione o forse, prigioniero del suo
criterio di falsificazione, non vedeva bene come la teoria potesse essere falsificata. Rimane che vi è
una miriade di dati che si inquadrano assai bene nella teoria dell’evoluzione e anche scienziati che
non lavorano propriamente nel settore della zoologia usufruiscono positivamente della concezione
evoluzionistica.
In verità gli organismi mutano incessantemente e, su scala epocale, danno origine alle
trasformazioni più inattese. Anche il motore dell’evoluzione, l’adattamento all’ambiente, la fitness
o la lotta per la sopravvivenza, la selezione del più adatto, improntano i settori più diversi. Il
concetto di selezione ad esempio viene utilizzato per spiegare la risposta immunitaria come lo
sviluppo del sistema nervoso centrale. Essenzialmente, oggi si ritiene che la prima forma vivente si
è formata agli albori dell’esistenza della Terra stessa, in presenza di condizioni che non sono più
presenti sulla superficie della terra (ma potrebbero esserlo su altri pianeti o sotto la crosta terrestre)
e che da questa prima forma si sono evolute tutte le altre, fino all’uomo.
E’ interessante notare come la fiducia nella teoria dell’evoluzione si sia affermata nel corso dei
decenni. In effetti, vista col senno di poi, la storia della credenza nella creazione delle specie una
per una risulta stupefacente. In fondo, su cosa si basa oggi la nostra credenza nell’evoluzione ? Sul
fatto che gli animali sono estremamente simili l’uno con l’altro, che il piano di costruzione sembra
uno solo, che spesso vi sono varie gradazioni di un determinato carattere, che zone geografiche
isolate hanno animali differenti. In realtà anche oggi, abbiamo poche prove dirette di evoluzione: i
casi in cui abbiamo notato la trasformazione di una specie in un’altra sono praticamente assenti.
Abbiamo sì osservato variazioni della frequenza di alcuni caratteri nell’ambito di una certa specie in
seguito a processi selettivi, ma per questioni di tempo, l’osservazione diretta della trasformazione di
una specie in un’altra, o se vogliamo della derivazione di una nuova specie da un’altra ci è ancora
preclusa. Questi dati tuttavia erano già disponibili nelle loro linee essenziali anche duecento anni fa,
prima di Darwin e Wallace e anche prima di Lamarck. In fondo, anche solo guardando l’enorme
variabilità delle razze che vanno sotto la denominazione di cane, qualcosa doveva pur venir in
mente. Certo, oggi noi abbiamo infiniti dettagli sul piano generale di costruzione degli esseri
viventi, abbiamo tutti i dati genetici che Darwin non aveva, eppure il ragionamento che ne è alla
base poteva essere evidente anche 200 anni fa. Buffon e più compiutamente Charles Lyell, avevano
già dimostrato che la Terra era più antica di quanto non affermassero le Sacre Scritture, e lo stesso
Buffon si era posto il problema se il cavallo e l’asino non discendessero da un antenato comune,
concludendo tuttavia negativamente 65 . In effetti, per i sociologi della scienza, per i sostenitori
64 K. Popper. Unended quest. An intellectual autobiography. William Collins Sons & Co, Glasgow,
1976. “I have come to the conclusion that Darwinism is not a testable scientific theory, but a
metaphysical research program.” p 168. Nella nota 242 precisa che ha usato il termine
“metaphysical because nonfalsifiable”. Per i limiti di questo approccio, vedi anche prima parte.
65 Buffon nella sua Histoire Naturelle ha un capitolo famoso in cui solleva il problema della
parentela tra asino e cavallo. Vedi anche: F.Jacob & A. Langaney: Genèse et actualité de la theorie
de l’evolution. La Recherche 296:18-25, 1997
53
dell’importanza dell’influenza delle credenze sociali-filosofico-religiose sulle teorie scientifiche, la
teoria dell’evoluzione è un vero cavallo di battaglia.
In effetti, quando Darwin espose la sua teoria, aggiungendo a ciò che era già noto le sue
osservazioni raccolte nel lungo viaggio intorno al mondo col Beagle, tra cui sono famose quelle
sulla fauna delle isole Galapagos che erano isolate dal continente americano e su cui vivevano
specie simili ma non identiche a quelle del continente, poteva solo far notare la coincidenza ed
invocare il criterio della semplicità. Ma cosa era più semplice, postulare un enorme complesso di
reazioni e passaggi mossi da leggi e regole che al momento erano sconosciute e difficilmente
immaginabili, oppure rifugiarsi in un intervento esterno ? Ai creazionisti dell’epoca, pronti a
suggerire che l’unità generale dei viventi era ovviamente attendibile perché Dio creava tutte le
specie secondo lo stesso schema generale e che la presenza di fossili di specie scomparse era
comunque spiegabile con successive e ripetute ondate creative, era difficile rispondere. L’unica
spiegazione dell’improvvisa diffusione della teoria evolutiva sta nel fatto che il mondo era maturo
per preferire risposte che eliminavano interventi esterni nella vita di ogni giorno. Se gli astri si
muovevano da soli secondo regole semplici e belle, perché non potevano farlo anche i viventi?
L’evoluzione è
Può essere utile comunque, senza entrare nei dettagli, mostrare quello che è il quadro attuale delle
conoscenze sui meccanismi evolutivi, da cui poi trarre alcune conclusioni.
In primo luogo bisogna chiarire che l’evoluzione è, come recita la formula dei tribunali americani,
al di là di ogni ragionevole dubbio. Quello su cui si discute è come essa sia avvenuta nei dettagli.
Pertanto molte conclusioni attuali potranno venir modificate, e anche dati apparentemente chiari
potranno rivelarsi errati. Quello che oggi si ritiene abbastanza valido è 66 : che circa 3 miliardi e
mezzo di anni fa si sono formate le prime cellule. Che da queste cellule sono poi derivate tutte le
altre forme viventi, anche se nessuno potrebbe giurare sul fatto che la cellula si sia formata una
volta sola o più volte. Che alla base della prima cellula e successivamente di tutte le altre c’era un
acido nucleico, fosse esso il DNA o l’RNA. Che il DNA viene in genere ricopiato con esattezza, ma
che possono talora intercorrere cambiamenti piccoli (mutazioni) o grandi (macromutazioni) che
vanno dal cambio di un singolo nucleotide alla duplicazione dell’intero genoma, passando per le
grosse delezioni o inserzioni, e i rimaneggiamenti cromosomici. Che il numero delle specie viventi
è enorme, ma che quello delle specie estinte è ben maggiore.
Se si va nei dettagli, vi è un grande numero di posizioni che sono suscettibili in futuro di smentita.
Prendiamo per esempio il problema dell’orologio molecolare. Essenzialmente, per orologio
molecolare si intende il fatto che ci si aspetta che la quantità di mutazioni riscontrabili è funzione
lineare del tempo che separa le due specie studiate. Questo concetto viene utilizzato per datare il
tempo passato dal momento in cui due specie si sono separate dall’antenato comune. In realtà, non è
affatto detto che queste mutazioni insorgano sempre con la stessa frequenza nelle varie ere
geologiche; inoltre se anche fosse vero che avvengono tutte con la stessa frequenza, il loro valore
assoluto potrebbe non essere quello che noi pensiamo attualmente. I sequenziamenti massivi di
66 Vedi ad esempio: E. Szathmary & J. Maynard Smith. The major transitions in evolution.
W.H.Freeman, Spektrum, 1995. In questo libro gli autori fanno una storia dell’evoluzione
distinguendo otto transizioni maggiori. Le stesse conclusioni sono esposte in maniera più concisa in
E. Szathmary & J Maynard Smith: The major evolutionary transitions. Nature 374:227-232, 1995.
Degli stessi autori anche: The origins of life: from the birth of life to the origin of language. Oxford
University Press, Oxford, 1999. Vedi anche l’intervista a J. Maynard Smith in: La Recherche
296:32-35, 1997.
54
genomi di varie specie potranno modificare i dettagli, senza scuotere minimamente la nostra fiducia
nell’evoluzione. Un problema analogo si verifica quando si cerca di datare la separazione delle
varie popolazioni umane o si tenta di risalire alla nascita dell’Homo sapiens. Le stime attuali
dell’Eva mitocondriale o dell’Adamo genetico si basano su varie assunzioni, compresa quella del
tasso costante di mutazioni, che potrebbero anche essere notevolmente errate. Non per questo la
teoria dell’evoluzione ne verrebbe sminuita.
Come funziona l'evoluzione
Esula dallo scopo di questo libro elencare tutte le teorie e i dati che supportano l'una o l'altra tesi sui
meccanismi che stanno alla base dell’evoluzione biologica. Quello che è importante è trarre delle
conseguenze per quello che può interessare la rilevanza degli studi dell’evoluzione sul destino
dell'uomo (che è il tema principale di questo libro).
Il concetto di selezione naturale o di natura che seleziona fu formulato da Darwin e da Wallace. Si
dice che Darwin l’abbia derivato dalla selezione artificiale che veniva praticata dagli allevatori, che
erano stati in grado di ottenere razze con caratteristiche più interessanti commercialmente. Tuttavia
Darwin non conosceva i lavori di Mendel, che vennero pubblicati solo nel 1865, alcuni anni dopo il
suo primo libro. Sembra poi che la scelta di isolarsi dalla vita sociale dopo la morte della figlia
Annie gli abbia impedito di venirne a conoscenza 67 . Nel secolo successivo, l'unione tra genetica,
paleontologia, zoologia e geologia fece nascere quella che verrà chiamato Neodarwinismo o la
Grande Sintesi.
Essenzialmente, quello che rimane valido ancor oggi può essere così formulato: i nostri geni sono
fatti di una lunga sequenza di nucleotidi, nella quale insorgono mutazioni con una frequenza
abbastanza bassa. La maggior parte di queste mutazioni, che sono casuali, diminuisce la fitness
dell'individuo, ma alcune di esse possono dare origine a un vantaggio per l'organismo che verrà
selezionato positivamente.
In altre parole, la natura gioca alla roulette, ma è lei a dettare le regole. Le regole sono: io gioco e
perdo quasi sempre, tanto quello che perdo non ha per me alcun interesse, è carta straccia, ma
quando vinco immagazzino la vincita e riparto da zero: quello che vinco è moneta sonante che
comunque non metto più in gioco e che pertanto non posso più perdere. Con queste regole, la natura
non può perdere, è solo questione di tempo perché accumuli grandi vincite.
Il concetto di selezione funziona benissimo a livello cellulare. Si tratta di un potente approccio che
viene utilizzato per esperimenti di ogni giorno. Ad esempio, se si vuole trasfettare un plasmide in
una cellula batterica, si inserisce nel plasmide anche un marker selettivo, ad esempio la resistenza
all’ampicillina. Questo perché il plasmide non trasforma se non una piccola percentuale delle
cellule con cui viene a contatto e noi non sapremmo come distinguerle da quelle non trasformate
che sono la maggioranza. Invece, se sottoponiamo la miscela di cellule ad un mezzo selettivo, in
questo caso l’ampicillina, solamente le cellule trasformate potranno sopravvivere.
Questo vale anche per le cellule di mammifero, che usano marker selettivi come la resistenza alla
neomicina. Anche in questo caso il principio è lo stesso: solo le cellule che sono state trasformate
67 Daniel Dennett asserisce che una copia del lavoro di Mendel giaceva non letta sulla scrivania di
Darwin: vedi D. Dennett: Appraising grace: what evolutionary good is God. The Sciences,
January/February 1997, p. 39-45. Citazione a p. 41. Ignoro su quali documenti Dennett basi su
questa affermazione. Sembra invece certo che il lavoro di Mendel fosse disponibile presso la Royal
Society.
55
dal plasmide contenente la resistenza a questo antibiotico potranno sopravvivere in un terreno di
cultura contenente neomicina. Pertanto, a livello delle singole cellule, il concetto di selezione non è
solamente un concetto astratto ma fornisce effettivamente ogni giorno delle verifiche e delle
predizioni utilissime.
Più difficile è invece verificare l’intervento della selezione a livello delle specie. I problemi sono
due: il primo è che a livello di organismi pluricellulari, la formazione di una specie richiede
comunque un tempo assai lungo, e visto che la teoria dell’evoluzione ha poco più di cent’anni, non
è pensabile dirigere o anche solo constatare la formazione di nuove specie. Ed è ancora più difficile
fare predizioni per il futuro, cioè dire faccio un esperimento in cui otterrò questo e questo, come
dovrebbe fare ogni teoria che si rispetti. Il secondo problema riguarda il fatto che l’apparire di un
fenotipo nuovo, non è sempre la conferma che un cambio genetico sia avvenuto. Ad esempio, se
trasferisco in Nepal degli emiliani che hanno sempre vissuto in pianura, noterò che i loro figli
avranno livelli elevati di ematocrito, ma non sono per nulla certo che questo fenotipo sia su base
genetica. Così come se noto che tutti i polinesiani sono abilissimi nel nuoto, in maniera
statisticamente significativa quando confrontati con gli sherpa, e che è così da generazioni, non
concludo che la differenza sia su base genetica. Un carattere può venir acquisito da ogni nuovo
nato, in risposta al fatto che essi rispondono alla stessa pressione selettiva, senza che
necessariamente debba avere una concomitante modificazione genetica. Pertanto, quando notiamo
che in seguito ad una pressione selettiva avviene una modificazione fenotipica non possiamo esser
certi che questa sia dovuta ad un cambio genetico 68 .
68 Queste ricerche richiedono un tempo notevole, e molti scienziati non ci si imbarcano per il
semplice motivo che o sanno che non ne vedrebbero comunque la fine o pensano che non avranno
fondi sufficienti per seguire la ricerca fino in fondo o perché i sistemi di avanzamento di carriera
richiedono pubblicazioni frequenti. Tuttavia le cose non rimarranno sempre così. Vi sono pertanto
esempi in cui si sono avviate ricerche a lungo termine. Richard Lenski ad esempio lavora con
batteri originariamente identici dal punto di vista genetico e li analizza dopo numerose generazioni
trascorse in diversi tipi di terreno di cultura. In questo modo, dal momento che i batteri erano
derivati tutti da un solo battere (sono cioè clonali), le variazioni che derivano sono tutte acquisite
attraverso l’evoluzione. Vedi T. Appenzeller: Test tube evolution catches time in a bottle. Science
284:2108-2110, 1999.
Nei testi scolastici è riportato il caso delle farfalle di Londra (peppered moth Biston betularia), che
erano diventate scure perché così meglio si confondevano nello smog di Londra (i primi esemplati
scuri vennero notate fin dal diciannovesimo secolo), e che dopo la metà del Novecento
cominciarono a tornare chiare perché gli inglesi avevano migliorato il loro inquinamento. Sempre a
Londra vi sarebbero ormai differenze genetiche nette tra le zanzare che hanno colonizzato la
metropolitana cent’anni or sono e le loro cugine in superficie (Vedi K Byrne & R.A. Nichols: Culex
pipiens in London Underground tunnels: differentiation between surface and subterranean
populations. Heredity 82:7-15, 1999). Nel campo degli organismi multicellulari, le cose sono molto
difficili dal punto di vista organizzativo. Uno dei casi più interessanti è stato riportato nel 1997, a
vent’anni dall’inizio dell’esperimento. Lucertole di un’isola delle Bahamas sono state traslocate in
piccole isole in cui prima erano assenti e hanno mostrato cambi chiaramente adattativi. Ad esempio,
le gambe delle discendenti sono più corte di quelle delle lucertole originarie, e questo è dovuto alla
mancanza di alberi nelle nuove isole: gambe corte infatti danno maggior agilità ma minor velocità.
Non è chiaro tuttavia se questi cambiamenti siano su base ereditaria o appunto siano acquisiti da
ogni nuovo organismo che deve affrontare lo stesso problema. Vedi: J.B. Losos et al: Adaptive
differentaiationfollowing experimental island colonization in Anolis lizards.Nature 387: 70-73,
1997; T.J. Case: Natural selection out on a limb. Nature 387:15-16, 1997; V Morell: Catching
lizards in the act of adapting. Science 276:682-683, 1997.
56
La teoria classica di mutazioni casuali su cui poi agisce la selezione è stata ricavata oltre
cinquant’anni fa sulla base di vari esperimenti, tra cui quelli di Max Delbruck e Salvatore Luria.
Secondo quest’ipotesi, se si fa crescere per varie generazioni la progenie di un batterio che
successivamente viene esposta ad un virus, si formeranno colonie di batteri resistenti in maniera
uniforme in tutte le piastre se la mutazione viene stimolata in seguito all’esposizione al virus (cioè
se il meccanismo selettivo ha una certa responsabilità nella formazione della mutazione: mutazione
diretta o immunità su base ereditaria acquisita), mentre saranno presenti solo in alcune piastre se la
mutazione è avvenuta in precedenza all’esposizione (quelle che avevano avuto la mutazione in una
qualsiasi delle generazioni, prima che i batteri venissero esposti al virus, daranno origine a molte
colonie sulla stessa piastra). Quello che Delbruck e Luria videro fu che le colonie resistenti non
erano distribuite in maniera uniforme ma tendevano ad essere presenti solo in alcune piastre, il che
supportava il secondo meccanismo 69 .
Vi sono altre caratteristiche su cui si discute: queste mutazioni sono “casuali” e si potrebbe supporre
che provochino mutazioni modeste. La natura fa puntate di piccole dimensioni e quindi la sua
vincita è di piccola entità, e così l'aumento della ricchezza è lento e graduale. Si parla pertanto di
gradualismo adattativo. Vi sono però dei problemi, uno di natura teorica e una di natura
sperimentale, che ci suggeriscono che in certe circostanze la natura può anche sbancare il Casinò. Il
primo problema è che non si capisce bene come in molte situazioni un piccolo vantaggio possa
essere selezionato. Una piccola protuberanza, che potrebbe poi evolversi in un arto ad esempio, non
dovrebbe dare nessun vantaggio selettivo e pertanto non si capisce come potrebbe essere
selezionata. Il secondo deriva invece dallo studio dei fossili. Si assiste, in certe occasioni, ad un
improvviso sviluppo di nuove specie con caratteristiche completamente nuove, tali da far supporre
che esse sono sorte in maniera improvvisa, assai rapida e forse addirittura senza forme intermedie.
Chi ha notato questo fenomeno tende così a rigettare il gradualismo, e dire che l'evoluzione è
discontinua, ci sono momenti in cui agisce pigramente e momenti in cui si dà da fare assai. Questa
teoria, detta degli equilibri punteggiati (“punctuated equilibrium”), sostiene che, per l’appunto,
analizzando l’insieme dei fossili disponibili, spesso non riscontriamo un accumulo graduale di
variazioni morfologiche, bensì una vera e propria esplosione di nuove forme in certi periodi e di
relativa stasi in altri 70 . L’esplosione Cambriana è spesso citata come esempio: come risulta dalla
documentazione fossile disponibile, circa 550 milioni di anni fa, nel periodo denominato
Cambriano, apparvero quasi simultaneamente tutti i piani fondamentali di organizzazione degli
animali attuali. Questo sembrerebbe contraddire un accumulo graduale di variazioni. Responsabili
della comparsa di una tale elevata diversità potrebbero anche essere fattori climatici o fisici
straordinari peraltro postulabili ma non facilmente dimostrabili. Alternativamente, vi potrebbe
69 Il classico lavoro di Luria e Delbruck fu pubblicato nel 1943 (Genetics 28:491-511, 1943). Di
recente, Cairns e collaboratori (J. Cairns et al: The origin of mutant. Nature 335:142-145, 1988) e
altri ricercatori hanno sollevato la possibilità che in certi casi certe mutazioni nei batteri e nei lieviti
possono insorgere a frequenze molto più elevate di quelle che dovrebbe essere quelle casuali,
quando i fenotipi mutanti sono vantaggiosi. Questo, secondo alcuni, implicherebbe la possibilità che
eventi ambientali possano “dirigere” direttamente la formazione di nuovi fenotipi agendo sul
genotipo: si sarebbe di fronte ad un ritorno del lamarckismo. Il vero significato degli esperimenti di
questi scienziati è controverso (vedi ad esempio: R.E. Lenski & J. Miller: The directed mutation
controversy and neo-darwinism. Science 269:188-194, 1993). La recente scoperta di DNA
polimerasi “error prone” (che cioè possono commettere degli errori con una certa frequenza
aumentando quindi la frequenza dell’insorgenza delle mutazioni) che verrebbero attivate in seguito
a stress potrebbe almeno in parte spiegare tale fenomeno.
70 N. Eldredge & S.J. Gould: in Models in Paleobiology (editor T.J.M. Schopf). Freeman, Cooper,
San Francisco, 1972; p. 82-115.
57
essere stato un lento accumulo di variazioni in periodo precambriano, di cui però per ragioni che ci
sfuggono, non sono rimaste prove fossili.
A distanza di quasi trent’anni dalla sua formulazione, questa ipotesi ha acquistato un certo peso 71 ,
non solo su base paleontologica o evoluzionistica in senso proprio, ma anche sulla base dei risultati
della genetica dello sviluppo. Gli studi sulle mutazioni omeotiche farebbero in effetti pensare che
semplici mutazioni possono gravemente modificare il piano strutturale di un organismo e quindi far
fare di colpo un grande balzo in avanti dal punto di vista morfologico. Questa possibilità era stata
avanzata già oltre 60 anni fa, specialmente dal biologo Richard Goldschmidt, che aveva suggerito
che mutazioni che colpivano l’organismo in una precoce fase dello sviluppo embrionario, potevano
avere delle notevoli conseguenze morfologiche e strutturali. Egli aveva parlato di “mostri
promettenti”, cioè di organismi molto diversi da quelli della loro specie, la maggior parte dei quali
destinati all’oblio, ma con il potenziale in rari casi di trasmettere un notevole grado di
modificazione strutturale. L'analisi dei genomi che vengono accumulati ormai con un ritmo elevato
e i risultati nello studio dello sviluppo embrionario (vedi) hanno fornito alcune ipotesi plausibili su
come ciò possa avvenire. Inoltre, assai recentemente è stato evidenziato un fenomeno
completamente inatteso: una mutazione in un gene che codifica per una proteina denominata “heat
shock protein 90” sembra in grado di provocare uno spettro di difetti nello sviluppo della
Drosophila, i cui membri affetti peraltro risultano fertili 72 . Sebbene la base di questo fenomeno non
sia compresa, esso confermerebbe che mutazioni che provocano grandi fenotipi, che possono essere
poi tramandati geneticamente, siano effettivamente possibili.
Un altro dibattito concerne l’oggetto della selezione. Qual è il bersaglio della selezione: il singolo
gene, il genoma nel suo insieme, i gameti, l’organismo individuale, le famiglie, i gruppi, la specie
nel suo insieme ? 73 . Un'altra variazione sul tema riguarda il peso relativo di caso e selezione.
Variazioni vantaggiose possono essere selezionate, ma le variazioni neutre non dovrebbero esserlo.
Tuttavia, lo studio dei genomi ha mostrato come in realtà ci siano un sacco di mutazioni che non
sembrano associate ad alcun vantaggio (polimorfismi del DNA). La deriva genetica può però
modificare la frequenza di queste mutazioni: la deriva genetica è un nome altisonante per dire il
caso. Questa osservazione è stata suggerita da Mooto Kimura 74 e altri. La sua teoria neutralista
sottolinea come il caso possa produrre una variazione di frequenze nella popolazione in assenza di
selezione naturale.
Il quadro finale che si ha dei meccanismi evolutivi è il seguente: l’evoluzione è ovviamente una
certezza, ma i suoi meccanismi non lo sono. Tutte le ipotesi che sono state fatte a questo proposito
non sono mutualmente esclusive, ma, probabilmente, i meccanismi che essi invocano sono coesistiti
nel tempo, contribuendo in maniera più o meno rilevante e a seconda delle varie epoche, alla
formazione della diversità. Non esiste presumibilmente un modo solo né vi sono delle regole rigide
secondo cui gli organismi si sono evoluti. Anche la necessità dell’isolamento per la formazione di
una specie potrebbe non essere un presupposto indispensabile, dal momento che vi sono modelli
che consentono la formazione di una specie da una popolazione omogenea anche senza
71 S.J. Gould & N. Eldredge: Punctuated equilibrium comes of age. Nature 366:223-227, 1993
72 S.L. Rutherford & Lindquist S. Hsp90 as a capacitor for morphological evolution. Nature
396:336-342, 1998
73 E. Mayr: The objects of selection. Proc Natl Acad Sci USA 94:2091-2094, 1997
74 M. Kimura. The neutral theory of molecular evolution. Cambridge University Press, Cambridge,
1983. “Contrariamente alla teoria sintetica tradizionale, l’ipotesi neutralista afferma che la
grande maggioranza delle sostituzioni dei mutanti si effettua non per selezione darwiniana positiva
ma per fissazione casuale di mutanti neutri o quasi neutri dal punto di vista selettivo”. Citato in J.
Arnould: La conspiration du hasard et des contraintes. La Recherche 296:100-104, 1997.
58
isolamento 75 . Sebbene i meccanismi non siano chiari, abbiamo tuttavia un bagaglio enorme di dati
che si inquadrano bene nella teoria dell’evoluzione, sia di natura paleontologica che, più
recentemente, di natura genetica.
La genetica dell’evoluzione
Lo studio della genetica ha fornito un nuovo approccio allo studio dell’evoluzione e ha chiarito
meglio la base su cui il tempo ha lavorato per produrre tutta la varietà di specie che conosciamo. Il
tempo è il fattore basilare di tutto, ma bisogna tener conto anche dello spazio. Il principio generale è
che un cambio “vantaggioso” può venir conservato, ma che la sua occorrenza è assai rara. Pertanto
non stupisce che il primo vivente sia comparso sulla terra circa tre miliardi di anni fa. Si suppone
che la vita sia stata preceduta da una fase prebiotica, in cui molecole organiche abbiano cominciato
a formarsi in situazioni ambientali che attualmente non sono più presenti sulla superficie della terra.
Dopo la formazione dei primi viventi monocellulari in grado di immagazzinare le istruzioni
necessarie in un acido nucleico, l’impianto generale non è più stato modificato: tutte le forme
viventi hanno come base un acido nucleico. Tutti i cambiamenti successivi sono avvenuti mediante
modificazione delle istruzioni in esse contenute. Alcune di queste modifiche del programma
consentivano una maggior adattabilità all’ambiente dell’organismo che ne era portatore.
Negli ultimi dieci anni si è avuto un aumento tremendo nelle sequenze di DNA di numerosi
organismi. Il genoma di una ventina di microrganismi, incluso il lievito (che è il primo tra gli
eucarioti, cioè la prima cellula con nucleo) è stata completamente sequenziato, quello del primo
organismo multicellulare, il C. elegans, un nematode, è stato completato, e così pure quello della
Drosophila che è uno degli organismi preferiti dai genetisti. Il genoma dell’uomo sta per essere
terminato anch’esso. Il confronto di tutte queste sequenze ottenute da organismi così lontani nella
scala filogenetica ha mostrato chiaramente come l’evoluzione ha agito tramite conservazione e
modifiche. L’omologo di un gene umano è spesso rintracciabile nel lievito, nel C. elegans e nella
Drosophila, quasi sempre nel topo e praticamente sempre nelle scimmie antropomorfe. Vi è una
strettissima relazione tra la lontananza di due specie e le similarità nei loro genomi. A livello di
mammiferi, è difficile trovare un gene il cui corrispettivo (il gene omologo o come si dice più
propriamente il suo ortologo) non sia presente in tutte le specie, anche se il livello di omologia è in
genere in buona relazione con il tempo trascorso dalla separazione intercorsa tra le due specie, come
determinato mediante indagini indipendenti, quali quelle di natura geologica, morfologica o altre. In
pratica, più le specie sono simili, più lo sono i loro geni.
La precisione dell’analisi è tale che oggi si possono sequenziare geni di diverse specie e stabilire un
albero genealogico che prescinde da ogni ulteriore dato: generalmente si ottengono risultati che
sono compatibili con le conoscenze ottenute con altre tecniche o approcci, ma talora si hanno delle
sorprese. Anche se è presumibile che l’analisi globale dei dati, genetici, paleontologici e geologici
possa dare una visione migliore di quella ottenibile con una singola tecnica, tuttavia sembra che la
precisione dei dati ottenuti attraverso le sequenze nucleotidiche possa essere quella di riferimento
nella maggior parte dei casi.
Questa conservazione delle istruzioni non può far passare in secondo piano i cambiamenti che sono
avvenuti. Veramente l’immagine di Jacob dell’evoluzione come un bricoleur è abbastanza
rappresentativa. Partendo da un’istruzione che aveva mostrato un certo interesse sul mercato della
natura, il tempo ha consentito un enorme numero di variazioni sul tema, di cui possiamo elencarne
75 A.S. Kondrashov & F.A. Kondrashov: Interactions among quantitative traits in the course of
sympatric speciation. Nature 400:351-354, 1999; U. Dieckmann & M. Doebeli: On the origin of
species by sympatric speciation. Nature 400:354-357, 1999
59
alcune: cambi di singoli nucleotidi, piccole inserzioni o delezioni di nucleotidi, duplicazioni di
pezzi del singolo gene, duplicazioni dell’intero gene con successive diversificazioni delle due
istruzioni, duplicazioni di interi genomi, cambi nel pattern di espressione del gene (cioè nei modi e
nei tempi in cui un gene produce una proteina), mescolamento di pezzi di geni tra loro per dare
origine a nuovi geni con proprietà diverse dai geni che hanno contribuito a formarlo, ecc. Tutto
questo si traduce essenzialmente nella produzione di nuovi set di istruzioni, che ampliano
notevolmente le loro possibilità, ma che non perdono tutte quelle proprietà che avevano raggiunto
nei milioni di anni precedenti.
Può essere interessante riprendere ancora l’esempio dell’occhio che abbiamo trattato nel capitolo
precedente a proposito dello sviluppo embrionale. L’importanza di questo genere di studi sia in
evoluzione che nello sviluppo è stata recentemente riconosciuta tanto che è stato coniato il termine
“evo-devo” 76 . Darwin conosceva perfettamente le argomentazioni di Paley, anche se, per un
naturalista come lui, non ci sarebbe stato bisogno di leggerlo per venir catturati dalla complessità di
questo organo. In effetti, Darwin nel suo libro “L’origine delle specie” dedica un intero capitolo
all’occhio, ammettendo che sembrerebbe a prima vista impossibile che un organo del genere si sia
formato a caso. Ora, l’occhio assume forme molto diverse a seconda della specie che viene
esaminata. In particolare, l’occhio dei mammiferi, uomo incluso, è molto diverso da quello della
Drosophila, tanto che sino a poco fa, l’opinione preponderante degli studiosi era che essi si fossero
evoluti indipendentemente. Tuttavia nel 1994, come abbiamo visto, il gruppo di Gehring ha isolato
il gene che presiede alla formazione dell’occhio della Drosophila e ha mostrato che è simile ad un
gene che svolge una funzione analoga nel topo e nell’uomo. Oltre a dimostrare che intere strutture
sono sotto il controllo di un singolo gene, questa scoperta suggerisce che gli occhi delle varie specie
non si sono evoluti indipendentemente 77 . Al contrario fa proprio pensare che siamo davanti ad un
chiaro esempio di bricolage, in cui la natura, assai parsimoniosa, ha pensato bene di utilizzare in
maniera diversa una stessa molecola proteica. Pertanto l’ipotesi che da un occhio assai primitivo, in
cui il gene eyeless/small eye/Pax6 era già attivo, si siano evoluti tutti i vari tipi di occhi, viene oggi
preferita, e quest’ipotesi è ulteriormente rafforzata dal fatto che tutti i metazoi utilizzano lo stesso
pigmento visuale, la rodopsina. D’altronde lo stesso Darwin ammetteva che la comparsa di un
occhio primitivo dovesse essere un evento assai raro e quindi non era facile pensare che questa
struttura fosse insorta numerose volte in maniera indipendente. E’ assai probabile che studi ulteriori
riveleranno numerosi altri geni simili che sono attivi nella formazione dell’occhio in entrambe le
specie.
Il quadro che ne deriva anche in questo caso è di un processo che agisce da solo, senza il bisogno di
intelligenze che intervengano per correggere l’andamento degli eventi. Per fare accettare questa
idea, è tuttavia necessario qualche discussione più approfondita e mostrare come essa debba essere
mantenuta, anche se non tutto è descritto in maniera soddisfacente.
La formazione del primo vivente, ad esempio, ci sfugge. Si potrebbe pensare che tale ipotesi possa
essere testata calcolando la probabilità della formazione di molecole organiche da molecole
inorganiche o della trasformazione di una specie da un’altra. Ma ora come ora, le varie ipotesi,
compresa quella che vede l’RNA come primo attore (“RNA world”), non sono granché.
Un’obiezione rilevante riguarda il fatto che, data la stima attuale dell’età della terra, non vi è stato
tempo sufficiente perché l’evoluzione sia avvenuta. Nulla di metafisico in questa obiezione, se
veramente ci fosse una discrepanza eccessiva tra tempo e probabilità, si potrebbe pensare che vi
sono leggi a noi ancora ignote da scoprire o addirittura, come hanno fatto L. E. Orgel, F. H. Crick e
76 Da “evolution” e “development”; quest’ultimo significa appunto sviluppo
77 W. Gehring & K. Ikeo: Pax 6. Mastering eye morphogenesis and eye evolution. Trends Genet
15:371-377, 1999
60
altri, postulare che i primi viventi sono venuti dallo spazio (panspermia) 78 . Ma non sono certo che
chi ipotizza qualche tendenza all’autorganizzazione della materia, che gli scienziati oggi negano
con forza, debba essere accusato di irrazionalità. Un ottimo professore d’italiano faceva notare
come postulare l’evoluzione a caso, equivalesse a sostenere di poter ottenere la Divina Commedia
buttando per aria le lettere dell’alfabeto.
Noi conosciamo con una certa approssimazione la frequenza di mutazioni negli organismi attuali,
che sono dotati della capacità di riparare lesioni al DNA. Il problema è che la frequenza delle
mutazioni è solo uno dei fattori che provocano la formazione di una specie. Tutti gli altri dati ci
sono ignoti, la forza della selezione, le modificazioni su cui agisce più o meno, l’isolamento cui
sono andate incontro le specie, le condizioni di partenza, e così via. Anche a livello di molecole
prebiotiche, di come abbiano potuto formarsi e associarsi, non sappiamo nulla o comunque
dobbiamo ricorrere ad assunzioni che hanno una base modesta. Pertanto il problema non è
affrontabile oggi come oggi. A chi pensa comunque che siano troppo pochi gli anni trascorsi, si
deve ricordare che in realtà la probabilità non va riferita solamente alla Terra. Potrebbe essere che
in effetti la comparsa della vita sia una cosa estremamente rara e che la Terra sia l’unico pianeta su
cui essa ha potuto verificarsi e quindi bisogna tener conto che il tempo ha potuto agire non solo sul
nostro pianeta ma su un’infinità di mondi e che se oggi siamo qui a parlarne sulla Terra è per una
forma debole del principio antropico.
L’evoluzione umana
E’ probabile che il motivo principale per cui Darwin esitò a pubblicare le sue teorie sull’evoluzione,
fino a quando non si sentì costretto a farlo dalla famosa lettera di Wallace, fu per gli aspetti che
aveva la sua teoria sull’evoluzione dell’uomo. Come noto, non toccò il problema dell’evoluzione
nel suo libro del 1859, ma lo affrontò solo 12 anni dopo nel suo “The descent of man” 79 . Se le
preoccupazioni dei salotti possono essere ben riassunte nella famosa espressione “Speriamo non sia
vero, ma se lo fosse, che almeno non lo si sappia in giro”, le obiezioni di profondo significato sono
già tutte evidenti nel famoso dibattito tra Thomas Huxley e il vescovo Samuel Wilbeforce.
Che l’uomo non faccia eccezione alla regole generale dell’evoluzione da altre forme è oggi
ampiamente accettato da tutti, anche dalla Chiesa Cattolica che nel nostro mondo occidentale ne è
stata la più fiera avversaria. Recentemente infatti, Papa Giovanni Paolo II ha riconosciuto che
l’evoluzione è più di una semplice ipotesi. E’ chiaro ovviamente che il problema per i cattolici non
riguarda l’evoluzione delle varie specie, bensì solamente quella dell’Homo sapiens. Va detto chiaro
che quando il Papa accetta l’evoluzione mantiene tuttavia che qualcosa di assolutamente diverso è
responsabile della natura umana e delle caratteristiche che lo distinguono fondamentalmente dagli
altri animali.
78 Francis Crick ha anche pubblicato un libro su questo tema. F. H. Crick. L’origine della vita,
Garzanti, Milano, 1983 (l’edizione inglese è del 1981). Prima di loro comunque la panspermia era
stata già proposta da Svante Arrhenius nel 1906. Anche Fred Hoyle, uno dei sostenitori dello
steady-state theory che postulava la creazione continua di materia, ha pubblicato un libro su questo
argomento: F. Hoyle & N.C. Wickramasinghe. Lifecloud. Harper & Row, New York, 1978
79 A questo proposito, Dobzhasnky afferma: “E’ un peccato che il titolo di uno dei più grandi libri
di Darwin sia ‘La Discesa’ invece che ‘L’Ascesa’. L ‘idea della necessità di Dio ed altri pensieri ed
idee che innalzano l’uomo erano sconosciuti ai nostri lontani progenitori. Nacquero, si
svilupparono e si radicarono nell’uomo durante la sua lunga e faticosa ascesa dalla condizione
animale a quella umana”. T. Dobzansky: le domande supreme della biologia. De Donato, Bari,
1969; p. 11.
61
E’ chiaro che l’Homo sapiens è derivato da un antenato comune con le altre scimmie antropomorfe,
l’orango, il gorilla, lo scimpanzé. L’uomo non deriva da queste scimmie antropomorfe, bensì da un
antenato comune, da cui discendono anche queste tre specie. Quali sono le prove di questa comune
derivazione? Esse sono essenzialmente di due tipi, una paleontologica e l’altra genetica.
1. Paleontologia
Nel 1856, pochi anni prima della pubblicazione del libro di Darwin, vennero rinvenute nella valle
del fiume Neander vicino a Dusseldorf, delle ossa umane che apparvero subito agli esperti alquanto
strane: l’interpretazione che se ne diede all’epoca fu che si trattava di ossa di un cosacco deforme
che era finito a morire in quella zona. Solamente più tardi, alla luce della teoria evoluzionistica e
della loro datazione si comprese che si era di fronte alle ossa di un individuo a noi simile che era
vissuto oltre centomila anni prima di noi e che dal luogo dove furono rinvenute è ora noto come
uomo di Neanderthal.
Oggi si conosce un notevole numero di reperti fossili che si pongono in mezzo tra le scimmie
antropomorfe e l’Homo sapiens. Questi reperti riempiono il gap di circa 5 milioni di anni che si
reputa intercorra tra noi e l’ultimo antenato comune con lo scimpanzé, che si ritiene sia la scimmia
antropomorfa più vicina a noi. Parimenti riempiono anche il gap per così dire morfologico tra noi e
lo scimpanzé. In altre parole, i fossili trovati si collocano in un periodo di tempo di 3-4 milioni di
anni e presentano delle caratteristiche che via via si staccano da quelle tipiche delle scimmie e si
avvicinano ad aspetti più chiaramente umani.
Vi è una precauzione da chiarire innanzitutto. Lo studio dei fossili non è per niente facile e questo
spiega come su numerosi punti non ci sia concordia. In primo luogo, un fossile deve essere datato.
Questo può essere fatto mediante criteri geologici o zoologici: il fossile cioè viene riferito allo strato
di escavazione in cui viene trovato. Lo strato viene poi datato indipendentemente e le ossa
assumono automaticamente l’età dello strato in cui furono trovati. La concomitanza dei reperti
umani o umanoidi con ossa di altre specie di cui è conosciuta la datazione contribuisce anch’essa
alla datazione. Inoltre, un fossile può essere datato con metodi intrinseci, che misurano l’età del
reperto sulla base del decadimento di isotopi radioattivi. In secondo luogo, il reperto fossile è
sempre largamente incompleto, specialmente quando si tratta di crani, che sono di grande
importanza per via dei notevoli cambiamenti di forma, struttura e dimensioni che sono associati
all’evoluzione umana. In terzo luogo, se guardiamo alla nostra specie, ci rendiamo conto che le
variazioni tra gli individui sono enormi: non è pertanto sempre facile, disponendo di un pezzettino
d’osso comprendere se siamo davanti ad una nuova specie o se si è di fronte ad una variazione di
una specie nota. Come si vede ce n’è a iosa per giustificare diatribe a ripetizione.
Pur tenendo conto di queste difficoltà, e cercando di riassumere e semplificare, i fossili trovati
possono essere così riassunti. L’H. habilis visse tra i 2.3 e 1.6 milioni di anni fa. L’H. ergaster visse
tra gli 1.9 e gli 1.5 milioni. L’H. rudolfensis visse tra 2.4 e gli 1.8 milioni. L’H. erectus visse tra 1.9
e 0.2 milioni di anni. L’H. neanderthalensis visse tra 250.000 e 40.000 anni fa, ma potrebbe anche
essere assai più vecchio. Quest’ultimo potrebbe essere preceduto dall’H. heidelbergensis, il cui
reperto principale sarebbe vecchio di circa 650.000 mila anni. Questi fossili si sovrappongono
parzialmente con quelli che del genere Australopithecus, di cui gli esemplari più recenti, assegnati
all’A. boisei, sarebbero di poco superiori al milione di anni, un poco più giovani di quelli assegnati
all’A. robustus, mentre i più antichi, come l’A. anamensis giungerebbe a 4 milioni di anni 80 .
L’Australopitechus afarensis, cui appartiene il famoso reperto denominato Lucy, sarebbe di oltre 3
80 M.G. Leakey et al: New four-million-year-old hominid species from Kanapoi and Allia Bay,
Kenia. Nature 376:565-571, 1995; M.G. Leakey: New specimens and confirmation of an early age
of Australopithecus anamensis. Nature 393:62-66, 1998
62
milioni di anni, mentre tra i due e i tre milioni di anni si collocherebbe l’H. africanus. Ancora più
vecchio sarebbe l’Australopithecus ramidus, che supererebbe i 4 milioni di anni 81 .
Il campo è in realtà in velocissima evoluzione, e in questi ultimi vent’anni è stato raccolto un
numero impressionante di reperti. Per certi aspetti in fondo, quanto più ci sono fondi per scavare
tanto più si raccoglieranno reperti. Nel 1999 ad esempio sono stati pubblicati i risultati dei lavori di
scavo in Etiopia orientale, che hanno portato alla luce reperti attribuiti ad una nuova specie l’A.
garhi che risale a circa 2.3 milioni di anni fa, e che mostra interessanti caratteristiche che lo
rendono, secondo alcuni, ma non altri, un possibile candidato come nostro antenato 82 .
Ovviamente, man mano che ci si sposta in avanti nel tempo, i reperti aumentano e le cose sono più
precise. Sembra ad esempio abbastanza assodato che uomini con la nostra stessa struttura
scheletrica, cioè l’H. sapiens sapiens detto anche Cromagnon, si siano imposti in tutto il mondo tra i
40.000 e i 30.000 anni fa, soppiantando completamente e in maniera assai rapida l’H.
neanderthalensis che prima occupava l’Europa e il Medio Oriente. Ma anche su come siano andate
esattamente le cose non vi è consenso. Fino a poco fa la versione ufficiale era che il Cromagnon,
dotato di un vantaggio selettivo, legato presumibilmente ad una sua maggior intelligenza, forse in
relazione all’acquisizione del linguaggio stesso, aveva soppiantato il Neanderthal senza mischiarsi
ad esso. Manifestazione di questa superiorità del Cromagnon era la comparsa circa 30-40.000 anni
fa di un fiorire delle arti e della tecnologia, come riscontrabile nella grotta di Lescaux.
Recentemente tuttavia alcuni ricercatori sostengono che la realtà può essere descritta anche
diversamente, con un lungo medioevo durato fino a 40.000 anni fa, quando, per motivi ignoti, un
rinascimento si affermò sia tra i Neanderthal che tra i Cromagnon. Questa nuova interpretazione,
che tuttavia non spiegherebbe perché i Neanderthal siano stati soppiantati dai Cromagnon, si basa
sulla esatta datazione di alcuni siti, tra cui quelli della Grotte Chauvet e del sito di Arcy-sur-Cure,
entrambi in Francia. Se questi siti risalgono a meno di 38.000 anni, è presumibile che siano opera di
Cromagnon, ma se fossero più vecchie dei 40.000 anni fatidici, dimostrerebbero che i Neanderthal
avevano compiuto da soli il passo verso la manifestazione simbolica artistica e la fabbricazione di
sofisticati manufatti.
Questo problema può sembrare di lana caprina, ma è invece rilevante. Alla base c’è l’ipotesi che il
Cromagnon fosse portatore di un cambiamento genetico che lo rendeva più intelligente del
Neanderthal e che gli consentì di soppiantarlo completamente. Vi sarebbe pertanto una diversità
biologica, non solo culturale: per questo, perché gli mancava qualcosa (presumibilmente nel
cervello), il Neanderthal sarebbe scomparso. Non avrebbe mai potuto competere con il Cromagnon
perché vi era una differenza biologica che non poteva essere colmata dall’imitazione. Alcuni teorici
si sono spinti più in là, suggerendo che questo qualcosa potrebbe essere il linguaggio simbolico 83 .
Questo avrebbe dato ai Cromagnon un vantaggio tale da eliminare la specie inferiore. Addirittura, i
Neanderthal avrebbero potuto rappresentare una specie diversa, non mischiabile col Cromagnon, e
questo spiegherebbe perché i tratti del Neanderthal siano stati persi completamente 84 .
81 T. White et al: Australopithecus ramidus, a new species of early hominid from Aramis, Ethiopia.
Nature 371:306-312, 1994.
82 J. de Heinzelin et al: Environment and behavior of 2.5-million-year-old Bouri hominids. Science
284:625-629, 1999; B. Asfaw et al: Australopithecus garhi: a new species of early hominid from
Ethiopia. Science 284:629-635, 1999; E. Culotta: A new human ancestor. Science 284:572-573,
1999
83 vedi a questo proposito anche il capitolo sul linguaggio
84 Secondo alcuni, i Neanderthal avrebbero convissuto per un certo tempo con i Cromagnon e
questo farebbe supporre che si siano incrociati tra loro. Se questo fosse confermato, bisognerebbe
capire perché i tratti dei Neanderthal (toro sovraorbitario, robustezza dello scheletro, ecc) non siano
63
D’altro canto, obiettano gli altri non vi è nessuna prova che il vantaggio dei Cromagnon non fosse
semplicemente culturale. Qualche decennio dopo, un nuovo avanzamento culturale si impose,
quello legato all’agricoltura. Nessuno tuttavia pensa adesso che esista un gene dell’agricoltura, o
che chi per primo scoprì il modo di “addomesticare” le piante avesse il cervello geneticamente
diverso da quello del vicino (in teoria sarebbe possibile, ma sembra poco probabile). Questo
potrebbe essersi verificato anche nel caso del linguaggio, ed essere questo semplicemente una
caratteristica culturale, ammesso che sia esso ad essere responsabile della vittoria dei Cromagnon.
Pertanto, la conclusione è che lo studio dei fossili ha dimostrato che negli ultimi cinque milioni di
anni hanno vissuto numerosi ominidi i quali hanno caratteristiche fisiche, deducibili dallo studio del
loro scheletro, intermedi tra l’uomo moderno e le scimmie antropomorfe attualmente esistenti quali
le dimensioni del cranio (e quindi il volume del cervello), la stazione eretta, la struttura della mano
e dell’osso ioide che regge il laringe (quest’ultimo è importante perché la capacità di parlare
sembrerebbe dipendente da una modificazione del laringe di cui si possono trovare le tracce nella
conformazione di quest’osso). Che in un dato periodo più di un ominide abbia convissuto e che
alcuni di questi ominidi potrebbero essere i nostri antenati mentre altri hanno costituito dei rami
secchi. Che è possibile entro certi limiti stabilire la datazione dei reperti e che pertanto alcune forme
sono più antiche di altre, che le forme più evolute compaiono più recentemente, e che studi futuri
potranno definire meglio numerosi punti ancora dubbi. Per moltissimi altri problemi invece non c’è
consenso tra gli esperti, il che può derivare da alcuni preconcetti dei ricercatori, ma essenzialmente
significa che i dati attualmente disponibili sono insufficienti per trarre qualsiasi conclusione. Tra i
problemi irrisolti vi sono:
1. Quali di questi fossili sono sulla linea diretta che ha dato origine all’H. sapiens? In realtà non se
ne sa nulla. Decenni fa, quando c’era una grande scarsità di fossili, ogni fossile che si trovava
veniva automaticamente messo come un anello di congiunzione, perché aveva tratti intermedi tra
quelli delle scimmie e quelli dell’uomo. Oggi, con tutti i fossili trovati, si è ormai certi che in una
data epoca co-esistevano varie specie di ominidi, e che molti di queste probabilmente hanno
rappresentato vicoli ciechi. Oggi alcuni ritengono che l’A. africanus, lo stesso A. garhi e l’H.
erectus/ergaster possano essere tra i nostri antenati diretti, ma la cosa è ben lungi dall’essere certa.
2. Ogni volta che compare un nuovo fossile c’è il problema se sia sufficientemente diverso dagli
altri da meritare una nuova specie o se è sufficientemente simile da essere incluso in una specie già
nota.
3. Non è facile fare una relazione tra anatomia quale può essere derivabile dai fossili e
comportamento umano, anche perché non c’è consensus su cosa sia necessario per essere
classificati come uomini. Il fare strumenti è sovente stato ritenuto una cosa fondamentale, ma se
questo può essere vero per le ultime centinaia di migliaia di anni, non è chiaro cosa succedeva
milioni di anni fa. Ad esempio, sembra accertato che l’A. garhi usasse pietre per disarticolare le
membra degli animali uccisi e per tagliarne la carne: vi sono chiari segni rimasti sulle ossa che
indicano che sono stati inferti colpi precisi, forse addirittura per succhiarne il midollo osseo. E’
più riscontrabili nell’uomo moderno. Essi potrebbero essere stati persi perché svantaggiosi.
Un’alternativa potrebbe essere che gli ibridi Cromagnon/Neanderthal non fossero fertili.
Recentemente è stata segnalata l’esistenza di un fossile che potrebbe essere un ibrido di questo
genere. Vedi C. Duarte et al: The early Upper Paleolithic human skeleton from the Abrigo do Lagar
Velho (Portugal) and modern human emergence in Iberia. Proc Natl Aca Sci 96:7604-7609, 1999.
Naturalmente le conclusioni di questi studiosi sono messe in dubbio da altri. D’altro canto, le
abitudini dei Cromagnon nei periodi storici a noi noti è comunque quello di mischiarsi con le
popolazioni conquistate, almeno dal punto di vista della linea femminile. In tal caso nel nostro DNA
mitocondriale dovrebbe esserci i segni di questo processo, dal momento che questo DNA viene
trasmesso per via esclusivamente materna.
64
questo sufficiente per classificarli umani? In fondo è documentato che anche gli scimpanzé
cacciano e si nutrono di babbuini. Lo stesso discorso vale per l’andatura eretta, che sembra apparsa
abbastanza precocemente. Anche le dimensioni del cranio (di cui vi è comunque un aumento
rispetto a quanto si trova negli scimpanzé), non può essere preso tout court come prova di umanità.
Dal punto di vista tassonomico, la dicitura Homo indica un genere, ma i suoi limiti sono assai
imprecisi: recentemente è stato suggerito ad esempio di rimuovere l’H. habilis e l’H. rudolfensis dal
nostro genus e di inserirlo in quello dell’Australopithecus 85 . Per quanto riguarda il linguaggio,
nessun indicatore del cranio è in grado di predirlo, tanto che si discute se l’H. neanderthalensis, che
è in fondo a noi similissimo, ne fosse dotato, mentre la conformazione del laringe potrebbe indicare
che eravamo pronti per parlare, senza poterlo provare con certezza.
4. Pur guardando all’Africa come la culla dell’umanità, e malgrado gli enormi risultati ottenuti dagli
scavi in Etiopia, Kenia e Tanzania, non è ancora del tutto certo che almeno in un secondo tempo,
cioè nell’ultimo milione di anni, la linea evolutiva diretta non si sia invece spostata in Asia.
2. Genetica
Oltre ai reperti paleontologici, anche per l’evoluzione dell’uomo si hanno dati forniti dalla genetica.
Si ritiene che i genomi dell’Homo sapiens e dello scimpanzé siano simili per circa il 98-99% e
sarebbe certamente interessante sapere a carico di quali geni siano le differenze. Il sequenziamento
ormai prossimo del genoma dell’Homo sapiens, cui farà certamente seguito un sequenziamento
almeno parziale del genoma dello scimpanzé fornirà sicuramente la risposta a questa domanda.
Dal momento che sono ormai disponibili un certo numero di fossili, se fosse possibile ottenere il
DNA degli ominidi che ci hanno preceduto, si potrebbero risolvere gran parte dei quesiti che
abbiamo visto essere rimasti insoluti. Abbiamo visto che il DNA di una specie può essere
paragonato con quelle di altre in modo da stabilire quanto esse siano simili, e che il livello delle loro
somiglianze è proporzionale alla loro distanza evolutiva. Pertanto sarebbe possibile stabilire quali di
questi fossili sono i nostri antenati e quali invece lontani parenti. Purtroppo sembra che ci siano
poche speranze di riuscire a recuperare questi DNA. Alcuni anni or sono vi era stato una grande
eccitazione in seguito a dei lavori scientifici che sostenevano di aver sequenziato pezzi di DNA di
specie vecchie di decine di milioni di anni. Alcuni organismi infatti si sono conservati in ambra, una
sostanza resinosa, così bene da far pensare che anche il loro DNA fosse ancora intatto. Tuttavia
lavori più recenti portano a ritenere che si sia trattato di artefatti, cioè di errori. Sembrerebbe che sia
difficile ottenere DNA più vecchi di un milione di anni, anche nel caso che questi siano stati
congelati nel permafrost dal momento della loro morte. La diatriba non è completamente conclusa
86 : non si tratterebbe di questioni tecniche, ma proprio del fatto che semplicemente non ci sarebbe
più nessun DNA da studiare dopo così tanti anni.
Pertanto per il momento si può pensare di studiare con qualche successo e molte difficoltà il DNA
dell’H. neanderthalensis. E’ quello che è stato fatto recentemente dal gruppo di Svante Paabo, che
avrebbe sequenziato un pezzo di DNA mitocondriale ottenuto dai resti fossili trovati nel 1856 nella
valle di Neander 87 . Le sue conclusioni, su cui non tutti sono d’accordo, tenderebbero a provare che
l’H. neanderthalensis era una specie diversa dalla nostra, perché le differenze trovate rispetto al
DNA dell’uomo moderno sono più di quelli che ci si attenderebbe nel periodo di tempo intercorso.
Altri tuttavia fanno notare che i dati analizzati sono veramente pochi, perché è stato sequenziato
solo un pezzo di circa 300 nucleotidi, e che per giunta non siamo affatto sicuri di conoscere la
quantità di mutazioni attese, perché il DNA mitocondriale potrebbe mutare più velocemente di
85 B. Wood & M. Collard: The human genus. Science 284:65-71, 1999
86 Per un parere opposto vedi ad esempio: G. Poinar: Ancient DNA. Am Scient 87:446-457, 1999
87 M. Krings et al: Neanderthal DNA sequences and the origin of modern humans. Cell 90:19-30,
1997
65
quanto pensiamo noi. Se fosse confermato che il Neanderthal è veramente molto diverso dal
Cromagnon, l’idea che questo potesse essere intellettualmente superiore per questioni biologiche
diventerebbe più probabile, anche se ovviamente non certa.
E’ tuttavia possibile cercare di tornare indietro nel tempo studiando i DNA degli uomini moderni.
L’uomo moderno ha un DNA caratteristico della sua specie, ma ogni uomo ha delle piccole
differenze che vengono chiamati “polimorfismi” e il cui insieme lo rende unico (a parte i gemelli
monovulari che sono proprio identici). Questi polimorfismi, essendo nient’altro che mutazioni del
DNA avvenute nelle varie generazioni, possono essere vantaggiose, svantaggiose o neutre, ma in
questo caso sono semplicemente dei marcatori che ci dicono che abbiamo avuto un antenato
comune. Studiando pertanto tanti individui sparsi per il mondo, è possibile contribuire a conoscere
la preistoria umana e risalire in teoria fino ai nostri primi antenati.
In effetti, vi sono due pezzi di DNA che ci sono derivati esclusivamente tramite la linea femminile e
tramite la linea maschile rispettivamente: il DNA mitocondriale, infatti, viene trasmesso solo
dall’uovo e non dallo spermatozoo, pertanto studiando questo si può risalire al DNA della prima
donna, l’Eva mitocondriale. Al contrario il DNA di parte del cromosoma Y è esclusivo dei maschi
e pertanto ci permette di risalire all’Adamo genetico. Questi studi sono tuttavia minati dal fatto che
si devono ammettere alcune assunzioni che possono essere ragionevoli, ma che sono lungi dal poter
essere considerate certe.
Le conclusioni attuali più accettate sono comunque le seguenti: un’Eva mitocondriale visse
probabilmente in Africa tra i 100.000 e i 200.000 anni fa, e così pure un Adamo genetico 88 . Questo
però non significa automaticamente che l’H. sapiens derivi da una sola coppia, anzi, si ritiene che
all’origine vi sia stata una popolazione tra i 10.000 e i 100.000 individui. Dall’Africa questi uomini
si sparsero in tutto il mondo, ed in particolare in Asia e in Europa, dove soppiantarono l’H. erectus
che viveva in queste zone e più tardi l’H. neanderthalensis, senza mischiarsi con essi. Tuttavia non
si può escludere che un certo mescolamento genetico abbia avuto luogo e che non vi sia pure stato
un ritorno dall’Asia verso l’Africa. Le dinamica delle popolazioni potrebbe essere stata più
complessa di quanto si pensi, con un flusso preminente “Out of Africa”, ma con possibili ritorni
migratori e rimescolamenti genici
89 . Neanche l’ipotesi alternativa, “l’ipotesi dell’origine
multiregionale”, che sostiene che l’H.sapiens ebbe un’origine multicentrica diffusa a tutte le aree
occupate precedentemente dall’H.erectus, può ancora essere esclusa con sicurezza.
Se non vi è molta speranza di ottenere DNA dei fossili antichi, c’è però buona possibilità di studiare
le ultime decine di migliaia di anni. Non solo si potranno probabilmente ottenere DNA da fossili
recenti 90 , ma lo studio delle attuali popolazioni potranno permettere di risalire alla genetica delle
88 F.J. Ayala: The myth of eve: molecular biology and human origins. Science 270:1930-1936,
1995; H.A. Erlich: HLA sequence polymorphism and the origin of humans. Science 274:1552-
1554, 1996; J.A.L. Armour: Minisatellite diversity supports a recent African origin for modern
humans. Nature Genet 13:154-160, 1996; L.L. Cavalli Sforza: The DNA revolution in population
genetics. Trends Genet 14:60-65, 1998
89 Un recente studio suggerisce che la via principale e forse unica seguita dalle popolazioni per
uscire dall’Africa fu dall’Etiopia verso la penisola arabica e l’India. Vedi: L. Quintana-Murci et al:
Genetic evidence of an early exit of Homo sapiens sapiens from Africa through eastern Africa.
Nature Genet 23:437-441, 1999
90 Oltre alle ossa potrebbe essere possibile ottenere DNA da altri resti, ad esempio le mummie.
Vedi: S. Paabo: Molecular cloning of ancient Egyptian mummy DNA. Nature 362:709-715, 1985. Il
caso più noto finora, è quello dell’uomo Tirolese, un corpo vecchio di circa 5000 anni interamente
conservato trovato sulle Alpi del sud Tirolo italiano nel 1991. Il gruppo di Svabo ha analizzato il
66
popolazioni presenti sulla terra qualche migliaio di anni fa. I dati genetici, assieme a quelli
archeologici e di linguaggio, potranno illuminare la nostra preistoria. Cavalli Sforza e i suoi
collaboratori, degli antesignani negli studi di popolazioni basati sul DNA, compiendo analisi nelle
popolazioni mediorientali ed europee hanno dimostrato dei gradienti di frequenza genica che
descriverebbero una migrazione dal Medio Oriente all’Europa che sarebbe andata di pari passo con
la diffusione dell’agricoltura, la quale, come noto, sorse presumibilmente nelle regioni della
mezzaluna fertile e si diffuse solo in un secondo tempo in Europa 91 .
In altre parole, le tecniche di agricoltura si diffusero in Europa solo perché le popolazioni che la
praticavano migrarono in Europa a partire dal Medio Oriente: del resto l’ipotesi sembra ovvia,
perché non si può pensare che i viaggi fossero semplici 5.000 anni prima di Cristo, né che vi fossero
dei corsi di apprendimento per forestieri. Quando Abramo migra, migra la sua stirpe che si porta
addietro quello che ha (tra cui le sementi) e quello che sa. Naturalmente vi è un mischiarsi genetico
con le popolazioni locali e questo appunto spiega il gradiente che si riscontra oggi. Alcune
popolazioni tuttavia erano più difficili da soppiantare o da contattare, e per questo i Baschi e i Sardi
mostrano un assetto genetico che li separa dagli altri europei.
Un altro interessante aspetto riguarda l’uomo dei nostri tempi. Il concetto di razza ha provocato e
provoca forti emozioni. In passato molti hanno pensato che ci fossero differenze genetiche notevoli
tra le varie razze. Non sembra sia così: le differenze tra individui della stessa popolazioni sono più
grandi che tra le varie popolazioni, anche tra quelle su continenti diversi. Inoltre, anche se con
frequenze differenti e con qualche rara eccezione, tutti i polimorfismi sono presenti in tutte le
popolazioni. Questo fa supporre che non vi siano differenze sostanziali tra le razze e che non vi sia
un substrato genetico per chi ritiene alcune razze meno intelligenti o meno capaci di altre 92 .
Progresso e disegno versus caso e necessità
Poco dopo la pubblicazione del libro di Darwin (1859), ebbe luogo il famoso dibattito tra Thomas
Huxley e l'arcivescovo Wilbeforce. Se qualcuno pensasse che la scienza non può esprimere
proposizioni di interesse filosofico, la storia dei dibattiti tra evoluzionisti e creazionisti basterebbe a
confutarlo.
L'implicanza filosofica che deriva dalla teoria sintetica dell’evoluzione affermatasi nella prima metà
del Novecento e successivamente aggiornata da neutralisti e seguaci degli equilibri punteggiati, è
che apparentemente tutta l'evoluzione si basa su una molecola chimica con proprietà curiose e su
meccanismi casuali o comunque materiali che escludono forze vitali o altre entità non materiali.
Questa implicazione era già chiara al vescovo Wilbeforce, che pure ignorava l’esistenza stessa del
DNA. Eppure non è esatto dire che Darwin o altri suoi seguaci considerassero il darwinismo come
sinonimo di ateismo. Molti autori hanno sottolineato che Darwin aveva avuto un’educazione
protestante ortodossa, che aveva considerato la possibilità di diventare sacerdote e che è difficile
trovare nei suoi scritti alcunché di antireligioso. Michael Ruse ha recentemente rivisto i rapporti tra
suo DNA, concludendo che si trattava di un DNA di tipo europeo senza particolari caratteristiche.
Vedi: O. Handt et al: Molecular genetics analyses of the Tyrolean Ice Man. Science 264:1775-1778,
1994
91 L. Cavalli Sforza e F. Cavalli Sforza: Chi siamo? La storia della diversità umana. Mondadori,
Milano, 1995
92 Vedi articoli vari (di J. Marks; A. Piazza; A.H. Goodman; R. Caspari; L. Excoffier) in “Aux
origins de la diversité humaine: la science et la notion de race. La Recherche 302:56-89, 1997
67
Darwin e la religione dell’epoca 93 . Ruse mostra come Darwin sia passato da una fase teista ad una
fase deista sulla base dei suoi studi sulle scienze naturali, per finire in una fase agnostica, che non
ebbe origine dal suo lavoro di scienziato bensì fu determinata dalla morte della figlia cui era
attaccatissimo: la sua scomparsa gli parve incompatibile con la credenza in un Dio buono. Tuttavia,
Ruse sostiene che Darwin era profondamente convinto che un progresso effettivamente avesse
avuto luogo nel corso dell’evoluzione e che un disegno esistesse. Non solo, ma il fatto che la sua
esecuzione non richiedesse interventi continui nell’Universo indicava una maggior elevatezza del
Creatore nei confronti di un Dio che avesse bisogno di intervenire di continuo nel mondo reale per
ritoccarlo: allo stesso modo, i macchinari industriali che cominciavano a diffondersi nell’Inghilterra
della sua epoca rivelavano una maggior padronanza da parte dell’uomo rispetto ai lavori artigianali.
Una statuetta d’avorio ci può far pensare che chi l’ha fatta possedesse già un certo pensiero
simbolico, ma la Cappella Sistina ci lascia maggiormente stupefatti: più il disegno è complesso e
più deve essere sofisticato il suo autore. Dio non interviene nel mondo perché non ha bisogno di
farlo, avendo già preveduto e preparato tutto dall’inizio. In fondo, al termine della storia evolutiva
compare l'uomo, che è il signore della natura, un essere strabiliante, in grado di dipingere la
Gioconda, scrivere la Divina Commedia e l'Amleto e chi più ne ha più ne metta.
Ruse pertanto tende a concludere che è possibile vedere l’evoluzione in un’ottica di disegno e
progresso, e mostra come di fatto questa posizione sia stata adottata da notissimi evoluzionisti come
Ronald A. Fisher e Theodosius Dobzhansky. In campo cattolico, il gesuita Pierre Teilhard de
Chardin, paleontologo, è il più noto tra coloro che videro un progresso e un senso nell'evoluzione,
un disegno e un fine, un punto Omega cui l'evoluzione tendeva 94 . Lungi dall'essere un processo
casuale, l'evoluzione rilevava un disegno divino, che aveva nella comparsa dell'uomo il suo
momento culminante, in buon accordo con i suoi studi di paleontologia umana di cui era un esperto.
Per Teilhard, tutto all'interno dell'evoluzione procedeva in maniera autonoma, ma l'evoluzione nel
suo insieme era un processo direzionale e anche diretto, nel suo caso dalla mente divina. E' tuttavia
possibile pensare anche ad una versione panteista del problema, in cui la materia tende per sua
natura verso la vita. E questa, che sicuramente non era la posizione di Teilhard, gli valse le critiche
dei cattolici: come noto, il suo libro poté uscire solamente postumo, pur essendo stato steso una
quindicina di anni prima. Non minori critiche gli vennero dall’establishment scientifico, per il quale
il suo libro, che egli voleva fosse letto “unicamente ed esclusivamente come una memoria
scientifica”, era nella migliore dell’ipotesi l’opera di un mistico o un poeta e nella peggiore un
completo nonsenso. Teilhard ebbe tuttavia anche dei sostenitori, tra cui sicuramente vanno ricordati
Julian Huxley e Theodosius Dobzhansky.
In realtà, la maggior parte degli studiosi tende a rifiutare questa visione, anche se vi sono ancora
alcuni che vedono comunque nell'evoluzione un certo disegno globale. Quali sono le ragioni alla
base di questo rifiuto ? Sono essenzialmente di due tipi: il primo si basa sul criterio di semplicità: se
tutto all'interno della storia della vita si può spiegare con cause materiali, perché postulare qualcosa
93 M. Ruse: Darwinism and atheism: different sides of the same coin. Endeavour 22:17-20, 1998.
Vedi anche il suo libro: Can a darwinian be a christian? The relationship between science and
religion. University of Cambridge Press, Cambridge, 1999
94 P. Teilhard de Chardin. Le phénomène humain. Seuil, Paris, 1955. Sebbene sia più noto per i suoi
scritti filosofici, Teilhard produsse oltre 250 report scientifici nell’arco di 40 anni di attività. Tra i
suoi contributi scientifici particolarmente rilevanti possono essere ricordati quelli sulla struttura
geologica della Somalia, dell’Etiopia e della Cina, sui fossili di mammiferi europei ed asiatici, sui
fossili umani di Giava e Cina (sinantropo) e sull’australopitecine sudafricane. Fu anche coinvolto,
senza alcuna colpa, nella vicenda di Piltdown, una faccenda non ancora completamente chiarita, in
cui delle ossa rinvenute in tale località vennero erroneamente attribuite ad un anello di congiunzione
tra l’uomo e la scimmia.
68
di diverso per spiegare l'evoluzione nel suo complesso. Secondo il rasoio di Ockham, “Entia non
sunt multiplicanda praeter necessitatem”, con tutti i vantaggi e i limiti di questo principio che
comunque in scienza è vastamente applicato, anche se non è un criterio assoluto (potremmo anche
esserne ingannati). Il secondo è di tipo argomentativo: chi dice che vi è un progresso
nell'evoluzione? al contrario, è ormai evidente che vi sono rami secchi che non hanno dato origine a
niente, le specie scomparse sono di gran lunga più di quelle presenti (questo fatto dovrebbe far
meditare i sostenitori troppo strenui della biodiversità), la natura ha prodotto un'enorme quantità di
dinosauri per poi lasciarli scomparire in breve tempo. E chi dice che l'uomo è il meglio? lo diciamo
noi che siamo uomini, ma in base a che cosa?
Stephen Jay Gould ad esempio sostiene che quelli che meglio hanno risposto al comandamento di
andare e dominare il mondo sono i batteri che sono molto più adattati dell'uomo al loro ambiente.
Vi sono più batteri, si fa notare spesso, nell'intestino di un uomo di quanti uomini siano mai esistiti
sulla faccia della terra.
Gould ha una buona spiegazione per questo progresso apparente, e lo illustra in suo libro prendendo
a prestito dati e concetti del baseball 95 . Il baseball è un bellissimo gioco, che però lascia
assolutamente indifferenti gli Europei. Più semplice usare l’analogia della “passeggiata
dell’ubriaco”, che trova ampio riscontro anche nella vecchia Europa. Gould dice: sembrerebbe che
gli ubriachi abbiano una preferenza per il lato del marciapiede rivolto alla strada, perché ci
finiscono sempre dentro. In realtà, non è così: l’ubriaco oscilla sia da una parte che dall’altra, ma da
una parte ha il muro che lo respinge, mentre dall’altra no. Così l’evoluzione, ha un muro sinistro
che non può oltrepassare, mentre a destra può andare dove vuole ed in effetti ogni tanto le capita.
“Una sola direzione è aperta verso il cambiamento”. Quindi l’andamento dell’evoluzione verso la
complessità è solo apparente. Si tratta di oscillazioni che vanno sia verso il progresso che verso il
regresso, ma essendo partita dal nulla, sembra che vada verso il più complesso, così come l’ubriaco
sembra sempre finire sulla strada.
In effetti, adesso va di moda sostenere che noi siamo solo una delle tante specie dell’universo, per
giunta assai prepotente e crudele, che disprezza le altre specie e i suoi simili e che rovina l’ambiente
che lo ha creato. Tutto questo è vero, ciononostante, le precisazioni di Gould sono forse eccessive.
In effetti, Gould dimentica una cosa che dovrebbe invece interessarlo: che i batteri non possono
leggere il suo libro e convincersi di essere i padroni della terra. C'è presumibilmente un motivo per
cui siamo noi a mettere gli scimpanzé in gabbia e a studiarli e non viceversa. Non sembra
arrischiato dire che, se da un lato la stragrande maggioranza degli scienziati ritiene che l'evoluzione
vada a tentoni, è anche d'accordo nel ritenere che effettivamente l'uomo è l'organismo più
complesso, anche se questo non significa tout court accettare che l'evoluzione sia direzionale o
addirittura che abbia un senso.
Per Francois Jacob, l’evoluzione assomiglia a un bricoleur perché non butta via niente, ma riutilizza
tutto 96 . La genetica dell’ultimo decennio ha mostrato quanto vera sia questa affermazione che
secondo alcuni può conciliare gradualismo ed equilibri punteggiati 97 . Come abbiamo visto, se
95 S.J.Gould. Gli alberi non crescono fino al cielo. Arnoldo Mondadori Editore, Milano, 1997. Per
nostra fortuna, Gould introduce nella versione italiana un “Breve manuale di baseball per i lettori
italiani”. La scelta del baseball come metafora rivela una certa visione americanocentrica
dell’autore. L’alcolismo è invece una manifestazione ecumenica che affratella tutti gli uomini. La si
trova a p 173-174 della versione italiana.
96 F. Jacob. Evolution and tinkering. Science 196:1161-1166, 1977. F. Jacob. Evoluzione e
bricolage. Gli espedienti della selezione naturale. Einaudi, Torino, 1978
97 D. Duboule & A. S. Wilkins. The evolution of bricolage. Trends Genet 14:54-58, 1998. Gli autori
introducono il termine di “transizionismo” per denominare la loro posizione.
69
sequenziamo i genomi di organismi tanto lontani quanto l’uomo e il C. elegans, un piccolo verme,
notiamo che quasi tutti i suoi geni hanno una controparte nell’uomo. Le somiglianze della sequenza
nucleotidica e proteica sono tali che i geni omologhi (ortologhi) sono facilmente evidenziabili.
Questo presumibilmente non vale per tutti i geni, ma per la maggior parte. Nei mammiferi ci sono
più geni, alcuni effettivamente non riscontrabili nel nematode, e cioè realmente nuovi (l’alternativa
è che il nematode li abbia persi) altri che sono semplicemente dovuti a una o più duplicazioni
seguite da divergenza. Cioè ad un gene del C. elegans corrispondono parecchi omologhi nei
mammiferi, che a loro volta si sono diversificati raggiungendo espressioni e funzioni anche molto
diverse. Non solo sono conservate le sequenze, ma molto spesso anche le funzioni dei prodotti
genici, anche se lo stesso pezzo è stato inserito in un contesto più ampio o anche molto diverso.
Intere vie metaboliche sono conservate, ma adattate ai nuovi bisogni dell’organismo. Infine lo
studio dello sviluppo embrionario ha, come abbiamo visto, mostrato il potenziale di variabilità
insito in alcuni geni.
Un bricoleur però generalmente ha un disegno in mente. In questo senso il bricoleur sostituisce
l’ingegnere, ma entrambi sono solo una metafora 98 . Nessun disegno neanche per Richard Dawkins,
che assume posizioni più radicali. Tutti abbiamo imparato nei licei la metafora dell’orologiaio. Se
esiste un orologio, deve esistere un orologiaio. Versione semplificata ma esemplare dell’argomento
tomistico dell’ordine: se esiste l’ordine deve esistere l’ordinatore. In realtà, leggendo la versione di
questa argomentazione che ne fa il già citato vescovo Paley nel suo famoso libro “Natural Theology
or Evidences of the existence and attributes of the Deity, collected from the appearance of nature”
99 non si può non apprezzare la forza di questo argomento.
E’ probabile che non si possa eliminare questa argomentazione a cuor leggero. Per Richard
Dawkins invece il problema è già risolto. Nella prefazione al suo libro “The blind watchmaker”,
scrive
“This book is written in the conviction that our own existence presented the greatest of all
mysteries, but that it is mistery no longer because it is solved. Darwin and Wallace solved it, though
we shall continue to add footnotes to their solution for a while yet” 100 .
La metafora tuttavia è di tal forza che Dawkins sente il bisogno di riprenderla per confutarla.
L’orologiaio esiste, dice Dawkins, ma è cieco. Il motore unico (non immobile) è il gene egoista. In
uno scenario degno di Blade Runner, Dawkins descrive in maniera chiara ed elegante il successo di
questi geni, ora denominati replicatori (meglio replicanti) 101 :
“Quali strani strumenti di autoconservazione avrebbero portato i millenni? Quale sarebbe stato il
destino di questi antichi replicatori quattro miliardi di anni dopo? Essi non si sono estinti in quanto
sono gli antichi maestri dell’arte della sopravvivenza, ma non cercateli nel mare, perché hanno
rinunciato a quella libertà molto tempo fa. Adesso si trovano in enormi colonie, al sicuro
all’interno di robot giganti, fuori dal contatto con il mondo esterno, con il quale comunicano in
98 F. Jacob & A. Langeney. Genèse et actualité de la theorie de l’evolution. La Recherche 296
(marzo):18-25, 1997. “C’est une question qui ne relève pas de la science. On ne prouvera jamais
que Dieu exist ou n’existe pas. C’est une question de gout”. La posizione di Jacob pertanto sembra
essere di tipo classico, i domini di scienza e filosofia sono completamente separati.
99 W. Paley. Natural Theology or Evidences of the existence and attributes of the Deity, collected
from the appearance of nature. Faunder, London, 1802.
100 R. Dawkins. The blind watchmaker. Longman, Harlow, 1986. Prefazione, p. xiii
101 R. Dawkins. The selfish gene. Oxford University Press, Oxford, 1976. Edizione it: Il gene
egoista. Arnoldo Mondadori Editore, Milano, 1995 p 23
70
modo indiretto e tortuoso e che manipolano a distanza. Essi si trovano dentro di voi e dentro di me,
ci hanno creato, corpo e mente e la loro conservazione è lo scopo ultimo della nostra esistenza.
Hanno percorso un lungo cammino, questi replicatori e adesso sono conosciuti sotto il nome di
geni e noi siamo le loro macchine di sopravvivenza”.
Anni prima, Monod aveva scandalizzato molti col suo “Il Caso e la necessità” 102 .
“L’antica alleanza è infranta; l’uomo finalmente sa di essere solo nell’immensità indifferente
dell’Universo da cui è emerso per caso. Il suo dovere, come il suo destino, non è scritto in nessun
luogo. A lui la scelta tra il Regno e le tenebre”.
In realtà, non c’era molto da stupirsi, le conclusioni di Monod si trovano in numerosi filosofi
precedenti. Viene subito in mente Albert Camus, più o meno contemporaneo di Monod, e il suo
Mito di Sisifo 103 .
“Lascio Sisifo ai piedi della montagna! Si ritrova sempre il proprio fardello. Ma Sisifo insegna la
fedeltà superiore, che nega gli dei e solleva i macigni. Anch’egli giudica che tutto sia bene. Questo
universo, ormai senza padrone, non gli appare sterile né futile. Ogni granello di quella pietra, ogni
bagliore minerale di quella montagna, ammantata di notte, formano da soli un mondo. Anche la
lotta verso la cima basta a riempire il cuore di un uomo. Bisogna immaginare Sisifo felice”.
Tuttavia la novità era nel fatto che era uno scienziato, per giunta insignito del premio Nobel per la
medicina, a dirlo. Ma non tutti sarebbero d’accordo. Abbiamo già citato la posizione di Teilhard de
Chardin. Meno nota al grande pubblico è invece la posizione di Theodosius Dobzansky.
Dobzansky, insigne genetista, ha contribuito moltissimo alla messa a punto della teoria sintetica
dell’evoluzione, che, come abbiamo visto, ha coniugato la genetica di Mendel con la teoria
dell’evoluzione. Nel suo libro “The ultimate concern of biology” Dobzansky affronta senza mezzi
termini le implicazioni filosofiche della biologia:
“Generalmente si è d’accordo nel ritenere che la biologia possa avere implicazioni filosofiche più
di altre scienze: Un biologo, in qualità di biologo, deve quindi saper scegliere e presentare quei
fatti, quelle teorie e quelle idee che egli ritiene di generale interesse e portata sul piano umano” 104 .
L’opinione di Dobzhansky sul significato dell’evoluzione è quanto mai chiara:
“E’ ormai un luogo comune affermare che la scoperta darwiniana dell’evoluzione biologica ha
completato il processo di degradazione e di alienazione dell’uomo, iniziato con Copernico e
Galileo. Non riesco ad immaginare un’affermazione più errata, e forse il punto essenziale da
discutere in questo libro è la validità del contrario: l’evoluzione è motivo di speranza per l’uomo.
Ovviamente, l’evoluzionismo moderno non ha ridato alla terra il primitivo posto di centro
dell’universo. Ma, anche se l’universo non è sicuramente geocentrico, potrebbe ben essere
antropocentrico. L’uomo, questo misterioso prodotto dell’evoluzione del mondo, potrebbe anche
102 J Monod. Le hasard et la nécessité. Essai sur la philosophie naturelle de la biologie moderne.
Seuil, Paris, 1970. Edizione it: Il caso e la necessità. Arnoldo Mondadori Editore, Milano, 1970; p
143
103
A. Camus. Le mythe de Sisyphe. Gallimard, Paris, 1942. Edizione it: Il mito di Sisifo.
Bompiani, Milano, 1980. La citazione è la chiusa del libro, p 121.
104 T. Dobzansky: le domande supreme della biologia. De Donato, Bari, 1969. L’edizione americana
è del 1967; p. 10.
71
esserne il protagonista e forse la guida. In ogni caso non è statico, non è finito e non è immutabile.
Ogni cosa in esso è coinvolta nel flusso e nello sviluppo evoluzionistico” 105 .
Pensiero finale
Per la maggior parte degli aspetti, in fondo l’evoluzione dell’Homo non presenta particolari
problemi né suscita apprensioni. I nostri organi e le nostre cellule sono così simili non solo a quelli
dei primati ma anche a quelli di altre specie che addirittura si parla di utilizzare organi di queste
specie per trapiantarli negli uomini. Né nessuno si sente sminuito per questo. Tuttavia vi è un
aspetto particolare che non si ritrova negli animali, la coscienza, che lascia dubbiosi. Come questa
ha potuto evolversi? Per quanto ci si guardi in giro, sembriamo proprio unici in questo riguardo.
Anche se più o meno si ritiene che il tempo che separa l’uomo dallo scimpanzé sia lo stesso che
separa l’orango dallo scimpanzé, non vi è la stessa differenza di prestazioni tra queste due scimmie
antropomorfe che c’è invece tra l’uomo e lo scimpanzé.
La coscienza è effettivamente una proprietà emergente che lascia stupefatti. Oggi si cerca di
attribuire anche ad altre scimmie antropomorfe qualità umane, ma con scarso successo. Alla
coscienza vengono associate le qualità superiori dell’uomo, quali l’altruismo, il pensiero simbolico,
il libero arbitrio ecc. Può tutto questo essere spiegato con i geni o con l’interazione tra i geni ed
ambiente?
105 Ibidem, p. 15
72
Capitolo 4.
GENI E COMPORTAMENTO
L’altruismo
L’intelligenza è solo la più banale delle caratteristiche umane, e siamo pronti ad ammettere che
anche i cani ce l’abbiano, per non dire gli scimpanzé. Le caratteristiche più specifiche dell’uomo
sono altre, sono la coscienza di sé, la volontà, la bontà, il libero arbitrio e l’altruismo. E’ chiaro che
queste sono le ultime frontiere per la descrizione riduzionista della realtà. Queste caratteristiche
fanno parte della realtà, per quanto imprecisi possano essere questi concetti, per quanto difficile
possa essere una loro definizione e per quanto complessa possa essere la loro discussione.
Tra queste, l’altruismo è stato di recente oggetto di varie discussioni tra scienziati e non. Una
caratteristica come l’altruismo sembrerebbe attrarre di più gli studiosi di neuroscienze che gli
scienziati interessati all’evoluzione. Ma gli etologhi riscontrano manifestazioni di altruismo anche
in molti animali inferiori e devono spiegare come comportamenti altruisti, che sembrano minare
alcuni fondamenti dell’evoluzione, possano essersi affermati.
All’inizio degli anni sessanta, William D. Hamilton affrontò il problema di come fosse possibile
spiegare in termini evolutivi alcuni fatti che sembrano andare contro alla teoria della selezione del
più adatto alla riproduzione. In alcune specie dette "sociali", specialmente di insetti, tra cui le
formiche e le termiti, numerosi membri della società sono sterili. Detto in termini sommari, cosa se
ne fa l'evoluzione di individui sterili? D'altro canto, dato che, sterilità a parte, questi individui sono
normali e soprattutto svolgono un ruolo notevole nella loro società, come può questo sistema essere
risultato vantaggioso dal punto di vista evolutivo? Come possono essersi evolute organizzazioni
sociali come quelle di api, formiche e termiti?
Questo problema era già stato riconosciuto da Darwin come una notevole difficoltà per la sua teoria.
Darwin aveva accennato alla possibilità che l'evoluzione agisse non solo sull'individuo ma anche
sulla sua famiglia (in senso lato). Hamilton notò che un individuo sterile può contribuire alla
diffusione di un gene (o un insieme di geni) favorendo la trasmissione dei geni di uno stretto (o
anche relativamente lontano) parente con cui ha in comune una certa percentuale dei suoi geni.
Hamilton diede una formulazione matematica delle condizioni necessarie perché questo si verifichi
106 .
La formulazione matematica di Hamilton dice essenzialmente che se abbiamo P definito come
grado di parentela, C come il costo dell’atto altruistico e B come il beneficio ricavato dal
beneficiante dell’azione altruistica, un atto altruistico dovrebbe essere favorito dall’evoluzione se
P x B – C > 0.
106 W.D. Hamilton. The genetical evolution of social behaviour. I e II. J Theor. Biol. 7:1-16; 17-
52,1964. Secondo A. Brown, l’idea di Hamilton trarrebbe origine dalle idee di George Price, un
biologo dilettante che aveva formulato una prova matematica che mostrava che l’altruismo era
possibile, ma niente affatto nobile. Più tardi Price si sarebbe suicidato perché sconvolto da questa
scoperta. Vedi: A. Brown. The Darwin wars: how stupid genes became selfish gods. Simon &
Schuster, 1999.
73
Il ragionamento che sta sotto è il seguente: essere imparentati significa che abbiamo in comune un
certo numero di geni, pertanto, se aiuto mio fratello a salvare la pelle, dò una mano anche ai miei
stessi geni. Quindi più stretta è la parentela, più facile è la manifestazione di altruismo.
E’ importante notare come in questo caso si debba ammettere che in un certo qual modo è cambiato
l’oggetto della selezione. Non è più l’individuo, ma è la famiglia o il gruppo nella misura in cui c’è
un imparentamento. Ma potrebbe essere anche il gene. In entrambi i casi sembra necessario che gli
animali in questione siano capaci in un certo qual modo di riconoscere i propri simili (kin
recognition).
Un ulteriore contributo all’analisi della genesi dell’altruismo venne poi data da un altro biologo,
Robert L. Trivers, che suggerì che un’altra via per spiegare la nascita di comportamenti altruistici è
che questi siano reciproci 107 . In questo caso quindi non è necessario essere imparentati, anzi si può
anche appartenere a specie diverse. La collaborazione tra specie diverse in realtà è da tempo nota e
va sotto il termine di simbiosi.
Un notevole impulso a questo tipo di ricerche si ebbe da un articolo a firma di John Maynard Smith
e George Price in cui la “Teoria dei giochi” veniva applicata a livello teorico all’analisi dei conflitti
animali 108 . La Teoria dei giochi viene utilizzata in politica ed in economia per studiare situazioni in
cui insorgono conflitti. Successivamente Robert Axelrod, che non era un biologo ma un ricercatore
in politica ed economia, suggerì di modellare questo problema nella forma del Dilemma del
Prigioniero 109 . Se due prigionieri complici di un delitto vengono arrestati hanno di fronte 4
possibilità: se collaborano tra loro (non con la polizia) guadagnano bene tutti e due (se tacciono,
cioè, stanno un po’ in galera, ma poi vengono scarcerati per mancanza di indizi); se parlano tutti e
due, perdono in certa misura (rei confessi, usufruiscono entrambi dei benefici di legge e si fanno un
certo numero di anni di galera ma non troppi); se uno dei due invece tradisce l’altro, cedendo alle
lusinghe della polizia, cioè confessa mentre l’altro insiste nella sua linea dura, il primo guadagna
molto (usufruisce della legge sui pentiti, che come succede in Italia, è un vero affare per i
collaboratori di giustizia) ma l’altro becca la pena più severa. Il dilemma, da cui il gioco prende il
nome sta nel fatto che la scelta più logica dal punto di vista del singolo è di tradire, perché se il
complice collabora si becca il massimo e se tradisce anche lui, si becca una punizione minore. Non
c’è scelta: bisogna tradire. Ma il paradosso è che con questa logica tradiremo tutti e due, sapendo
che se entrambi non tradissimo guadagneremmo di più.
Trasportato in termini evolutivi: non può nascere un comportamento altruistico perché sarebbe
svantaggioso per chi lo manifesta. Almeno questo se il gioco viene effettuato una volta sola. Le
cose però cambiano se il gioco viene ripetuto un numero imprecisato di volte. Vi è tutta una
letteratura sull’argomento e sono stati implementati vari programmi computerizzati di simulazione
di quello che succede con le varie strategie 110 . Le possibilità, ed anche gli esiti, sono veramente
107 R.L. Trivers. The evolution of reciprocal altruism. Q.Rev Biol. 46:35-57, 1971
108 J. Maynard Smith & G.R. Price. The logic of animal conflict. Nature 246:15-18, 1973
109 In realtà, l’articolo di Trivers citava il Dilemma del Prigioniero ma non lo sviluppava.
110 E’ al di fuori degli scopi del libro riferire tutti gli studi e le simulazioni basati sul Dilemma del
prigioniero a partire dall’articolo che Axelrod e Hamilton pubblicarono insieme come frutto della
loro collaborazione: R. Axelrod & W.D. Hamilton. The evolution of cooperation. Science
211:1390-1396, 1981. Tra le pubblicazioni più accessibili, si possono vedere: M.A. Nowak. The
arithmetics of mutual help. Scient Am p. 76-81, 1995 (giugno); A.L. Lloyd. Computing bouts of the
prisoner’s dilemma. Ibidem; p. 110-115. Vedi anche il capitolo 12 della nuova edizione di “Il gene
egoista” di Dawkins, dal titolo “I buoni arrivano primi”. J.H. Holland. Genetic algorithms. Scient
Am p 66-72, 1992 (luglio). Axelrod stesso ha scritto un libro: The evolution of cooperation, Basic
74
infiniti, perché possono variare i soggetti in campo (le strategie) e il loro numero, gli interessi in
gioco (i premi e le punizioni), il numero di partite, ecc. Abbiamo detto che, se il venir traditi
equivale all’uscita di scena (ergastolo o condanna a morte), non vi sarà più possibilità di gioco, e in
questo caso la gente tenderà ad essere assai più prudente (tradire), ma se pur perdendo si ha la
possibilità di rifarsi, la strategia migliore potrebbe essere diversa. Quello che si è visto e che
importa al fine della nostra discussione è che in quest’ultimo caso vi sono molte strategie che
premiano i cooperativi. Spesso, se i giocatori sono parecchi, il traditore abitudinario termina il gioco
con un bottino assai più modesto di quello dei cooperanti.
A questi modelli matematici, che vengono generalmente implementati su computer e che
consentono la simulazione di veri e propri tornei, corrispondono numerosi tentativi di dimostrazione
di altruismo legato a parentela o a reciproco vantaggio nelle specie animali. E’ chiaro che l’analisi
teorica può essere assai elegante e in casi come quelli del Dilemma del prigioniero, può essere
addirittura divertente. Ma se non si dimostra che si applica ai casi specifici, la teoria rimane
plausibile ma non testata. Vi sono almeno due stadi in questa ricerca per un biologo: prima si
devono trovare comportamenti che sembrino altruistici, poi bisogna cercare di calcolare o stimare le
tre variabili (P, B e C) e concludere se i nostri calcoli sono compatibili con quello che osserviamo.
Per far questo bisogna andare sul campo, e studiare in dettaglio questi sistemi, che va detto subito
sono più frequenti e più facilmente indagabili tra gli insetti sociali.
Da allora innumerevoli studi che spiegano il comportamento altruistico sulla base di un vantaggio
evoluzionistico sono stati pubblicati 111 . Tuttavia eseguire questi studi non è così semplice. La
verifica di queste ipotesi sulla cooperazione è alquanto difficile e complicata. Si devono osservare
specie che si muovono in libertà nel loro terreno, e il loro studio è assai difficile da un punto di vista
logistico e pratico. Bisogna stabilire quali animali sono imparentati e bisogna essere in grado di
Books, New York, 1984. N.S. Glance & B.A. Huberman hanno lanciato una variazione sul tema, il
Diner’s dilemma: come ci si comporta ad un pranzo in cui il conto verrà diviso in parti uguali,
indipendentemente da quanto uno mangia? Vedi: N.S. Glance & B.A. Huberman. The dynamics of
social dilemmas. Scient Am p76-81, 1994 (marzo). Altri studi più recenti tendono a studiare
modelli matematici di varianti più simili alle situazioni reali. Ad esempio il computer memorizza
facilmente i comportamenti dei vari giocatori, ma l’uomo o l’animale deve ricordarseli tutti. Il ruolo
della memoria in questo processo è stato studiato in M. Milinski & C. Wedekind: Working memory
constrains human cooperation in the prisoner’s dilemma. Proc Natl Acad Sci 95:13755-13758,
1998. Il problema di cosa succede se, invece di ammettere solo comportamenti di completa
cooperazione o di pieno tradimento, si consentono varie gradazioni, è stato indagato in G. Roberts
& T.N. Sheratt: Development of cooperative relationship through increasing investment. Nature
394:175-179, 1998. Vedi anche corrispondente editoriale: L. Keller & H.K. Reeve. Familiarity
breeds cooperation. Nature 394:121-122, 1998. Il dilemma del prigioniero è stato applicato allo
studio di fagi, piccoli virus che infettano i batteri. Vedi: P.E. Turner & Chao L. Prisoner’s dilemma
in an RNA virus. Nature 398:441-443, 1999 e il suo editoriale M.A. Novak & K. Sigmund: Phagelift
for game theory. Nature 398:367-368, 1999. Recentemente Novak e Sigmund hanno introdotto
il concetto di reciprocità indiretta, in cui l’azione altruistica di un individuo verso un altro provoca
una ricompensa da un terzo individuo. Vedi M.A. Novak & K. Sigmund: Evolution of indirect
reciprocity by image scoring. Nature 393:573-576, 1998.
111
Vedi per esempio i seguenti articoli riassuntivi. R. Pool: Putting game theory to the test.
Science 267:1591-1593, 1998; C. Packer & A.E. Pusey: Divided we fall: cooperation among lions.
Scient Am p 52-59, 1997 (maggio); R. Heinsohn & C. Packer: Complex cooperative strategies in
groop-territorial African lions. Science 269:1260-1262, 1995; D.W Pfennig & P.W. Sherman Kin
recognition. Scient Am p. 98-103, 1995 (giugno); D.W. Tallamy: Child care among insects. Scient
Am p 72-77, 1999 (gennaio).
75
iconoscerli e distinguerli l’uno dall’altro. Bisogna seguirli per un tempo abbastanza lungo. Non
bisogna alterare il loro habitat e le loro abitudini. Così, studi di questo tipo in mammiferi sono
estremamente rari, mentre sono più frequenti quelli su insetti, specie su quelli altamente sociali. Ma
il comportamento di formiche e termiti può essere assai più geneticamente determinato di quello dei
mammiferi e quello che è vero per la regina delle api può non essere vero per la marmotta
sentinella. Così i dati a supporto della teoria su organismi superiori sono assai pochi e il rischio che
lo sperimentatore produca dati non validi o si lasci trasportare dalle sue premesse teoriche esiste.
Quando si faranno esperimenti accurati si saprà di più, e non è escluso di avere delle sorprese. Ad
esempio, un recente studio sulle manguste (Suricata suricatta) è giunto alle conclusioni opposte a
quello che è il microparadigma generale: il comportamento della sentinella è un comportamento
egoista e non altruista. Le sentinelle sono le prime a vedere il predatore, il loro rischio di venir
predate non è aumentato, anzi sono in ottima posizione per nascondersi nelle tane, e tendono a
svolgere questa attività quando hanno la pancia piena: difendono innanzitutto se stesse e non si
interessano se gli altri animali sono o no imparentati con loro 112 .
Infine, vi sono un paio di commenti da fare alle teorie sull’altruismo. Il primo riguarda l’altruismo
reciproco: qui si commette un errore abbastanza frequente quando si parla di concetti difficili da
studiare empiricamente. Si definisce il concetto in maniera ristretta per poterlo maneggiare meglio,
poi ce se ne dimentica e si ritorna al significato più generale che è quello usato comunemente
“dall’uomo della strada”. Il dilemma del prigioniero può essere utile per studiare come possono
sorgere comportamenti cooperativi in cui ambedue i partner ci guadagnano, ma che di altruistico
hanno ben poco. In realtà questi studi potrebbero illuminarci su come nascono le lobby in America
o le mafie in Italia, ma non su come si sviluppa il vero comportamento altruistico. Il secondo
commento è di natura evoluzionistica: l'altruismo, quello vero, è comunque molto raro; se è
realmente vantaggioso per una popolazione nella sua interezza, perché non si è diffuso fino a
diventare comunissimo ? perché non tutte le specie sono come le formiche ?
Geni e Comportamento
Fin dove si può spingere quest’analisi evoluzionistica e genetica sui comportamenti ? Nel 1975
Edward O. Wilson, un grosso esperto di formiche, diffuse le idee che si era fatto studiando questi
animaletti nel libro “Sociobiology: the new synthesis” 113 . Oggi i suoi seguaci sono detti appunto
sociobiologi. Quello che sostengono Wilson e i suoi colleghi è che i geni determinano ampiamente
il comportamento sia nelle formiche che nell’uomo.
La sociobiologia, nelle parole dei suoi sostenitori,
“iniziò negli anni 70, con gli scritti di un gruppo di scienziati, specialisti in biologia e scienze
sociali, fra i quali Richard D Alexander, David P Barash, Jerram L Brown, John Crook, Richard
Dawkins, Pierre van den Berghe e Edward O Wilson…..La sociobiologia non era nata dal nulla.
Seguiva le opere preliminari, e orientate in senso più filosofico, sul ruolo della biologia nel
comportamento umano, di Konrad Lorenz, Donald T Campbell, Irenaus Eibl-Eibesfeldt, Desmond
Morris, Robin Fox, Lionel Tiger e altri. Era basata sui risultati di centinaia di studiosi, dalle
indagini di Jane Goodall sugli scimpanzé, alla scoperta di Thedore Schneirla dei segreti della vita
delle formiche-soldati, alle teorie sull’evoluzione degli altruismo di William D Hamilton, di John
Maynard Smith e Robert L Trivers…..La corrente principale della sociobiologia è costituita da un
112 Clutton-BrockT.H. et al. Selfish sentinels in cooperative mammals. Science 284:1640-1644,
1999. D.T. Blumstein. Selfish sentinels. Science 284: 1633-1634, 1999
113 E.O. Wilson. Sociobiology: The new synthesis. Harvard University Press, Cambridge, 1975
76
complesso intreccio di fatti e di teorie attorno alla vita intima delle termiti da fungo, delle lucertole,
dei babbuini anubis, e di decine di migliaia di altre specie di animali sociali che hanno attirato
l’attenzione degli zoologi di tutto il mondo” 114 .
La tesi principale dei sociobiologi è che i geni hanno un ruolo nella genesi del comportamento di
alcuni animali e probabilmente anche nell’uomo. E’ chiaro che quello che ha scatenato un putiferio
non è l’idea che il formicaio sia retto da rigide regole scritte nel genoma della formica, perché
questo è quello che molti si attendono anche da una visione molto superficiale di questi animali,
bensì l’idea che anche il comportamento umano lo sia. Chi appoggia Wilson, fa notare che nel suo
primo libro il comportamento umano era limitato all’ultimo capitolo, dopo una lunga trattazione
degli insetti sociali. Ovviamente, tra i sociobiologi si va dai più radicali ai più miti, da quelli che
invocano un certo ruolo dei geni nel comportamento umano, a quelli che invocano un controllo
rigido. Per esempio se si legge lo stesso Wilson in un libro scritto otto anni dopo “Sociobiology”, la
sua posizione sembra molto aperta:
“Anche quando i principi derivati da studi di base vengono estesi agli esseri umani, non c’è alcuna
ragione speciale per aspettarsi che il comportamento sociale umano sia del tutto biologicamente
determinato. Potrebbe essere del tutto privo di ereditarietà, o, più probabilmente, qualcosa di
intermedio” 115 .
Detto per inciso, la polemica contro le tesi di Wilson è stata assai acerba ed è stata spesso formulata
sulla base di considerazioni sociopolitiche. L’accusa fu che le tesi di Wilson potrebbero costituire la
base di ideologie razziste e fasciste. Tra gli oppositori più fieri di queste teorie ci sono due insigni
studiosi di evoluzionistica, quali Gould e Lewontin, secondo i quali è l’ambiente che forgia le
personalità. In supporto a Wilson c’è invece Richard Dawkins, la cui analisi vuole estendersi non
solo allo studio dell’evoluzione delle specie ma anche all’evoluzione della cultura umana.
Lipidi egoisti e memi egoisti
Richard Dawkins, che abbiamo già citato nel capitolo sull’evoluzione, è noto per aver introdotto il
termine di “gene egoista” suggerendo che il target della selezione naturale non è l’organismo né il
gruppo, bensì il gene.
I risultati più recenti tuttavia tendono ormai a limitare l’idea del gene egoista a favore di un’altra
ipotesi che sta ricevendo maggior attenzione tra gli addetti ai lavori. Anche se questa formulazione
non ha ancora raggiunto il grosso pubblico perché i media non l’hanno ancora ripresa, è probabile
che diventi la ideologia più diffusa nel millennio che sta per cominciare.
Secondo la nuova teoria, sono i lipidi i veri dominatori del mondo. Questa asserzione si basa su
numerosi fatti che sembrano incontrovertibili (non falsificabili). La loro rilevanza può essere più
facilmente vista se confrontata con l’ipotesi alternativa del gene egoista, da cui è solo in parte
derivata. In primo luogo, se si va ad analizzare tutte le varie forme di vita diffuse nel pianeta, è
facile constatare che non esiste forma vivente che non abbia lipidi. In secondo luogo, per ogni unità
di vivente, i lipidi predominano quantitativamente sugli acidi nucleici: in alcuni tipi cellulari
addirittura costituiscono il 90% del contenuto secco. In terzo luogo, se si prende quello che è il più
stupefacente prodotto dell’evoluzione, e cioè il nostro cervello, si dimostra che esso è
tremendamente ricco di lipidi. In quarto luogo, nelle società tecnologicamente più sviluppate e più
114 C.J. Lumsden & E.O. Wilson: Il fuoco di Prometeo. Le origini e lo sviluppo della mente umana.
Mondadori, Milano, 1984, p. 64-65. L’edizione americana è del 1983.
115 Ibidem, p. 65
77
icche i lipidi la fanno da padrone, e questo malgrado un’intensa campagna denigratoria di
gruppuscoli radicaleggianti che tende ad alterare il normale corso dell’evoluzione in cui i grassi
cervelli tendono ad essere associati con voluminosi addomi. Vi è una grande concentrazione di
lipidi nelle zone nevralgiche del pianeta come l’isola di Manhattan e vi è una chiara correlazione tra
zone geografiche ad alto consumo di energia e quelle ad alta concentrazione lipidica. Anche se
mancano stime esatte, è probabile che il 20% delle zone ad alto contenuto lipidico consumino l’80%
delle risorse energetiche disponibili. Infine, spingendo l’analisi a livello molecolare, è accertato che
i lipidi sono portatori di un numero di funzioni imprevedibili anche solo vent’anni fa. A riprova del
loro ruolo va citato il fatto che senza lipidi non c’è vera vita: infatti i virus, che hanno acidi nucleici
e proteine, ma non lipidi, non godono di vita autonoma ma hanno bisogno anche solo per la loro
replicazione di cellule ricche di lipidi. Anzi, la loro prima azione è quella di connettersi con tutta
una serie di lipidi organizzati quali quelli che formano la membrana plasmatica. Questa è la vera
fonte di individualità che stabilisce la separazione di fondo tra l’individuo e il suo ambiente, la vera
unità su cui agisce la selezione. Solo che i lipidi sono così astuti che per non dare nell’occhio fanno
credere che dipenda tutto dagli acidi nucleici. Questi in realtà sono così monotoni e prevedibili da
non poter essere la vera eminenza grigia della vita. I lipidi dominano il mondo e gli acidi nucleici
sono solo i loro prestanomi.
Questo breve testo è plausibile, solo che non vi siamo ancora abituati. Solo i posteri diranno se
questa prospettiva abbia un grande futuro dinanzi a sé 116 . Direi che per ora il lipide egoista è nella
stessa situazione del “meme” egoista.
L’idea del meme come unità di base della selezione nel mondo della cultura dell’uomo, è stata
esposta da Dawkins nell’ultimo capitolo del suo libro “Il gene egoista”.
“Io credo che un nuovo replicatore sia emerso di recente proprio su questo pianeta. Ce l’abbiamo
davanti, ancora nella sua infanzia, ancora goffamente alla deriva nel suo brodo primordiale ma già
soggetto a mutamenti evolutivi a un ritmo tale da lasciare il vecchio gene indietro senza fiato. Il
nuovo brodo è quello della cultura umana. Ora dobbiamo dare un nome al nuovo replicatore, un
nome che dia l’idea di un’unità di trasmissione culturale o di un’unità di imitazione. “Mimeme”
deriva da una radice greca che sarebbe adatta, ma io preferirei un bisillabo dal suono affine a
“gene”: spero che i miei amici classicisti mi perdoneranno se abbrevio mimeme in
meme…..Esempi di memi sono melodie, idee, frasi, mode, modi di modellare vasi o costruire archi.
Proprio come i geni si propagano nel pool genico saltando di corpo in corpo tramite spermatozoi o
cellule uovo, così i memi si propagano nel pool memico saltando di cervello in cervello tramite un
processo che in senso lato, si può chiamare imitazione….I memi dovrebbero essere considerati
come strutture viventi e non soltanto in senso metaforico, ma anche tecnico. Quando si pianta un
meme fertile in una mente, il cervello ne viene letteralmente parassitato e si trasforma in un veicolo
per la propagazione del meme, proprio come un virus può parassitare il meccanismo genetico di
una cellula ospite”. 117
Ma i parallelismi “gene-meme” non finiscono qui. E’ accertato che un meme, come un gene, può
essere egoista, anche spietato, come dice Dawkins, ma certamente non è obbligatorio che sia
intelligente. Vi è in giro un’infinità di memi assolutamente deficienti che hanno fatto fortuna. Vi
sono geni analoghi ? Certamente, basta guardare le sequenze ripetute presenti anche in un migliaio
116 L’argomentazione sviluppata in questa forma leggermente eterodossa vuole mostrare come le
stesse argomentazione fatte per il meme egoista e parzialmente per il DNA egoista siano trasferibili
a parecchie altre situazioni. Il lipide egoista è tanto plausibile quanto il meme egoista, cioè assai
poco. Soprattutto, entrambe non aggiungono nulla allo studio dei lipidi e delle idee, rispettivamente.
117 R. Dawkins: Il gene egoista. Mondadori, Milano, 1995. p. 201-202.
78
di copie nei genomi degli organismi superiori. Cosa servono nessun lo sa, ma si sono diffusi
implacabilmente, tanto quanto le canzoncine dei Beatles.
Una delle caratteristiche dei memi è che possono mutare. Anzi, come fa notare Dawkins la regola è
che mutino. Come per i geni, alcune mutazioni sono vantaggiose per il meme e altre sono
svantaggiose. Il più bell’esempio della mutazione di un meme che gli ha assicurato l’immortalità, o
per lo meno molti secoli di vita, lo traggo da un libro di Luca Cavalli Sforza, noto genetista umano.
Quando ero piccolo mi piaceva tantissimo l’aggettivo “lapalissiano”, che è più o meno sinonimo di
evidentissimo, così evidente da essere addirittura sciocco. Mio padre, da cui ho appreso
direttamente il meme mutato, mi spiegava che traeva origine dal detto su Monsieur de la Palisse
“Un quart d’heure avant la mort, il était encore en vie”. In un suo libro, Cavalli Sforza sostiene che
la versione originaria era “Un quart d’heure avant la mort, il faisait encore envie” e ha dalla sua la
plausibilità 118 . E’ interessante notare come la versione mutata sia stata la fortuna del meme, perché
è stata la sua stranezza a garantirne la conservazione, la versione corretta non sarebbe certamente
stata ricordata o comunque non avrebbe avuto la diffusione che ha avuto. Vi sono numerosi esempi
in natura di geni scorretti che hanno fatto ugualmente fortuna, basti ricordare il gene della
drepanocitosi che è un gene della globina mutato. La sua fortuna, sembra accertato, dipende dal
fatto che avere una copia del gene protegge in parte dai danni della malaria.
Fermo restando che il futuro riserba sempre delle sorprese, c’è da chiedersi quali vantaggi ci
derivino dalla formulazione del meme egoista. Finora sono stati prodotti articoli e libri e un certo
numero di discussioni 119 , ma, dobbiamo chiederci, cosa abbiamo in più di quello che avevamo
prima ? Tutti sapevamo già che un’idea o un concetto o anche una stupidata possono diffondersi, e
che alcuni di questi hanno un successo strepitoso, mentre altri vanno nell’oblio. Che questo possa
essere casuale è certo: quanti libri interessanti sono andati perduti nell’incendio della biblioteca di
Alessandria o comunque sono scomparsi nel medioevo? E quanti libri interessantissimi sono
completamente ignorati fin dalla loro pubblicazione ? Cosa ce ne viene in tasca dall’ipotesi dei
memi egoisti o altruisti? Questo approccio sarà utile per spiegare l’evoluzione culturale, porterà a
delle predizioni nuove che potranno essere verificate su come funziona il nostro cervello ? Dawkins
ammette che “la teoria dei memi sia pura ipotesi”, ma il modo con cui è stato formulata fa dubitare
persino che meriti tale appellativo.
I gemelli
Detto con parole semplici, poche persone obietterebbero che i geni controllano la maggior parte dei
nostri caratteri fisici. La gente accetta facilmente che la propria statura o il proprio colore degli
occhi siano dovuti ai geni, anche se malgrado tutti i risultati ottenuti dalla genetica, il metodo
migliore per predire ad esempio l’altezza di un nascituro rimane quello di misurare i genitori, un
approccio già disponibile migliaia di anni fa.
In realtà non è così neanche per certi caratteri fisici che a prima vista potrebbero sembrare sotto
stretto contatto genetico. Prendiamo ad esempio il peso o il volume dei muscoli. Entrambe queste
caratteristiche fisiche subiscono una grande influenza di circostanze ambientali 120 . E cosa dire
118 “Un quarto d’ora prima della morte, egli era ancora in vita”. La versione originale suona invece
come “un quarto d’ora prima di morire egli faceva ancora invidia”. Per l’intera strofa vedi F & L.
Cavalli Sforza: La scienza della felicità. Mondadori, Milano, 1997.
119 Vedi ad esempio: S. Blackmore: The meme machine. Oxford University Press, Oxford, 1999
120 Tutti coloro che come me sono fuori forma converranno che sono solo le avverse circostanze
ambientali ad esserne responsabili, e non i nostri geni, che invece sono bellissimi.
79
dell’intelligenza o di caratteri ancora più misteriosi quali quelli riassunti come “mentali” o
“comportamentali” ?
Il problema di quanto incidano i geni e di quanto incida l’ambiente è vecchio quanto l’umanità. Gli
anglosassoni lo hanno denominato “nature-nurture”, natura (la genetica) o nutrimento (l’ambiente),
e lo fanno risalire a Francis Galton, cugino di Darwin. Al di là dell’aneddotica, in questi ultimi
cent’anni si è cercato di affrontare il problema con lo studio sistematico dei gemelli veri, detti anche
identici o monovulari. I gemelli veri sono dei cloni, cioè hanno tutti i geni identici, mentre i falsi
gemelli hanno in comune, come i normali fratelli, il 50% dei geni. I gemelli veri normalmente
crescono nello stesso ambiente, pertanto non è possibile distinguere quanto nelle loro somiglianze
comportamentali abbia giocato la genetica e quanto l’ambiente. Però, se i due gemelli venissero
separati alla nascita, tutte le somiglianze comportamentali dovrebbero essere attribuite al loro
assetto genetico.
Naturalmente, non è possibile separare a bella posta i gemelli, ma in certi casi essi vengono dati in
adozione oppure vengono separati alla nascita per le vicissitudini della vita. E’ chiaro che essi
hanno già avuto in comune l’ambiente dei nove mesi di gravidanza, ma questo particolare è sempre
stato considerato trascurabile. Almeno fino a due anni fa quando una meta analisi eseguita su oltre
200 studi ha suggerito che il periodo passato nell’utero della madre contribuisce apprezzabilmente
alla stima dell’ereditabilità dell’intelligenza, e che pertanto parte di quanto era stato ritenuto
ereditario dipende invece dall’ambiente in cui il feto si sviluppa 121 .
Gli studi effettuati in questo senso, in particolare per quanto riguarda l’intelligenza, sono giunti alla
conclusione che grosso modo il 50% dei caratteri sono controllati dalla genetica. Questa è una
conclusione rassicurante, in quanto sembrerebbe allontanare la possibilità, peraltro già negata da
tutti i genetisti, di poter sfruttare la tecnica di clonazione per fabbricare individui che pensano e si
comportano allo stesso modo. Si tratta comunque di conclusioni che vanno prese con le pinze,
perché non sono così facili da effettuare. Bisogna inoltre pensare che, per quanto vengano separati
alla nascita, non è ben chiaro quanto gli ambienti in cui vengono inseriti siano effettivamente
diversi. Non capita quasi mai che uno dei due gemelli viene adottato da uno statunitense e l’altro da
un boscimano; anche il censo delle famiglie cui vengono affidati probabilmente non è diversissimo.
E’ importante rendersi conto che dai dati sull’ereditarietà dell’intelligenza c’è poi chi trae
conclusioni di vasta portata, spesso assolutamente inadeguate. Per uno scienziato, che il quoziente
d’intelligenza (IQ) sia predeterminato alla nascita, è un problema come un altro, ma per altri può
urtare le proprie convinzioni. Qualche anno fa c’è stato un grosso dibattito sul libro di Herstein e
Murray 122 , che partendo dall’ereditabilità dell‘IQ giungeva a conclusioni pesanti: c’è una
correlazione tra IQ e stato sociale (cioè i più poveri sono meno intelligenti, come risulta dagli studi
sulla distribuzione dell’IQ nella società); l’IQ generale dell’intera popolazione è destinato a
scendere perché i più poveri (più stupidi) sono più fertili; i ricchi (più intelligenti) si sposeranno tra
loro, aumenteranno il loro IQ e formeranno una casta sempre più distaccata dai più poveri.
E’ chiaro che queste tesi possono a prima vista non piacere a molti, ma la prima domanda non è se
piacciono o no, ma se siano motivate o campate per aria. Anche per chi è preoccupato per il destino
dei poveri, la cosa migliore non è negare ciò che è vero, perché se si sa come stanno veramente le
cose si riesce a controbatterle meglio. Un’altra cosa da evitare è quella di prendersela con gli autori,
121 B. Devlin et al: The heritability of IQ. Nature 388:468-470, 1997; M. McGue: The democracy
of the genes. Nature 388:417-418, 1997
122 R.J. Hernstein & C. Murray: The Bell curve: intelligence and class structure in American life.
Free Press, New York, 1994
80
a meno che non sia provata la loro tendenziosità. In fondo il loro lavoro potrebbe essere un
campanello d’allarme per effettuare interventi sociali più mirati 123 .
Ora, il punto di partenza è sapere se è vero che i più ricchi sono più intelligenti dei più poveri.
Facciamo attenzione, perché non vogliamo sapere se i più ricchi sono stati più intelligenti dei più
poveri, perché in una società puramente meritocratica (che peraltro non esiste) chi ha ottenuto di più
vuol dire che è stato più bravo. Il problema è se è nato così, oppure se lo è diventato. Perché se lo è
diventato, allora non tramanderà la sua intelligenza alla sua progenie, la quale nascerà intelligente
tanto quanto quella dei poveracci.
Questa obiezione è molto vecchia e si basa su un problema di non facile soluzione. Quando si
cominciò a formulare i questionari per misurare l’IQ, ci si rese conto facilmente che erano modellati
su quella che era la cultura dominante, quella anglosassone dell’epoca, la quale va bene anche per
gli altri Europei, ma va meno bene per molte minoranze. Inoltre, se la misurazione viene effettuata
ad una certa età, ad esempio in età scolare, in realtà si va a misurare un IQ “attuale” dovuto alla
genetica più tutto quello che è avvenuto negli anni precedenti. Questa presa di coscienza ha fatto sì
che si cercasse da un lato di formulare quesiti che fossero il meno possibile orientati ad una
particolare cultura, dall’altro di affrontare il problema in bambini più piccoli, riducendo così, ma
non eliminando, le influenze ambientali. Parallelamente, si è cercato di migliorare le condizioni
economiche delle classi meno abbienti così da eliminare le differenze dovute ad ambienti meno
stimolanti.
Non vi è però un accordo generale su quanto l’ambiente con cui si è venuti a contatto in periodo pre
o peri-natale possa incidere. Pertanto ogni conclusione è prematura. Un secondo problema è quanto
sia comunque ereditabile l’IQ. Perché se l’eredità è sostanzialmente inferiore al 50%, una vera casta
di più intelligenti non può affermarsi: dopo qualche generazione, i discendenti di persone assai
intelligenti tornano nella media. Pertanto le previsioni contenute nella Curva di Bell non possono
essere accettate da tutti. D’altro canto, nature o nurture, sono in molti a pensare che i poveri stanno
diventando sempre più poveri e i ricchi sempre più ricchi e che, visto che comunque un effetto da
parte dell’ambiente è certo, anche se non perfettamente quantificabile, sarebbe bene darsi da fare
per migliorare la vita dei meno fortunati e rivelare tutte le loro potenzialità che sono una grande
risorsa della società 124 .
Animali modificati
In medicina e biologia si fa grande uso di modelli animali nella speranza che i risultati così ottenuti
siano trasferibili all’uomo. E’ chiaro che le funzioni superiori esclusive della nostra specie non
potrebbero venir indagate nel topo ed è altrettanto chiaro che anche quelli ottenibili non possono
venir trasferiti tout court dai roditori all’uomo. Tuttavia le recenti tecnologie di manipolazione
embrionale nei roditori che consentono di produrre e studiare animali transgenici e animali
knockout ci permettono un approccio diretto allo studio del ruolo dei geni in alcuni comportamenti.
Il principio, teoricamente assai semplice, è quello di inattivare un gene o, al contrario, farlo
esprimere in maniera abnorme, e di vedere quali modificazioni avvengono nel comportamento.
123 Machiavelli per esempio è rimasto come un esempio di depravazione politica. Tuttavia, secondo
l’interpretazione che ne dà il Foscolo nei suoi Sepolcri, il Machiavelli col il suo libro avrebbe in
realtà svelato al popolo la malvagità dei potenti (il Principe).
124 Un esempio del ruolo dell’ambiente ci è fornito dalla vita di Mario Capecchi, l’inventore della
tecnica degli animali knockout. Vedi: G. Stick: Of survival and science. Scient Am, agosto 1999, p.
26-27
81
Migliaia di animali transgenici sono stati prodotti e oltre 1000 geni sono stati sinora inattivati nel
topo. I fenotipi ottenuti sono i più vari, e molti di questi colpiscono anche i comportamenti. Tuttavia
nella maggior parte dei casi, il comportamento non è l’unico aspetto colpito: esso riflette un più
vasto danno che ha luogo nell'intero organismo 125 . E’ possibile che alterazioni meno grossolane
dell’espressione genica possa rivelare un ruolo dei geni nei processi fisiologici. Recentemente, ad
esempio, è stato prodotto un topo transgenico che esprime aumentati livelli di una componente del
recettore 2B del NMDA nel cervello dell’adulto: il topo ha mostrato prestazioni migliori in tre
differenti test usati comunemente per valutare l’apprendimento del topo. Secondo gli autori, questi
risultati fanno pensare che sia possibile aumentare nei mammiferi alcune caratteristiche mentali
quali l’intelligenza e la memoria 126 . Pur rimanendo scettico, mi auguro, essendo ormai in età
avanzata, che questa previsione si avveri al più presto possibile.
Anche la tossicodipendenza, dall’alcool o dalla cocaina, cominciano ad essere studiati con questi
animali modificati. Molto recentemente è stato riportato uno studio che, partendo da osservazioni su
due specie assai vicine tra loro, l’arvicola (“vole”) della prateria e l’arvicola della montagna, delle
quali solo la prima è monogama 127 , ha evidenziato un gene, il recettore della vasopressina, che
avrebbe un ruolo nella genesi di questo comportamento. Gli autori hanno poi creato dei topi
transgenici che riproducono il pattern di espressione di questo gene nell’arvicola della prateria,
notando un aumento delle cure dedicate ai figli. Lo studio è interessante, se confermato, perché la
modifica del comportamento è assai selettiva e non si accompagna ad altre alterazioni evidenti 128 .
La genetica umana e i geni del comportamento
Ai tempi in cui Wilson e Dawkins lanciavano le loro idee della sociobiologia e del gene egoista
lavorando principalmente sugli organismi sociali meno sviluppati, essenzialmente insetti, la
genetica umana era ai suoi albori e non era possibile una dimostrazione diretta delle loro ipotesi
nell’uomo. Oggi però, la domanda se i geni hanno uno stretto controllo sulle caratteristiche
comportamentali dell’uomo (che è poi quello che è di pertinenza del presente volume, poiché di
quello che succede alle formiche la nostra antropocentrica specie non se ne interessa granché) può
essere affrontata con le tecniche della genetica classica che sono state usate negli ultimi due decenni
e che sono servite per identificare i geni di numerose malattie ereditarie. Le problematiche sollevate
da questi autori pertanto sono oggi testabili, anche se ci sono numerosi aspetti che le rendono al
momento di difficile soluzione. L’approccio basato sull’analisi di “linkage” consente di esaminare
se un qualsivoglia “tratto” fenotipico, sia esso una malattia leggera o grave, un qualsiasi aspetto
fenotipico, o appunto un aspetto del carattere sia legato ad una determinata regione cromosomica.
Purtroppo è necessario qui un breve richiamo di genetica umana. Pur appartenendo tutti alla stessa
specie, il genoma di ognuno di noi è un pochino diverso dagli altri, fatta eccezione per i gemelli
monovulari. Queste piccole differenze vengono chiamate polimorfismi e sono distribuite su tutti i
cromosomi umani. E’ possibile seguire nelle varie generazioni questi polimorfismi che vengono
ereditati essenzialmente secondo le leggi di Mendel. Pertanto, se uno di questi polimorfismi cade
dentro o assai vicino al gene responsabile di una malattia, è possibile individuarlo se si dimostra che
125 Vedi ad esempio: F. Tronche et al: Disruption of the glucocorticoid receptor gene in the nervous
system results in reduced anxiety. Nature Genet 23:99-103, 1999
126 Y. Tang et al: Genetic enhancement of learning and memory in mice. Nature 401:63-69, 1999
127 S.C. Carter & L.L: Getz: Monogamy and the prairie vole. Scient Am, giugno 1993, p. 100-106
128 L.J. Young et al: Increased affiliative response to vasopressin in mice expressing the V1a
receptor from a monogamous vole. Nature 400:766-768, 1999
82
quel particolare polimorfismo è presente nei malati e assente negli individui sani. Questo metodo,
detto analisi di legame (linkage analysis) si è rivelato potentissimo in patologia umana
nell'identificare i geni responsabili di malattie monogeniche.
Ma i problemi sono tanti. L’analisi di linkage ha fornito ottimi risultati nel campo delle malattie
ereditarie monogeniche, cioè quelle che, come la fibrosi cistica, dipendono appunto dall’alterazione
di un solo gene. Ma è assai poco probabile che i nostri atti comportamentali siano dovuti ad un gene
solo: probabilmente sono sotto il controllo di molti geni (tratti o malattie multigenici). Inoltre, è
anche probabile, per le ragioni esposte sopra, che oltre alla componente genetica, vi siano anche
fattori ambientali. Si dice allora che i tratti indagati, o la malattia in studio, sono multifattoriali. Ma
nel campo delle malattie multifattoriali, i risultati ottenuti sinora con l’analisi di linkage sono scarsi,
e limitati ad un piccolo numero di malattie, quali ad esempio il diabete, la cui base genetica è
comunque certa.
E questo è il primo problema: l’analisi è relativamente facile se la malattia, il tratto o il carattere è
definito da un solo gene e se la definizione del carattere in questione è chiara. In questo caso, si può
facilmente vedere se il carattere è legato ad un gene. E’ quello che fece per primo Mendel più di
cento anni fa. Ma se la malattia è multifattoriale, è difficile al momento attuale evidenziare un
linkage se questo è inferiore al 10%, anche se le analisi potranno essere affinate in futuro.
Ma poi c’è un altro problema: la diagnosi o se si vuole la definizione del carattere. Se può essere
relativamente facile fare diagnosi di diabete, non lo è altrettanto fare diagnosi di una malattia che
colpisce la psiche. Prendiamo la depressione ad esempio. Vi sono vari gradi di depressione, dove
stabilire la soglia? Vi è la depressione per cause fondate, ma queste non possono essere confuse con
quelle immotivate. Altre malattie insorgono in età avanzata, altre devono essere ricostruite sulla
base di quello che viene riferito dai figli o dai nipoti perché la persona è deceduta. E’ chiaro che c’è
il rischio di qualificare come depresso uno che non lo è o non lo era, oppure di catalogare come non
affetto una persona che tuttavia svilupperà la malattia in età più avanzata e tutto questo disturba
l’analisi. Molto spesso inoltre, queste diagnosi o la definizione dei caratteri normali vengono fatti
sulla base di questionari multiscelta che il paziente compila da solo e anche se molti di questi sono
stati validati da anni di ricerche cliniche, non sono il massimo del desiderio. Ne consegue che se si
confrontano le diagnosi di vari specialisti sugli stessi soggetti, si constata che esse possono variare
anche di parecchio.
Inoltre la malattia può essere eterogenea, cioè può avere cause diverse. Capita infatti abbastanza di
frequente che lo stesso quadro clinico che definisce una malattia (o una sindrome) ereditaria si riveli
dovuto ad alterazioni in geni diversi. Anche questo confonde l’analisi, perché il linkage con una
regione cromosomica potrebbe essere evidenziato solo in un sottoinsieme di questi pazienti.
Tutto ciò contribuisce a rendere l’analisi difficile. Questo sia in campo patologico che in quello
fisiologico. Così non stupisce che sono stati riportati linkage positivi per schizofrenia, sindrome
maniaco-depressiva, omosessualità, autismo. Nel complesso però non vi è una grande concordanza
su questi risultati, e molti di essi, dopo una segnalazione iniziale sono stati messi in dubbio da studi
successivi. All’inizio degli anni novanta ad esempio, in uno studio che, per così dire, ha inaugurato
la genetica del comportamento, lavorando su una popolazione alquanto peculiare, gli Amish, era
stato riportato che un gene di questa sindrome mappava sul cromosoma X, ma questi risultati sono
stati completamente smentiti.
Negli anni novanta gli studi più sbandierati in questo settore sono stati quelli sulla schizofrenia,
sull’omosessualità e su una caratteristica denominata estroversione (“novelty seeking”). La
schizofrenia è una psicosi, di cui non si è riusciti a fissare una base anatomica, fisiologica o
83
iochimica certa; tuttavia vi sono alcune indicazioni che possa esservi una causa non puramente
psicologica della malattia, e pertanto essa sembrerebbe uno dei primi candidati per studi genetici. In
effetti, dei legami con alcune regioni cromosomiche sono stati stabiliti, il che ha fatto pensare che
questi geni esistano. Tuttavia essi non sono stati isolati e alcuni dati sono controversi.
Tuttavia si tratta pur sempre di una malattia grave, e la gente sarebbe ben disposta ad accettarne una
base genetica. Ma che dire dell’omosessualità ? Qui la gente molto spesso potrebbe invocare degli
eventi insorti durante la vita dell’individuo, delle esperienze negative. Vi sono è vero alcuni studi
che depongono per differenze anatomiche riscontrabili tra maschi normali e maschi omosessuali 129 ,
ma anche queste non sono conclusive e comunque potrebbero rappresentare una conseguenza e non
una causa. Così nel 1993, quando Dean Hamer, lavorando presso i National Institutes of Health di
Bethesda, riportò un linkage tra la regione cromosomica Xq28 e l’omosessualità maschile, il suo
lavoro ebbe una grande risonanza 130 . Due anni dopo gli stessi autori riportarono ulteriori dati a
sostegno della loro tesi 131 , ma nel 1999 un grosso studio di ricercatori canadesi ha messo in dubbio
questi risultati 132 . Chi abbia ragione, in questo momento non si sa.
Più o meno la stessa sorte è toccata ad un altro studio che aveva legato un carattere
comportamentale ad un gene che codifica per il recettore della dopamina. Nel 1996, due studi, uno
dello stesso Hamer, avevano sostenuto che chi è portatore di una particolare forma di questo
recettore ha una maggior probabilità di essere un individuo estroverso, uno che ama l’avventura, un
“novelty seeking” per gli inglesi 133 . Tre studi successivi però non sono stati in grado di confermare
questa associazione 134 .
Questi risultati, che possono per il momento essere considerati globalmente come negativi, tuttavia
non possono essere considerati come conclusivi. Non si può ancora concludere che questi specifici
tratti fisiologici o patologici non hanno una componente genetica. Né tanto meno si può escludere
tout court che non vi siano comportamenti geneticamente determinati. Come abbiamo visto si tratta
di studi assai difficili da compiere. Tuttavia la sequenza completa del Genoma Umano e la lista
129 Vedi ad esempio: S. LeVay: A difference in hypothalamic structures between heterosexual and
homosexual men. Science 253:1034-1037, 1991
130 D.H. Hamer et al: A linkage between DNA markers on the X chromosome and male sexual
orientation. Science 261:321-327, 1993. Vedi anche l’editoriale che accompagna l’articolo, assai
ottimista: Evidence for homosexuality gene. Ibidem p. 291.
131 S. Hu et al: Linkage between sexual orientation and chromosome Xq28 in males but not in
females. Nature Genet 11:248-256, 1995
132 G. Rice et al: Male omosexuality: absence of linkage to microsatellite markers at Xq28. Science
284:665-667, 1999. Vedi anche la discussione successiva in I. Wickelgren: Discovery of gay gene
questioned. Science: 284:571, 1999. Uno degli autori del lavoro di Science del 1999, l’esperto di
analisi di linkage Neil Risch aveva peraltro manifestato grossi dubbi anche in precedenza. Vedi la
corrispondenza sull’originale articolo di Rice in: Science 262:2063-2065, 1993
133 J. Benjamin et al: Population and familial association between the D4-dopamine receptor gene
and measures of novelty seeking. Nature Genet 12:81-84, 1996; R.P. Ebstein et al: Dopamine D4
(D4DR) exon III polymorphism associated with the human personality trait of novelty seeking.
Nature Genet 12:78-80, 1996
134 A.K. Malhotra et al: The association between the dopamine D4 receptor (D4DR) 16 amino acid
repeat and novelty seeking. Mol Psychiatry 1:388-391, 1996; E.G. Johnsson et al: Lack of evidence
for allelic association between personality traits and the dopamine D4 receptor gene
polymorphisms. Am J Psychiatry 154:697-699, 1997; D4 dopamine-receptor (DRD4) alleles and
novelty seeking in substance-dependent, personality-disorder and control subjects. Am J Hum
Genet 61:1144-1152, 1997
84
completa di tutti i nostri geni insieme ad una radicale semplificazione delle tecniche di
sequenziamento, consentiranno di testare numerosi geni candidati in un numero consistente di
pazienti. E’ possibile che fra una ventina d’anni si possa avere qualche dato più preciso su questi
problemi.
Non potrebbe l'altruismo vero essere invece totalmente frutto della cultura? Essere un
comportamento completamente appreso? In fondo, l'emergere dell'uomo ha prodotto numerosi
comportamenti che sono anti-evolutivi e che lo sono per motivi culturali. Ad esempio il calo delle
nascite è un'anormalità incomprensibile per i geni egoisti. I geni hanno prodotto una macchina che
gli si rivolta contro. Hanno portato al successo i polimorfismi dell'uomo bianco, ma come negli
scenari fantascientifici, questi replicanti (che siamo noi) vogliono liberarsi della schiavitù dei geni e
scelgono di farlo nell'unico modo possibile: il suicidio riproduttivo. Nemesi storica.
La relazione tra geni e comportamento, è un problema di grande interesse che coinvolge vari aspetti
della nostra vita. In parte verrà discusso anche a proposito del funzionamento cerebrale. Qui è
importante però far notare come il dibattito non può essere oscurato da considerazioni di tipo sociopolitico.
Queste considerazioni devono essere successive e non preliminari all’accertamento dei
fatti. In altre parole, prima c’è il problema se i geni dirigano o no il nostro comportamento, poi si
può riflettere sulle conseguenze sociali che questo comporta. Negare che i geni possano regolare i
nostri comportamenti perché alcuni potrebbero basarsi su questo fatto per giustificare il razzismo
dimostra un approccio errato al problema della conoscenza.
Rose, Lewontin e Kamin hanno scritto un libro di risposta alle tesi di Wilson e Dawkins: “Not in
our genes” 135 . Il titolo riassume assai bene il contenuto: i nostri comportamenti non sono predetti
dai nostri geni. Ma l’enfasi del libro è troppo messianica e poco scientifica. Non si può sposare una
tesi sulla base delle proprie convinzioni ideologiche. Se i geni svolgono un ruolo nella
determinazione del comportamento, ce l’hanno ci piaccia o no. Quello che si può fare onestamente
al momento è raccogliere dati a favore o contro le due tesi, perché oggi c’è un’unica risposta a
questa domanda: non sappiamo se e quanto i geni influiscano. E’ evidente, come abbiamo detto, che
i geni non determinano tutto né nel caso dell’uomo né nel caso dei mammiferi. Se uno nasce con
tutti i geni giusti per essere grasso ma nasce nel Ruanda o nel Biafra, è assai difficile che lo diventi,
almeno finché non cambiano le condizioni di vita in questi paesi. Parimenti, se uno nasce nelle
favelas ha scarsa probabilità di diventare professore universitario, ma se viene adottato la sua
probabilità aumenta. Ognuno di noi ha migliaia di casi analoghi nella sua esperienza. La maggior
parte degli scienziati è d’accordo che parte è dovuto ai geni e parte no, ma il dibattito è sulla
percentuale. Oggi questo è la sfida conoscitiva, quantificare queste percentuali. Per il resto si
scivola sulle asserzioni fideistiche o sulle dichiarazioni politiche che hanno rilevanza morale, non
fattuale.
Rilevanza filosofica
Secondo Dawkins e Wilson, il caso dell’altruismo è un caso particolare di comportamento, in un
framework in cui tutti i comportamenti umani sono scritti nei geni. E’ chiaro che questo problema è
di grande portata filosofica, nel senso in cui abbiamo definito filosofia. Infatti esso coinvolge il
problema del libero arbitrio, della colpa e del merito, del fato e del nostro destino. Infinite le pagine
letterarie e quelle filosofiche dedicate a questo problema. Ancora una volta i Greci hanno detto
tutto. E’ inutile che Teti si affanni a rendere invulnerabile il corpo del figlio, è scritto, ed Ettore
prossimo alla morte lo vede chiaramente, che Febo Apollo e Paride, malgrado il suo valore, lo
135 S. Rose, R. Lewontin, L. Kamin: Il gene e la sua mente. Arnoldo Mondadori Editore, Milano,
1983. Titolo dell’edizione originale: Not in our genes, edito nello stesso anno.
85
uccideranno alle Porte Scee. Come si vede, neanche agli dei è concesso di mutare il destino. Non è
solo il nostro destino fisico ad essere già scritto, ma anche le nostre azioni, i nostri atti di rilevanza
morale. Il destino di Edipo è già determinato alla nascita, è inutile che suo padre o lui stesso
cerchino di mutarlo. Che Edipo sia un uomo probo o una carogna, al fato poco importa, egli è
destinato a macchiarsi dei delitti più orrendi. Mutano i dettagli, il destino è scritto nei cieli piuttosto
che all’interno di noi nei nostri geni, ma il succo non cambia.
Qual è la posizione più realista su questo problema: il comportamento è completamente determinato
dai geni ? E’ assai improbabile che sia così. In primo luogo, vi è tutta una serie di studi che ha
ampiamente dimostrato l’influenza di fattori ambientali su una serie di comportamenti di cui il più
banale è l’intelligenza. Neanche questo elemento è geneticamente determinato, figuriamoci quelli
più complessi quali il libero arbitrio, la forza di volontà, la bontà, la gioia di vivere ecc. In secondo
luogo, il fenomeno del linguaggio è esemplare: noi ereditiamo presumibilmente una struttura che ci
rende idonei al linguaggio, che potrebbe benissimo essere avere una base anatomica e
neurofisiologica, ma è completamente assente dai geni prescrivere che parleremo l’inglese piuttosto
che il tedesco. Potremmo anche non parlare affatto, se non venissimo per ipotesi a contatto con il
linguaggio umano.
Potrebbe essere utile vedere cosa succede con un sistema strettamente determinato. Il suo
comportamento sarà monomorfo, le sue mosse saranno prevedibili ? Il sistema Deep Blue, che ha
recentemente battuto il campione mondiale di scacchi Gary Kasparov è completamente descrivibile
in termini di software, e potrebbe essere preso come esempio di un sistema completamente
determinato: del resto è una macchina, e molti sosterrebbero che le idee estreme dei sociobiologi ci
assimilano a questo. Dawkins dice appunto che noi siamo dei robot per la sopravvivenza dei nostri
geni. Ma chi potrebbe pensare di conoscere le mosse di Deep Blue ? impossibile, perché Deep
risponderà a seconda della mossa del suo avversario. Quindi, anche nel sistema geneticamente più
determinato, le sue mosse dipendono dagli stimoli che riceve dall’ambiente. Per i sistemi che
apprendono, lo sviluppo dipende da quello che incontrano. E’ difficile avere umani identici in
partenza per testare l’ipotesi, bisogna ricorrere ai gemelli monoovulari, ma anche in questo caso i
parametri non sono facilmente controllabili. Sarei veramente curioso di vedere due sistemi identici
che affrontano l’uno i migliori giocatori di scacchi del mondo e l’altro dei brocchi. Penso che ad un
certo punto non saranno più completamente uguali. Questo esperimento, facile da fare, fa pensare
che stimoli diversi producano personalità e comportamenti diversi. Figuriamoci poi se il sistema è
diverso già in partenza.
D’altro canto, è chiaro che i geni qualcosa controllano. Se si guarda all’estrema varietà di razze
canine, che appartengono pur tutte alla stessa specie, si deve concludere che il pessimo carattere del
bull dog (pitbull), qualche legame ai suoi geni ce lo deve pur avere. La varietà delle razze canine
può essere considerato un esperimento di natura (anche se l’uomo ha contribuito ad amplificare il
fenomeno), ed è lecito usarlo per trarre conclusioni.
E’ chiaro che se tutto fosse scritto nei geni, il nostro concetto di colpa e pena subirebbe delle
trasformazioni notevoli. Chi potrebbe più essere definito colpevole delle sue azioni ?
Un’implementazione in campo giuridico di questi principi, ora come ora, sarebbe assolutamente
impossibile, nessuna società complessa presumibilmente potrebbe rimanere in piedi. In realtà, nel
periodo successivo al secondo conflitto mondiale, si è diffuso ampiamente nell’opinione pubblica
una progressiva presa di coscienza dei limiti della responsabilità individuale nelle azioni.
Paradossalmente, le ragioni portate avanti per sostenere la non responsabilità erano di natura
opposta a quelle dei sociobiologi. Era l’ambiente a determinare le azioni dell’individuo, gli episodi
che avevano segnato la sua vita, dalla nascita in ambienti sociali disastrati fino alla sua crescita in
circostanze disperate. Ora questa conclusione è ampiamente accettata dall’opinione pubblica ed è
86
presa in considerazione nei processi, ma solo fino ad un certo grado. Non tutti quelli che nascono in
ambienti disastrati diventano delinquenti, quindi una parziale responsabilità personale rimane.
Altrimenti non varrebbe neanche la pena di fare i processi.
Ma sarebbe lo stesso se invece dell’ambiente in cui siamo cresciuti giungessimo alla conclusione
che è dai geni che deriva il nostro comportamento reale. Cosa ci potevo fare, sosterrebbe l’accusato,
sono nato col gene sbagliato. Come potete avere il coraggio voi, che siete nati con l’allele giusto, di
rinchiudermi ad Alcatraz, solo perché ho qualche nucleotide di differenza? Ma anche per i nati con
tutto il genoma a posto che soddisfazione ci sarebbe? Non solo non avremmo merito alcuno per le
nostre conquiste acquisite solo apparentemente con grande sacrifici, ma anche tutte le nostre azioni
più nobili non varrebbero nulla. Leonida si fa trucidare alle Termopili perché ha l’omologo del gene
della formica-guerriero, Pietro Micca perché era omozigote per il gene di “il rischio è il mio
mestiere” mentre Salvo d’Acquisto e Padre Kolbe avevano un gene che non consentiva loro di
tacere al momento opportuno.
Da un punto di vista pratico, la situazione diventerebbe insostenibile e dovrebbero intervenire tutta
una serie di stravolgimenti sociali che non sarebbero compatibili con la odierna società. Né sarebbe
giustificabile l’ottimismo di Dawkins secondo il quale noi siamo diventati ora in grado di fregare i
geni egoisti, perché tutto, anche questa capacità sarebbe già scritta nei geni.
87
Capitolo 5.
LA COSCIENZA
Quanto abbiamo detto sinora riguardava, da un punto di vista filosofico, il problema della realtà
esterna e di un ordinatore che si ponesse garante della sua esistenza e del suo ordine. L’altro grande
problema è quello di cercare di capire qualcosa sulla nostra individualità in mezzo al mondo. Qual è
la ragione della nostra peculiarità nel mondo animale, cui nel corso dei secoli sono stati dati i nomi
più diversi: personalità, coscienza, mente, anima, psiche, cervello, io, self, ego e superego e così
via. Problema anche storicamente filosofico per eccellenza, perché da quando il pensiero umano ha
cominciato ad essere tramandato, di queste cose si trova ampia traccia. Anzi, se ne trovano tracce
anche in epoca preistorica con ampie documentazioni su sepolture e cerimonie che presuppongono
una qualche teoria della mente e della capacità di sopravvivere dopo la morte.
Così, nell’antichità questo problema è stato affrontato in maniera che affermerei scientifica (cioè
valida, razionale, sensata), naturalmente per l’epoca. Quello che mancava erano le tecniche, ma
sarebbe assurdo far dipendere il senso di un problema dalla potenza delle tecniche. Secondo il mito
ristretto della scienza odierna, e delle ideologie ad essa correlate del neopositivismo e del
behaviorismo, tutto il capitolo della nostra personalità è privo di senso.
Il behaviorismo è spesso ritenuto l’applicazione delle dottrine neopositiviste al campo della
psicologia. In realtà, l’enunciazione teorica del behaviorismo fu effettuata in America
indipendentemente dal Circolo di Vienna, e si richiama semmai ai lavori della psicologia sovietica
sul condizionamento in psicologia animale. Il behaviorismo pensava che tutta la psicologia, che in
ultima analisi era lo studio del comportamento, potesse essere descritta in termini di stimolo e
risposta. Tutto quello che accadeva in mezzo, cioè (nel caso della psicologia umana) nella testa
della gente, non interessava a nessuno, essenzialmente perché, non potendosene parlare, bisognava
tacerne. Nei casi dei behavioristi più estremi, forse non esisteva neanche. Come fu detto di John
Broadus Watson, una delle figure principali del behaviorismo, la sua teoria sosteneva che egli non
aveva una mente.
Negli ultimi 40 anni, tuttavia, l’atmosfera a proposito della coscienza e dei problemi interconnessi si
è in parte mutata. Oggi, il behaviorismo è praticamente scomparso. Al suo posto c’è la “teoria
cognitiva”. Essa prende come oggetto di studio la coscienza. In realtà, quella del cognitivismo, più
che una disciplina o una teoria è un approccio. Si tratta di pensare che il problema della coscienza,
della personalità o come diavolo si voglia chiamarlo, è analizzabile con metodo scientifico. La
scienza cognitiva ha la sua galleria di antenati e le sue bestie nere, come ogni “ismo” che si rispetti
136 . Ha dei pregiudizi, ma ha anche un grande merito, che per certi aspetti la rende una scienza
simile a quella invocata nel primo capitolo: le va bene tutto. In effetti mette insieme intelligenza
artificiale e robotica, psicologia e bioimmmagini, neurobiologia e biologia molecolare, filosofia e
matematica e chi più ne ha più ne metta. Sarebbe addirittura quasi disposta ad accettare anche le
teorie di Freud, se fossero appena un po’ più rispettabili. L’unico escluso è il dualismo di Descartes,
che il cognitivismo aborre quanto la natura aborriva il vuoto.
136 Descartes è ovviamente lo spirito da esorcizzare. Gli empiristi britannici del XVIII secolo sono i
padri nobili. Più recentemente, si ritiene che il behaviorismo, che dominò la psicologia
anglosassone della prima parte del Novecento, abbia rappresentato il più grande avversario dello
studio scientifico della coscienza. Il behaviorismo venne superato tramite la convergenza di vari
fattori, che includevano non solo nuove scoperte e idee in psicologia, ma anche l’influenza di nuove
linee di ricerca quali appunto l’informatica, la neurofisiologia e la linguistica.
88
Pertanto siamo di fronte ad un esempio classico di quanto l’aggredibilità di un problema e l’idea che
se ne ha di esso sia funzione del tempo e dello spazio. Oggi la coscienza è un problema rispettabile
anche nel mondo anglosassone e vi sono degli ottimi corsi di laurea sull’argomento, gli studenti vi
si iscrivono e trovano posti di lavoro nelle più riduzioniste università americane. Parte di questa
rispettabilità è stata costruita sugli avanzamenti tecnologici, dei quali Democrito, Platone e
Aristotele non potevano disporre. Ma i problemi cui le scienze cognitive si rivolgono sono gli stessi
di duemila anni fa, e talora anche le soluzioni sono dello stesso tipo. L’innatismo delle idee di
Platone (che la nostra anima aveva contemplato nell’iperuranio) è così diverso dalla concezione di
Noam Chomsky che oggi postula una grammatica o una sintassi innata ?
Vi sono almeno due grossissimi filoni nelle scienze cognitive. Il primo è quello che cerca la
coscienza nella neurofisiologia, il secondo è quello che ritiene che la nostra mente possa essere
paragonata ad un ottimo computer. In pratica, il primo filone è costituito da scienziati che studiano
il funzionamento del cervello umano o animale con le tecnologie avanzate di tipo neurofisiologico o
neurobiologico, mentre nel secondo filone troviamo esperti di intelligenza artificiale, informatici,
matematici, fisici, robotisti (?) che cercano di far fare al computer tutto quello che sembra
specificatamente umano. Poi però vi sono filosofi che hanno un notevole addestramento in uno o
addirittura in tutte e due i campi, psicologi dell’evoluzione cognitiva, linguisti come Noam
Chomsky e i suoi eredi, medici che seguono pazienti con lesioni cerebrali selettive e chiunque altro
si voglia cimentare nel problema. I due filoni pertanto non sono affatto mutuamente esclusivi ed è
disponibile un vario campionario di pensatori ibridi. Naturalmente vi sono anche fieri avversari che
difendono tenacemente le proprie intuizioni o attaccano coraggiosamente le posizioni altrui.
Si può pensare che una cosa accomuni tutti questi pensatori e scienziati: l’avversione al dualismo.
Qui tuttavia è necessario fare una precisazione rilevante. Dal momento che tutti costoro sono fieri
avversari del dualismo cartesiano, si dovrebbe concludere che siano tutti monisti, cioè in questo
caso, materialisti. Certamente ad invocare homunculi, spiritelli o fantasmi, anime o menti
immateriali tra i seguaci del cognitivismo si sarebbe guardati di sbieco. Tuttavia questo non
significa che il dualismo non abbia sostenitori tra gli scienziati o che per lo meno non vi siano
numerose posizioni per così dire agnostiche. Per certi aspetti il cognitivismo si autodefinisce
monista e non accetta i dualisti, ma questo non esclude che i dualisti ancora esistano: certamente vi
è tutta una scuola psicologica che non si riconoscerebbe nel monismo materialista.
Le neuroscienze
L’ultima frontiera non è negli spazi siderali ma dentro di noi. Oggi si comincia ad investigare
qualche cosa di questo mistero, ma la complessità è tale che ci sentiamo sperduti. Mentre è possibile
pensare che un giorno tutto sarà risolto, oggi quello che possiamo dire del cervello, della mente,
della coscienza, della volontà e del libero arbitrio, è molto poco. Cos’è la coscienza, cos’è la mente,
gode essa forse dello stesso statuto delle idee platoniche ? Gli uomini muoiono, e le loro idee ?
Quali sono i rapporti tra mente e cervello ? Alla vaghezza dei termini e dei problemi si accompagna
l’assoluta mancanza di teorie esplicative del calibro di quelle che abbiamo visto nei capitoli
precedenti.
Non c’è un unico quadro ben sistematizzato dei fatti rilevanti a questo problema, ma vi sono
piuttosto dei risultati a macchia di leopardo, che rimangono purtroppo isolati senza che si riesca a
spingere le nostre conclusioni più in là. Tra questi abbiamo le ipotesi dell’intelligenza artificiale, lo
studio del linguaggio nei primati, le nuove tecnologie per l’indagine del cervello umano in vivo e
soprattutto la patologia umana.
89
Tra tutti i termini cui nel corso dei secoli ci si è riferiti al problema anima-corpo, l’unico che ci è
sufficientemente chiaro perché lo vediamo, lo tocchiamo, lo guardiamo al microscopio, è quello di
“cervello”. Quello che qui ci interessa comunque, non è lo studio del cervello in quanto tale, su cui
negli ultimi due decenni sono stati compiuti enormi passi avanti, basti ricordare lo studio delle
malattie neurodegenerative, quelli di neurobiologia cellulare e quelli di neurofarmacologia. Ad
esempio, la plasticità del cervello, ed in particolare della giunzione sinaptica, è stata dimostrata e
così pure l’esistenza di cellule staminali che potrebbero essere di grande interesse anche terapeutico.
I neurotrasmettitori e i loro recettori sono stati identificati con precisione attraverso la combinazione
di tecniche biochimiche, genetiche e farmacologiche. Lo sviluppo del sistema nervoso viene ora
studiato a livello del ruolo del singolo gene e le tecniche di inattivazione genica cominciano a dare
dividendi anche sul cervello e sul comportamento. Le basi biochimiche e genetiche della memoria
cominciano a venir elucidate. E’ prevedibile che grandi progressi verranno compiuti nei prossimi
decenni.
Quello che ci interessa è invece cosa si sa di quelle che sono le funzioni superiori del nostro
cervello. L’intelligenza e la memoria sono le più basse tra queste. In fondo le prove dell’intelligenza
degli animali fanno parte dell’esperienza quotidiana. Quanto alla memoria, è accettato anche a
livello popolare che quella dell’elefante sia migliore della nostra. Possedere una memoria enorme o
un’intelligenza sopraffina ci può essere utile, ma non ci risolve alcuno dei problemi filosofici di
vecchia data. Tuttavia è interessante notare come un tempo la memoria e il linguaggio fossero
ritenuti caratteristiche dell’anima e come invece oggi, come mostreremo, queste proprietà siano
soggette all’analisi scientifica in maniera soddisfacente.
Negli ultimi due decenni, lo studio del cervello si è avvalso di nuove tecnologie che hanno
terribilmente ampliato le possibilità di indagine. Lo studio delle funzioni del cervello soffre di un
notevole numero di complicazioni che non sono presenti nelle indagini su altri organi, tra queste: la
difficile accessibilità, l’impossibilità pratica di ottenere campioni di tessuto umani, il fatto che le
funzioni superiori si trovano solo nell’uomo e non possono essere studiate in animali da
esperimento ecc. A fronte di tutto ciò sta l’enorme complessità del problema di capire come
funzionano circa 100 miliardi di neuroni ognuno dei quali ha probabilmente da 100 a 1000
connessioni con altri neuroni. Malgrado ciò, oggi si sa molto di più di 20 anni fa sul cervello e
questo è dovuto a numerose tecnologie, alcune delle quali cominciano solo ora ad interagire: i
risultati di questa collaborazione tra varie discipline potrebbero essere estremamente interessanti.
Biologia molecolare e cervello
Vi sono vari modi di studiare il cervello e le funzioni superiori ad esso legate. Quello fornito dalla
moderna genetica si basa al momento sullo studio di base del funzionamento della cellula nervosa e
delle sue peculiarità, cioè della base per cui essa è diversa da altri tipi cellulari. Pertanto, si può
indagare la natura della sua peculiare membrana, i problemi legati alla formazione e alla migrazione
dell’assone 137 , i canali che si devono aprire e chiudere per permettere il flusso di ioni oppure il
legame del ligando che a loro volta provocano una cascata di segnali intracellulari che portano
all’attivazione di certe molecole ed eventualmente alla comparsa del potenziale d’azione, la
plasticità della sinapsi e tante altre cose a livello della singola cellula. Si può studiare i geni
coinvolti in tutte queste proprietà e cosa succede quando questi vengono interrotti.
137 L’assone o neurite è la ramificazione principale del neurone, il cavo, per così dire, con cui esso
trasmette l’impulso elettrico alle altre cellule. Fasci di assoni formano un nervo o comunque un
insieme di fibre che all’interno del cervello prende spesso il nome di proiezioni
90
Il problema principale del SNC è la sua organizzazione, i rapporti tra una cellula e l’altra, le loro
connessioni. La maggior parte di queste connessioni, che formano grandi fasci di fibre che vanno da
una regione ad un’altra all’interno del sistema nervoso centrale, sono determinate geneticamente e
sono presenti in tutti gli individui di una determinata specie. Su questa base di “hardware” si
inseriscono poi le esperienze del singolo, che determinano i comportamenti individuali. Ad
esempio, alcune complesse connessioni di base assicurano che il cane possa secernere acido
cloridrico alla vista della scodella del cibo, ma la particolare storia di un determinato cane può far sì
che esso secerna acido anche quando sente un suono particolare che al cibo è stato associato in sue
precedenti esperienze.
Gli studi di neurofisiologia e di neuroanatomia hanno stabilito una minuziosa mappa di moltissime
connessioni tra diverse regioni del sistema nervoso centrale. La definizione di queste vie
“proiettive” è stata una delle grandi fatiche della neurologia del XX secolo: oltre a stabilire le zone
dove alcune funzioni sono più o meno localizzate, è infatti importante stabilire le connessioni che
tra loro si instaurano. Queste indagini formano la base per comprendere i deficit che intervengono
in seguito a lesioni cerebrali. Nell’ultimo decennio l’analisi si è spostata verso la comprensione dei
meccanismi che regolano la formazione di queste vie durante lo sviluppo embrionario e la
descrizione avviene ormai a livello molecolare. Le connessioni tra regioni cerebrali dell’uomo
hanno delle caratteristiche peculiari specifiche della nostra specie, ma, come tutte le altre
caratteristiche strutturali degli altri organi, si sono evolute secondo le regole esposte nei capitoli
precedenti. Pertanto vi sono connessioni molto antiche conservate tra le varie specie ad indicare la
loro antichità, né più né meno come succede per i geni, la cui struttura generale è conservata anche
lungo un periodo di centinaia di milioni di anni, ma anche modifiche insorte recentemente, basti
pensare alla corteccia cerebrale dei primati.
La biologia molecolare oggi affronta anche questo genere di problemi, cercando di spiegarli a
livello delle singole molecole. In questo caso, uno dei problemi legato alla formazione delle
connessioni è il seguente: come fanno gli assoni di una regione a “sapere” dove devono
“proiettare”, cioè con quali cellule creare una connessione ? Prendiamo l'esempio del sistema
visivo, che nel topo è studiato in dettaglio. Le fibre nervose, provenienti dalle cellule della retina, si
raccolgono nel nervo ottico che si inserisce nel cervello a livello dell'ipotalamo per poi continuare il
percorso attraverso il talamo e terminare nel nucleo genicolato laterale, oppure proseguire fino al
collicolo superiore, situato nel mesencefalo. Il sistema visivo è completato dalla radiazione ottica,
cioé da fibre che collegano il nucleo genicolato laterale ed il collicolo superiore con la corteccia
visiva. A complicare la situazione è il fatto che per poter ottenere una visione binoculare è
necessario che ciascuno dei due occhi sia rappresentato anche nell'emisfero cerebrale opposto. Per
questo motivo parte delle fibre ottiche attraversano la linea mediana (decussazione) e parte invece
non l'attraversano mai, dando origine ad una struttura a forma di X che viene chiamata “chiasma”
ottico.
Come questo ordine sia creato e mantenuto sta anch’esso scritto nel DNA e nelle molecole che esso
codifica. Questo è stato dimostrato in vari modi mediante tecniche congiunte di ingegneria genetica
e di embriologia sperimentale, tra cui, soprattutto, la produzione di animali knockout, in cui le
molecole candidate per dirigere gli assoni al loro punto di arrivo sono state eliminate. Animali di
questo genere, carenti di una sola di una serie di molecole, mostrano migrazioni aberranti degli
assoni di vario genere, compresa l’incapacità a formare il fascio di fibre che costituiscono il nervo
ottico o a passare dall’altro lato della linea mediana. Questo non vale solo per le fibre ottiche e le
loro ulteriori proiezioni verso la corteccia visiva, ma è presumibilmente un meccanismo generale.
Un altro esempio del potere risolutivo della neurobiologia molecolare è dato dallo studio della
memoria. Questa proprietà è una delle caratteristiche neurobiologiche acquisite più precocemente
91
nel corso dell’evoluzione, essendo presente in tutti i vertebrati e in misura circoscritta negli
invertebrati (tanto che i primi studi sulle basi sinaptiche 138 della memoria sono stati compiuti su
neuroni di invertebrati). Vi sono almeno due livelli in cui la memoria può essere studiata, uno è
quello della neuroanatomia, che comporta l’identificazione delle strutture e delle connessioni ad
essa legate (vedi ad esempio i casi riportati in neuropatologia), l’altro è quello molecolare, cioè
delle molecole che regolano eventi che accadono nelle singole cellule che fanno parte di questi
circuiti.
Per lungo tempo si era pensato che la base molecolare della memoria potesse giacere nella
trasmissione sinaptica, cioè in quelle infinite connessioni che hanno luogo tra cellula e cellula.
L’ippocampo, che si trova nel lobo temporale, era pure stato coinvolto in quanto struttura
sovracellulare, nella memoria a lungo termine. Oggi si ritiene che alla base della memoria, sebbene
non si sappia ancora bene come, vi sia un fenomeno denominato “potenziamento sinaptico a lungo
termine” (long term potentiation, LTP), che consiste essenzialmente in un aumento della “forza”
della connessione sinaptica per cui l’intensità della scarica e la sua frequenza aumentano se la
sinapsi viene ripetutamente attivata (qualcosa del tipo “l’uso rafforza l’organo”). In realtà, la LTP
sembra essere una proprietà comune alla maggioranza delle sinapsi eccitatorie del cervello di
mammifero, e come tale presumibilmente è un meccanismo utilizzato per funzioni diverse, tra cui
appunto anche l’apprendimento e la memoria. Quest’ultima si instaurerebbe nell’ippocampo
mediante meccanismi che coinvolgono la LTP.
Anche il fenomeno della LTP è stato studiato intensamente negli ultimi anni facendo uso di
tecniche di neurofisiologia e dei topi knockout, e ha raggiunto il livello di descrizione che è quello
molecolare. Si ritiene oggi che essa richieda l’azione di un particolare tipo di recettori del
glutammato localizzati nella parte a valle della sinapsi (postsinaptica), la cui attivazione richiede la
depolarizzazione della membrana della cellula postsinaptica, che appunto è causata da ripetuta
stimolazione della sinapsi. L’attivazione di questi recettori (chiamati in sigla NMDA) provoca dei
cambiamenti nella membrana, consentendo l’entrata di alcuni ioni quali quelli del calcio e del sodio.
In seguito a questi cambiamenti viene attivata una kinasi, la protein kinasi calcio- e calmodulinadipendente
di tipo II, la quale a sua volta attiva una via metabolica che è di tipo generale che
consiste nella fosforilazione o defosforilazione di altre proteine specifiche. Il fenomeno pertanto si
riduce poi alla specifica implementazione nel tessuto neuronale di una via metabolica che viene
utilizzata in un’infinità di cellule dei vari tessuti (vedi per review nota 139 ).
Tecniche di imaging
Lo studio della cellula nervosa non esaurisce tuttavia tutti i tipi di indagine di neuroscienza, perché
attualmente non indaga l’aspetto dell’interazione tra neuroni ad un livello superiore. Essa va
combinata con gli approcci classici e innovativi della neurofisiologia e dell’imaging, quella serie di
tecniche che consentono di visualizzare parzialmente quanto avviene nel cervello quando noi lo
usiamo (e anche quando non lo usiamo).
Fino a una decina di anni fa, lo studio globale del cervello umano in vivo era praticamente
inesistente in quanto si poteva basare praticamente solo sull’elettroencefalogramma e sulla
138 La sinapsi è il punto in cui avviene uno scambio di informazione per via elettrica o chimica tra
due neuroni: essenzialmente, è il punto in cui l’informazione viene trasmessa da un neurone
all’altro.
139 R.C. Malenka & R.A. Nicoll: Long term potentiation- a decade of progress. Science 285:1870-
1873, 1999
92
scintigrafia cerebrale. Più recentemente la TAC, tomografia assiale computerizzata, ha aggiunto una
dimensione notevole nello studio delle patologie cerebrali, senza tuttavia aumentare di molto lo
studio del funzionamento del cervello in condizioni fisiologiche. D’altro canto, nell’uomo non era
possibile applicare in maniera pianificata le tecniche che venivano utilizzate sulla scimmia, perché
non era certo possibile praticare lesioni a scopo sperimentale o impiantare elettrodi nella testa delle
persone. Sebbene alcune di queste procedure siano stata applicate per motivi terapeutici, e i dati
ottenuti analizzati con grande attenzione, non era possibile investigare granché negli individui
normali. Ricordiamo ad esempio gli esperimenti compiuti da Penfield 140 , che stimolava la corteccia
di pazienti durante interventi a cranio aperto durante procedure chirurgiche eseguite per scopi
terapeutici.
Negli ultimi anni tuttavia molto è cambiato, grazie all’introduzione della PET, positron emission
tomography (tomografia ad emissione di positoni), e della risonanza magnetica funzionale (fMRI).
L’ideale per un neurofisiologo dovrebbe essere la possibilità di studiare in maniera incruenta il
comportamento di un singolo neurone. Sebbene ciò non sia ancora possibile nell’uomo, queste
tecniche sono un primo passo in questa direzione.
Il principio della PET (positron emission tomography, tomografia ad emissione di positroni), si basa
sul fatto che i neuroni quando sono attivati necessitano di energia. E’ pertanto possibile chiedere ad
un soggetto di eseguire una determinata operazione mentale e misurare il consumo di energia o
l’aumento del flusso sanguigno in una determinata area, o semplicemente vedere quali sono le aree
che consumano di più. Sembra logico pensare che tali aree siano coinvolte in quella determinata
funzione.
Anche la risonanza magnetica funzionale si basa essenzialmente sulla misura del consumo di
ossigeno e del flusso sanguigno. Tale tecnica tuttavia ha una maggior sensibilità e non fa uso di
composti radioattivi come invece fa il PET. E’ teoricamente possibile applicarle allo studio di
compiti di varia complessità, così da poter studiare gli eventi cerebrali quando vengono compiute
operazioni svariate, comprese quelle legate ai processi che sono in qualche modo legate alla
coscienza e agli atti di volontà.
Ad esempio, se prendiamo persone che hanno il cosiddetto “perfect pitch”, cioè una particolare
sensibilità alla musica che li rende capaci di riconoscere una nota musicale senza il diapason, si
constata che l’area che si attiva, durante l’esecuzione o l’ascolto di pezzi musicali, è più vasta di
quella di musicisti che non hanno tale capacità e ovviamente della gente normale 141 .
Questo sembra in buon accordo con la generale sensazione che nel cervello più un’area rappresenta
una funzione delicata più è sopra-rappresentata, basti pensare al fatto che la rappresentazione
motoria e sensitiva sulla corteccia cerebrale è disproporzionatamente grande per la mano e la faccia
rispetto ad esempio al tronco. In un altro studio interessante sono stati indagati persone che erano
bilingui dalla nascita e persone che avevano imparato una seconda lingua in età adulta. Differenti
aree venivano attivate nei diversi individui, il che fa pensare che il meccanismo di apprendimento di
una lingua nell’adulto interessi strutture diverse da quelle che sono normalmente attive in età
infantile 142 .
140 W. Penfield: The excitable cortex in conscious man. Liverpool, Liverpool University Press, 1958
141 G. Schlaug et al: In vivo evidence of structural brain asimmetry in musicians. Science 267:699-
701, 1995
142 K. Kim et al: Distinct cortical areas associated with native and second languages. Nature
388:171-174, 1997
93
Queste nuove tecniche possono essere applicate anche allo studio delle lesioni cerebrali. Le lesioni
da traumi, da accidenti vascolari o da processi espansivi sono terribili e causano enormi sofferenze e
mutilazioni. Mentre prima era necessario attendere la morte del paziente per poter documentare con
precisione la lesione cerebrale, oggi le tecniche di imaging consentono di studiare il malato mentre
è ancora in vita e soprattutto mentre gli sottoponiamo compiti che hanno a che fare con la funzione
danneggiata.
La Coscienza
Come abbiamo detto, oggi sembra che molti ritengano che si possa parlare della coscienza
scientificamente. Di nuovo dobbiamo notare come si stia facendo scienza partendo da un termine di
difficile anzi difficilissima definizione. Definire la coscienza non è facile, è presumibilmente un
termine primitivo, o per lo meno sinora deve essere usato come tale. Abbiamo sostenuto che la
coscienza di sé sia la caratteristica specifica dell’H.sapiens, senza la quale non saremmo qui a
discettare di scienza e filosofia. Pertanto possiamo solo sperare che con questo termine tutti
intendano la stessa cosa, cioè che esso sia correlato a “modificazioni cerebrali” omologhe in tutti o
quasi i cervelli.
Vediamo alcuni tentativi tesi, non dico a definire ma comunque a cercare un accordo che vada bene
ad alcuni o addirittura a molti.
John Searle distingue il problema della coscienza da quello della coscienza di sé. La coscienza può
essere affrontata in maniera scientifica, ma la coscienza di sé è una forma molto speciale di
coscienza, forse peculiare dell’uomo. Sembra di capire che quando sostiene che la coscienza è
studiabile scientificamente non vi comprende quest’ultima accezione. Searle definisce scienza e
filosofia più o meno come aveva fatto Auguste Comte, dicendo che
“Philosophy is in large part the name for all these questions which we do not know how to answer
in the systematic way that is characteristic of science…..science is systematic knowledge;
philosophy is in part an attempt to reach the point where we can have systematic knowledge” 143 .
In questo senso, secondo Searle, siamo ora al punto in cui la coscienza può essere analizzata in
maniera sistematica. D’altro canto, anche Searle non trova di meglio che rifarsi a una definizione di
senso comune quale
“those states of sentience or awareness that typically begin when we wake from a dreamless sleep
and continue through the day untill we fall asleep again, die or go into coma, or otherwise become
unconscious” 144 .
Siamo coscienti quando siamo non incoscienti. La coscienza c’è quando non c’è la non coscienza.
Non si tratta, come si può vedere, di definizioni particolarmente brillanti. Per Searle comunque, la
coscienza di cui si parla e che è scientificamente abbordabile, va tenuta distinta dall’attenzione
(perché ci sono tante cose di cui io sono conscio, ma a cui non presto attenzione) oltre che dalla
coscienza di sé.
143 J.R. Searle: How to study consciousness scientifically. Phil Trans R Soc Lond B 353:1935-1942,
1998. La citazione è a p. 1936.
144 Citato in P.E. Griffiths: Thinking about consciousness. Nature 397:117-118, 1999.
94
Due significati di coscienza sono presenti anche per Antonio Damasio, che sostiene con forza la
definibilità di coscienza, anche se alla fine comunque chiama in causa il dizionario 145 . Egli
distingue una coscienza “core” da una “extended”: la prima sarebbe sinonimo di “awareness”,
mentre la seconda sarebbe la vera e propria “consciousness”. Entrambe sono fenomeni interni della
mente, e la seconda dipende dalla prima. La seconda dipende dalla graduale formazione di una sorta
di “self autobiografico”. In un recente libro, Damasio sostiene che la prima è quella che noi
condividiamo con gli altri animali, mentre la seconda è un attributo specificatamente umano, o al
massimo condivisa con alcuni primati 146 . Oltre a ciò, Damasio è noto per sottolineare ripetutamente
come alla base della nostra scelte coscienti vi siano spessi aspetti per così dire emozionali, che
fanno parte integrante degli aspetti più elevati della coscienza 147 .
Secondo David J. Chalmers, il termine coscienza potrebbe riferirsi ad almeno due cose. Egli, a
proposito di coscienza parla di un problema facile e di un problema difficile 148 . Nel problema facile
ci sta una serie di problemi che le scienze neurobiologiche cominciano ora ad affrontare: prima o
poi questi problemi verranno risolti, secondo Chalmers, perché non c’è niente di intrinsecamente
diverso da altri problemi scientifici. Come esempi dei problemi che possono essere raccolti sotto la
dizione “facile”, abbiamo: come può un uomo discriminare tra i vari stimoli sensitivi e reagire a
loro appropriatamente?, come funziona la memoria in generale e la working memory in particolare,
come può il cervello integrare le informazioni che gli derivano da diverse fonti e dare una risposta
comportamentale appropriata? e tanti altri di questo tipo. Ma poi c’è il problema difficile: come i
processi fisici possono dare origine a esperienze soggettive? Egli sostiene che si tratta degli aspetti
più profondi del pensiero e della percezione. Difficili da definire, anche se si possono dare degli
esempi: ad esempio la sensazione che proviamo ad ascoltare alcuni pezzi musicali, ma si potrebbe
aggiungerne una serie infinita: quella che si prova davanti ad un paesaggio, ad un’opera d’arte,
durante una meditazione e così via. Sono questi che costituiscono il vero mistero della mente.
Chalmers propone di considerare la (versione “hard” della) coscienza come un dato fondamentale,
irriducibile, così come lo spazio ed il tempo sono in fisica concetti che vengono accettati così come
sono. Secondo Chalmers, una volta che su questo ci sia stato un accordo, è possibile affrontare il
problema duro della coscienza postulando leggi psicofisiche e metodi di varia natura, comprese
argomentazioni filosofiche, esperimenti di pensiero e descrizioni delle proprie esperienze
soggettive.
“I propose that conscious experience be considered a fundamental feature, irreducible to anything
more basic. The idea may seem strange at first, but consistency demands it. In the 19 th century it
turned out that electromagnetic phenomena could not be explained in terms of previously known
principles. As a consequence, scientists introduced electromagnetic charge as a new fundamental
entity and studied the associated fundamental laws. Similar reasoning should apply to
consciousness. If existing fundamental theories cannot encompass it, then something new is
required” 149 .
145 A.R. Damasio: Investigating the biology of consciousness. Phil Trans R Soc Lond B 353:1879-
1882, 1998
146 A.R. Damasio: The feeling of what happens: body and emotion in the making of consciousness.
Harcourt Brace, New York, 1999
147 A.R. Damasio: L’errore di Cartesio. Adelphi, Milano, 1995. L’edizione inglese è dell’anno
precedente. Come si vedrà più avanti, Damasio sostiene questa sua tesi attraverso lo studio di
pazienti con lesioni cerebrali.
148 D. J. Chalmers: The conscious mind: in search of a fundamental theory. Oxford University
Press, Oxford, 1996. L’edizione italiana è: La mente cosciente. McGraw Hill-Italia, Milano, 1999.
149 D.J. Chalmers: The puzzle of conscious experience. Sci Am dicembre 1995, p 80-86.
95
Anche per Roger Penrose, la coscienza non può essere ricondotta alle note leggi fisiche 150 . Per
Penrose, la mente può fare cose che i computer non riusciranno mai a fare, pertanto ci vogliono
nuove leggi che stanno alla base del funzionamento del nostro cervello. Speculando su quali siano o
possano essere queste nuove leggi, Penrose ritiene che esse possano avere qualcosa in comune con
la teoria quantistica della gravitazione, che deriverebbe da una mistura di meccanica quantistica e di
relatività generale. Penrose ha poi bisogno di una struttura dove queste leggi vengano implementate,
e pensa di averle identificate nei microtubuli, strutture proteiche che contribuiscono al citoscheletro
dei neuroni. Questi sarebbero abbastanza piccoli da poter essere influenzati da effetti quantici, e
grandi abbastanza da poter influire sull’intero neurone. Pur riconoscendo possibile un ruolo di
fenomeni di meccanica quantistica nel funzionamento del cervello e del neurone, l’ipotesi che essi
coinvolgano i microtubuli, derivata da un’idea dell’anestesista Stuart Hameroff, lascia
assolutamente indifferenti i neurobiologi.
Una distinzione tra due tipi di coscienza la pone anche Ned Block, che distingue la “access
consciousness” dalla “phenomenal consciousness” 151 . Che si debbano distinguere almeno due
gradi, o tipi, o livelli di coscienza lo pensa anche John Eccles, che pure è un dualista dichiarato. Egli
scrive:
“We can speak of an animal as conscious when it is capable of assessing its present situation in the
light of past experience and so is able to arrive at an appropriate course of action that is more than
a stereotyped instinctive response” 152 .
L’uomo ha il livello più alto di coscienza, perché ha un principio non materiale, un’anima
immortale, responsabile della coscienza di sé 153 . Ma anche gli animali hanno degli stati mentali.
Pur rigettando l’ipotesi estrema di D.R. Griffin, che sosteneva che anche gli insetti avessero una
coscienza 154 , Eccles sostiene che alcuni animali con un appropriato numero di neuroni nel loro
cervello, possono avere manifestazioni di coscienza del tipo inferiore.
Altri fanno uso delle metafore per cercare di definire la coscienza. Quella del cervello come un
computer, ad esempio, è, per certi aspetti, una metafora (per altri versi è un’ipotesi di lavoro
produttiva). Quella dell’homunculus è un’altra metafora, qualcosa come se nella testa vi fosse un
piccolo uomo che assiste al passaggio delle immagini su un video interiore: questa metafora non va
attualmente per la maggiore. Anche quella del teatro (global workplace) è un’altra metafora: la
coscienza sarebbe come una specie di luce brillante che viene proiettata sul palco tipo quella al cui
centro si materializza Mr Bean all’inizio dei suoi sketch. Questa luce rappresenta l’integrazione di
numerosi input in una singola esperienza conscia, che viene poi disseminata ad una vasta udienza,
proprio come succede a teatro 155 .
150 R. Penrose: Shadows of the mind: a search for the missing science of consciousness. Oxford
University Press, Oxford, 1994
151 N. Block: How can we find the neural correlate of consciousness? Trends neurosci 19:456-459,
1996
152 J.C. Eccles: Animal consciousness and human self-consciousness. Experientia 38:1384-1391,
1982
153 K. Popper & J.C. Eccles: The self and its brain. Springer Verlag, Berlino, 1977
154 D.R. Griffin. The question of animal awareness. Rockefeller University Press, New York, 1976.
Griffin attribuiva coscienza ad esempio alle api, sulla base della loro capacità di trasmettere
informazione con la loro danza.
155 B.J. Baars: Metaphors of consciousness and attention in the brain. Trends Neurosci 21:58-62,
1998
96
Tutti questi vaghi tentativi ci rafforzano nella convinzione che si possa e si debba parlare di
coscienza senza pretendere di definirla esattamente. Come abbiamo sostenuto, si possono studiare
fenomeni anche partendo da concetti confusi o non ulteriormente riducibili. Si può ad esempio
cercare di ricrearla. In effetti, tra tutte le metafore e le definizioni della coscienza e della mente, una
è quella che ha ormai raggiunto vari strati della popolazione: quella del computer. Secondo questa
visione, il cervello è l’hardware e la mente è il software.
97
Capitolo 6.
L’INTELLIGENZA ARTIFICIALE
L’eresia catara (continua) 156
Dopo la sua lezione magistrale rivolta essenzialmente agli impermeabili, il prof Lamis uscì
dall’Università. Aveva smesso di piovere ed un pallido sole lo accompagnò mentre si dirigeva verso
casa, in via Governo Vecchio. Mentre apriva la porta si sentì un impercettibile click, poi il
professore si cambiò le scarpe, salutò la moglie che ricambiò il suo saluto, poi si sedette a tavola.
“C’era tanta gente oggi a lezione, i miei assistenti devono aver raccontato in giro che avrei
mirabilmente confutato quel tedesco, così, malgrado la giornata piovosa, l’aula era piena”.
“Bravi ragazzi quei tuoi due assistenti. A proposito, il Ciotta ti ha cercato stamattina, appena eri
uscito”
“Sì, sono ancora giovani, ma hanno buona volontà. Certo, non so se faranno carriera. Purtroppo
oggi la critica è completamente esterofila, quei tedeschi poi la fanno da padrone. Forse dovrei
mandarli un po’ a Berlino o magari a Vienna. Anche la lingua del resto è fondamentale, metà della
critica e della filosofia è scritta in tedesco”.
“Certo, dovresti preoccuparti un poco della loro carriera, da noi, se non c’è un protettore, una
cattedra non la si può prendere. E forse dovresti essere meno critico con la critica, se non si fa un
po’ di public relation non si ottiene nulla. ”
“Non mettertici anche tu adesso” esclamò il professore, cui evidentemente l’osservazione della
moglie non aveva fatto piacere. “E poi, dopo la lezione di oggi, è chiaro che la mia fama crescerà e
prima o poi potrò sistemare anche loro”.
“Devi aver avuto una giornata molto stressante, caro. Prendi questi amaretti, che ti piacciono tanto.
Forse è meglio che vada a riposarti”.
“Hai ragione cara. Per fortuna che ci sei tu. Buona notte”.
“Buona notte”.
Si udì un piccolo click.
A qualche miglio di distanza.
“Che disastro, Vannicoli ! Per fortuna non se n’è accorto.”
“Già, per fortuna. E poi noi ci siamo spellati le mani per applaudire”.
“Ora sarà a casa dalla moglie. Chissà cosa si diranno. Del resto, deve essere un tipo strano anche la
moglie, non deve essere facile vivere con lui. Te lo immagini, doversi sorbire una lezione privata
sull’eresia catara. Io in effetti fino a poco fa pensavo che fosse celibe”.
“Ciotta, il professore in realtà è vedovo. La moglie è morta almeno venti anni fa”.
“Ma se le ho parlato proprio stamattina, per dirle appunto che avevo avuto un contrattempo”.
“Le hai parlato al telefono ?”
“Sì, per telefono”
“E cosa ti ha detto ?”
“Mi ha detto appunto che era la moglie e che gli avrebbe detto che avevo chiamato”.
Vannicoli guardò negli occhi il suo collega.
“Ciotta, quella è una macchina di Turing”.
“Una macchina di cosa ?”
“Una macchina di Turing”.
“Ah”
156 L. Pirandello: L’eresia catara. In: Novelle. XII Edizione, Edizioni Scolastiche Mondadori,
Verona, 1956; p. 141-154.
98
Di nuovo Vannicoli fissò il collega. “Vedo che non sai cos’è una macchina di Turing. Chiaro
esempio di separazione tra le due culture.”
“E cos’ è allora ?”
Racconto di Vannicoli
Alan Turing morì nel 1954, forse suicida. Nella sua breve vita aveva contribuito a rompere il codice
Enigma dei Nazisti durante la seconda guerra mondiale, ma il suo paese non ebbe un grande
riguardo per lui. D’altro canto la legge è uguale per tutti (si fa per dire). Qualche anno prima aveva
dato alle stampe un articolo innovativo in cui si poneva il problema se le macchine potessero
pensare. Dal momento che non si definisce facilmente cosa sia il pensiero, Turing sostenne che
bisognasse concludere che una macchina fosse in grado di pensare se si fosse dimostrata in grado di
superare una prova di imitazione che divenne poi nota come il “test di Turing”. Brevemente, se
mettiamo in una stanza chiusa un uomo e una macchina mentre un interrogatore sconosciuto sta
fuori dalla stanza, la macchina supera il test se l’interrogatore che pone le domande, ricevendone
risposte scritte, non riesce a distinguere chi è l’uomo e chi è la macchina.
Per lungo tempo la gente discettò se il test dell’imitazione fosse o no un test adatto allo scopo, se
cioè volesse significare che la macchina che lo superasse, pensasse per davvero. Se simulo un
uragano in un computer, si disse, non posso certo pensare che nel computer ci sia davvero una
tempesta. A parte questo, l’articolo di Turing rimane una pietra miliare nella storia dell’intelligenza
artificiale, anche se al momento in cui egli lo scrisse, i computer praticamente non esistevano.
“Forse tu non sapevi che in passato il professor Lamis è stato un grande studioso di intelligenza
artificiale. Ha passato quasi un ventennio lavorando al MIT. Poi però, dopo la morte della moglie,
preferì dedicarsi allo studio della storia del Cristianesimo. Diceva che gli interessava di più. In
realtà, avrebbe potuto diventare straricco con le sue conoscenze. Non ti sto a spiegare come ne sia
venuto a conoscenza, ma quella con cui hai parlato non è altro che un software che il professore ha
costruito, collegandolo ad una scheda sonora. Diciamo che è un CDrom, un videogioco, ma non per
lui, ovviamente. Per lui, in realtà, è tutto quello che gli rimane. Penso che non sarebbe in grado di
vivere senza quel software.”
“Ma come è possibile che nessuno se ne sia accorto?”
“Beh, in primo luogo, i computer ne hanno fatti di progressi. Deep Blue, in fondo, è già obsoleto. E
poi, il professore ha così pochi contatti… qualche telefonata della segreteria dell’università, magari
qualche studente che sta facendo la tesi… non fa vita sociale. Chi vuoi che si ponga il problema. E
poi, visto che lui è così strano, anche se si ottenesse qualche risposta non ben comprensibile dal
software, chiunque penserebbe che strambo lui, stramba anche la moglie.”
“Ma è legale tutto ciò?”
“Beh, penso che la morte della moglie sia stata tranquillamente registrata, ma all’epoca era in
America, pertanto qui nessuno sa che ella morì ”.
“Mi chiedo se l’abbia brevettato”
“Che cosa ?”
“Il suo software”
“Beh, i soldi non gli interessano. E poi, per brevettare dovrebbe comunque rendere pubblica la cosa,
e non credo che ne abbia voglia. A dire la verità, potrebbe anche essere che abbia rimosso tutto
quanto, e che forse ormai confonda il software con sua moglie. In fondo ha confuso gli
impermeabili con gli studenti, potrebbe confondere la moglie con un dischetto.”
“Brevetto a parte, sarebbe comunque un grosso affare commerciale. Pensa quanta gente sarebbe
disposta a pagare per avere il surrogato di un caro defunto. Altro che clonaggio, questo è molto più
pratico.”
99
“A beh, certo. Col clonaggio mica riesci a modellare una personalità a tuo piacere. Anche se tutti i
geni sono uguali, le esperienze di vita non potrebbero esserlo e se una farfalla ti sbatte le ali mentre
vieni al mondo, invece di Einstein diventi Jack lo squartatore. Invece un software, puoi farlo come
vuoi. Puoi metterci dentro tutti i ricordi belli, puoi eliminare i fatti spiacevoli, puoi anche
modificare un po’ la realtà. Il tuo interlocutore lo puoi addolcire come vuoi. E se proprio c’è
qualcosa che non va, puoi sempre fargli ulteriori modifiche.”
“Vedo già la sigla: “Custom Eternity”. E lo slogan: dopo i CD, i CE. Bill creperà dall’invidia. Il suo
monopolio sta per finire. Diventeremo ricchissimi. E non finisce qui. Lanceremo Eternet, una rete di
ex-defunti che popoleranno l’etere. La zia Giuseppina, nata 1893 dialogherà con la nonna
Teodolinda, nata 1901. Chissà cosa si diranno. Zombi virtuali. Venderemo i diritti a Steve, che ne
farà un film. Anche Jacques andrà in pensione. Basta con gli studi sui documenti. Gli storici del
3000 avranno accesso diretto alla vita quotidiana del ventesimo secolo. Gli potranno domandare:
come facevate a guardare 250 puntate di Baywatch senza vomitare ?”.
“Mi sembri proprio scemo. E poi non credere, ormai quella della mente su dischetto è una metafora
già sfruttata.”
“Ah sì ? Però ammettilo. Qui c’è un passo avanti. Qui sono in ballo i sentimenti più profondi
dell’uomo, quelli che rendono la vita degna di essere vissuta. Pensa, Giulietta si sveglia e scopre
che il suo Romeo, appena suicidatosi, in realtà è una macchina di Turing. Gli esce un filo dalla
bocca. Cosa pensi che faccia ?”
“Non saprei.”
“Si stacca la spina. Anche lei era una macchina di Turing e per breve tempo aveva sognato che un
vero mortale la amasse. Errore di sistema” 157 .
Il dibattito sulla macchina di Turing
Per molti anni si è affrontato il problema da due punti vista. Da un lato si discuteva animatamente
sul vero significato del test dell’imitazione, su cosa volesse veramente dire pensare e se il test
potesse veramente indicare, una volta superato, che la macchina realmente pensasse. Dall’altro, la
gente ha cominciato a fabbricare macchine via via più potenti che cominciassero a fare qualcosa di
più che semplici calcoli. Quest’ultima linea comprende anche la robotica, nel tentativo di introdurre
anche un’altra caratteristica umana nei computer, quella di poter non solo pensare ma anche agire.
E’ curioso pensare adesso che in realtà Turing nel suo saggio esaminava tutte le obiezioni contro la
sua tesi, superandole tutte tranne l’ultima. Rigorosamente parlando, pertanto, Turing nel suo
articolo concludeva che nessuna macchina avrebbe mai potuto superare il test dell’imitazione. Ma
qual è questa obiezione ? E’ l’obiezione del paranormale. Turing sembra partire dalla constatazione
che il paranormale esista sulla base del fatto che vi erano individui in grado di indovinare le carte
con una frequenza superiore a quella casuale. Tuttavia questo aspetto della personalità di Turing è
completamente dimenticato. In fondo, ai geni qualche stranezza si può perdonare.
La maggior parte degli addetti ai lavori oggi ritiene che la risposta al quesito di Turing debba avere
risposta affermativa. Naturalmente, la maggior parte dei non addetti ai lavori o non si pone neanche
il problema, oppure pensa che la risposta debba avere risposta negativa: no, i computer non
potranno mai pensare, non saranno mai come noi. Certamente la loro memoria è eccezionale, la loro
capacità di eseguire calcoli è stupefacente, ma noi siamo un’altra cosa.
157 La novella di Pirandello, di cui si simula la continuazione, è una delle più tristi dell’autore di
“Così è, se vi pare” e di “Sei personaggi in cerca d’autore”. Gran parte del dibattito sull’I.A. è fatto
discutendo su esperimenti e situazioni irreali o per lo meno surreali. Mi si concederà pertanto questo
intermezzo. Molti autori, quando si parla di I.A. passano dal piano del ragionamento a quello della
fantasia, e tutto questo capitolo risente in parte di questa atmosfera.
100
John Searle, un filosofo che si interessa di questi argomenti, è forse uno dei pochi addetti ai lavori
che ritiene che il computer non potrà mai pensare, non potrà mai essere cosciente. Searle ha
espresso il suo pensiero in vari libri ed articoli, tra cui uno del 1980 che ha suscitato un grande
dibattito 158 .
La natura dell’obiezione di Searle al test di Turing è semplicemente che non è un buon test per
decidere se la macchina pensa. Egli sviluppa questo argomento. Si fornisca ad uno che ignora
completamente il cinese, poniamo un italiano, due serie di fogli scritti in cinese insieme con una
serie di regole, scritte in italiano, che mettono in relazione il secondo pacco di fogli con il primo.
Gli si dia poi un altro pacco di fogli in cinese, insieme ad un’altra serie di istruzioni in italiano che
correlano gli elementi di questo terzo pacco ai primi due. Coloro che compiono questo esperimento
chiamano le istruzioni “programma” e le risposte in cinese che l’italiano dà sarebbe il test.
Supponendo che il programma sia scritto veramente bene e l’italiano sia sufficientemente astuto,
egli probabilmente passerebbe il test e noi concluderemmo che l’italiano sa il cinese, il che non è
vero. Parallelamente, la macchina nel classico test di Turing, passa il test e noi concludiamo
erroneamente che essa pensa. In realtà, anche se supera il test, il computer non pensa,
semplicemente manipola simboli senza comprenderne il significato, il che rivela che non pensa
come facciamo noi. Il computer per Searle è un ente sintattico ma non semantico, semplicemente si
limita ad applicare delle regole che qualcuno ha scritto per lui.
Più in generale, Searle ritiene che un computer non può essere cosciente perché non ne ha il “potere
causale”. Sembra di capire che questo sia dovuto al fatto che noi siamo biologici mentre la
macchina no:
“…perché io sono un certo genere di organismo con una certa struttura biologica (cioè chimica e
fisica), e questa struttura, in certe condizioni, è causalmente capace di produrre percezione, azione,
comprensione, apprendimento e altri fenomeni intenzionali. E la presente argomentazione vuole,
tra l’altro, affermare che solo qualcosa che abbia questi poteri causali potrebbe avere
quell’intenzionalità. Forse altri processi fisici e chimici potrebbero produrre gli stessi identici
effetti; forse, ad esempio, anche i marziani hanno l’intenzionalità, ma con cervelli fatti di materiale
diverso. Questo è un problema empirico, più o meno simile al problema se la fotosintesi possa esser
compiuta da qualcosa la cui chimica sia diversa da quella della clorofilla…..Le elaborazioni di
simboli formali non hanno di per sé alcuna intenzionalità; sono assolutamente prive di senso; non
sono neppure elaborazioni di simboli, perché i simboli non simboleggiano nulla. Per usare il gergo
dei linguisti, essi hanno una sintassi ma non hanno una semantica.”
Sembrerebbe pertanto di capire che si tratta di un problema di materiali. In effetti, Searle è un
monista, come tutti i suoi colleghi che credono nella coscienza dei futuri calcolatori, il suo dissenso
è limitato ai computer.
“Una macchina può pensare? La mia opinione è che solo una macchina possa pensare e anzi solo
macchine di tipo particolarissimo, cioè i cervelli e altre macchine dotate degli stessi poteri causali
del cervello. ….Qualunque altra cosa sia l’intenzionalità, essa è certamente un fenomeno biologico
e ha altrettanta probabilità di dipendere causalmente dalla biochimica specifica delle sue origini
quanto la lattazione, la fotosintesi e qualsiasi altro fenomeno biologico. A nessuno verrebbe in
mente che si possano produrre latte e zucchero eseguendo una simulazione al calcolatore delle
158 J.R. Searle: Minds, brains, and programs. Behavioral Brain Sciences, 3:417-457, 1980. Articolo
e dibattito sono pubblicati in italiano in: Menti, cervelli e programmi, un dibattito sull’intelligenza
artificiale. Milano, Clup-Clued, 1984.
101
sequenze formali della lattazione e della fotosintesi; ma quando si parla di mente, molte persone
sono disposte a credere in un miracolo del genere…” 159 .
Il dibattito pertanto è tra coloro che sostengono che il computer è o potrà diventare una mente e chi
asserisce che certe cose il computer non le può fare. La dottrina che sostiene a spada tratta le
capacità umane del computer è stata denominata teoria computazionale della mente, secondo la
quale la mente è un computer e un computer può essere una mente. Daniel Dennett è uno dei
maggiori sostenitori di questa identificazione. Per essi quello che conta non è tanto il substrato in
cui la mente è incarnata, quello che conta è l’organizzazione, che può essere implementata in
qualsiasi struttura, biologica e non. Gli avversari ribattono che durante la simulazione al computer
di un tifone, il computer non viene distrutto. Veramente, essi obiettano, riteniamo che la macchina
possa, secondo le parole di Turing:
“Essere gentile, piena di risorse, bella, cordiale, avere iniziativa, avere il senso dell’humour,
distinguere il bene dal male, commettere errori, innamorarsi, gustare le fragole con la panna, far sì
che qualcuno si innamori di lei, imparare dall’esperienza, usare le parole nel modo appropriato,
essere l’oggetto dei propri pensieri, avere un comportamento vario quanto quello umano, fare
qualcosa di realmente nuovo…” 160 ?
Molti ritengono di sì. In 2001 Odissea nello spazio, scritto nel 1968, Hal 9000, il computer di
bordo, dà i primi segni di paranoia. Uccide, come fece Caino all’alba dell’umanità. Diventa proprio
umano. L’ultimo sopravvissuto sull’astronave è costretto a disattivarlo, pur con dispiacere, anche se
ha tentato di uccidere pure lui.
“Dave, - disse Hal – non capisco perché tu mi stia facendo questo… Ho il più grande entusiasmo
per la missione…Stai distruggendo la mia mente…Diventerò infantile…Diventerò nulla…” 161 .
Il vero problema per noi non è l’I.A. ma la volontà artificiale, la bontà artificiale, la coscienza
artificiale. Il dibattito teorico si è avvalso spesso di situazioni di fiction come quella di Hal. Altri
tuttavia hanno intrapreso l’approccio pratico, di produrre computer sempre più sofisticati, per
dimostrare non a parole ma con i fatti la teoria computazionale della mente.
L’I.A.
Man mano che si va avanti, le capacità dei computer migliorano sempre più. Deep Blue ha
vendicato Deep Thought in un tempo assai più breve di quello in cui una volta i figli vendicavano i
padri. L’intelligenza artificiale non stupisce più nessuno. Oggi i computer gestiscono tutto, dalla
borsa di Wall Street all’illuminazione di Manhattan. Speravamo mostrassero qualche défaillance al
giro di boa del millennio, invece sono stati loro a farsi beffe di noi, facendoci aspettare con ansia
cosa succedeva a mezzanotte in Nuova Zelanda.
L’I.A. comunque non ci terrorizza più di un tanto. La regola è che una cosa cui siamo abituati non
fa paura. Noi siamo abituati ad attraversare le strade delle nostre jungle d’asfalto, che
presumibilmente terrorizzerebbero i nostri antenati, i quali al contrario dormivano saporitamente nel
159 Queste due citazioni sono prese dallo stesso articolo, nella traduzione che appare in D.R.
Hofstadter & D.C. Dennett: L’io della mente”. Adelphi, Milano, 1985; p. 354 e 359.
160 A.M. Turing: Computing, machinery and intelligence. Mind 59:443-460, 1950. La traduzione
italiana è presa da AA.VV. La filosofia degli automi. Boringhieri, Torino, 1965; p. 137.
161 A.C Clarke & S. Kubrick: 2001 Odissea nello Spazio. Longanesi & C., Milano, 1972; p.175. Il
libro è del 1968.
102
ezzo delle montagne infestate dai puma. Già adesso, chi fa più i conti a mano? O chi compara tra
loro le sequenze nucleotidiche con foglio e matita. Che i computer possano essere più intelligenti in
un settore specifico, non se ne preoccupa più nessuno. L’inventiva e l’immaginazione ci danno un
po’ più fastidio, e per questo consideriamo Kasparov un traditore: probabilmente non si è
impegnato abbastanza, se avesse riposato di più la sera prima del match decisivo, se si fosse
allenato meglio, se non avesse preso l’incontro sottogamba, non ci avrebbe fatto fare una tale
figuraccia. Possiamo rifugiarci nella poesia e nella musica, ma fino a quando? E se qualcuno ci
avesse già rifilato poesie, racconti o LP scritti o composti da una macchinetta ? Magari vi sono già
best sellers di computer e non lo sappiamo. Forse addirittura hanno scritto un libro di filosofia della
scienza. D’ora in poi pseudonimi e scrittori misteriosi devono essere aboliti, dovrà essere indicato
chiaramente nome e cognome dell’autore oppure dovrà essere specificata chiaramente la sigla della
macchina e il numero di serie.
Quello che rende l’I.A. assai interessante è il fatto che evolve con una rapidità estrema. Questo fa sì
che le varie opinioni sul rapporto fra uomo e computer possano rimanere tali solo per un periodo
breve. Vent’anni fa, sarebbe stato facile ritenere che gli scacchi fossero un gioco troppo complesso
per venir aggredito da un software 162 , ma questa rispettabile opinione oggi è superata. E così sarà
per altre. Tutte le rispettabili opinioni vengono presto messe alla prova. Dove sta la fantascienza e
dove la programmazione a 5 o 10 anni?
COG
Se Deep Blue può attualmente essere considerato il sistema o uno dei sistemi più avanzati nel
campo del pensiero, in quanto il gioco degli scacchi è visto come una delle più compiute
manifestazione di alcune qualità umane, come l’intelligenza, il ragionamento puro, la capacità di
eseguire decisioni difficili e di pianificare comportamenti, COG rappresenta attualmente il massimo
della robotica, cioè della scienza che, in senso molto lato, si propone di eguagliare la capacità di
agire dell’uomo in tutta la sua versatilità.
COG è un progetto che, a partire da alcuni anni (estate 1993), è stato implementato presso il
Massachusetts Institute of Technology 163 . Si tratta di un robot umanoide, un androide in nuce, che
non può camminare, ma che è in grado di muovere le mani, le braccia, la testa e gli occhi e può
ruotare le anche. I motori che consentono i movimenti hanno dei recettori di calore che informano
COG sul suo funzionamento, e che costituiscono un abbozzo embrionale di sensazione cinestesica
che hanno tutti i mammiferi, non solo l’uomo. La visione viene fornita da telecamere, le quali
possono muoversi a 360 gradi, mentre le informazioni sonore sono fornite da microfoni. Tutte le
162 Tuttavia gli addetti ai lavori sono sempre stati di un’altra opinione. Vedere per esempio la
seguente profezia di Norbert Wiener fatta nel 1964 (vedi. N. Wiener: Dio e Golem s.p.a.
Boringhieri, Torino, 1967; p. 31. L’edizione americana è appunto del 1964). “L’opinione generale
di quelli tra i miei amici che sono giocatori di scacchi di un certo livello è che i giorni degli
scacchi, come occupazione umana interessante, sono contati. Essi si aspettano che in un intervallo
di tempo compreso tra i dieci e i venticinque anni, le macchine capaci di giocare a scacchi avranno
raggiunto un alto grado di perfezione e allora, …questi cesseranno di interessare i giocatori
uomini”.
Nel 1989, dopo aver battuto Deep Thought, Kasparov così commentò: “I believe I’ll still be able to
beat any computer in 5 years and probably at the end of the century”. Citato in Science 246:572-
573, 1989 (Humanity 2, computers 0). Altri dichiararono: “He will lose to a computer within the
next 5 to 10 years” e “It will take about 4 years”. Praticamente erano tutti d’accordo.
163
Per un completo aggiornamento della situazione di COG, si può consultare il sito
http://www.ai.mit.edu.projects/cog.
103
informazioni sono elaborate da un sistema a multiprocessore composto da una multiplicità di
sottomacchine che, almeno in parte, possono comunicare l’una con l’altra.
Il progetto COG si basa su alcune assunzioni che erano, al momento in cui il progetto fu lanciato,
alquanto eterodosse, anche se oggi vi sono numerosi progetti che seguono questa linea di ricerca.
Non sappiamo ancora se questo nuovo approccio sarà veramente produttivo, e attualmente coesiste
con quello tradizionale, ma è nato come reazione ad alcuni empasse della strategia precedente.
Come spiega Andy Clark:
“Forse abbiamo semplicemente frainteso la natura stessa dell’intelligenza. Concepivamo la mente
come una sorta di congegno del ragionamento logico accompagnato da un cumulo di dati espliciti,
una serie di combinazione fra una macchina logica e un archivio di informazioni. Così facendo,
ignoravamo la circostanza che le menti evolvono per fare accadere le cose. Ignoravamo che la
mente biologica è, anzitutto, un organo deputato al controllo del corpo biologico. Le menti
producono i movimenti, e devono farlo in fretta: prima che il predatore vi raggiunga, o prima che
la vostra preda vi sfugga. Le menti non sono congegni disincarnati per il ragionamento logico” 164 .
Brooks, il padre di COG, sottolinea quattro di queste assunzioni: lo sviluppo (development),
l’interazione sociale (social interaction), l’incarnazione (embodiment e physical coupling) e
l’integrazione multimodale (multimodal integration). In parole semplici, i padri di COG ritengono
che non si deve porre una linea di demarcazione tra il corpo e la mente, e che bisogna far attenzione
ad alcuni aspetti della mente quale essa effettivamente si forma nell’uomo e nell’animale. La mente
non nasce già bell’e pronta, ma si sviluppa, si evolve nel corso della vita dell’individuo e si è
evoluta nel corso dell’evoluzione, quindi COG deve imparare man mano dalle sue azioni
(development). La mente umana non è in grado di svilupparsi in isolamento, tanto che senza
interazioni sociali il bambino rimane handicappato, basti pensare ai bambini-lupo che non riescono
più ad apprendere un linguaggio (social interaction). La mente non è separata dal corpo, anzi, non
solo il corpo media tutte le interazioni con l’esterno, ma esso stesso invia una serie di input
derivanti dal corpo stesso (cinestesi o propriocezione); pertanto non esistono menti assolute alla
Cartesio, ma devono essere incarnate (embodiment and physical coupling). Infine, sostiene Brooks,
non è detto che tutto sia centralizzato nella mente umana, anzi, gli esperimenti recenti sui
commissurotomizzati 165 , ci fanno pensare che vi siano livelli autonomi che non accedono al livello
di integrazione più elevato, ma che vengono perfettamente compiuti a livelli inferiori. Brooks
respinge l’immagine di un pianificatore centrale che sia al corrente di tutte le informazioni del
soggetto: un tale pianificatore probabilmente sarebbe improduttivo 166 .
Per certi aspetti, i padri di COG hanno subito l’influenza della critica di Searle. Se veramente un
sistema formale non potrà mai essere conscio, facendolo muovere, crescere, imparare, agire e
interagire, forse ci avvicineremo alla coscienza. Francisco Varela, uno studioso di neuroscienze,
164 A. Clark. Dare corpo alla mente. McGraw-Hill Italia, Milano, 1999
165 Vedi sezione su questo argomento nel prossimo capitolo.
166 Queste caratteristiche di base sulle quali si fonda il progetto COG sono ben esplicitate in: R.
Brooks et al: The Cog project: building a humanoid robot. Vedi sito:
http://www.ai.mit.edu/projects/cog/publications.html. Limitatamente all’ultima caratteristica, si
tratta di un problema assai generale. La parola d’ordine, molto in voga oggi, sembrerebbe essere
“decentramento”. Come in politica ed in amministrazione, si tratta di decentrare tutto quello che è
possibile decentrare, e di centralizzare tutto quello che va centralizzato. Con i sistemi viventi c’è un
giudice severo che decide in questa separazione dei ruoli, mentre in politica il giudizio sembra
spesso essere soggetto ad influenze tendenziose che ne minano l’affidabilità.
104
sembra essere di quest’idea. Per lui il cervello non è un calcolatore, ma la coscienza va studiata e
COG potrebbe un giorno arrivare allo stadio di un cagnolino 167 .
Il futuro prossimo venturo
Se son rose fioriranno. La bellezza dell’I.A. è che in un periodo di tempo relativamente breve i
progetti più strambi possono trasformarsi in realtà. Kismet è un altro robot, anch’esso sviluppato
presso il M.I.T. che esaspera, per così dire, l’importanza delle interazioni sociali per la formazione
della mente 168 . Esso (egli?) cerca l’interazione con gli umani, più o meno, nell’intenzione dei suoi
padri, come fanno i bambini. I bambini, non c’è dubbio, imparano dagli adulti, e per ottenere
l’attenzione dei loro genitori e parenti, hanno sviluppato tutta una serie di metodi che vanno dal
pianto micidiale, cui nessuno può resistere (non tanto perché ci si commuove, quanto perché si
spera di riuscire ad interrompere quel suono così sgradevole che penetra fino al midollo), ad una
vasta gamma di sorrisi e moine che risultano generalmente gradite persino allo stanco genitore.
Pertanto Kismet cerca di commuovere o sedurre gli umani che gli stanno intorno dotandosi di un
certo numero di “espressioni” che simulano rabbia, disgusto, paura, felicità o tristezza.
I soliti ricercatori del Media Lab del MIT stanno sviluppando anche computer che “sentono”
l’umore del loro utilizzatore 169 . L’idea ha i suoi aspetti pratici, nell’ambito, si sarebbe detto una
volta, di un razionale sfruttamento della forza lavoro, del tipo se Mozart fa fare più latte alle
mucche, mettiamo la filodiffusione nelle stalle. Ormai numerosi operatori passano tutta la giornata
al computer, e se al computer si affezionano almeno quanto ai loro cagnolini, saranno più
soddisfatti e lavoreranno meglio. A parte queste basse motivazioni, anche questo studio propone al
computer di fare qualcosa di più che meri calcoli e lo avvia verso una dimensione
(apparentemente?) umana.
Per quanto l’I.A. proceda ad un ritmo impressionante, come sa il povero Kasparov, purtroppo molte
cose sono ancora fantascienza. Il 2001 è praticamente arrivato, ma non abbiamo ancora un
computer paranoico. Cosa succederà in futuro? Scienziati e sociologi si pongono il problema della
futura interazione tra computer e umani. Quanto è scienza e quanto è fantasia? Se da un lato una
persona prudente potrebbe dire che è inutile parlarne perché è meglio aspettare ulteriori sviluppi
dell’I.A., molti altri ritengono che il ritmo è tale che se non discutiamo subito, ci troveremo
spiazzati. Comunque, visto che sono occorsi solo un centinaio d’anni a trasformare Verne in uno
scrittore preistorico, e che replicanti e guerre stellari sono ormai nel linguaggio di ogni bambino in
età prescolare, sarà bene vedere un attimino quello che ci aspetta (forse).
Un recente libro di un pioniere dell’I.A. si intitola: “The Age of spiritual machines” 170 . Secondo
l’autore, ben prima del 2050 l’informazione verrà immessa direttamente nei nostri cervelli tramite
connessioni neurali tra i nostri cervelli e le macchine. La distinzione tra umani e macchine non sarà
più netta. I computer saranno coscienti, anche self-coscienti. Il centenario della morte di Turing,
possiamo aggiungere, verrà festeggiato dalle macchine, che trasferiranno le sue ossa in un mausoleo
come quello di Lenin. O forse le macchine avranno sviluppato un senso estetico maggiore di quello
dei padri bolscevichi e Turing, martire del Computerismo, riposerà in una copia del Taj Mahal.
167 H. Kempf: Francisco Varela: le cerveau n’est pas un ordinateur. La Recherche 308:109-113,
1998
168 Per ulteriori notizie, consultare il sito: http:// www.ai.mit.edu/projects/kismet.
169 Per ulteriori notizie, consultare il sito: http:// www.media.mit.edu/affect/ac_research
170 R. Kurzweil: The age of spiritual machines: when computers exceed human intelligence. Viking,
New York, 1998
105
Successivamente, i nostri cervelli saranno connessi direttamente con i computer ed evolveremo
assieme. Chi sia umano e chi no, allora, non sarà più chiaro. I computer si fabbricheranno da soli, e
certamente non dimenticheranno di inserire emozioni nei software, almeno all’inizio, se non altro
per superare il complesso d’inferiorità che (solo inizialmente) avranno per gli umani. Poi quando il
computer per la prima volta farà morire un umano per salvare se stesso, anche questo complesso
verrà superato. In seguito a ciò i computer manifesteranno un complesso di Laio e alcuni di essi
dovranno dedicarsi al lavoro di psicanalista.
I computer, o i robot, erediteranno la terra 171 . Noi ci adatteremo, più o meno come gli Incas si sono
adattati ai conquistadores. Non avremo scampo, forse i più adatti di noi verranno messi a suonare il
violino o a combattere nel Colosseo. Altri, ingenuamente, pensano che invece ci sarà rispetto per gli
antenati. Finiremo – dicono - come i Lari e i Penati. In fondo, Enea non si caricò il vecchio Anchise
sulle spalle fuggendo da Troia in fiamme? I computer si ricorderanno che essi non sono altro che i
figli della nostra mente 172 . Ma, si sa, il rispetto per i genitori non va più di moda, al massimo,
invece che sugli altarini, ci metteranno all’ospizio.
O forse, come oggi va di moda, finiremo in un file. Tutto quello che ci passa nel cervello verrà
ricostruito su un dischetto e archiviato. C’è un libro molto bello, che racchiude come un’antologia
pezzi di bravura di vari scrittori e commenti degli autori. Il libro è arguto, profondo, interessante,
finemente umoristico, simpatico, piacevole e anche qualcos’altro 173 . Tutti dovrebbero leggerlo.
Molti degli articoli contenuti sono del tipo surreale, lanciano una situazione impossibile e poi la
svolgono con grande logica. Il problema ovviamente è se abbia o no qualche attinenza con la realtà.
Naturalmente, inframmezzate, ci sono argomentazioni di tipo classico, che aiutano a far apparire il
libro come un testo scientifico. Si tratta di arte, di fantascienza o di scienza ? Propenderei per la
prima soluzione. Da un punto di vista della discussione scientifica, non è chiaro cosa si possa trarre
da cervelli isolati, ma connessi al proprio corpo, o archiviati e replicati come un software (e i diritti
di copyright a chi vanno) e altre assunzioni piacevoli ma impossibili.
O è solo una questione di tempo?
171 M. Minsky: Will robots inherit the earth?. Scient Am ottobre 1994, p 109-113
172 H.P. Moravec: Mind children: the future of robot and human intelligence. Harvard University
Press, Cambridge (MA), 1988. Più recente, dello stesso autore: H.P. Moravec: Robot: mere
machine to trascendent mind. Oxford University Press, Oxford, 1998.
173 D.R. Hofstadter & D.C. Dennett: L’io della mente”. Adelphi, Milano, 1985
106
Capitolo 7.
GLI EFFETTI COMPORTAMENTALI DELLE ALTERAZIONI CEREBRALI
Nello studio dei fenomeni biologici umani hanno sempre avuto grande importanza quelli che
vengono spesso chiamati “esperimenti di natura”. In un esperimento pianificato dall’uomo, si muta
in genere una sola variabile per vedere l’effetto che fa. Nel caso degli esperimenti di natura, siamo
costretti a prendere quello che la natura ci offre, ma spesso essa sa essere veramente crudele con gli
individui e generosa con gli scienziati. Purtroppo è così. In tal modo numerose osservazioni sono
state fatte e le funzioni corticali superiori, come ebbe a chiamarle Alexander Luria 174 , possono
venir almeno in parte indagate studiando i pazienti che sono oggetto di questi disastri, anche se a
dire il vero, la natura in molti casi non c’entra per niente. Luria, che fu uno dei pionieri nello studio
delle lesioni cerebrali traumatiche e non, poté studiare numerosi casi in cui le lesioni erano state
causate dai conflitti bellici, in cui la crudeltà umana batte certamente quella della natura. In ogni
caso, dal momento che per molte funzioni superiori non esiste la possibilità di effettuare
esperimenti sugli animali, fino a poco tempo fa, prima cioè della comparsa delle nuove tecniche di
imaging, lo studio della patologia era l’unica possibilità per investigare questo genere di problemi.
In una maniera tale da lasciarci talora stupefatti per la stranezza e la bizzarria dei fenomeni che
riscontriamo da un lato e per gli spiragli che ci vengono aperti sul mistero della nostra psiche.
Le malattie ereditarie neurologiche
Le malattie ereditarie, ad esempio, sono esperimenti che ci permettono di studiare la funzione di un
singolo gene direttamente nell’uomo. Vi sono naturalmente delle malattie ereditarie che si riflettono
sulle funzioni corticali superiori. Molte di queste comportano numerosi deficit cerebrali, che sono
tuttavia solo una parte di un disturbo più generale. Altre ci danno un quadro generico di oligofrenia,
cioè di ritardo mentale. Tutte queste non sono di grande interesse, perché sono causate da geni che
sono attivi in molte cellule e il danno cerebrale che ne deriva nasce presumibilmente da un disturbo
metabolico che impedisce alla cellula nervosa di funzionare bene.
Prendiamo ad esempio la sindrome di Lesch-Nyhan. In questa malattia, i bambini nascono
apparentemente normali, ma dopo i 6 mesi di vita inizia a manifestarsi un ritardo dello sviluppo sia
motorio che intellettivo. Anche il comportamento diventa anomalo, vi è aggressività e tendenza
all’automutilazione. Il gene è noto (codifica per l’enzima HPRT), è espresso in tutte le cellule del
corpo, ma gli effetti più drammatici sono a carico del Sistema Nervoso Centrale (SNC). L’enzima è
coinvolto nel metabolismo degli acidi nucleici, ma non si capisce bene perché debba dare un danno
al SNC e tantomeno perché debba provocare quei comportamenti.
Recentemente è stato isolato il gene della sindrome di Rett, una malattia che colpisce
esclusivamente le femmine nella proporzione di circa una su diecimila e che presenta tra le altre
stimmate quella dell’autismo. Il fatto che colpisse solo le femmine ha fatto pensare che il gene
responsabile fosse sul cromosoma X, e che l’alterazione del gene fosse letale nei maschi che hanno
solo un cromosoma X (questo è quello che talora capita con i geni localizzati su questo
cromosoma). Anche in questo caso il gene coinvolto è attivo in tutte le cellule dell’organismo e la
sua funzione non è specifica per il sistema nervoso centrale 175 .
174 Alexander R. Luria, scienziato russo, ha condensato anni della sua ricerche in un libro che è un
classico. A.R. Luria: Le funzioni corticali superiori nell’uomo. Edizioni Giunti, Firenze, 1967
175 R.E. Amir et al: Rett syndrome is caused by mutations in X-linked MECP2, encoding methyl-
CpG-binding protein 2. Nature Genet 23:185-188, 1999
107
Quello che si ricava da queste malattie, in realtà, non è molto. Esse evidenziano dei difetti
funzionali nel metabolismo cellulare, ma non ci dicono molto sui processi che vengono alterati. Non
è possibile dire che i geni alterati sono i geni delle automutilazioni o dell’autismo, né più né meno
di quanto si possa dire che la distrofina, il gene alterato nella distrofia muscolare di Duchenne, è il
gene della deambulazione. Senza di esso la funzione del camminare non può venir svolta, e senza
l’HPRT il cervello non funziona normalmente, ma è chiaro che sono solo dei requisiti perché tutto
si svolga normalmente.
Vi sono poi delle malattie che sono più specifiche per forme comportamentali. Prendiamo il caso
della sindrome di Gilles de la Tourette 176 , una rara condizione in cui l’intelligenza è normale ma in
cui sono presenti numerosi movimenti abituali (spesso chiamati “tic”). A questi si associano
manifestazioni comportamentali più gravi (e più imbarazzanti per il soggetto e per chi gli sta
intorno) quali le imprecazioni involontarie ed esplosive e la pronuncia ripetitiva e compulsiva di
parolacce (coprolalia). Vi sono degli aggregati familiari, e questo suggerisce che potrebbero essere
coinvolti dei fattori genetici, peraltro al momento non individuati.
La narcolessia è una malattia che colpisce circa 1 su 2000 individui e che è caratterizzata da
improvvisi attacchi di sonnolenza e di perdita di tono muscolare (cataplessia). La base biologica
non è nota, anche se è stato notato che i soggetti narcolettici passano direttamente dallo stato di
veglia ad uno stato di sonno in fase REM senza passare in quella fase intermedia di sonno senza
REM. Ovviamente negli attacchi di sonno la coscienza non è più presente, mentre negli attacchi di
cataplessia la coscienza viene mantenuta. Curiosamente, la sindrome è presente anche negli animali,
ad esempio nei cani Doberman e Labrador. Il gene responsabile della narcolessia in questi due razze
canine è stato identificato 177 : si tratta del recettore per l’ipocretina (o orexina), anche se è ancora
troppo presto per dire come questo deficit genetico possa provocare la malattia. Tuttavia anche in
questo caso, per quanto affascinante sia il problema del sonno, specialmente in relazione all’assenza
di coscienza che ne deriva e al fenomeno dei sogni, non sembra che l’identificazione di questo gene
possa darci grandi indizi sul fenomeno della coscienza.
Una malattia genetica che può dirci qualcosa su una delle manifestazioni più specifiche della nostra
specie è la dislessia, un difetto assai circoscritto che si manifesta come una difficoltà a leggere e a
scrivere per cui i bambini affetti sono più indietro in queste capacità rispetto ai suoi coetanei. Non
hanno però alcuna difficoltà nel linguaggio, nel comprendere il significato delle parole e nel vedere
tutto ciò che non è un testo scritto. Il loro livello intellettivo, prima che si cimentino con il leggere e
lo scrivere, non risulta diverso da quello degli altri bambini, ma quando vanno a scuola cominciano
i problemi, non solo perché rimangono intellettualmente indietro, ma perché vivono ovviamente
tutta la vicenda con profondo dolore. Così una madre di un bambino dislessico descrive quello che
accadde a suo figlio quando cominciò ad andare a scuola:
“He went from being a happy child to being very unhappy, miserable, tearful, because he just
couldn’t understand why all those children around him could pick up this business of reading and
writing” 178 .
176 H.I. Kuschner: A cursing brain? The histories of Tourette syndrome. Harvard University Press,
Harvard, 1999
177 L. Lin: The sleep disorder canine narcolepsy is caused by a mutation in the hypocretin (orexin)
receptor 2 gene. Cell 98:365-376, 1999
178 J. Clayton. Lost for words. New Scientist, 24 aprile 1999, p. 27-30.
108
I bambini affetti da questa malattia sono oggetto di intensi studi da parte degli psicologi del
linguaggio, perché lettura e linguaggio sono comunque legati a filo doppio. In particolare, una delle
teorie oggi in voga, lega la dislessia a un deficit nella formazione di una connessione tra i grafemi
(le lettere) e i fonemi (definiti come le più piccole unità del sistema linguistico) 179 . Tuttavia questa
non è l’unica spiegazione possibile. Vi sono anche bambini raccolti sotto la sigla di “difetto
specifico del linguaggio” (“specific language impairment”, SLI), di cui molti, ma non tutti, con
concomitante dislessia, che hanno anch’essi intelligenza assolutamente normale nei test che non
richiedono l’uso del linguaggio, ma che hanno grandissima difficoltà ad usarlo. Forse delle
anomalie specifiche dell’udito sono alla base di questo disturbo, in quanto i bambini affetti hanno
difficoltà a distinguere toni che non siano sufficientemente intervallati tra loro 180 . Altri ricercatori
che hanno studiato una famiglia inglese affetta nell’arco di tre generazioni da disturbi del
linguaggio, suggeriscono che vi è un difetto selettivo del nucleo caudato, geneticamente
determinato 181 . Mentre questi disturbi sono ormai ampiamente riconosciuti anche nelle scuole,
meno riconosciuta è l’esistenza di bambini con difetti nel trattamento dei numeri (discalculia).
Come nel caso dei bambini dislessici, la discalculia, per quanto fastidiosa, non necessariamente
impedisce loro di essere brillanti e di svolgere lavori di alto livello intellettuale se la natura delle
loro difficoltà viene adeguatamente compresa 182 .
Come abbiamo accennato in precedenti capitoli 183 , la tecnologia dei topi “knockout” ci consente di
fabbricare modelli murini di malattie genetiche umane. Tuttavia, nel campo delle funzioni superiori
e dei comportamenti specificatamente umani, questa tecnologia ha dei limiti, dovuti al fatto che,
come abbiamo detto sopra, il cervello umano è assai diverso da quello murino, più di quanto, ad
esempio, il fegato o il polmone lo siano rispetto ai loro corrispondenti organi. Ciononostante, sono
stati segnalati alcuni risultati ottenuti con questo approccio. Ad esempio Mohn e collaboratori
sostengono che riducendo il numero di un particolare tipo di recettori per il glutammato (un
neurotrasmettitore) il topo manifesta comportamenti simili a quelli che nell’uomo vengono attribuiti
a soggetti schizofrenici 184 . Le difficoltà del trasferimento di queste conclusioni al campo umano è
tuttavia evidente a tutti.
Lesioni cerebrali con effetti comportamentali
Se quello che si ottiene dalle malattie neurologiche ereditarie per quanto riguarda la genesi delle
funzioni superiori è assai poco, un’enorme messa di dati è stata acquisita dallo studio di pazienti in
cui specifiche aree del cervello sono state danneggiate in seguito a traumi o accidenti vascolari.
Queste lesioni sono tanto più interessanti quanto più sono selettive, cioè limitate. Un grosso ictus
può provocare una paralisi, una difficoltà al linguaggio e un decadimento globale della capacità di
interagire con il mondo esterno ma è di scarso interesse per lo studio delle funzioni superiori perché
179 S.E. Shaywitz: Dyslexia. Scient Am, novembre 1996; p. 98-104
180 B.A. Wright: defects in auditory temporal and spectral resolution in language-impaired children.
Nature 387:176-178, 1997
181 K.E. Watkins: Functional and structural brain abnormalities associated with a genetic disorder of
speech and language. Am J Hum Genet 65:1215-1221, 1999
182 B. Butterworth: The Mathematical Brain. Macmillan, Londra, 1999. Ed it: Intelligenza
matematica. Rizzoli, Milano, 1999. Nel libro, tra l’altro viene discusso il caso della signora Gaddi,
che in seguito ad un ictus che le colpì il lobo parietale sinistro divenne incapace a manipolare
numeri superiori al quattro. Originariamente descritta in L. Cipolotti et al: A specific deficit for
numbers in a case of dense acalculia. Brain 114:2619-37, 1991
183 Vedi il capitolo 2 e il capitolo 4.
184 A.R. Mohn et al: Mice with reduced NMDA receptor expression display behaviors related to
schizophrenia. Cell 98:427-436, 1999.
109
il danno provocato è troppo esteso. Lesioni più localizzate invece possono ledere solo un’area
cerebrale ristretta, che può essere coinvolta nelle funzioni che associamo alla nostra personalità.
Come spesso ripetuto, ci limiteremo qui a quelle lesioni che ci dicono qualcosa sullo scopo del
nostro libro. Molte aree responsabili del movimento, della sensibilità, della visione, ecc sono state
definite accoppiando lo studio dei deficit riscontrati nell’uomo ai dati ottenuti mediante lo studio
nell’animale, ma il loro interesse per i nostri scopi è limitato. Quello che ci interessa, come abbiamo
già detto ripetutamente, non è un elenco di tutte le lesioni traumatiche del cervello, ma solo di
quelle che colpiscono le funzioni superiori, di cui appunto il linguaggio è una delle manifestazioni.
Anche il comportamento è una manifestazione delle funzioni superiori, almeno alcuni tipi di
comportamento, tra cui quelli che coinvolgono gli aspetti cosiddetti morali, affettivi, logici, volitivi
o decisionali. Il principio su cui questi studi si basano consiste nel definire all’autopsia il danno
cerebrale e correlarlo con i disturbi manifestati dal paziente. Se sono presenti molti pazienti con la
stessa sintomatologia, l’area implicata in quella particolare funzione deficitaria è data dalla minima
area in comune a tutti i pazienti.
A questo riguardo, storicamente, il risultato più notevole, indice insieme di un’eccezionale lucidità
concettuale e di un’elevata capacità di analisi, fu ottenuto il secolo scorso (1861), con la definizione
di un’area cerebrale deputata al linguaggio, l’area di Broca 185 . Si trattò veramente di una scoperta
seminale di grande interesse per vari motivi. In primo luogo fu la prima volta che si collegava un
danno in un punto preciso del cervello ad una funzione superiore: questo era importante in se stesso
e alla luce della diatriba dell’epoca se le funzioni fossero localizzate o diffuse a tutto il cervello. In
secondo luogo suggerì che il cervello poteva venir studiato in maniera sistematica e che, almeno in
teoria, era possibile sperare di comprenderlo.
Nel mondo anglosassone viene spesso riportato il caso di Phineas Gage come quello che stimolò lo
studio dei rapporti tra comportamento morale e cervello 186 . Nel 1848 Gage è un operaio
venticinquenne che lavora alla costruzione di una linea ferroviaria nel Vermont. Il suo compito è
quello di sistemare le cariche per far esplodere le rocce. Ma un giorno Gage subisce un incidente
assolutamente inusuale: mentre sistema una carica esplosiva picchiando sul terreno con una sbarra
di un metro del peso di 6 kg, inavvertitamente ne causa l’esplosione: la sbarra, trasformata in un
enorme proiettile, gli attraversa letteralmente il cranio.
185 E’ veramente interessante vedere come questa scoperta ebbe luogo. Nel 1825, Jean-Baptiste
Bouillaud aveva proposto che il linguaggio fosse controllato dai lobi frontali. Nel 1861, Simon
Alexandre Ernest Aubertin, genero di Bouillaud, presentò una memoria all’Accademia di Francia in
cui analizzava un paziente che aveva tentato maldestramente il suicidio. Il colpo di pistola gli aveva
solamente portato via un pezzo di cranio, mettendo in luce parte del cervello. Comprimendo
dolcemente il lobo frontale mentre il soggetto parlava, questi si interrompeva, finchè la pressione
non veniva rimossa. Stimolato da questi risultati, Paul Broca eseguì l’autopsia di malati afasici (che
cioè non riuscivano più a parlare in seguito a lesioni da ictus), riscontrando quasi costantemente una
lesione nella parte posteriore della terza convoluzione cerebrale dell’emisfero sinistro, che da allora
prese il suo nome (area di Broca). Un’afasia di tipo diverso è dovuta invece ad una lesione dell’area
di Wernicke, situata più posteriormente, sempre nell’emisfero sinistro, riportata da Karl Wernicke
nel 1874.
186 Questo caso introduce almeno due libri che parlano di questi argomenti. Vedi C. Blakemore:
Mechanics of the mind. Cambridge University Press, Cambridge, 1977; e A.R. Damasio: L’errore
di Cartesio: Emozione, ragione e cervello umano. Adelphi, Milano, 1995. Si trova citato in
moltissimi manuali di neurologia e in articoli scientifici.
110
Straordinariamente Gage sopravvisse. La sua personalità tuttavia mutò completamente. Mentre
prima veniva descritto come un uomo di grande efficienza e capacità, e perfettamente responsabile
del lavoro che eseguiva in maniera esatta e precisa, in seguito divenne irriconoscibile anche ai suoi
amici e famigliari, non riuscì a riprendere il suo lavoro, vagò per lunghi anni per gli Stati Uniti e
finì miserevolmente. Il dottore che lo visitò e che poi rimase in corrispondenza con la sua famiglia,
così lo descrive:
“His physical health is good, and I am inclined to say that he has recovered… The equilibrium or
balance, so to speak, between his intellectual faculties and animal propensities, seems to have been
destroyed. He is fitful, irreverent, indulging at times in the grossest profanity (which was not
previously his custom), manifesting but little deference for his fellows, impatient of restraint or
advice when it conflicts with his desires, at times pertinaciously obstinate, yet capricious and
vacillating, devising many plans of future operation, which are no sooner arranged than they are
abandoned… In this regard his mind was radically changed, so decidedly that his friends and
acquaintances said that he was ‘no longer Gage’” 187
Sulla base della descrizione della ferita effettuata dal dr Harlow e di una recente ricostruzione che
ha elegantemente confermato le precedenti conclusioni 188 , si può affermare che la sbarra di ferro
danneggiò i lobi frontali di entrambi gli emisferi. Si trattò di una delle prime dimostrazioni che
danni ai lobi frontali possono modificare notevolmente la personalità di un individuo. Questo venne
confermato poi da numerosi studi di lesioni ai lobi frontali e persino da interventi di resezione
completa dei lobi frontali (lobectomia frontale) o di lesione chirurgica di piccole zone di sostanza
bianca situate in profondità di entrambi i lobi frontali (leucotomia, da λευκοσ, bianco), che
divennero relativamente diffusi a partire dagli anni trenta, allo scopo di trattare severi disturbi
comportamentali. Oggi tali interventi sembrano completamente fuori luogo 189 , ma i risultati ottenuti
con l’indagine neurologica e psicologica di tali pazienti sono di una certa rilevanza.
Il neurologo Antonio Damasio ha raccolto all’Università dello Iowa presso cui lavora un registro di
oltre 2000 pazienti con lesioni cerebrali limitate. Nel suo libro “l’Errore di Cartesio”, che
187 Il dr John Harlow ha descritto il suo paziente in due successivi articoli pubblicati a distanza di 20
anni. Vedi: J.M. Harlow: Passage of an iron rod through the head. Boston Medical Surgical J
39:389-393, 1848; e: Recovery from the passage of an iron bar through the head. Publication of the
Massachusetts Medical Society 2:329-347, 1868. Al momento dell’incidente la sbarra aveva
lasciato un buco di 9 cm che sembrava non dovesse lasciargli scampo.
188 La sbarra e il suo cranio sono conservati al museo della Scuola Medica di Harvard. Basandosi su
questi reperti, e utilizzando moderne tecniche di ricostruzione di immagine del cervello, Hanna ed
Antonio Damasio con i loro colleghi hanno potuto ricostruire il danno subito dal cervello di Gage.
Vedi: H. Damasio et al: The return of Phineas Gage: clues about the brain from the skull of a
famous patient. Science 264:1102-1105, 1994
189 Oggi l’idea di distruggere una gran parte del cervello per indicazioni diverse da quelle
oncologiche o, al limite, per disturbi precisi come l’epilessia sembra completamente assurda.
Tuttavia il premio Nobel del 1949 venne appunto assegnato a Egas Moniz, l’antesignano degli
interventi di leucotomia e lobotomia eseguiti per scopi, diremmo oggi, di psicochirurgia, cioè di
tentativi di risolvere problemi quali ansia, paura, depressione, aggressività o altri mediante
interventi chirurgici sul cervello. Oggi, queste operazioni vengono considerate solamente interventi
da macellai, anche se la resezione di tumori che coinvolgono parti del cervello può talora
coinvolgere, per necessità, i tessuti adiacenti, che peraltro, spesso, sono già stati danneggiati dal
tumore (vedi ad esempio il caso di Elliot). Per ironia della sorte, per giustizia divina, per nemesi
storica o semplicemente per caso, il Dr Moniz fu oggetto di un attentato da parte di un suo paziente
che lo lasciò parzialmente paralizzato.
111
popolarizza i suoi studi su pazienti con alcuni tipi di disordine della personalità, egli riporta
numerosi casi simili a quelli di Gage. Alcuni di questi, ricavati dalla letteratura, hanno rappresentato
casi emblematici, qualcuno direbbe paradigmatici. Damasio descrive poi ampiamente anche un caso
che lui stesso ha potuto seguire e studiare nei dettagli.
“Elliot era stato prima un buon marito e un buon padre; aveva avuto un impiego in un rinomato
studio legale, e ovunque aveva rappresentato un modello, per fratelli e colleghi. Aveva raggiunto,
insomma, una condizione invidiabile, sia personale sia professionale e sociale. Ma a un certo punto
la sua vita cominciò a disfarsi. Era assalito da violenti mal di capo, e concentrarsi gli riusciva
sempre più difficile; inoltre, con il peggiorare della sua condizione, sembrava perdere ogni senso
di responsabilità, cosicché il suo lavoro doveva essere completato o corretto”.
Si scoprì che il paziente aveva un tumore al cervello che comprimeva i lobi frontali: il tumore venne
escisso, tuttavia si dovette rimuovere anche parte del tessuto dei lobi frontali. Il paziente, dal punto
di vista oncologico, guarì completamente, ma la sua personalità risultò notevolmente mutata.
“Non si poteva far conto su Elliot perché eseguisse un’azione appropriata quando ce lo si
aspettava. Si comprende, quindi, come egli perdesse il lavoro, dopo che ripetuti consigli e richiami
da parte di colleghi e superiori erano rimasti inascoltati….Non più legato ad un impiego regolare,
si lanciò in nuovi passatempi e affari rischiosi….Finì con l’inevitabile bancarotta, nella quale perse
tutti i risparmi che vi aveva investito. …La moglie, i figli e gli amici non riuscivano a capire come
mai una persona tanto accorta, e per di più opportunamente preavvertita, potesse agire in modo
così sciocco. Vi fu un primo divorzio, seguito da un breve matrimonio con una donna che né la
famiglia né gli amici approvavano; quindi un altro divorzio. …Sotto certi aspetti, Elliot era un
nuovo Phineas Gage” 190
Sembra pertanto che nel lobo frontale siano situate delle strutture che sono preposte alle decisioni.
Prendere giuste decisioni viene considerata una caratteristica positiva della personalità. Elliot e altri
pazienti con simili lesioni, al contrario, non sanno prendere giuste decisioni, neanche quelle che
sono più evidenti. In effetti molti di questi pazienti sembrano apatici rispetto a quanto accade
intorno a loro. In un altro studio, il gruppo di Damasio ha esaminato pazienti con lesioni frontali,
sottoponendoli ad un test che ha evidenziato come questi pazienti siano deficienti nell’intuizione,
cioè nella capacità di conoscere qualcosa senza un ragionamento conscio. Questi pazienti furono
posti davanti alla scelta tra girare delle carte che davano loro un premio di 100$, ma che spesso
facevano perdere una grande somma di denaro, o carte da 50$ che saltuariamente facevano perdere
solo piccole somme. La strategia giusta era quella di scegliere le carte da 50$. Gli individui normali
cominciarono a fare le scelte appropriate prima di rendersi conto di quale fosse la strategia
vantaggiosa, mentre i pazienti con lesioni prefrontali continuarono a fare scelte svantaggiose anche
dopo aver conosciuto la strategia migliore. Inoltre, utilizzando un test di risposta cutanea al
passaggio di corrente (“skin conductance response”), che rivela un coinvolgimento emozionale
davanti a decisioni dubbie, si constatò che, mentre i soggetti normali manifestavano questa risposta
prima di girare una carta rischiosa, nulla succedeva nei malati, neanche dopo numerosi tentativi
sbagliati. Gli autori concludono che negli individui normali, elementi inconsci guidano il
comportamento prima che la coscienza intervenga 191 .
190 A.R. Damasio: L’errore di Cartesio. Emozione, ragione e cervello umano. Adelphi, Milano,
1995; pag 74-76
191 Bechara et al: Deciding advantageously before knowing the advantageous strategy. Science
275:1293-1295, 1997
112
Lo studio dei pazienti paradigmatici, dei molti altri con lesioni spontanee da ictus o traumatiche,
nonché di quelli in cui vennero effettuati interventi di lobectomia, di leucotomia o di resezioni più
limitate, hanno portato a stabilire un certo consensus che può essere, per gli scopi che ci riguardano,
così riassunto. Vi sono lesioni dei lobi frontali che lasciano sufficientemente intatte le capacità
linguistiche e motorie e funzioni quali l’intelligenza, la memoria, la capacità di eseguire calcoli o di
giocare a dama. Al contrario, come abbiamo visto, queste lesioni provocano dei cambi della
personalità che possono gettare nello sconforto le rispettive famiglie, quali perdita dell’iniziativa e
della spontaneità, un’inerzia sia nel pensiero che nell’azione, l’incapacità di pianificare la propria
attività, di risolvere i problemi e di prendere decisioni adeguate, la perdita di interesse sia per il
proprio lavoro che per altre attività che in precedenza venivano svolte, la manifestazione di aspetti,
quali il turpiloquio, che prima erano assenti, l’impoverimento affettivo e così via. Chi era vicino al
malato, come abbiamo visto, è portato a concludere che “non è più lui”. La reazione che suscita è
quella di compassione, purché si riesca dopo un certo tempo ad accettare che non è colpa del
soggetto quello che gli succede.
Queste conclusioni sono state tratte dallo studio di pazienti adulti, i quali, in seguito alla lesione,
sono difettosi nel loro comportamento morale, ma che tuttavia mantengono a livello conscio gli
standard sociali e morali che hanno acquisito durante la loro vita. Ma cosa succede se la lesione
frontale avviene in giovanissima età? Molto recentemente, il gruppo di Damasio ha riportato i
risultati dello studio di due pazienti in cui le lesioni prefrontali insorsero prima dei 16 mesi di età.
Pazienti così giovani con lesioni di questo tipo sono rarissimi. Questi due pazienti, che oggi hanno
più di 20 anni, hanno manifestato problemi di ordine morale assai più gravi di quelli manifestati
dagli adulti. Ovviamente non si può escludere che il loro comportamento possa essere dovuto ad
altri fattori, tuttavia va notato che la loro situazione famigliare e ambientale era buona e che i loro
fratelli si svilupparono normalmente. Gli autori si pongono il problema delle origini del
comportamento morale e sociale e sottolineano che questi due pazienti hanno alcuni caratteri in
comune con gli psicopatici 192 .
La lesione bilaterale dell’amigdala, una struttura sita nel lobo temporale, dà anch’essa dei disturbi
notevoli del comportamento emozionale e sociale. Questa regione situata nel lobo temporale è stata
da tempo implicata nel controllo delle emozioni sulla base di studi di lesioni provocate negli
animali o insorte spontaneamente nell’uomo 193 . La paziente S.M. ad esempio, che aveva subito un
danno bilaterale all’amigdala, aveva una normale intelligenza e poteva identificare perfettamente le
persone dalle fotografie. Tuttavia aveva una certa difficoltà a riconoscere certe emozioni mostrate
dalle facce delle fotografie stesse. Era in grado di riconoscere la felicità, la tristezza e il disgusto,
ma non la rabbia o la paura 194 . Inoltre, in uno studio che ha coinvolto altri due pazienti con un
simile deficit, tutti e tre i malati non riuscivano a compiere un adeguato giudizio sociale su altri
individui. In particolare essi definivano come affidabili facce che i soggetti normali catalogavano
come assolutamente inaffidabili e indegne di fiducia 195 . Tuttavia quando le persone venivano
descritte con aggettivi o come soggetti di breve storie, i tre pazienti erano in grado di emettere
giudizi precisi. Evidentemente, i concetti relativi all’affidabilità di una persona erano ancora
192 S.W. Anderson: Impairment of social and moral behavior related to early damage in human
prefrontal cortex Nature Neurosci 2:1032 – 1037, 1999
193 N.H. Kalin: The neurobiology of fear. Scient Am 268:94-101, maggio 1993; M. Davis: The role
of amygdala in fear and anxiety Ann Rev Neurosci 15: 353-375, 1992; J.P. Aggleton The
contribution of the amygdala to normal and abnormal emotional states. Trends Neurosci 16:328-
222, 1993.
194 R Adolphs et al: Impaired recognition of emotion in facial expressions following bilateral
damage to the human amigdala. Nature 372:669-672, 1994
195 R. Adolphs et al: The human amygdala in social judgment. Nature 393:470-474, 1998
113
presenti ed accessibili alla coscienza, ma questa non poteva accedere alle informazioni fornite da
una fonte quale quella visiva.
La signora D.R. fu sottoposta all’età di 28 anni ad un intervento di distruzione bilaterale
dell’amigdala eseguito mediante stereotassi, per un’epilessia intrattabile. Dopo l’operazione la
paziente aveva difficoltà a riconoscere l’espressione di alcune facce. Non solo, ma la paziente aveva
problemi anche a distinguere le intonazioni della voce associate a particolari emozioni, quali la
paura e la rabbia. Questo studio dimostra che il ruolo dell’amigdala nel riconoscere certe emozioni
non è limitato alla visione (ad esempio delle facce), ma si estende anche all’udito 196 .
Parte della ricerca neurologica attuale si basa sull’identificazione di pazienti con deficit cognitivi il
più limitati possibile, che vengono poi sottoposti a test psicologici e se possibile a tecniche di
imaging. La paziente K.R., ad esempio, sviluppò a 70 anni una malattia neurologica acuta con
comparsa di “disnomia”, cioè incapacità a riconoscere i nomi, limitata tuttavia, nel suo caso, alla
categoria degli animali. Anche per gli animali, tuttavia, il deficit non era completo. Se richiesta
verbalmente di descrivere gli attributi di un animale (es: il colore di un elefante), aveva delle
difficoltà, tuttavia poteva distinguere gli attributi degli animali se presentati visualmente (ad
esempio poteva correttamente indicare che gli elefanti propriamente colorati erano quelli grigi e non
quelli colorati con colori anomali). La sua conoscenza di altre proprietà degli animali era intatta.
All’autopsia il cervello della paziente presentava lievi segni di diffusa infiammazione (da sindrome
paraneoplastica) che coinvolgeva entrambi i lobi temporali. Per spiegare questo deficit selettivo gli
autori suggeriscono che devono esistere due distinte rappresentazioni di tali proprietà, una basata su
stimoli visuali e una basata su stimoli verbali, in quanto una di esse era perduta mentre l’altra era
conservata 197 .
Alterazioni selettive della coscienza
Vi sono altre lesioni che possono influire sulla personalità o sulla coscienza. Per anosognosia si
intende l’incapacità di un paziente di riconoscere il suo deficit neurologico, insorto a causa di un
ictus, che può essere di diversa natura. Nell’asomatognosia (sindrome di Anton-Babinski), persone
che hanno subito un ictus che ha provocato un’emiplegia sinistra (lesione all’emisfero destro)
possono non rendersi conto della loro situazione. Questi pazienti, a domande precise o per così dire
messi alle strette, negano persino di essere malati o se “costretti” ad ammetterlo, subito dopo
ritornano a negare. Damasio riporta la drammatica vicenda di un giudice della Corte Suprema degli
Stati Uniti, che non riusciva a rendersi conto della sua paralisi e che, occupando una posizione assai
delicata e in vista, divenne un caso pubblico 198 . Non si tratterebbe di una rimozione di tipo
freudiano, ma proprio di un fenomeno in cui la coscienza non ha accesso alle informazioni
riguardanti la parte lesa. Che non si tratti di una rimozione psicologica lo suggerisce il fatto che una
corrispondente lesione all’altro emisfero provoca una paralisi del lato opposto ma non fenomeni di
asomatognosia.
La prosopagnosia è un disturbo nel riconoscimento delle facce, causato generalmente da lesioni
bilaterali dei lobi temporali inferiori. I pazienti affetti, ad esempio, non sanno distinguere le facce
note da quelle ignote (emozionalmente neutre). Tuttavia, se si utilizza il test di conduttanza cutanea
i pazienti, come i normali, manifestano una forte risposta alle facce conosciute, che pure continuano
a non riconoscere come tali. Questo fa supporre che il processamento delle immagini facciali sia
196 S.K. Scott: Impaired auditory recognition of fear and anger following bilateral amygdala lesions.
Nature 385:254-257, 1997
197 J. Hart & B. Gordon: Neural subsystems for object knowledge. Nature 359:60-64, 1992
198 A.R. Damasio: L’errore di Cartesio. Adelphi, Mialno, 1995. p. 115-116
114
inaccessibile alla coscienza, ma ancora connesso con il sistema limbico, responsabile della risposta
cutanea. Nella sindrome di Capgras invece i pazienti non riconoscono i parenti, anzi li giudicano
degli impostori. In un terzo di questi pazienti la sintomatologia è insorta dopo un trauma al cervello,
anche se un’analoga sintomatologia si può ritrovare in alcune psicosi. Ovviamente, come sempre, vi
è un’interpretazione freudiana della genesi della malattia: in seguito al colpo in testa, gli impulsi
sessuali latenti si rivelano, il complesso di Edipo si risveglia e così si nega che la madre, da cui si
sarebbe attratti, sia veramente la madre. Ramachandran nota tuttavia che in un suo paziente anche il
cagnolino risultava un impostore, cosa che fa dubitare di questa interpretazione 199 .
Un’altra condizione drammatica è la cosiddetta “neglect syndrome”. L’individuo sembra ignorare
persone e cose che cadono da un lato del proprio centro visivo e talvolta persino metà del proprio
corpo. Si tratta di una sindrome assai eterogenea che interviene spesso quando la lesione è nella
corteccia parietale posteriore. Oliver Sachs ha descritto uno di questi pazienti che dopo un ictus si
lamentava che qualcuno continuasse a giocargli un macabro scherzo, mettendogli nel letto una
gamba amputata. Quando egli cercava di allontanarla, finiva giù dal letto, perché, ovviamente, la
gamba era la sua 200 . Un paziente di questo tipo può ignorare il cibo posto su una metà del suo
piatto, farsi la barba solo su metà faccia, scrivere solo su una metà del foglio, e se richiesto di
disegnare il quadrante di un orologio, cerca di sistemare tutte le ore da una parte. Questi deficit sono
poi particolarmente eclatanti quando colpiscono persone con speciali capacità precedenti, quali la
capacità di dipingere 201 .
Il cervello splittato
Una serie di osservazioni che riguardano la coscienza, e che sono estremamente sorprendenti per
certi versi, anche se le conclusioni non sono sempre facili da trarre, riguarda le funzioni dei due
emisferi. I due emisferi sono abbastanza simmetrici, e molte delle aree e delle vie neuronali sono
conservate in entrambi. Vi sono però notevoli eccezioni, tra cui la più evidente è senz’altro quella
collegata al linguaggio. Le due aree più note del linguaggio, evidenziate, come abbiamo visto, fin
dal secolo scorso, sono a sinistra nella maggior parte degli individui compresi molti mancini.
Questo ha fatto pensare che vi siano delle differenze tra i due emisferi. Tutte le lesioni raccolte dai
clinici fino agli anni sessanta convergevano nella visione di un emisfero sinistro dominante rispetto
al linguaggio e ad altre funzioni superiori rispetto al destro. Ad esempio, un danno focale, cioè assai
limitato al giro angolare dell’emisfero sinistro può alterare la capacità di leggere: il testo viene
visto, perché la visione è conservata, ma il senso delle parole scritte è perduto. Dal momento che il
danno non coinvolge l’emisfero destro, se ne conclude che la capacità di comprendere il significato
delle parole, che normalmente è ritenuta una funzione superiore, ha sede a sinistra, e che l’emisfero
destro non è coinvolto in questo processo. Con una lesione di questo tipo, il paziente conserva però
la capacità di comprendere il significato delle parole parlate, ma se la lesione colpisce invece l’area
di Wernicke, viene abolita la capacità di comprendere il linguaggio parlato. I suoni vengono uditi,
199 V.S. Ramachandran: Consciousness and body image: lessons from phantom limbs, Capgras
syndrome and pain asymbolia. Phil Trans R Soc Lond B 353:1851-1859, 1998
200 O. Sacks: The man who fell out of bed. Ristampato in O.W.Sacks: L’uomo che scambiò sua
moglie per un cappello. Adelphi, Milano, 1986. Questo libro contiene una serie di casi clinici
drammatici in cui, generalmente, solo una parte della personalità viene colpita.
201 Il caso di un pittore che fu colpito da questa sindrome e i ritratti che fece a varie distanze di
tempo dall’ictus è descritto in M.I. Posner & M Raichle: Images of mind. Scientific American
Library, New York, 1994 p. 152.
115
ma di nuovo il significato delle parole è perduto 202 . Questo contribuì a diffondere la visione di un
emisfero sinistro intellettuale e di un emisfero destro relativamente ritardato.
Tuttavia questa visione, che pur mantiene la sua indubbia rilevanza, è stata modificata dagli studi su
un certo numero di pazienti sui quali, nel tentativo di trattare un’epilessia di un certo grado, venne
praticato l’intervento di commissurotomia. I due emisferi sono tra loro connessi tramite un grosso
fascio di fibre che viene denominato “corpo calloso”, e l’intervento, che consiste nel taglio di queste
connessioni a livello della linea mediana, abolisce la possibilità che i due emisferi possano
comunicare direttamente tra loro. Pertanto tali pazienti, insieme ad animali in cui tale taglio veniva
effettuato a scopi sperimentali, forniscono un buon sistema per studiare le funzioni di ciascuno dei
due emisferi isolatamente. L’intervento di commissurotomia non dava peraltro grande fastidi ai
pazienti, che se incontrati durante una normale conversazione o persino ad un esame clinico non
dettagliato potrebbero risultare assolutamente normali.
Dal punto di vista tecnico, è possibile in questi pazienti, sottoporre un determinato stimolo solo
all’emisfero destro o solo al sinistro. Ricordiamo che le fibre che portano la sensibilità periferica o
che regolano il movimento volontario subiscono generalmente una decussazione (cioè attraversano
la linea mediana e passano nel lato opposto) per la quale il lato destro del corpo è sotto il controllo
dell’emisfero sinistro e viceversa. Ad esempio, un ictus che coinvolge la corteccia motoria destra dà
origine ad una paralisi degli arti sinistri. Pertanto se la mano destra maneggia un oggetto senza
poterlo vedere, gli stimoli relativi finiscono nell’emisfero sinistro e viceversa. Nell’individuo
normale con un corpo calloso intatto, le sensazioni propriocettive originate da un oggetto sito nella
mano sinistra, proiettano sull’emisfero destro, il quale però scambia informazioni coll’emisfero
controlaterale tramite il corpo calloso. Noi constatiamo che un individuo bendato riconosce
facilmente l’oggetto in qualsiasi mano esso sia posto. Per gli stimoli visivi, le cose sono più
complicate, ma è ugualmente possibile far giungere uno stimolo alle cortecce visive di uno solo dei
due emisferi. In questo modo è possibile studiare negli individui commissurotomizzati
esclusivamente uno dei due emisferi, perché lo stimolo arriva a quello da noi prescelto, che tuttavia
non può comunicare con l’altro per via della avvenuta commissurotomia.
Quello che si è visto fu assolutamente sorprendente, soprattutto tenendo conto del fatto che tali
individui risultano nella vita di ogni giorno praticamente normali dal punto di vista neurologico e
comportamentale. Gli studi eseguiti su questi pazienti, compiuti inizialmente da Roger Sperry e i
suoi collaboratori 203 , hanno portato a concludere che l’emisfero destro non è così ottuso come
sembra 204 . Ad esempio il destro è superiore al sinistro nel copiare dei disegni come il cubo di
Necker o la croce maltese (è superiore nella stereognosia). Il sinistro al contrario è superiore non
solo nel linguaggio, come del resto ci si aspetterebbe per il fatto che le aree del linguaggio sono a
sinistra, ma anche nel calcolo e nella ideazione. Tuttavia il cervello è terribilmente plastico, e nei
rari casi di assenza congenita del corpo calloso, i soggetti si comportano come gli individui normali.
Per questo si ritiene che essi abbiano sviluppato dei meccanismi compensatori, tra i quali, sembra,
quello di avere aree di linguaggio sia a destra che a sinistra.
Quello che è però particolarmente interessante è che molte delle performances dell’emisfero destro
avvenivano senza che il sinistro ne fosse conscio. Ogni emisfero disconnesso si comportava come
se non fosse conscio di quello che accadeva all’altro. Questo sembra valere anche per alcuni
primati, ma assume dei caratteri più drammatici nell’uomo, a causa della presenza del linguaggio:
202 J.W. Brown: Aphasia, apraxia and agnosia; clinical and theoretical aspects. Thomas, Springfield,
Illinois, 1972
203 Questi studi hanno valso a Sperry il premio Nobel nel 1981. Vedi ad esempio il discorso
pronunciato in occasione della consegna del Nobel: R. Sperry: Some effects of disconnecting the
cerebral hemispheres. Science 217:1223-1226, 1982. Vedi anche: M.S. Gazzaniga: Principles of
human brain organization derived from split-brain studies. Neuron 14:217-228, 1995.
204 E. Zaidel. In P. Buser & A. Rougeul-Buser (eds): Cerebral correlates of conscious experience.
Elsevier, Amsterdam, 1978, pp 177-197
116
l’emisfero sinistro può così negare con decisione di avere coscienza di ciò che aveva effettuato il
suo omologo controlaterale.
Ad esempio, se un’immagine viene mostrata solamente nel campo visivo sinistro, che proietta
all’emisfero destro o se un oggetto viene posto, in maniera coperta, nella mano sinistra che pure
proietta a destra, il soggetto commissurotomizzato non è in grado di descrivere né l’immagine
visiva né l’oggetto che ha in mano, mentre riesce a farlo con facilità se l’immagine viene mostrata
al campo visivo destro o l’oggetto posto nella mano destra. Anzi il paziente negherà di aver avuto in
mano qualcosa o che gli sia stato mostrato alcunché. Ma attenzione, stiamo parlando della coscienza
mediata dal linguaggio, perché si deve invece concludere che qualcosa l’emisfero di destra conosce.
Infatti, se si mostra una parola scritta indicante un nome di cosa all’emisfero destro e gli si chiede
che cosa ha visto, l’individuo (emisfero sinistro) risponde che non ha visto nulla; ma se gli si chiede
di selezionare con la mano sinistra (governata dall’emisfero destro) una carta che rappresenta
l’oggetto indicato dalla parola precedentemente mostrata o l’oggetto stesso in questione, l’individuo
è in grado di eseguire correttamente il compito.
Il corpo calloso è una connessione che, con qualche eccezione, ha luogo tra aree simmetriche del
cervello che coinvolge un numero stimato di fibre intorno ai 200 milioni. Eccles sostiene che quello
che è veramente interessante è proprio questo fatto che l’emisfero “dominante”, cioè quello sinistro,
mantiene perfettamente la coscienza di tutto ciò che accade e che il linguaggio viene propriamente
amministrato, ma che malgrado ciò questo emisfero, e quindi l’individuo, non ha assolutamente
coscienza di ciò che accade nell’emisfero cosiddetto minore.
Eccles spinge l’analisi di questi dati a concludere che l’emisfero destro è inferiore al sinistro, ma
che comunque è superiore a quello del cervello di altri primati. Egli ha lanciato l’ipotesi che in
condizioni normali l’emisfero destro possa raggiungere la coscienza solo dopo la sua connessione
col sinistro. Quindi solo il sinistro è self cosciente per Eccles, anche se il destro ha comunque delle
capacità superiori a quelle dello scimpanzé. Altri, come Sperry, sottolineando come il destro sia
dotato di una minima capacità di comprendere qualche parola, ma sia superiore, come abbiamo
visto, in alcune funzioni parlano invece di due “menti”, di cui una, la destra, è impossibilitata a
comunicare a noi perché non ha il linguaggio. Eccles invece nega che questa seconda mente esista,
o che per lo meno possa essere self cosciente. Egli ricorre ad un “gedanken experiment” per
convincerci che al destro non si può attribuire self coscienza. Nei soggetti commissurotomizzati, il
soggetto conscio controlla la mano destra, ma non la sinistra, anche se questo può effettuare
movimenti anche apparentemente finalizzati. Continua Eccles:
“In our gedanken experiment the left hand inadvertently grabs a gun, fires it and kills a man. Is this
murder or manslaughter and by whom? If not, why not. But no such questions can be asked if the
right hand does the shooting and the killing. The fundamental difference between the dominant and
minor hemispheres stands revealed on legal grounds. Commissurotomy has split the bihemispheric
brain into a dominant emisphere that is exclusively in liaison with the self-conscious mind and
controlled by it and a minor hemisphere that carries out many of the performances previously
carried out by the intact brain, but is not under control by the self-conscious mind. It may be in
liaison with a mind, but this is quite different from the self-conscious mind of the dominant
emisphere – so different that a grave risk of confusion results from the common use of the words
‘mind’ and ‘consciousness’ for both entities" 205 .
In alcuni pazienti, per gravissimi motivi medici, è stata eseguita la emisferectomia, cioè la
rimozione di un emisfero cerebrale. Se l’ipotesi di Eccles fosse giusta, l’emisferectomia destra
dovrebbe lasciare la self coscienza intatta, mentre quella sinistra dovrebbe rendere l’individuo
205 K.R. Popper & J.C. Eccles: The self and its brain. Springer-Verlag Berlin, 1977; p 329
117
inconscio. In effetti, quella destra causa i difetti attesi, con una notevole conservazione della
coscienza, ma in seguito ad emisferectomia sinistra vengono conservate tracce della coscienza e
anche la capacità linguistica in parte si riprende. Questa ripresa e conservazione sono più evidenti
nei giovani, e ci si potrebbe chiedere se il trasferimento a destra di queste funzioni non sia avvenuta
prima dell’intervento, tenendo conto che questo si sarebbe potuto verificare per via della lunga
sofferenza subita dall’emisfero sinistro durante la malattia prima dell’intervento.
Le malattie mentali
Malattie neurodegenerative, come l’Alzheimer o la corea di Huntington, sono devastanti, e
certamente distruggono anche la personalità. Ma questo non ci sorprende, perché troviamo
comprensibile che si perda il vigore, la brillantezza d’ingegno, la memoria, e tante altre facoltà così
come si perde la forza muscolare. Quello che ci sorprende è il cambio della personalità, la perdita
del controllo morale o del senso della realtà a fronte di una conservazione almeno apparente del
ragionamento e di altre facoltà superiori.
Le malattie mentali sono un altro campo che chiama in causa il rapporto tra psiche, mente e
cervello. Prendiamo la depressione ad esempio. In un soggetto razionale, la depressione è talora
perfettamente comprensibile. Se ad uno muore il figlio o se un padre di famiglia perde
immeritatamente il lavoro, tutti noi possiamo accettare l’idea che la persona cada preda della
depressione. Dal momento che sono cose che accadono tutti i giorni, siamo disposti ad accettare che
gli eventi della vita possano incidere sulla psiche. Possiamo anche accettare che questo stato
psichico influenzi il soma (cervello incluso). Ma che dire di un depresso senza motivo? Possiamo
postulare cause interiori, ma anche queste spesso non sono riscontrabili. Siamo propensi a dire che
“dipende da lui”. E cosa dire poi dei paranoici, i quali mantengono una certa lucidità, ma
interpretano, apparentemente, alcuni dati in maniera abnorme (“quello ce l’ha con me”).
Proprio perché conosciamo le cause esterne della depressione “ragionevole” o “fisiologica”, e
sappiamo che esse sono causate da fatti oggettivi, da eventi che colpiscono l’individuo, siamo
portati a pensare che le malattie della psiche siano dovute alla vita vissuta del soggetto, alle
difficoltà che si incontrano, ai colpi del destino, o ai propri errori. Si tratta comunque di eventi al di
fuori di noi che sono per così dire eventi “umani”, cioè collegati a qualcosa che direttamente
colpisce la psiche e non i neuroni. E’ l’interazione tra psiche e eventi “con rilevanza psichica” che –
riteniamo - causa la depressione. Nel caso estremo, si può giungere al suicidio, che, per quanto
esecrabile esso sia, è a volte comprensibile perché basato su eventi sconvolgenti: chi potrebbe
condannare Giulietta e Romeo? Parimenti, se esaminiamo adolescenti o bambini disadattati, magari
aggressivi o violenti o addirittura colpevoli di comportamenti orribili, quali il parricidio, siamo
portati a cercarne le cause a livello ambientale, familiare o sociale. Cause dell’anomalo
comportamento includono scarsità di stimoli, di affetto, condizioni economiche e culturali di basso
livello, perdita dei valori nella società moderna e così via. Anche quando le interpretazioni sono di
tipo “psicoanalitico”, ci si confronta in realtà con eventi (o ipotesi di eventi) che sono di natura
psichica, tipo le pulsioni, i complessi ecc.
Questo per lo meno è la visione preponderante che si ha nei media e nei commenti di giudici,
psicologi e operatori sociali quando capita un caso del genere. L’argomento è stato in parte toccato
quando abbiamo parlato di geni e comportamento. Qui tuttavia la discussione è svolta con
un’angolazione diversa. Dato per scontato che una certa predisposizione genetica potrebbe esistere,
qui stiamo invece discutendo l’interazione tra ambiente e cervello, o mente o psiche o personalità.
Nessuno può sostenere che tutti i fattori che abbiamo elencato non siano rilevanti ad esempio nella
118
formazione di una persona disadattata, né che fattori economici e sociali, incluso ad esempio
l’amicizia o l’amore, possono avere un grande ruolo nel benessere di una persona.
Come possiamo accettare allora che un farmaco possa modificare in meglio uno stato mentale
patologico ? Sembrerebbe questa una prova lampante che il comportamento morale dipende da uno
stato cerebrale, dal momento che una molecola può modificare la personalità. E’ interessante notare
come anche in questo caso vi sia una forte componente ideologica da superare, in quanto molti
vedono un contrasto tra società e farmaci. Se molti comportamenti devianti sono causati da
esperienze di vita, da ambienti malsani e poveri, come si può pensare di aggiustare tutto con un po’
di chimica ?
In generale, come è possibile che un semplice composto chimico possa alterare significativamente
la coscienza o il comportamento morale ? Eppure l’utilità dei farmaci antidepressivi è ormai fuori
discussione 206 . Se la coscienza è qualcosa che è libera dalla materia, come possono esistere farmaci
che influiscono sulle sue manifestazioni più alte. In generale, non ci stupiamo che possano esistere
gli analgesici, gli anestetizzanti, i sonniferi e neanche farmaci che ci rimbambiscono. Ma come è
possibile invece alterare il nostro stato affettivo, che si ritiene un aspetto elevato della coscienza.
Molti dei farmaci antidepressivi agiscono a livello delle sinapsi serotoninergiche o noradrenergiche.
Possiamo concludere che la depressione sia semplicemente una questione di livelli di queste
catecolamine? D’altro canto, talvolta anche la psicoterapia può ottenere successi, o eventi della vita
possono far migliorare malati psichiatrici.
Siamo pertanto di fronte ad un’ambivalenza, in cui eventi di natura diversa possono agire
positivamente o negativamente sull’equilibrio della nostra psiche. I farmaci possono dannarci o
possono giovarci, e i casi della vita possono favorirci o colpirci. Indiscutibilmente, stati patologici
causati da problemi “morali” possono migliorare con i farmaci e al contrario, disturbi, come ad
esempio quelli causati da tossicodipendenza, possono giovarsi di eventi “morali”, come ad esempio
l’affidamento a una comunità in cui si cerca di proporre nuovi modelli di vita e nuovi valori.
Entrambe le cose sono innegabili.
False e vere memorie
Tra le turbe della coscienza si possono anche porre le false memorie che stanno diventando un
problema rilevante. La distinzione tra sogno e realtà è stato sovente un tema letterario molto
interessante. Quando sogniamo, siamo spesso attivamente coinvolti, ma fortunatamente quasi
sempre ci svegliamo e siamo in grado di distinguere la realtà dal sogno. La natura quasi magica del
sogno è stata usata da alcuni per predire il futuro, a cominciare dal sogno del faraone che Giuseppe
interpreta nella Bibbia, mentre da altri è stata utilizzata per comprendere la personalità degli
individui e svelare i loro veri problemi. Man mano che si torna indietro nel tempo però, sogni e
fantasie diventano sempre più vaghi. Alcune terapie si basano sulla rievocazione dei ricordi
dell’infanzia, che, essendo spiacevoli, verrebbero rimossi, ma potrebbero venir rievocati grazie
all’abilità del psicoterapeuta.
206 Un best seller sull’argomento, accessibile a tutti, è il libro di P.D. Kramer: Listening to Prozac.
A psychiatrist explores antidepressant drugs and the remaking of the self. Viking, New York, 1993.
In questo libro l’autore, uno psichiatra che si basava sulla psicoterapia, descrive come sia cambiata
la gestione dei malati con l’introduzione dei farmaci antidepressivi, di cui il Prozac (fluoxetina) è il
più conosciuto.
119
Ma vi sono dei problemi. Jean Piaget riferisce di un ricordo molto netto della sua prima infanzia.
Mentre era a spasso con la sua baby sitter, venne fatto oggetto di un tentativo di rapimento che
fortunatamente venne sventato dalla sua accompagnatrice. Egli mantenne un vivo ricordo visivo del
fatto, anche della divisa del gendarme che venne poi in loro soccorso, malgrado che, ed egli se ne
rendeva conto, l’evento fosse accaduto ad un’età in cui pochissimi ricordi vengono conservati. Il
problema è che anni dopo la baby sitter, pentita, scrisse ai suoi genitori che il fatto non era mai
avvenuto, ma lo aveva inventato per guadagnarsi la loro fiducia e riconoscenza 207 .
Evidentemente, una falsa memoria si era formata in seguito al continuo racconto dell’episodio che
gli avevano fatto i genitori. I racconti di genitori e parenti sono la prima e forse l’unica fonte dei
ricordi della nostra infanzia. Oggi il problema ha raggiunto un livello più grave in seguito a fatti
riportati dalla cronaca sulle false memorie 208 . In seguito a sedute di psicanalisi, eseguite in accordo
con alcune teorie che tendono ad attribuire ogni problema psichico ad abusi sessuali e altre orribili
esperienze avvenuti nell’infanzia, alcuni pazienti hanno accusato genitori e conoscenti di averli
violentati da piccoli. In alcuni casi si è accertato che la cosa era materialmente impossibile, in altri
le accuse erano talmente inverosimili da cadere da sole 209 . Quello che qui ci interessa è solamente
che la nostra coscienza può venir ingannata anche relativamente a ciò che dovrebbe essere custodito
nella nostra memoria, cui in teoria dovremmo poter accedere solo noi.
Cosa ci sia immagazzinato nel nostro cervello non lo sappiamo. Per molti ricordi evocati in
situazione di dramma o di insistenza a scopo terapeutico o legale, evidentemente il giudizio è
tutt’altro che sicuro. Quanti ricordi che costituiscono dei classici della psicoanalisi sono inventati,
anche in buona fede? Probabilmente molti, il che non vuol dire negare che il fenomeno dell’abuso
sessuale di minori non esista. Oltre cinquant’anni orsono, Wilder Penfield, un neurochirurgo,
effettuò una serie di stimolazioni della corteccia cerebrale su pazienti sottoposti ad interventi per
ragioni mediche, che sono rimaste classiche e che hanno contribuito, tra l’altro, alla definizione dei
famosi “homunculi” sensitivo e motorio. Durante stimolazione della corteccia sensitiva, ad esempio,
il paziente poteva provare sensazioni in una specifica parte del corpo, mentre la stimolazione della
corteccia motoria causava la contrazione di un determinato muscolo.
Quando Penfield eseguì stimolazioni del lobo temporale, in alcuni casi il paziente riferì sensazioni
di tipo diverso. Ad esempio:
“At the time of operation, stimulation of a point on the anterior part of the first temporal
convolution on the right caused him to say, “I feel as though I were in the bathroom at school”.
Five minutes later, after negative stimulation elsewhere, the electrode was reapplied near the same
point. The patient then said something about “street corner”. The surgeon asked him, “where” and
he replied, “South Bend, Indiana, corner of Jacob and Washington”. When asked to explain, he
said he seemed to be looking at himself at a younger age” 210 .
207 J. Piaget: Intervista su conoscenza e psicologia. Laterza, Bari, 1978; p. 112-113
208 R. Ofshe & E. Watters: Making monsters: false memories, psychotherapy, and sexual hysteria.
Charles Scribner’s Sons, New York, 1994; E.F. Loftus & K. Ketcham: The myth of repressed
memories. St. Martin Press, New York, 1994. M. Pendergrast: Victims of memory. Upper Access
Books, Hinesburg, 1995.
209 E.F. Loftus: Creating false memories. Scient Am, settembre 1997, p 70-75. Alcuni dei
psicoterapeuti sono stati condannati in sede legale al pagamento di ingenti cifre ai genitori
ingiustamente accusati.
210 W. Penfield: The excitable cortex in conscious man. Liverpool University Press, Liverpool, 1958
120
Episodi come questo sono stati spesso interpretati come dimostrazione che i nostri ricordi sono tutti
ben immagazzinati nel cervello e che basterebbe la stimolazione giusta per farli saltare fuori.
Un’interpretazione altrettanto plausibile è che invece questi episodi siano semplicemente delle
confabulazioni e che non abbiano corrispondenza con la realtà. Frammenti di ricordi potrebbero
essere reali, ma potrebbero essere mescolati ad altre sensazioni originate successivamente o
addirittura evocate in maniera anomala. Purtroppo, sembra, non possiamo essere sicuri neanche di
noi stessi, e tutto quello che passa nella testa di persone, per giunta malate, non dovrebbe essere
preso come oro colato.
Quanto però la memoria sia importante per la nostra personalità e per la nostra vita normale è
evidente quando l’accesso ad essa ci viene negato. Il lobo temporale è di grande importanza per un
corretto uso della memoria 211 . Alexander Luria ha potuto seguire un paziente che nel 1941, in
seguito ad un trauma bellico, presentò un’assoluta perdita della memoria, unita ad altri deficit.
L’intelligenza del paziente rimase tuttavia perfettamente normale, e questo non fece altro che
rendere più acuto il suo dramma, perché egli era perfettamente conscio del suo handicap. Luria ha
pubblicato la vicenda umana di questo paziente, che lentamente, con una forza d’animo tremenda
riuscì a descrivere in un diario parte della sua vicenda 212 . Questo caso dimostra come una
coscienza “intatta” può avere dei problemi enormi nella vita di ogni giorno per l’assenza di una
capacità come la memoria, più o meno come un cieco ha difficoltà nella visione.
Prendiamo quest’altro caso di un paziente, il famoso paziente H.M., che per un’epilessia intrattabile
ebbe rimosso, all’età di 27 anni, ambedue gli ippocampi, strutture che hanno un ruolo
importantissimo nella memoria (originariamente descritto da Scoville e Milner 213 ). L’intervento
ebbe successo, perché la sua epilessia fu alleviata, e non ebbe alcun effetto sostanziale sulla sua
capacità percettiva, sulla sua intelligenza e sulla sua personalità. Tuttavia il paziente sviluppò una
grave amnesia anterograda 214 , dal momento che dimenticava gli eventi appena questi avevano
luogo. Ad esempio, se gli veniva detto di ricordare un numero, egli non solo dimenticava il numero
ma dimenticava anche che qualcuno gli avesse detto di ricordarlo. Quando cambiò casa ebbe gravi
211 L.R.Squire & S. Zola-Morgan: The medial temporal lobe memory system. Science 253:1380-
1386, 1991
212 Il diario di questo paziente ha fornito la base per il libro di Luria. Vedi: A. Luria: The man with a
shattered world. Penguin Books Ltd. Harmondsworth, 1975. Curiosamente lo stesso Luria ha anche
descritto in un piccolo libro (A. Luria: The mind of a mnemonist. Penguin Books Ltd.
Harmondsworth, 1975.), la storia di un uomo che, al contrario, era dotato di una memoria
stupefacente. Quest’uomo ricordava con grande facilità numeri e lettere, tanto che, una volta venuto
a conoscenza della sua prodigiosa memoria, lasciò il suo lavoro e si mise a fare il fenomeno di
baraccone. La sua memoria era in effetti prodigiosa e non sbagliava mai. Tuttavia aveva anche
qualche svantaggio, perché faceva una grande fatica a dimenticare, e aveva altri piccoli disturbi.
Luria venne in contatto con questa persona negli anni Venti del secolo scorso e la seguì per 30 anni,
ma il segreto della sua memoria prodigiosa non ha potuto essere svelato. Forse oggi, con le moderne
tecniche di immagine e di indagine psicologica qualcosa di più si sarebbe potuto comprendere. Una
delle ipotesi che si possono fare è che vi fosse un difetto nella cancellazione della memoria a breve
termine, che rimaneva pertanto a disposizione della coscienza.
213 W.B. Scoville & B.Milner: Loss of recent memory after bilateral hippocampal lesions. J Neurol
Neurosurg Psychiatry 20:11-21, 1957.
214 L’amnesia anterograda è quella relativa ad eventi che sono successi dopo l’operazione, mentre
l’amnesia retrograda è quella relativa ad eventi che sono accaduti prima dell’operazione (o di un
dato momento). L’amnesia retrograda in questo paziente era solo modesta, mentre l’anterograda era
praticamente totale. Questo è in relazione probabilmente al ruolo dell’ippocampo nella formazione
dei ricordi, ma non nel loro mantenimento una volta che si sono instaurati
121
problemi a riuscire a ritrovarla, sottostimava la sua età e non era neanche in grado di riconoscere
una sua fotografia recente. Inoltre:
“His initial emotional reaction may be intense, but it will be short-lived, since the incident
provoking it is soon forgotten. Thus, when informed of the death of his uncle, of whom he was very
fond, he became extremely upset, but then appeared to forget the whole matter and from time to
time thereafter would ask when his uncle was coming to visit them; each time, on hearing anew of
the uncle’s death, he would show the same intense dismay, with no sign of habituation” 215
Pur non essendo andato incontro ai problemi enormi del paziente di Luria, anche H.M. non viveva
bene. Anche in questo caso, una coscienza intatta non era tuttavia in grado di ricordare dati di
valore affettivo, che pure noi riteniamo importantissimi per la nostra identità.
Una personalità assai fragile
Qual è la rilevanza di tutti questi dati per il nostro problema ? In primo luogo, si dimostra come
funzioni specifiche della specie umana come il linguaggio, la lettura, la capacità di apprezzare la
musica, la comprensione della matematica sono tutte cose che possono essere rese impossibili da
lesioni cerebrali ben localizzate.
In secondo luogo, anche il comportamento che definiamo “morale” sembra essere sotto il controllo
di un cervello in buone condizioni. L’incidente di Gage avvenne in un periodo in cui la frenologia
era in auge, e il suo caso suggeriva che non solo la sensibilità o la motilità, ma anche funzioni
superiori come il comportamento responsabile potessero avere sede in una regione specifica del
cervello. Alterazioni della personalità non sono fenomeni rari, e probabilmente ogni medico ha, nel
corso della sua professione, incontrato casi del genere, legati in genere a decadimento senile o più
raramente a tumori cerebrali. Talora i cambi comportamentali sono estremamente traumatizzanti per
i congiunti, che giungono a chiedersi quale delle due personalità del proprio congiunto sia quella
vera, quella amabile che conoscevano o quella degradata che si manifesta dopo il danno cerebrale.
Ma come è possibile, e questa è una domanda cui bisogna dare risposta, che esista un principio
extracerebrale se il semplice danneggiamento di alcuni circuiti è in grado di cambiare il modo di
agire di una persona. Per il principio di Ockham, non vale la pena di invocare ulteriori entità se
quelle che ci sono già spiegano tutto. In realtà, alcuni obiettano, queste non spiegano tutto, perché
molte cose sono ancora incomprensibili, e il rasoio di Ockham non è un principio “ontologico”,
bensì un utile strumento pratico. Il laringectomizzato, privo di quell’organo indispensabile per
l’emissione dei suoni che è il laringe, non è in grado di parlare; parallelamente, essi sostengono, se
alcune regioni del cervello non funzionano, la mente non può manifestarsi.
Le caratteristiche della personalità che veramente definiscono un uomo (o una donna) sono
tradizionalmente, anche se oggi sono un po’ in ribasso, la capacità di non farsi piegare dagli
avvenimenti, di organizzare la propria vita secondo dei valori precisi, di provare emozioni in
seguito a fatti che coinvolgono la morte e la malattia, la forza di carattere e la forza di volontà, ecc.
Tutte cose che, come possiamo vedere ad ogni momento rischiano di venir colpite dalla vecchiaia o
da altri eventi patologici. Lo studio dei pazienti ci ricorda che la nostra personalità è assai fragile ed
esposta alle tempeste della vita. Stretti tra l’infanzia e la vecchiaia, non vi è dubbio che vi è solo un
breve momento nella nostra esistenza in cui siamo pienamente responsabili di noi stessi e che le
nostre scelte pienamente coscienti sono solamente una leggera increspatura nell’oceano
dell’esistenza. Come gli antichi pittori medioevali di cui non sono note le date di nascita e morte,
215 Citato in K.R. Popper & J.C. Eccles: The self and its brain. Springer-Verlag Berlin, 1977; p 391
122
anche i migliori di noi fioriscono per un brevissimo tempo per poi scomparire nel magma della
negatività.
123
Capitolo 8.
IL LINGUAGGIO
Il linguaggio è una delle manifestazioni peculiari dell’uomo: esso non è solo un mezzo per
scambiarci informazioni, è anche uno strumento così connesso con la nostra capacità di provare
sentimenti e di ragionare che in parte sembra costituirne l’essenza stessa. Comprendere le basi del
linguaggio vuol dire aprire una finestra sulla nostra natura. Vi sono domande tecniche quali: il
linguaggio è innato, e se sì, qual è la sua struttura biologica? tutte le lingue derivano da una sola
protolingua? vi sono delle regole che il linguaggio umano “è costretto” a seguire per via di questa
struttura biologica prefissata? e domande di significato più profondo quali: qual è il rapporto tra
pensiero e linguaggio? Può esistere pensiero senza linguaggio? Il linguaggio è unico all’uomo? Le
scimmie possono parlare o pensare? O possono essere addestrate a farlo? Tutte queste domande
sono suscettibili di indagine sperimentale e ci dicono qualcosa sulla nostra natura.
Le basi biologiche del linguaggio
Ogni volta che si parla di linguaggio, si prende lo spunto da Noam Chomsky, che viene
generalmente ritenuto il fondatore degli studi moderni su di esso. Chomsky oltre 40 anni fa lanciò
l’idea che il linguaggio fosse una questione innata. Nasciamo già con il nostro cervello predisposto
al linguaggio, più o meno come abbiamo altre facoltà, ad esempio quella di camminare con due arti
solamente. Questo sarebbe provato innanzitutto dal principio della povertà dello stimolo, secondo
cui il bambino apprende l’uso del linguaggio troppo facilmente e rapidamente per non pensare che
abbia già una struttura cerebrale ad esso predisposta. Inoltre, il fatto che tutte le lingue hanno delle
caratteristiche comuni ben si adatta all’ipotesi di Chomsky. Steve Pinker ha usato l’espresssione
“l’istinto del linguaggio” 216 per indicare appunto che nasciamo già marchiati da questa capacità che
nessun altro essere vivente sulla terra possiede. L’ipotesi alternativa sostiene invece che il
linguaggio è un processo su base essenzialmente culturale, che il cervello è plastico e che non vi
sono neuroni specificatamente predisposti al linguaggio. Le similarità tra le varie lingue, se fosse
confermato che proprio tutte hanno la stessa struttura, potrebbe essere spiegata ipotizzando che il
linguaggio sia nato in una tribù che abbia poi conquistato la terra. In questo caso, il linguaggio,
come molti altri caratteri culturali potrebbe esserci stato tramandato con molte variazioni sul tema
che però non ne hanno intaccato la struttura originaria.
Naturalmente, una volta comparso un primo linguaggio, la sua evoluzione potrebbe anche essere
stata assai rapida. Questa seconda fase è certamente su base culturale, in quanto il tempo in cui le
lingue si evolvono è troppo rapido per avere una base biologica. Quello che si eredita è solamente
una struttura biologica che predispone al linguaggio, in quanto bimbi nati in una cultura possono
tranquillamente imparare una lingua anche distantissima da quella dei loro genitori. Generazioni di
popolazioni isolate non perdono la capacità di imparare un’altra lingua da piccoli.
D’altro canto è abbastanza accertato che se il linguaggio non viene appreso in giovane età, poi si ha
una grave difficoltà ad apprenderlo. Sebbene la base cerebrale di questo fenomeno non sia chiara,
questo fatto testimonia che vi sono dei fenomeni neurali che devono verificarsi perché il linguaggio
venga appreso. Si ritiene che vi sia un’età al di sopra della quale si perde la capacità di apprendere il
linguaggio. Questa età dovrebbe essere superiore ai quattro anni, dal momento che è stato riportato
il caso di un bambino affetto da immunodeficienza combinata grave che rimase per ragioni mediche
216 S. Pinker: the language instinct. William Morrow & Co, New York, 1994
124
in isolamento dai 9 mesi ai 4 anni e 4 mesi, il quale fu in grado di acquisire la capacità di parlare
quando, dopo un riuscito trapianto di midollo osseo, fu reinserito nella società 217 .
Per fondamentale che sia il linguaggio per la nostra specie, non sembra tuttavia che la capacità di
parlare debba essere legata indissolubilmente alla capacità di ragionare o pensare. Il rapporto fra
pensiero e linguaggio ha affascinato filosofi, scienziati e pensatori per millenni e non è
assolutamente chiarito neanche ora 218 . Il linguaggio è un prerequisito per il pensiero o è possibile
un pensiero senza linguaggio ? O addirittura, senza il pensiero e la coscienza non può esserci
linguaggio ? E’ certo che lesioni cerebrali circoscritte possono limitare o abolire l’uso del
linguaggio senza che l’intelligenza “non-verbale” ne sia modificata. Ma cosa succede nei bambini
che non siano mai venuti a contatto con il linguaggio ? Vi sono i casi dei bambini-lupo, o comunque
di bambini che sono vissuti isolati dagli uomini, che non sono più stati in grado di parlare e che
sono rimasti con un basso livello intellettivo (il prototipo rimane Victor, “l’enfant sauvage”
descritto nel secolo scorso 219 ). Tuttavia non è chiaro quanto la mancanza di linguaggio piuttosto che
la mancanza generale di stimoli possa aver influito in questi casi.
Oggi i sordomuti che non vengono sottoposti a riabilitazione sono, nella società occidentale,
alquanto rari. Nelle società meno civilizzate probabilmente ci saranno ancora, ma sono poco
studiati. Mentre è praticamente certo che i sordomuti riabilitati posseggono un’intelligenza e un
pensiero apparentemente normali, sembra che anche quelli non riabilitati raggiungano uno sviluppo
normale dal momento che rispondono in maniera soddisfacente ai test non verbali. Il caso di Helen
Keller, una bambina cieca e sordomuta che, all’inizio di questo secolo, imparò a comunicare con un
linguaggio di segni, viene spesso citato a dimostrare che anche in casi di notevole privazione
sensoriale, il pensiero e la coscienza si erano ugualmente sviluppati.
Le basi cerebrali del linguaggio
La tesi che il linguaggio sia innato presuppone una struttura cerebrale ad esso deputata. Parlando
delle conseguenze delle lesioni cerebrali, abbiamo fatto alcuni cenni a quelle che colpiscono il
linguaggio. Come abbiamo detto, gli studi dei neurologi francesi a metà dell’Ottocento sono stati di
importanza fondamentale per chiarire che vi sono aree la cui lesione colpisce in maniera specifica il
linguaggio. Anche gli studi di Roger Sperry sui pazienti commissurotomizzati hanno confermato lo
strano rapporto tra emisfero sinistro e linguaggio e tra linguaggio e coscienza. Per molti anni lo
studio di lesioni cerebrali, insieme a quelli basati sulla stimolazione di specifiche zone cerebrali
durante interventi chirurgici a cranio aperto, hanno rappresentato gli unici approcci all’indagine
delle basi neuronali del linguaggio. Una conferma successiva venne da quella che viene conosciuta
come procedura di Wada, in cui l’anestetizzazione limitata ad un singolo emisfero confermava che
la localizzazione del linguaggio è generalmente a sinistra. Più recentemente, gli studi eseguiti con
PET e fMRI hanno fornito immagini spettacolari dell’attivazione di specifiche aree cerebrali in
217
R.M. Lazar et al.: Language recovery following isolation for severe combined
immunodeficiency disease. Nature 306:54-55, 1983. Tuttavia bisogna notare che i primi mesi in cui
il bambino fu esposto al linguaggio potrebbero essere stati determinanti per la sua capacità di
apprenderlo successivamente. E’ comunque certo che il linguaggio non comparve nel bambino
prima che egli fu rieducato ad esso successivamente al trattamento.
218 Vedi ad esempio: D. Laplane: Controverse: existe-t-il une pensèe sans langage? La Recherche,
novembre 1999, p.62-67
219 J. Itard: Il fanciullo selvaggio dell’Aveyron. Armando Editore, Roma, 1974; Questo è il libro
originario scritto dal medico che studiò il bambino. La storia è rievocata in: H. Lane: The wild boy
of Aveyron, Harvard University Press, Harvard, 1976.
125
seguito a operazioni legate al linguaggio. Anche questi studi hanno confermato che nell’individuo
normale le aree cerebrali classiche sono effettivamente coinvolte nell’uso del linguaggio scritto o
parlato.
Queste tecniche e altre che sicuramente verranno messe a punto nei prossimi anni consentono di
investigare in vivo i fenomeni legati al linguaggio in condizioni normali ma anche patologiche o
comunque inusuali. Neville e colleghi 220 , ad esempio, hanno studiato mediante fMRI tre gruppi di
persone: persone normali che parlavano la loro lingua (inglese), persone sorde dalla nascita che si
esprimevano solo con l’American Sign Language (ASL, il linguaggio dei sordomuti che si basa su
segni eseguiti con le mani) e persone (figli di sordi) che avevano appreso in età infantile ambedue i
linguaggi (inglese e ASL). I primi due gruppi mostrarono attivazione dell’emisfero sinistro quando
processavano il loro rispettivo linguaggio (inglese o ASL). Il secondo e il terzo gruppo, ma non il
primo, mostrarono tuttavia un aumento di attività anche nell’emisfero destro. Questo
apparentemente contrasta con gli studi di lesioni cerebrali nei sordi, in cui, come nei normali,
lesioni nell’emisfero sinistro ma non nel destro alterano la capacità di parlare ASL 221 .
Kim e collaboratori 222 hanno analizzato mediante fMRI l’attivazione di aree cerebrali in pazienti
che parlavano due lingue, analizzandoli a seconda che le avessero apprese alla nascita o
successivamente. Mentre i primi tendevano ad attivare con entrambe le lingue la stessa regione
nell’ambito dell’area di Broca, coloro che avevano acquisito un secondo linguaggio tardivamente,
attivavano zone adiacenti ma non identiche nell’area di Broca. Nell’area di Wernicke, le regioni
attivate erano sempre le stesse. Questi studi, che in fondo sono ancora solo in fase inziale,
dimostrano che sarà possibile spingere lo studio delle funzioni corticali superiori ad un livello di
grande profondità.
L’ asimmetria nella localizzazione del linguaggio, per la quale in circa il 95% dei destrimani e il
70% dei mancini le aree deputate al linguaggio sono poste nell’emisfero sinistro 223 , ha spinto a
cercare se ci fossero differenze anatomiche tra i due emisferi. Queste differenze in effetti esistono,
specialmente a carico di una regione denominata “planum temporale”, sulla faccia superiore del
lobo temporale. Questa asimmetria, che è la più pronunciata riscontrabile nel cervello, fa parte
dell’area di Wernicke, sembra presente anche nei feti, e pertanto non sarebbe una conseguenza
dell’uso del linguaggio bensì appunto una possibile base della localizzazione del linguaggio stesso.
Un’ipotesi è che l’evoluzione del linguaggio sia andata parallela con l’evoluzione di queste
strutture. A questo scopo, l’evoluzione del planum temporale è stata studiata nelle altre specie con
particolare attenzione ai primati. Si ritiene che scimpanzé e uomo si siano separati oltre 5 milioni di
anni fa. Recentemente è stato dimostrato che oltre il 90% degli scimpanzé hanno, come nell’uomo,
il planum temporale sinistro più grande del destro 224 . Questo fa pensare che questa struttura sia
precedente alla comparsa del linguaggio, ma che sia stata cooptata in seguito per il linguaggio.
Un’altra possibilità è che, dal momento che la maggior parte degli umani sono destrimani, e che è
220 H.J. Neville et al: Cerebral organization for language in deaf and hearing subjects: biological
constraints and effects of experience Proc Natl Acad Sci 95:922-929, 1998
221 G. Hickok et al: The neurobiology of sign language and its implications for the neural basis of
language. Nature 381:699-702, 1996
222 K.H. Kim et al: Distinct cortical areas associated with native and second languages. Nature
388:171-174, 1997
223 T. Rasmussen & B. Milner: The role of early left-brain injury in determining lateralization of
cerebral speech functions. Ann NY Acad Sci 299:355-369, 1977
224 P.J. Gannon et al: Asymmetry of chimpanzee planum temporale: humanlike pattern of
Wernicke’s brain language area homolog. Science 279:220-222, 1998
126
probabile che questa caratteristica sia molto più antica del linguaggio (dal momento che l’uso di
strumenti è documentato da circa due milioni di anni), le differenze nel planum temporale possano
aver avuto a che fare con questa caratteristica, che tuttavia non sembra presente nello scimpanzé 225 .
Origine evolutiva del linguaggio
Uno dei modi di apprendere qualcosa su un fenomeno o una struttura è, come abbiamo visto, quello
di studiarlo dal punto di vista evolutivo. Questo approccio, tuttavia, nel caso del linguaggio è assai
difficile, perché è innegabile che ci sia un gap tra le specie riguardo al linguaggio. Non esiste cioè
un continuum di manifestazioni correlate al linguaggio che ne rappresentino stadi iniziali, come
generalmente succede in biologia. Vi sono dei modi di comunicazione nella maggior parte dei
vertebrati, alcuni di questi, come nei delfini o negli scimpanzé, possono essere relativamente
sofisticati, ma è chiaro che c’è comunque un abisso tra le performances dell’uomo e quelle degli
altri animali. Come il pensiero e la coscienza, sembra che il linguaggio appartenga al gruppo di
manifestazioni del tipo “tutto o nulla”.
L’unica possibilità di studiare evoluzionisticamente il linguaggio è pertanto quello di andare a
vedere quanto accade nei primati più evoluti o, più facilmente, nei bambini. In questo modo,
assumendo che l’apprendimento del linguaggio passa nel bambino attraverso un numero di stadi che
parallela quanto avvenuto nell’evoluzione, potremmo forse capire qualcosa di più del linguaggio. E’
importante tuttavia notare che questo assunto non è per nulla provato, e per il momento è solo una
versione cognitiva del vecchio assioma “l’ontogenesi ricapitola la filogenesi”.
Tuttavia, anche se questa ipotesi non fosse vera, è probabile che lo studio dell’acquisizione del
linguaggio nel bambino, che è un processo che richiede mesi o anni, può dirci qualcosa sulla natura
stessa del linguaggio. Basti citare alcuni esempi di risultati recentemente ottenuti. Raccontando
semplici storie a bambini di 8 mesi, alcuni ricercatori hanno dimostrato che a questa età i bambini
iniziano a immagazzinare parole 226 . In un altro studio, sarebbe stato dimostrato che bambini di 7
mesi sono già in grado di formulare alcune regole nell’analisi del linguaggio, in quanto riuscivano a
distinguere brevi sequenze di fonemi, che avevano già udito, da altre per loro nuove 227 . Dal
momento che questo suppone che nella mente del bambino si effettui una generalizzazione tra
sequenze dello stesso o di differente genere, sembrerebbe che nella formazione del linguaggio
abbiano un ruolo delle regole scritte nel cervello umano, come prevede l’ipotesi dell’innatismo
linguistico. Questo suggerirebbe anche che in fondo il cervello umano segue delle regole e che
quindi possa essere simile ad un computer 228 .
In ogni caso, innato o no, se il linguaggio è comparso e si è affermato, è lecito chiedersi quale fosse
il vantaggio selettivo da esso fornito ai suoi utilizzatori. Sono state ipotizzate varie possibilità, quali
un vantaggio nella caccia che poteva essere meglio coordinata con il linguaggio; altri pensano che il
linguaggio abbia potuto fornire una maggior possibilità di estendere alleanze all’interno dello stesso
gruppo di ominidi 229 .
225 Sembrerebbe che la maggior parte degli scimpanzé siano monolateralizzati nell’uso dell’arto
superiore, ma in maniera casuale a destra o a sinistra.
226 P.W. Jusczyk & E.A. Hohne: Infant’s memory for spoken words. Science 277:1984-1986, 1997
227 G.F. Marcus et al: Rule learning by seven-month-old infants. Science 283:77-80, 1999
228 S. Pinker: Out of the minds of babies. Science 283:40-41, 1999
229 R. Dunbar: Grooming, gossip and the evolution of language. Faber & Faber, Londra, 1996. Le
scimmie hanno una complessa struttura sociale, e secondo Frans De Waal stringono alleanze e
intessono complotti all’interno dei loro gruppi. Il linguaggio potrebbe essersi affermato in quanto in
127
Il linguaggio, come è stato detto, non si fossilizza, e pertanto, non è possibile risalire indietro nel
tempo e capire quando è nato. In assenza di questi dati certi, ci si basa su dati indiretti. Gli organi
necessari per parlare, quali il polmone, il laringe, il faringe, la lingua ecc non si sono certo formati
in funzione del linguaggio, ma ne sono stati, per così dire, “parassitati”. Tuttavia, la conformazione
delle vie aree superiori dell’uomo è diversa da quella della scimmia e questa differenza
sembrerebbe legata alla capacità di emettere suoni necessari per il linguaggio umano. Alcuni di
questi cambiamenti, quali la discesa della laringe, sono svantaggiosi (ad esempio la diversa
posizione dell’epiglottide nell’uomo è la causa talora di un errato transito del cibo che può più
facilmente finire nella trachea invece che nell’esofago) e non vi sarebbe pertanto motivo perché si
siano sviluppati e mantenuti se non in vista di un vantaggio evolutivo che sarebbe appunto costituito
dalla possibilità di parlare. Ora, questi cambiamenti sono relativamente precoci, essendo già
presenti un centinaio di migliaia di anni fa nell’uomo di Neanderthal: l’osso ioide, che sostiene il
laringe, e il canale dell’ipoglosso, attraverso cui passa il nervo che innerva la lingua, sono di tipo
moderno già nel Neanderthal, ma non nelle australopitecine 230 . D’altro canto, ovviamente, questi
cambiamenti potrebbero essere presenti anche senza un linguaggio compiuto, ma essere associati
all’emissione di suoni di tipo umanoide, senza le capacità legate al linguaggio moderno.
Una seconda possibilità per indagare la nascita del linguaggio si basa sull’assunto che linguaggio e
profondità di pensiero vadano di pari passo. Se questa assunzione è vera, la documentazione di
manufatti di un certo tipo prova che l’uomo era giunto ad un livello tale in cui sicuramente un
linguaggio sofisticato doveva essere presente. Tra questi riscontri, abbiamo certamente le
manifestazioni artistiche, le cerimonie funebri e presumibilmente la produzione di strumenti
sufficientemente innovativi.
Sulla base delle testimonianze paleontologiche e archeologiche, certamente il linguaggio era
presente 50.000 anni fa. Se lo fosse anche prima, non si può affermare con certezza, ma è possibile
che fosse già presente 100.000 anni fa. L’uomo di Neanderthal aveva un linguaggio moderno? La
discussione è tra coloro che tendono a giudicarlo un ramo secco dell’evoluzione umano, un gigante
rozzo ed ignorante, spazzato via dal Cromagnon forse proprio a causa del linguaggio che faceva la
differenza, e coloro che invece lo vogliono ascrivere a pieno titolo nella galleria dei nostri antenati.
I dati paleontologici non sono definitivi. I sostenitori dei Neanderthal fanno notare che alcuni
manufatti trovati in siti quali il Monte Carmelo in Palestina, alcune rare sepolture associate con
cerimonie “religiose” e l’uso dell’ocra rossa attestano la presenza di pensiero simbolico e pertanto
di linguaggio 231 . Questi autori fanno notare che, almeno in Medio Oriente, Neanderthal e
Cromagnon convissero per decine di migliaia di anni (tra 60.000 e 40.000 anni fa), prima che
avesse luogo la “rivoluzione culturale” che avrebbe portato all’affermazione dei Cromagnon.
La discussione non è priva d’importanza. Si è abbastanza d’accordo sulla presenza di alcune
differenze fisiche tra Neanderthal e Cromagnon, tali che essi vengono talora riferite come la qualità
robusta e quella gracile dell’H. sapiens. Se le manifestazioni del linguaggio e del pensiero
simbolico fossero limitate al Cromagnon, la teoria della base biologica del linguaggio sarebbe, non
provata, ma almeno plausibile. Se invece il pensiero simbolico fosse già stato presente nei
grado di facilitare queste interazioni. Vedi anche F. De Waal: Chimpanzee politics: power and sex
among the apes. Harper & Row, New York, 1983.
230 R.F. Kay et al.: The hypoglossal canal and the origin of human vocal behavior. Proc Natl Acad
Sci U S A. 95:5417-9, 1998. Non tutti tuttavia sono d’accordo nel sostenere che tali trasformazioni
fossero già presenti nell’H. neanderthalensis, sostenendo che questi semplici dati sull’osso ioide
sono insufficienti a dirci con sicurezza la conformazione delle sue vie aeree superiori. Vedi anche
C. Holden: No last word on language origin. Science 282:1455-1458, 1998.
231 O. Bar-Yosef & B. Vandermeersch: Modern humans in the Levant. Sci Am, aprile 1993 pp 94-
100
128
Neanderthal, l’idea che una particolare acquisizione biologica sia alla base della differenza culturale
tra i due diventa più debole.
Non potrebbe forse essere che il linguaggio sia comparso così com’è apparsa la capacità di lavare la
patata tra i macachi (vedi più avanti)? Certo, non si può sapere se la scimmia che per prima ha
cominciato a lavare la patata non avesse una particolare mutazione che l’ha resa capace di tanto, ma
questo sembrerebbe improbabile. Così non si può sapere se chi per primo sviluppò un linguaggio
fosse geneticamente diverso dagli altri o se il primo motto gli sia uscito a caso. In entrambi i casi,
ovviamente, questa scoperta avrebbe dato un vantaggio a lui e ai suoi discendenti e i suoi geni si
sarebbero diffusi.
In qualunque periodo sia nato, il linguaggio si è sicuramente evoluto in una moltitudine di lingue.
La similitudine con i geni è veramente forte. Tuttavia il ritmo del cambiamento è estremamente più
rapido e tale da nascondere le relazioni dopo un certo numero di millenni. Il principio comunque è
sempre quello: una parola muta, ma talora conserva ancora qualcosa della sua struttura originaria
che testimonia la protoparola. Basti pensare alle lingue neolatine e alle loro relazioni tra loro e con
la lingua originaria. Basandosi su questo principio, all’inizio del XIX secolo le similitudini tra
greco, latino e sanscrito vennero riconosciute, così che queste lingue vanno ancor oggi sotto la
dizione di lingue indoeuropee. Oltre ai singoli termini, anche le strutture sintattiche possono
rimanere conservate e rivelare un legame tra le varie lingue. Sulla base di questi studi, molti sono
giunti a sostenere che vi è una sola lingua originaria da cui tutte sono derivate. Non ci sarebbe
quindi solo un’Eva mitocondriale ma anche una “Comare primigenia”. Questo linguaggio poi si
sarebbe diffuso come fece l’agricoltura secondo Cavalli Sforza, cioè spostandosi nei cervelli dei
suoi possessori 232 .
Linguaggio e pensiero nelle scimmie
Le api comunicano, tramite la cosiddetta danza delle api, un sistema stereotipato e presumibilmente
completamente inconscio. Si tratta pertanto di un comportamento innato, cioè scritto nei geni. Le
comunicazioni delle scimmie sono spesso ritenute innate, ma ne siamo sicuri? Esistono studi di
scimmie allevate da sole subito dopo la nascita? Sono esse in grado di comunicare con i loro simili?
Cosa succede alle scimmie antropomorfe allevate in cattività o in isolamento e poi reimmesse nel
loro ambiente naturale ?
Possono le scimmie parlare o comprendere il nostro linguaggio? Data la considerazione in cui
l’uomo tiene il linguaggio, la domanda è rilevante. E, anche se non potesse parlare, una scimmia
può pensare? Parlando a proposto dell’assenza del linguaggio negli animali, Lamettrie così si
esprimeva:
“Ma questo difetto è poi talmente inerente alla costituzione che non vi si possa arrecare alcun
rimedio ? in una parola, è assolutamente possibile insegnare una lingua a questo animale ?…non
lo credo…Perché dunque dovrebbe essere impossibile l’educazione delle scimmie ? Perché la
scimmia non dovrebbe riuscire, a forza di cure, ad imitare, come fanno i sordi, i movimenti
necessari per articolare la parola ? Non oso decidere se gli organi vocali della scimmia non
232 L. Cavalli Sforza e F. Cavalli Sforza: Chi siamo? La storia della diversità umana. Mondadori,
Milano, 1993.
129
possano, checché si faccia, articolare nulla: ma questa impossibilità assoluta mi stupirebbe, data la
grande analogia fra la scimmia e l’uomo” 233 .
Vi sono casi di segnalazione di manifestazioni di intelligenza nei primati, alcune delle quali
superano la qualifica dell’aneddoto. Durante la prima guerra mondiale, il psicologo tedesco
Wolfgang Kolher si dedicò molto a questo problema, e il suo libro è rimasto un classico 234 . I suoi
scimpanzé hanno mostrato una certa capacità nell’uso di strumenti. Altri episodi famosi riguardano
il caso dei macachi di Koshima, una piccola isola giapponese, che impararono a pulire le patate con
l’acqua per liberarle dai granelli di sabbia e gli scimpanzé che sono capaci di infilare un bastone in
un termitaio per poi leccarselo con tutti gli insetti che vi hanno aderito (le termiti invece non hanno
ancora imparato a non salire sul bastoncino).
Oggi si ritiene che gli scimpanzé siano in grado di effettuare una notevole gamma di manifestazioni
per così dire culturali. Il titolo di un recente articolo che ha riunito gli specialisti di scimpanzé di
tutto il mondo è appunto “Culture negli scimpanzé” 235 . Gli autori hanno descritto una serie di
comportamenti “intelligenti” che sono presenti in alcuni gruppi di scimpanzé e li hanno confrontati
con tutti gli altri gruppi. L’insieme di tali comportamenti in un determinato gruppo di animali
costituisce la loro cultura, che per l’appunto, come negli umani, varia da gruppo a gruppo.
Tra le attività culturali dello scimpanzé vi è sicuramente la capacità di comunicare con i propri
simili, mediante suoni che appaiono di natura stereotipata. Gli scimpanzé ovviamente non hanno un
linguaggio flessibile come quello umano, ma non l’hanno perché nessuno glielo ha insegnato o
perché non possono apprenderlo per questioni biologiche ? Su questo problema, differenti scuole di
pensiero danno previsioni opposte. Chi come Chomsky, pensa che vi sia alla base una struttura
innata (cioè biologica), prevederà che gli scimpanzé non potranno mai usare il linguaggio di tipo
umano. Chi al contrario pensa che il linguaggio è completamente appreso e che si tratta solo di
stimolare i neuroni a farlo, potrebbe investire in un progetto di apprendimento del linguaggio da
parte degli scimpanzé.
Teoricamente, e si tratta di un problema ancora non risolto, le scimmie potrebbero avere difficoltà
nell’articolazione di alcuni suoni che potrebbero rendere loro difficile un linguaggio parlato come il
nostro. Quello che ci interessa tuttavia è sapere se possono ragionare come noi. Se, come abbiamo
accennato sopra, il linguaggio parlato o scritto non è un prerequisito indispensabile per il pensiero,
potrebbe essere possibile che gli scimpanzé abbiano una certa rudimentale forma di pensiero e di
ragionamento, ma che non possano parlare; o addirittura potrebbero avere notevoli capacità di
ragionare che noi non riconosciamo ad apprezzare perché siamo antropomorficamente focalizzati
sugli aspetti linguistici. Insomma, quello che ci interessa veramente è la possibilità che le scimmie
possano manipolare simboli con un significato.
In effetti i primi tentativi di insegnare le nostre lingue agli scimpanzé sono stati deprimenti, e da
tempo nessuno usa più questo approccio. Tali tentativi risalgono all’inizio del ventesimo secolo, si
rivolgevano a scimpanzé che erano spesso allevati insieme agli uomini e non portarono ad alcun
risultato per quanto riguarda la capacità di usare alcunché di simile al linguaggio umano. Nadezka
Kohts del Darwinian Museo Darwiniano di Mosca allevò in casa un piccolo scimpanzé, Ioni, il
quale, pur dimostrando notevoli capacità, tra cui quella di distinguere i colori, non pronunciò mai
neanche una parola di russo. Dieci anni dopo, quando la Kohts ebbe un figlio, annotò
233 J. Offroy de Lamettrie: L’uomo macchina e altri scritti. Feltrinelli, Milano, 1973; p. 43-44. Il
libro è del 1748.
234 W. Kohler: L’intelligenza nelle scimmie antropoidi. Giunti, Firenze, 1960
235 A. Whiten et al: Cultures in chimpanzees. Nature 399:682-685, 1999.
130
diligentemente il suo sviluppo fino all’età di quattro anni e successivamente lo comparò alle
capacità di Ioni.
Altri esperimenti vennero compiuti negli Stati Uniti. I coniugi Kellogg avevano grande fiducia negli
scimpanzé e pertanto decisero di allevarne uno di 7 mesi insieme al loro figlio di 10. Anche i
coniugi Hayes allevarono uno scimpanzé in casa, sempre senza risultati. Malgrado la simpatia per
questi animali e persino il legame affettivo che si instaurò tra di essi e gli sperimentatori, la loro
delusione può essere riassunta nelle parole della Kotz, che ebbe a scrivere a conclusione dei suoi
sforzi:
“Ed ora, mentre giungo alla conclusione del mio studio comparativo, sembra come se il ponte per
mezzo del quale ho cercato per tutto il tempo di colmare la distanza tra la scimmia (antropomorfa)
e l’uomo sia andato completamente in pezzi” 236 .
Dopo la seconda guerra mondiale, i primatologi pensarono di evitare le difficoltà legate al
linguaggio parlato ed investigare se si potesse comunicare con altri metodi. Negli anni sessanta,
basandosi sull’American Sign Language, i coniugi Gardner insegnarono a uno scimpanzé di nome
Washoe, che allevarono come fosse un figlio, l’alfabeto usato dai sordomuti. A Sarah invece, lo
scimpanzé allevato in una gabbia dai coniugi Premack, fu insegnato un linguaggio artificiale
costituito da gettoni di diverse forme e colori, che Sarah utilizzava appendendoli ad una lavagna
magnetica. Ogni gettone corrispondeva ad una parola specifica e Sarah doveva metterli nella giusta
sequenza della frase inglese 237 . Al contrario degli studiosi precedenti, le conclusioni dei Gardner e
dei Premack furono molto ottimiste:
“Sarah è riuscita ad imparare un codice, un linguaggio semplice che comprende però alcuni
caratteri tipici del linguaggio naturale….Messa a confronto con un bambino di due anni, Sarah si
difende però molto bene sul piano delle abilità di linguaggio…L’uomo è affetto da pregiudizi
comprensibili a favore della propria specie, e i membri di altre specie devono compiere fatiche
erculee prima che ad essi venga riconosciuto il possesso di capacità simili…Ci auguriamo che le
nostre scoperte cancellino pregiudizi e conducano a nuovi tentativi di insegnare linguaggi
appropriati agli animali” 238
Negli anni settanta, l’entusiasmo era notevole. Anche i coniugi Rumbaugh hanno utilizzato un
metodo simile per il loro scimpanzé Lara: essi usarono un sistema di simboli geometrici che
venivano manipolati su una consolle e visualizzati su un computer. Nel 1978, anch’essi hanno
riassunto i loro interessanti risultati ottenuti con questo approccio 239 . Ma l’anno successivo
Herbert Terrace, psicologo della Columbia University, pubblicava un articolo dal tono fortemente
dubitativo, in cui demoliva le interpretazioni dei risultati ottenuti negli studi precedenti 240 .
236 Citato in A.P Premack: Perché gli scimpanzé possono leggere. Armando editore, Roma, 1978; p.
36. Gli esperimenti con lo scimpanzé Ioni sono del 1913-1916, mentre il figlio nacque nel 1925. Il
confronto tra i due pertanto è stato eseguito sulla base degli appunti presi in precedenza su Ioni. Si
trattava comunque dei primi studi di questo genere, in un’epoca in cui non si sapeva quasi nulla
sugli scimpanzé e in cui gli standard scientifici e i mezzi tecnici erano rudimentali.
237 Questi esperimenti sono stati descritti (in maniera alquanto entusiastica) nel libro citato nella
referenza precedente. Si possono consultare anche le referenze contenute a p.123 dello stesso libro
238 A.J. Premack & D. Premack: Teaching language to an ape. Sci Am, ottobre 1972. La citazione è
presa dall’edizione italiana di Le Scienze.
239 E.S Savage-Rumbaugh et al: Symbolic communication between two chimpanzees (Pan
troglodytes). Science 201:641-644, 1978
240 H.S. Terrace et al: Can a ape create a sentence. Science 206:891-902, 1979
131
Essenzialmente, sosteneva Terrace, non vi erano motivi per concludere che gli scimpanzé studiati
fossero in grado di formare proposizioni né che avessero appreso qualcosa di anche lontanamente
simile al linguaggio umano. I (modesti) risultati ottenuti, che non andavano oltre la combinazione di
due soli segni, erano spiegabili sulla base del fenomeno di “Clever Hans”, cioè di indizi forniti allo
scimpanzé dallo sperimentatore stesso (vedi più avanti). In altre parole, analizzando il
comportamento dello scimpanzé da lui stesso addestrato, ironicamente chiamato Nim Chimpsky,
Terrace constatò che esso tendeva a comunicare utilizzando segni utilizzati poco prima dallo
sperimentatore. Inoltre, analizzando le videoregistrazioni disponibili per Washoe, lo scimpanzé
addestrato dai coniugi Gardner, si accorse che anch’esso si comportava allo stesso modo. Le
conclusioni di Terrace sono:
“…apes can learn vocabularies of visual symbols. There is no evidence, however, that apes can
combine such symbols in order to create new meanings. The function of the symbols of an ape’s
vocabulary appears not so much to identify things or to convey information …as it to satisfy a
demand that it use that symbol in order to obtain some reward” 241 .
Ne seguì una notevole polemica tra sostenitori e detrattori dello scimpanzé 242 . Clever Hans era un
cavallo che era capace di far di conto: batteva lo zoccolo fino ad arrivare al risultato giusto
dell’addizione propostagli. Tuttavia lo psicologo Oskar Pfungst potè dimostrare che in realtà il
cavallo smetteva di battere lo zoccolo basandosi su piccoli movimenti di testa che il suo padrone,
inconsciamente, faceva quando esso raggiungeva il numero giusto 243 . La controversia è lungi
dall’essere sedata, in quanto i sostenitori degli scimpanzé hanno sempre rigettato le critiche di
Terrace e dei suoi alleati. La Savage-Rumbaugh ha recentemente riportato l’addestramento di un
bonobo, di nome Kanzi. I bonobo (o scimpanzé pigmei) sono stati da un po’ di tempo riconosciuti
come una specie a se stante con caratteristiche culturali un po’ diverse da quelle dei loro cugini
scimpanzé, e secondo alcuni sono anche più brillanti di loro. La Savage-Rumbaugh e i suoi
collaboratori sostengono di aver dimostrato che Kanzi possiede una rudimentale abilità sintattica
comparabile a quella di un bambino di due anni 244 . Ma in generale si può dire che l’entusiasmo per
l’argomento è relativamente scemato. Molti oggi ritengono che Nim Chimpsky, lo scimpanzé di
Terrace abbia confermato le tesi di Noam Chomsky secondo cui siamo unici, e che il nostro
cervello sia irrimediabilmente diverso da quello degli scimpanzé, malgrado tutta le tenerezza che
questi animali possono suscitare in noi con le loro trovate, specie se sono piccoli.
241 idem, p. 900.
242 La controversia agli inizi degli anni Ottanta è stata aspra e ha raggiunto anche toni poco
simpatici. Per una breve discussione vedi: B.O. McGonigle. Sign, symbol and syntax in the
language of apes. Nature 286:761-762, 1980; J.L. Marx: Ape-language controversy flares up.
Science 207:1330-1333, 1980; N. Wade: Does man alone have language? Apes reply in riddles, and
a horse say neigh. Science 208:1349-1351, 1980; E.S. Savage-Rumbaugh et al: Chimpanzee
problem comprehension: insufficient evidence. Science 206:1201-1202, 1979
243 T.A. Sebeok & R. Rosenthal: The Clever Hans phenomenon. Ann N.Y.Acad Sci volume 364,
interamente dedicato alla discussione di questo fenomeno.
244 S. Savage-Rumbaugh et al: Language comprehension in ape and child. Monogr Soc Res Child
Dev 58:1-222, 1993; S. Savage-Rumbaugh & R Lewin: Kanzi: the ape at the brink of the human
mind. John Wiley & Sons, New York, 1994; S. Savage-Rumbaugh et al: Apes, language, and the
human mind. Oxford University Press, Oxford, 1998
132
Conclusioni
L’analisi del linguaggio è solo appena iniziata. Oggi il linguaggio viene aggredito con innovazioni e
affinamenti tecnici ideati da psicologi, neurologi, neuropatologi, linguisti, primatologi,
neurofisiologi, informatici, archeologi e genetisti. Nei pazienti con lesioni cerebrali si enfatizzano
coloro che presentano piccolissimi deficit, che una volta presumibilmente non venivano neppure
indagati dai neurologi clinici. Ad esempio, sono stati identificati pazienti affetti da lesioni cerebrali
che sono ancora in grado di riconoscere le forme dei verbi irregolari ma non quelle regolari, o
viceversa 245 . I test psicologici vengono ideati per studiare specifici aspetti del ragionamento e
vengono spesso concepiti per testare complesse teorie riguardanti le basi cerebrali del linguaggio. I
lavori di imaging ci consentono la visione del cervello mentre esegue un compito, anche se i
risultati richiedono essi stessi una notevole capacità di elaborazione da parte di altri cervelli. La
genesi del linguaggio nei bambini viene sempre più studiata con grande pazienza e ingegnosità. Per
ora tuttavia il linguaggio rimane ancora una proprietà misteriosa della specie umana.
245 M. Marslen-Wilson & L.K. Tyler: Dissociating types of mental computation Nature 387:592-
594, 1997
133
Parte terza
Discussione
“Thus it was that the determination rose within him at the moment of the accident. It prompted him
to busy himself for six years, knocking at all the doors in Lima, asking thousands of questions,
filling scores of notebooks, in his effort at establishing the fact that each of the five lost lives was a
perfect whole. Everyone knew that he was working on some sort of memorial of the accident, and
everyone was very helpful and misleading. A few even knew the principal aim of his activity, and
there were patrons in high places.
The result of all this diligence was an enormous book, which, as we shall see later, was publicly
burned on a beautiful spring morning in the great square. But there was a secrete copy, and after
many years and without much notice it found its way to the library of the University of San Martin.
There it lies between two great wooden covers collecting dust in a cupboard. It deals with one after
another of the victims of the accident, cataloguing thousands of little facts and anecdotes and
testimonies, and concluding with a dignified passage describing why God had settled upon that
person and upon that day for his demonstration of wisdom. Yet for all his diligence, Brother
Juniper never knew the central passion of Dona Maria’s life; not of Uncle Pio’s; not even of
Esteban’s. And I, who claim to know so much more, isn’t it possible that even I have missed the
very spring within the spring ?”
Thorton Wilder, The Bridge of Saint Louis Rey
134
Capitolo 9.
LA MALEDIZIONE DI HUME
Per lunghi anni la mia preoccupazione nello scrivere questo libro è stata quella di non
incappare nella maledizione di Hume.
“If we take in our hand any volume of divinity or school metaphysics, for instance, let us
ask, “Does it contain any abstract reasoning concerning quantity or number?” No. “Does it
contain any experimental reasoning concerning matter of fact and existence?” No. Commit
it then to flames: for it can contain nothing but sophistry and illusion” 246 .
Si può facilmente comprendere come a nessuno piaccia lavorare per produrre cose degne di
essere gettate nelle fiamme, non a motivo del fatto che quello che si è scritto è banale e
modesto, ma proprio perché l’oggetto del proprio sforzo non esiste. Sarebbe come scrivere
un trattato di anatomia dell’ippogrifo. Per noi, che, nati troppo prima di Internet, abbiamo
una venerazione estrema per la carta stampata, finire in un rogo rappresenta una punizione
estrema.
D’altro canto, il monito di Hume è comprensibile. Tutti noi vorremmo non essere sommersi
da materiale superfluo e se ci poniamo nell’epoca dell’empirista inglese, la sua reazione è
comprensibile. E lo è ancora di più oggidì, in cui c’è una vera inflazione di libri e riviste,
scientifiche e non. Ma, bisogna chiedersi, che cosa ha di diverso, in linea di principio, il
fuoco di Hume dal rogo dei libri che fece il Terzo Reich o dai lanciafiamme di Fahrenheit
451 ? 247
Vorrei pertanto dedicare qualche riga sulla validità non di questo libro, ma dell’argomento di
questo libro.
Cos’è la filosofia?
Cos’è la Filosofia ? Il dibattito su questo termine è stato ed è quanto mai acceso.
Distingueremo qui tre grosse prese di posizione su questo termine.
Per la Filosofia classica, la filosofia è “scientia rei per ultimas rationes”; i sostenitori di
questa tesi distinguevano notoriamente tre piani di conoscenza, il “quia”, il “quomodo e il
“propter quid”, affermando che quest’ultima, la conoscenza delle cause, fosse la tappa più
alta del conoscere ed appannaggio della filosofia. Far filosofia era “cognoscere causam
246 “Quando scorriamo i libri di una biblioteca, persuasi di questi principi, che cosa dobbiamo
distruggere ? Se ci viene alle mani qualche volume, per esempio di teologia o di metafisica
scolastica, domandiamoci: contiene qualche ragionamento astratto sulla quantità o sui numeri ? No.
Contiene qualche ragionamento sperimentale su questioni di fatto e di esistenza ? No. E allora
gettiamolo nel fuoco, perché non contiene che sofisticherie e inganni”. D. Hume: Opere, Laterza,
Bari, 1971; vol II, p. 175.
247 R. Bradbury: Fahrenheit 451. Ballantine, New York, 1953 . In questo libro, Guy Montag è un
pompiere che fa parte di una brigata il cui compito è di bruciare ogni libro rimasto insieme alla casa
di chi lo aveva nascosto. Egli compie il suo lavoro senza problemi finché non incontra una giovane
donna che gli parla di un tempo passato in cui la gente leggeva senza timore. Insieme fuggono ai
margini della società dove vivono uomini liberi, ognuno dei quali ha imparato a memoria un libro
giungendo ad identificarsi ormai con il libro stesso.
135
propter quam res est et non potest aliter se habere” 248 . Insita in questa distinzione, ma
sviluppatasi in maniera chiara solo più tardi, era l’idea dell’esistenza di una realtà che stesse
dietro alla realtà fenomenica e potesse essere colta solo dall’indagine filosofica; fu con la
separazione netta tra scienza e filosofia che questa tesi divenne esplicita. Oggi i diretti
discendenti della filosofia classica sono i discepoli di Tommaso d’Aquino, che formano la
Neoscolastica, contro cui in particolare si dirigono gli strali di Hume (“school
metaphysics”). La loro tesi è che esiste una realtà sensibile che è studiata dalla scienza e una
realtà extrasensibile che è oggetto di studio della filosofia e in particolare della metafisica.
Esistono conseguentemente due insiemi di conoscenze, ognuna con un proprio metodo
valido nel proprio campo. La filosofia “studia gli aspetti più universali, la scienza gli aspetti
particolari”; essa “ha per oggetto il reale nella sua totalità”; “scienza e filosofia sono due
tipi diversi di conoscenza” che usano “due modi diversi di conoscenza”; al metodo di
conoscenza della filosofia “non occorrono esperimenti né laboratori: basta la semplice
astrazione universalizzatrice della quale è capace ogni uomo per il fatto di essere uomo” 249 .
Alla Neoscolastica possono essere accomunate tutte le dottrine che sostengono l’esistenza di
una realtà trascendente e la possibilità di conoscerla mediante un metodo diverso da quello
sperimentale.
Viene poi un gruppo di filosofie che ritengono che questa realtà trascendente esista ma che
non sia conoscibile. Il filosofo più rappresentativo di questa corrente di pensiero è
probabilmente Kant con la sua dottrina della “cosa in sé” o “noumeno” che sta al di là del
mondo fenomenico, ma che noi non possiamo conoscere anche se sentiremo sempre il
bisogno di parlarne. Su questa conclusione di Kant è probabile che abbia influito il fatto che
nella sua storia la filosofia non ha partorito conclusioni definitive o per lo meno ampiamente
accettate, in contrasto con la scienza che proprio a quell’epoca cominciava ad ammassare
splendidi risultati quali quelli della fisica newtoniana.
Il seguace più interessante di Kant è, almeno per quanto riguarda i concetti che voglio qui
mettere a fuoco, l’austriaco Ludwig Wittgenstein: egli compie un breve passo avanti rispetto
alla posizione kantiana, passo che per certi aspetti appare logico ed inevitabile. Il suo
Tractatus Logico-philosophicus termina con la ben nota proposizione 7, che suona: “Di ciò
di cui non si può parlare bisogna tacere” 250 . Questa frase, come mostra anche la
testimonianza personale di uno che lo conobbe bene 251 , non è una negazione di un mondo
extrasensoriale, bensì l’affermazione che esso esiste, ma che il parlarne è vano. In effetti,
basta tener presente, per convincersene, la proposizione 6.522 dello stesso Tractatus: “Vi è
davvero l’ineffabile. Esso mostra sé, è il mistico”. Wittgenstein, personalità assai complessa,
passò in effetti un periodo della sua vita in convento.
Forse contro la sua volontà, ma non senza una certa consequenzialità, Wittgenstein divenne
l’ispiratore e il simbolo del terzo gruppo di filosofie, quelle che negano che esista una realtà
trascendente e che vi sia alcunché da conoscere al di fuori della realtà sensibile. Il passo che
va dalla inconoscibilità alla non-esistenza è senz’altro breve, perché se l’onus probandi
spetta a chi sostiene una tesi e non a chi la combatte, la non-conoscibilità diventa tout court
la non-esistenza. Un mondo non conoscibile è un mondo di fantasmi: certamente c’è chi ci
248 F. Olgiati: I fondamenti della filosofia classica. Vita e Pensiero, Milano, 1953; p. 8
249 S. Vanni Rovighi: Trattato di filosofia. Vol.I. Introduzione e logica. Marzorati Editore, Milano,
1950. Le citazioni sono a p. 29; p.29; p. 30; p.31 e p. 36
250 L. Wittgenstein: Tractatus logico-philosphicus. Proposizione 7. Einaudi, Torino, 1964. Il
Tractatus fu terminato nel 1918 e la prima edizione è del 1921.
251 F. Parak: Wittgenstein prigioniero a Cassino. Armando, Roma, 1978
136
crede senza sentirne il bisogno di provarlo, ma accettando questo approccio si possono
considerare vere un’infinità di cose, dall’olandese volante al liocorno e all’iperuranio.
Questo gruppo di filosofie nacque sotto il nome di neopositivismo o “empirismo logico” ed
ebbe le sue radici nel Circolo di Vienna diretto, per così dire, da Moritz Schlick; ne fecero
parte Rudolf Carnap, Otto Neurath e molti altri; tra i precursori, ovviamente, Hume, e in
minor misura Leibniz e Comte. Tesi fondamentale di questi filosofi è che vi è un unico
metodo di conoscenza, quello basato sul metodo sperimentale, e che vi è una sola realtà
conoscibile o più semplicemente una sola realtà.
Ci possiamo domandare cosa diventa per gli empiristi logici la filosofia. Essa diventa a
seconda delle sfumature che separano un filosofo dall’altro, logica, filosofia della scienza,
analisi del linguaggio, ecc. Al di fuori di questi settori, la filosofia è solo metafisica, cioè un
insieme di asserti privi di senso, degni di essere bruciati in un unico rogo come già suggeriva
Hume.
“Se qualcuno asserisse ‘c’è un Dio’… noi non gli diciamo ‘quel che dici è falso’, ma gli
chiediamo ? cosa vuoi dire con le tue frasi ?’. Diverrà allora chiaro che c’è una netta
divisione tra due tipi di asserti. Un tipo comprende proposizioni come quelle della scienza
empirica… Gli altri asserti… mostrano da sé di essere completamente privi di significato, se
li prendiamo come li intende il metafisico. Naturalmente spesso li possiamo reinterpretare
come proposizioni empiriche; ma allora esse perdono quel contenuto emotivo che per il
metafisico è essenziale… Metafisici e teologi…credono che esse asseriscano qualcosa,
rappresentino qualche stato di fatto. Tuttavia l’analisi mostra che questi asserti non dicono
nulla, ma sono soltanto l’espressione di qualche atteggiamento emotivo… Non si può porre
alcuna obiezione a un mistico che asserisca di avere esperienze trascendenti di ogni
concetto; ma egli non ne può parlare, poiché parlare significa affermare concetti e ridurli a
fatti che possono essere incorporati nella scienza” 252 .
La domanda base che si posero questi filosofi fu: “Quali sono i problemi dotati di senso ?”.,
il che equivale quasi completamente a “quali sono gli asserti dotati di senso ?”. Essi
risposero: gli asserti dotati di senso sono quelli che sono verificabili almeno in linea di
principio, e i problemi dotati di senso sono quelli per la cui soluzione anche parziale sono
disponibili proposizioni di tal fatta. Ne consegue che la maggior parte delle dispute
filosofiche che non possono essere verificate sono puro nonsenso o “metafisica”, cioè tutto
materiale da gettare nel rogo di Hume: un’analisi attenta del linguaggio permetterà di
mostrare che queste proposizioni sono in realtà pseudoproposizioni. Il principio di
verificazione diventa così un gigantesco rasoio di Ockham con il quale noi possiamo
eliminare in un sol colpo non solo enti immaginari ma anche problemi immaginari.
Per i neopositivisti, è chiaro che l’insieme delle proposizioni sensate coincideva con la
scienza e con la matematica, le due categorie di libri che Hume salvava dal suo rogo
purificatore. E’ anche vero che successivamente sono state mosse critiche sia al principio di
verificazione (come abbiamo accennato nell’introduzione), che al suo utilizzo come criterio
di senso. Molti adesso lo ritengono un criterio di demarcazione, tra ciò che è affrontabile dal
metodo scientifico e ciò che non lo è, più che un criterio di senso. In questo modo, non si
nega a priori che la metafisica possa aver un senso, ma ce se ne libera comunque dicendo
che non fa parte della conoscenza empirica. Questa conclusione ha un po’ il sapore di una
pace armata in cui i contendenti dicono che per il momento è meglio sospendere le ostilità
perché il tributo di sangue pagato da entrambe le parti è già troppo alto.
252 H. Hahn et al. Wissenschaftliche Weltaunffassung: Der Wiener Kreis. p. 16 –17. Citato in J.
Joergensen: Neopositivismo e unità della scienza. Bompiani, Torino, 1973; p. 95-96.
137
D’altro canto è innegabile che l’empirismo logico, con tutte le sue modificazioni operate da
filosofi della scienza più recenti, abbia rappresentato il più delle volte e sia stata sentita
come l’ideologia ufficiale della scienza. Il termine di verificazione o di falsificazione sono
entrati nella testa di tutti gli scienziati oltre che dei filosofi della scienza, anche se alcuni di
questi rifiuterebbero la dizione di neopositivista (Popper ad esempio, pur essendo “nato” nel
Circolo di Vienna, non si ritiene un neopositivista, anzi sostiene di essere stato lui ad
uccidere il neopositivismo 253 ). Pertanto, a torto o a ragione, le critiche dei neopositivisti
sono state sentite come critiche che provenivano dal mondo della scienza stesso, anche se è
chiaro che il neopositivismo non è la scienza moderna, bensì in qualche modo una
riflessione (filosofica) su di essa, secondo quanto riportato dallo stesso Wittgenstein, quando
nella proposizione 6.54, con tono quasi messianico, afferma che la sua analisi esaurisce la
funzione della filosofia stessa:
“Colui che mi comprende, infine le riconosce insensate, se è salito per esse – su di esse –
oltre esse”.
Inoltre, negli stessi anni il fossato tra scienza e filosofia ha continuato ad allargarsi anche per
banali problemi pratici, e cioè l’enorme ampliamento delle conoscenze in tutti i settori, che
hanno acuito la tendenza di ciascuno a interessarsi solo di un campo assai ristretto.
Cosa dire a questo punto della maledizione di Hume ? Vi potrebbe essere un libro di
filosofia che non debba essere bruciato sul rogo?
Proposizioni rilevanti per la vita
La classificazione è una parte importante dell’attività scientifica. Si possono classificare tutti
i tipi di fatti, compresi quel particolare tipo di fatti che sono gli enunciati o proposizioni. I
criteri di classificazioni, come ben sanno gli zoologi che devono riunire le varie specie in
gruppi, possono essere in notevole misura arbitrari, dipendendo dal punto di vista in cui ci si
pone. Classificando non si fa altro che definire certi insiemi ed eventualmente sottoinsiemi.
La proposizione caratteristica dell’insieme può essere la più varia.
Immaginiamo di inserire nella memoria di un computer tutte le proposizioni ritenute vere o
probabili ottenute secondo le regole del metodo sperimentale. Possiamo divertirci a far
selezionare alla macchina tutti gli insiemi che vogliamo; per esempio l’insieme delle
proposizioni fatte da dieci parole, o quelle che hanno attinenza con il diabete o quelle che
riguardano Giuseppina Beauharnais, prima moglie di Napoleone Bonaparte, e così via.
Oppure se sono assetato in un deserto, posso selezionare tutte le proposizioni concernenti la
distribuzione delle oasi in quella zona geografica: qui la motivazione sarà evidentemente
egocentrica, ma non per questo meno lecita: avrò selezionato un tipo di proposizioni in base
ad una mia esigenza personale, per giunta contingente, ma ciò non toglie che esse saranno
tanto sensate quanto lo erano prima della mia operazione.
Oppure posso ancora selezionare tutte quelle proposizioni che ritengo in grado di modificare
il mio comportamento. Certamente a questo punto comincerei ad avere delle difficoltà circa
le istruzioni da dare al computer, ad esempio per il fatto che in linea teorica qualsiasi
proposizione, nel momento in cui la leggo o l’ascolto modifica le mie cellule recettoriali e
nervose, il che, se si prende il termine comportamento in senso lato, può rappresentare una
modifica del mio comportamento, rilevabile elettrofisiologicamente o con tecniche
d’immagine. Limitando l’accezione a qualche modifica più specifica, incontrerò ancora delle
253 K. Popper: Unended quest. William Collins Sons & Co., Glasgow, 1976; p. 87-90
138
difficoltà non trascurabili. Infatti, ad esempio, l’enunciato “il giorno tale, all’ora tale nel
posto talaltro la squadra del Manchester ha battuto per 2 a 1 la squadra del Liverpool” può
lasciare molti assolutamente indifferenti, ma può scatenare modificazioni comportamentali
nei tifosi, facilmente rilevabili, quali cortei in centro, risse tra hooligans, aumento del
numero di ricoverati al pronto soccorso, rumori sgradevoli e altro, senza tuttavia rientrare
nell’insieme di proposizioni che sto cercando di definire. Posso andare più in là e cercare di
selezionare proposizioni che hanno per oggetto un comportamento in senso universale; con
questo non sarebbero ancora superate tutte le difficoltà, in quanto la proposizione “oggi alle
12.34 gli americani hanno lanciato una bomba atomica su Mosca” difficilmente lascerebbe
qualcuno impassibile, senza tuttavia essere esattamente quello che intendo. Nessuno di
questi processi è tuttavia illecito, e si potrebbe anche pensare di selezionare un abbondante
numero di proposizioni che possono poi venire controllate visivamente una ad una per la
loro pertinenza, come capita a volte di dover fare nella ricerca con parole chiave.
Adesso poi vorrei isolare un particolare sottoinsieme di proposizioni tra quelle che
provocano una modificazione del comportamento, anch’esse di non facile definizione. Dire
che ci sono difficoltà di esatta definizione dell’insieme di queste proposizioni che chiamerò
“rilevanti per la vita” o per brevità “vitali”, non toglie nulla ovviamente alla sensatezza e alla
verità di questi enunciati. Del resto nella scienza come nella attività di ogni giorno, numerosi
insiemi estremamente importanti sono altrettanto sfumati: nella classificazione dei viventi,
ad esempio, tutti gli insiemi che definiscono raggruppamenti superiori a quello della specie
sono spesso mal definiti. D’altro canto, malgrado che ci siano numerose definizioni di
matematica, nessuno potrebbe negare che la proposizione “2 + 2 fa quattro” faccia parte di
essa. In fondo la difficoltà di porre un limite tra un insieme ed un altro è presente ovunque:
chi può separare con un taglio netto l’insieme dei sani da quello dei malati ? Se ben si
guarda, distinguere tra le varie scienze particolari non è altro che incasellare ogni
proposizione in un insieme piuttosto che in un altro. Ma dove finisce la chimica e comincia
la biologia, dove termina la neurofisiologia e inizia la psicologia ? Per farlo dovremmo avere
una definizione esatta di tali insiemi, cosa che non è possibile, almeno per il momento.
Ritengo quindi di poter concludere che sia assolutamente lecito isolare un sottoinsieme
dell’insieme di tutte le proposizioni ritenute vere di cui facciano parte le proposizioni
rilevanti per la vita in senso universale; ritengo che la difficoltà di definizione di questo
termine non sia maggiore di quelle che si riscontrano quando si cerca di isolare altri
sottoinsiemi che vanno sotto il nome di chimica, fisica, ecc.; e chiamo questo insieme come
filosofia.
Sono convinto che questa definizione scontenterà molti, alcuni che vi vedranno una
reintroduzione della metafisica, altri che non potranno ammettere che la filosofia sia un
sottoinsieme della scienza. Ovviamente la preoccupazione dei primi è completamente
immotivata, perché abbiamo selezionato solo proposizioni ottenute nell’ambito del processo
scientifico. A proposito delle preoccupazione dei secondi, va tenuto conto che in tal caso il
termine scienza va inteso nel senso latino del termine, che significa semplicemente
conoscenza. In fondo, se il metodo di conoscenza è uno solo, esiste solo un tipo conoscenza,
esiste solo una “scientia rei per ultimas rationes”, che si raggiunge, per quel che si può, in
una sola maniera.
Vorrei comunque motivare ulteriormente questa mia argomentazione. Premesso che ognuno
può definire degli insiemi nella maniera che più gli aggrada, si ammette in genere che per
evitare confusioni sia meglio definire degli insiemi diversi con nomi diversi. Ora, oltre alle
definizioni classiche di filosofia, negli ultimi 50 anni ce ne sono state numerose altre, anche
139
nell’ambito del neopositivismo. Definizioni tutte lecite, ma che a mio parere non hanno
toccato il nucleo centrale di quella che è stata la filosofia prima ancora dei Greci. E’ mia
profonda convinzione che la filosofia nel corso dei millenni sia stata soprattutto una serie di
tentativi di rispondere ad alcune domande che possono essere riassunte per chiarezza e
semplicità con questa: “Chi sono, quali sono le mie origini e qual è il mio destino ?”,
domande che da molti sono ritenute metafisiche e da evitare se non si vuole tornare a “tentar
l’essenza”.
Ma chi, fosse anche il più accanito avversario della metafisica, potrebbe negare validità alla
domanda “Esistono resti fossili attribuibili ad antenati comuni delle scimmie moderne e
dell’uomo” ? Risposte di questo tipo sono senza dubbio scientifiche e sono precisamente
quel tipo di proposizioni che ho definito filosofiche in quanto rilevanti per la vita.
Ci sarà chi obietterà circa l’opportunità di privilegiare questa accezione del termine dal
momento che la filosofia è stata anche altro: essa è stata logica, etica, religione, cosmologia
e cosmogonia, psicologia, epistemologia, politica e in parte notevole anche metafisica nel
senso deteriore del termine. Ma fatta eccezione per la metafisica deteriore, è proprio questa
varietà di aspetti a suggerire che chi ha fatto filosofia lo ha fatto mosso non dal desiderio di
conoscere uno qualsiasi dei vari aspetti della realtà, bensì dalla speranza di trarre da essi
proposizioni utili per cercare di rispondere alla domanda “cos’è l’uomo?”. E’ del resto
chiaro che quando indago sul calore mediante il metodo sperimentale, anche se rifiuto a
priori di pormi domande sulla sua natura, finisco pur sempre per dire qualcosa che la
concerne, per esempio che il calore non è un fluido bensì una proprietà che risulta dal moto
delle molecole che compongono un corpo. Quindi non è tanto la domanda o meglio la forma
della domanda che si pone lo sperimentatore a fungere da garanzia della scientificità della
risposta, quanto il metodo che viene seguito per rispondervi. Il rifiuto galileiano pertanto va
valutato in considerazione della metafisica del suo tempo come ha ben sottolineato Evandro
Agazzi 254 . Questa domanda (τι εστι) va svuotata del preteso noumeno che gli sta dietro,
dopo di che diventa lecita a patto che si seguano certe regole per rispondervi.
La storia della filosofia comincia ben prima di quello che ufficialmente si ritiene e si insegna
nelle scuole: la troviamo per la prima volta nei resti delle tombe dell’uomo di Neanderthal
255 e la ritroviamo nelle credenze di popoli ancora isolati dalla civiltà moderna; la troviamo
in quegli antichi documenti la cui origine risale a tempi imprecisati attraverso la tradizione
orale, che sono la Bibbia, l’epopea di Gilgamesh e il libro dei Morti in Occidente e i Veda in
Oriente. Gilgamesh è mosso dallo stesso problema che tormenta Ivan Karamazov. E la
troviamo più avanti nei poemi omerici che precedono di qualche secolo quelli che sono i
primi scritti filosofici ufficiali dell’Occidente che ci sono pervenuti nella loro interezza, i
dialoghi di Platone.
Tutti questi documenti, che sono anche delle vere e proprie opere d’arte, sono pieni di
filosofia, cioè di risposte a domande che l’uomo si poneva su se stesso, anche se tali risposte
non venivano spesso ottenute nel metodo corretto; né c’è da vergognarsi di queste origini,
perché altrettanto nebulose e oscure sono le origini della scienza moderna, se è vero che
l’alchimia ha partorito la chimica e la medicina sperimentale si è liberata della magia solo
col trattato del Laennec nel 1819 256 .
254 E. Agazzi: Temi e problemi di filosofia della fisica. Manfredi, Milano, 1969; p.10-14
255 Anche nel caso che alle sepolture dei Neanderthal non si volesse attribuire un significato rituale,
questo è certamente presente in quelle dei Cromagnon che risalgono ad almeno 30.000 anni prima
di Cristo.
256 R.T.H. Laennec: De l’auscultation médiate. Parigi, 1819
140
Con la figura di Socrate possiamo dire che la filosofia si stacca dalla poesia, pur se i loro
rapporti sono per loro natura così stretti che non sempre si può facilmente distinguere l’una
dall’altra. La discussione sull’uomo assume un carattere di estrema sistematicità, per nulla
diversa da quella presente in un moderno trattato di zoologia o di medicina, nell’esposizione
di Aristotele e attraverso gli epicurei e gli stoici giunge a dominare incontrastata quindici
secoli di Cristianesimo. Ma anche dopo la fine del Medioevo, e questo è importante, ne
discute il dualista Cartesio e il materialista Lamettrie, se ne interessa Newton e se ne
interessa Darwin; chi sia l’uomo se lo chiedono Skinner, Schroedinger, Einstein,
Dobzhansky, Monod e Jacob. E se lo chiedono Kierkegaard, Sartre, Camus, Heidegger,
Maritain e mille altri, così come se lo chiedono migliaia (miliardi?) di uomini di diverse
religioni. C’è chi risponde in maniera giusta e chi in maniera sbagliata o peggio insensata,
ma indipendentemente da questo, penso non si sia troppo lontani dal vero se si sostiene che
la storia della filosofia è soprattutto la storia degli asserti ritenuti dai vari autori rilevanti per
la vita.
Penso quindi che la definizione di filosofia come insieme delle proposizioni rilevanti per la
vita non solo sia lecita, ma sia anche lo specchio di ciò che realmente è stata la filosofia. Ma,
si potrebbe obiettare, in tal modo la filosofia non finisce per essere troppo simile alla
religione? In fondo, la religione non si occupa delle stesse questioni?
In effetti è così: l’insieme delle proposizioni (si potrebbe qui usare il termine asserti 257 )
della filosofia e quelle della religione sono in effetti overlappanti, anche se, ovviamente, non
coincidenti. Questo è riconosciuto da tempo. Ma la religione contiene anche una serie di
asserti di altra natura, rituali, etici, normativi, e in certi casi anche di difficile definizione.
Anche il tipo di risposta alle stesse questioni filosofiche può essere diverso. Tuttavia, per
quanto riguarda quello che la religione ha da dire sul mondo, essa deve seguire le stesse
regole che abbiamo qui citato per la filosofia, pena il rischio di incappare nelle ire di Hume.
E comunque, da un punto di vista razionale non ha senso passare all’analisi della religione se
non si è prima chiarito che le questioni filosofiche sono lecite e aggredibili basandosi sulla
conoscenza che va sotto il nome di empirica.
La saggezza della filosofia
In un suo libro, “Saggezza e illusioni della filosofia”, ammirevole per chiarezza e per
concetti, Jean Piaget risponde ai positivisti logici con un’argomentazione che ha un suo
fascino 258 . La scienza è essenzialmente ciò che è verificabile, mentre l’oggetto della
filosofia non lo è. Però la scienza non può stabilire ciò che ha senso. In particolare, non si
può dire che la filosofia sia un qualcosa d’inutile, anzi essa risponde assai bene ad alcuni
bisogni profondi dell’uomo. Essa non è esattamente un sapere, ma è una saggezza, “una
presa di posizione ragionata sulla totalità del reale”, che a sua volta non può essere
contemplata dalla scienza. Le filosofie orientali più di quelle occidentali si sono più spesso
qualificate come tali. Non vi sono e non possono esservi attriti tra scienza e filosofia, perché
i due domini di interesse sono completamente diversi. L’impressione, ricavata da discussioni
informali e da episodi aneddotici, è che questo approccio abbia oggi molti seguaci, specie tra
coloro che praticano l’attività di ricerca e/o riflettono sulla scienza 259 .
257 Si potrebbe fare riferimento alla convenzione per cui per asserti o enunciati si intende qualsiasi
sequenza di parole costruite secondo le regole della grammatica e della sintassi, mentre per
proposizioni si intende qualsiasi enunciato testabile, cioè qualsiasi enunciato ancorato ai fatti.
258 J. Piaget: Saggezza e illusioni della filosofia”. Einaudi, Torino, 1969
259 Ad esempio questa pare essere la posizione di S.J.Gould nel suo recente libro: Rocks of age:
science and religion in the fullness of life. Ballantine, New York, 1999. Gould è un grande nemico
141
Questo approccio non costituisce una brutta soluzione e risolve molti problemi. In primo
luogo, risana le ferite inferte dal violento attacco del positivismo logico contro la metafisica.
Vi è per così dire un ritorno alla fase pre-carnappiana di guerra fredda, quando scienza e
filosofia si guardavano con sospetto, ma con il vantaggio di aver firmato un armistizio che
potreva contentare tutti. Dopo una guerra che ha seminato disastri la gente è generalmente
più conscia dei benefici della pace e spesso si rende conto che ha litigato senza un vero
motivo. In fondo, la scienza non perde nulla del suo, il suo territorio è garantito per un
tempo indefinito, mentre alla filosofia viene riconosciuto dall’aggressore una sua ragion
d’essere. Il fatto che in questo modo viene riconosciuto che è saggio parlare anche di
argomenti non oggetto della scienza potrebbe per certi aspetti rassicurare anche le correnti
più sensibili ad un certo spiritualismo.
Per alcuni versi, la definizione di Piaget ha delle similitudini con la quella disegnata nel
presente libro. Entrambe le definizioni si rifanno ad una Weltanschauung, ad una visione del
mondo. Entrambe le definizioni fanno riferimento alle domande classiche della filosofia o
della metafisica, chi siamo, da dove veniamo e dove andiamo, e alla tradizione secondo cui
tutto il nostro desiderio di conoscere è legato a definire il ruolo dell’uomo nell’universo.
Entrambe le definizioni potrebbero sembrare eccessivamente antropocentriche, ma in fondo
la specie umana è l’unica che è interessata alla filosofia. Le pietre non fanno filosofia.
Tuttavia, la definizione scelta in questo libro mi sembra avere alcuni vantaggi sull’approccio
di Piaget. In primo luogo, come per l’interpretazione di Piaget, ma questa volta direi per
definizione, non è attaccabile dalla critica principale del positivismo logico. Se le
proposizioni in questione sono state derivate tramite il metodo usato dalla scienza, non si
capisce bene perché dovrebbero diventare illegittime se estratte e immesse in un unico
insieme, cui viene dato una denominazione particolare o viene definita una proposizione
caratteristica. Si tratta più che di un armistizio, di una pace duratura. In secondo luogo, ci
consente di parlare di argomenti che stanno a cuore senza sentirci dire che se ne può parlare
solo ai party ma non nei laboratori o nelle corsie.
Il terzo vantaggio è quello che, secondo me, elimina una debolezza della versione di Piaget.
Con la sua interpretazione non è ben chiaro il grado di saggezza della filosofia o se si
preferisce, non è chiaro quale sia la base per definirla saggia. La filosofia di Piaget potrebbe
essere saggia, ma corre il rischio di essere arbitraria, non dico oggettiva, ma neanche
intersoggettiva. La caratteristica di saggezza non è motivata. Viceversa, nella presente
accezione, la base intersoggettiva è garantita dall’origine stessa delle proposizioni che
formano la filosofia.
Di ciò di cui si può parlare non è lecito tacere.
Pertanto la filosofia diviene un sottoinsieme della scienza, a patto di considerare questo
termine nel significato ampio di “conoscenza” e non nel senso ristretto in cui viene
generalmente usato. Abbiamo cercato di mostrare come in realtà con lo stesso metodo si
debbano affrontare problemi e proposizioni che forse non tutti i positivisti logici
includerebbero nella scienza, e pertanto nel nostro senso ciò che viene ottenuto con il
metodo scientifico è un insieme più vasto di quello generalmente considerato come scienza.
dell’idea di progresso nell’evoluzione (vedi sezione sull’evoluzione) ma evidentemente questo non
gli impedisce di parlare di filosofia.
142
In pratica vi è una sola conoscenza che si basa sul metodo di confronto con l’ambiente e a
seconda della necessità si può parlare di fisica, biologia, di arte della motocicletta o di
filosofia.
Consideriamo ora le seguenti proposizioni:
- qui in questo giorno all’ora tale (coordinate spaziotemporali) è stato trovato un cranio
con le seguenti caratteristiche: w, x, y, z …….
- qui in questo giorno (coordinate spaziotemporali) è stato trovato un cranio simile ma non
uguale a quello umano
- il cranio trovato non è di nessuna specie conosciuta
- il cranio trovato è di un ominide ora estinto che aveva caratteristiche intermedie tra
l’uomo moderno e altre scimmie
- numerosi crani di ominidi estinti fanno supporre che l’uomo si sia evoluto a partire da un
antenato comune a lui e ad altre scimmie antropomorfe.
- L’evoluzione degli ultimi 10 milioni di anni può essere descritta utilizzando solamente
leggi della materia
- L’evoluzione dell’Homo sapiens può essere spiegata con le leggi della materia
- L’evoluzione dell’Homo sapiens non può essere spiegata con le leggi della materia.
Cosa hanno di diverso queste proposizioni ? A parte la prima, che potrebbe essere
considerata una proposizione protocollare, le altre sono tutte frutto di un’interpretazione e di
un confronto tra varie proposizioni. Esse sembrano anche di complessità crescente e
sembrano formulate in modo tale da considerare aspetti successivi di analisi. Sembra anche
che le ultime ci dicano di più di quanto ci dicono le prime. La penultima è una grande
generalizzazione che coinvolge non solo dati sperimentali ma anche una concezione della
materia e dello status delle leggi che si ritiene la governino. Tutte queste sono generalmente
ritenute di pertinenza della scienza, anche la penultima, sulla verità della quale pure non c’è
consensus generale.
E l’ultima? Essa è la negazione della precedente. La precedente ha cittadinanza riconosciuta
nel dominio della scienza. Perché l’ultima invece non dovrebbe averla ? Se la penultima fa
parte delle proposizioni della scienza, significa che essa è considerata testabile. Ne consegue
che anche la sua negazione dovrebbe essere considerata testabile e quindi far parte della
scienza. Tuttavia l’ultima viene sovente guardata con occhio sospetto, si ha quasi la
sensazione che affermandola ci si ponga automaticamente fuori dal dominio della scienza.
In realtà, secondo le nostre definizioni tutte queste affermazioni fanno parte della scienza e
della filosofia, anche se per questioni di parsimonia, nell’insieme filosofia potrebbero venir
inserite anche solo le ultime tre o quattro.
Non è chiaro ed automatico dove ci si debba fermare nelle nostre affermazioni scientifiche.
Malgrado ciò, sembrerebbe che basandosi su proposizioni scientifiche sia possibile
effettuare considerazioni e ragionamenti che si estendano anche ai domini che sono più
squisitamente filosofici. Dato un certo numero di eventi descritti da proposizioni, è possibile
formulare ipotesi di un livello più elevato che overlappano quelle della filosofia classica: la
penultima proposizione può essere ritenuta abbastanza simile a quelle del De Rerum Natura
di Tito Lucrezio Caro, poeta e divulgatore dell’atomismo di Democrito ed Epicuro. L’ultima
non è così diversa dall’argomentazione della causa incausata e della contingenza di
Aristotele e Tommaso d’Aquino.
Per quanto è stato possibile e con tutte le limitazioni insite in un lavoro così vasto, abbiamo
cercato di elencare nei precedenti capitoli un certo numero di dati che riteniamo interessanti
143
per il tema del libro, che cioè vi sia un gran numero di proposizioni scientifiche di interesse
filosofico, una volta scelta l’accezione del termine filosofico secondo quanto accennato qui
sopra.
Una volta pertanto compiuto un lungo, seppur parziale, elenco di dati, possiamo pertanto
chiederci se sia possibile una qualche loro elaborazione che sia compiuta in maniera
razionale. E’ possibile che in questa elaborazione alcuni introducano concetti non facilmente
definibili e apparentemente vaghi, come del resto abbiamo visto introdurre sovente nella
scienza, specialmente ma non solo quando un settore della scienza era ed è talora in grande
movimento. Basti pensare al principio di complementarietà di Bohr o al principio di
indeterminazione di Heisenberg, che sono stati adottati malgrado l’opposizione di un certo
numero di scienziati del calibro di Einstein e il cui vero status è tuttora incerto.
Sembrerebbe ad alcuni che principi di natura non materiale non possano neanche essere
discussi. Molti scienziati asseriscono che neanche si mettono a parlare con persone che
invocano sostanze immateriali come rilevanti per la descrizione ad esempio della coscienza
umana. E’ chiaro che un atteggiamento del genere preclude qualsiasi dialogo con qualche
miliardo di uomini, e, pur riconoscendo che gran parte di questi siano poco colti, c’è da
chiedersi se tutto è spiegabile con una scarsa conoscenza della biologia moderna.
Praticamente il ragionamento che fanno costoro è del tipo: se non mi dai ragione in anticipo
neanche mi metto a discutere con te.
In realtà, è estremamente chiaro che la formulazione dell’esistenza di sostanze spirituali è
stata nel corso dei millenni un’acquisizione conoscitiva di importanza notevole. Essa è senza
dubbio derivata dalla presa di coscienza della causalità. Il bisogno di una sostanza spirituale
dimostra che l’uomo era già diventato sofisticato nella conoscenza dei rapporti causa/effetto,
tale da comprendere che alcuni fenomeni erano spiegabili nei termini che lui conosceva
mentre altri erano assai più complessi e necessitavano una spiegazione di complessità
adeguata, che proprio per questo non era spiegabile con la materia. Alla luce della
prospettiva storica e del carattere originariamente empirico della formulazione dell’esistenza
di sostanze spirituali, la loro discussione non può essere eliminata aprioristicamente e direi
unilateralmente.
40% degli scienziati sono francamente dualisti (inchiesta)
Al di là delle affermazioni eclatanti di numerosi scienziati, c’è da chiedersi se in generale
essi siano tutti materialisti. Sembrerebbe che non sia così. All’inizio del secolo, molti
presumibilmente si ponevano la stessa domanda, se cioè la scienza provochi una certa
avversione al sovrannaturale. Nel 1914, James H. Leuba, psicologo americano, inviò un
breve questionario ad un certo numero di scienziati, con due semplici domande. Gli
scienziati dovevano rispondere: a) se credevano in un Dio personale, che può essere
influenzato dall’interazione con l’uomo, e b) se credevano in una vita dopo la morte. Alle
due domande era possibile rispondere si, no, o non so. Leuba pubblicò i suoi dati nel 1916
260 . Ottant’anni dopo, Edwrad J. Larson e Larry Witham ripeterono la stessa inchiesta,
mantenendo le stesse domande 261 . L’inaspettata conclusione fu che, malgrado l’enorme
diffusione della scienza e della tecnologia che ha avuto luogo dopo la seconda guerra
260 J.H. Leuba: The belief in God and Immortality: a psychological, anthropological and statistical
study. Sherman, French & Co., Boston, 1916
261 E.J Larson & L. Witham: Scientists are still keeping their faith. Nature 386:435-436, 1997
144
mondiale e malgrado gli enormi cambiamenti avvenuti nei costumi sociali, la percentuale di
scienziati che rispose sì alle due domande non era essenzialmente mutata. Per la prima
domanda, la percentuale rimase sempre intorno al 40% un valore simile a quello ottenuto
nell’inchiesta di Leuba, mentre per la seconda domanda si ebbe un leggero calo, dal 50 al
40% circa.
Queste percentuali tuttavia calano notevolmente se in qualche modo si selezionano gli
scienziati più bravi. Se già nel 1916 la percentuale dei “credenti” tra i super scienziati era
intorno al 30%, nel 1933 si era scesi verso il 20% (con un’ulteriore ricerca di Leuba) mentre
oggi siamo intorno al 10%, con punte del 5% per i biologi 262 . Vi era anche una postilla alla
seconda domanda di Leuba, che chiedeva a coloro che non credevano nell’immortalità
personale, se comunque ne sentissero il bisogno. In questo caso si può rivelare una notevole
differenza tra il 1916 e il 1996, in quanto la percentuale di persone non interessate
all’immortalità è salita dal 27 al 64%. E questo sembra essere il cambiamento più evidente.
Naturalmente, quello che si può trarre da questi risultati sono solo conclusioni di tipo
sociologico. Il fatto che gli uomini di scienza più eccelsi abbiano risposto negativamente ai
quesiti non ci dice nulla sulla validità delle loro risposte, ma solo su quello che pensano gli
scienziati. Non vi sono motivi per pensare che gli scienziati abbiano una statura morale più
elevata di quella dell’uomo comune, e neanche che il loro giudizio sia più fondato di quello
degli altri perché (si potrebbe ipotizzare) essi sono più intelligenti della media. Se così fosse,
si dovrebbe affidar loro il governo dei nostri paesi o la conduzione delle imprese: ma su
questo punto pochi sarebbero d’accordo. Se si vanno a considerare le posizioni politiche
degli scienziati, penso che ce ne sia per tutti i gusti e molti scienziati si sono assai sovente
adeguati ai regimi più duri 263 . Le notevoli eccezioni non sono probabilmente in numero
maggiore di quanto si trovi nella popolazione generale.
Infine bisogna notare come le domande fossero molto limitative. Nella prima domanda ad
esempio si doveva rispondere se si credeva o no in un Dio che interagiva colle persone. Chi
credeva in un principio spirituale di tipo diverso, veniva catalogato come “non credente”. E’
presumibile pertanto che il numero di coloro che potrebbe essere catalogato come
materialista sia ancora inferiore al 60%. Infine anche le ragioni dei risultati ottenuti è
argomento di dibattito: dal momento che in molti circoli scientifici è senz’altro fuori moda
essere “credenti”, è stata sollevata la possibilità che vi sia una selezione contro persone
“credenti” e che queste rimangano fuori dal club o che per lo meno non abbiano grande
interesse a manifestare il loro pensiero. Vista la grande adattabilità degli scienziati
all’ambiente circostante questa ipotesi non può essere completamente esclusa.
262 E.J Larson & L. Witham: Scientists and religion in America. Sci Am, settembre 1999, pp 88-93
263 Di esempi a questo riguardo ce ne sono a non finire, ognuno ne può elencare una serie. Basti
pensare, nel passato recente, alle vicende legate al giuramento di fedeltà al fascismo richiesto a tutti
i professori universitari italiani, che fu rifiutato da un numero assolutamente minimo di scienziati,
tra cui mi piace ricordare il matematico Vito Volterra, e successivamente alle leggi razziali che
espulsero gli ebrei dai posti di lavoro, contro cui solo pochi scienziati si ribellarono. I loro colleghi
“umanisti” non si comportarono meglio. Anche in Francia successe lo stesso, perché solo pochi
rinunciarono al loro lavoro in seguito all’occupazione nazista. Interessante a questo proposito il
commento di Francois Jacob, che nella sua autobiografia “The statue within” (Unwin Hyman,
Londra, 1988), notava come al ritorno dalla guerra, chi si era battuto si trovava col sedere per terra,
e gli toccava essere giudicato da coloro che erano tranquillamente rimasti.
145
In realtà cosa pensino gli scienziati può far colpo sull’opinione pubblica non preparata ma ha
poco da vedere con la verità o la giustizia. Quello che in realtà conta è la forza delle
argomentazioni che escono non dal soggettivismo degli scienziati bensì dalla solida,
ancorché parziale, oggettività del procedimento scientifico.
Gli scienziati fanno filosofia?
Ma è comunque vero che gli scienziati hanno paura di parlare di filosofia ? Sembrerebbe
proprio di no. Da un lato c’è come un dogma che bandisce dalle riviste scientifiche le
speculazioni sulle questioni filosofiche, e si ritiene generalmente che queste al massimo
vadano bene per le conversazioni ai ricevimenti, magari dopo che si sono bevute tre o
quattro birre o quando ci si trova con persone che si annoierebbero terribilmente a sentir
parlare di argomenti tecnici. Ma dall’altro, vi è un enorme numero di libri in cui gli
scienziati affermati espongono la propria Weltanschauung. Anzi, sembra quasi che una volta
ottenuto qualche risultato di rilievo, gli scienziati si ritengano in dovere di esporre il proprio
punto di vista sulle questioni filosofiche. Questo forse è per un motivo assai pratico: a chi
interessano le idee sul mondo di uno sconosciuto ? se uno invece ha avuto delle buone
intuizioni in qualche campo, la gente è più disposta ad ascoltarlo: sembra quasi che il
successo nelle questioni scientifiche diventi un lasciapassare alla filosofia. Non si può però
escludere che tra le motivazioni che spingono i giovani ad interessarsi di scienza non vi sia
quel senso di meraviglia che sta alla base anche del far filosofia e che pertanto si senta il
bisogno di riprendere questo genere di tematiche. Prendiamo ad esempio i grandi fisici che
nei primi decenni del Novecento cambiarono la nostra visione del mondo, sia per quanto
riguarda la costituzione del mondo microscopico che di quello che è l’infinità dell’universo
che ci circonda. Tutti costoro avevano delle loro idee filosofiche e religiose e nessuno ha
sostenuto che non se ne potesse parlare. Vero è tuttavia che le loro visioni non coincidono,
che spesso non sono esposte in modo sistematico e che talora sono apparentemente
contradditorie. Ma dalle loro affermazioni si rivela che le problematiche filosofiche erano
comunque al centro dei loro interessi. Ne possiamo elencare alcune, non perché ci
interessino le conclusioni cui giungono, almeno per il momento, ma solo per indicare come
essi comunque hanno ritenuto che la scienza avesse a che fare con la filosofia.
Max Planck, padre della meccanica quantistica, scrive:
“Religione e scienza si incontrano sulla questione dell’esistenza e della natura di un potere
supremo, che regge il mondo, e qui almeno fino ad un certo grado possono essere
paragonate tra loro le risposte, che ambedue danno…….In qualunque direzione e per
quanto lontano noi possiamo vedere, non possiamo trovare da nessuna parte una
contraddizione tra religione e scienza, ma piuttosto un pieno accordo proprio nei punti
decisivi. Religione e scienza non si escludono, come alcuni oggi credono o temono, ma si
completano e si condizionano a vicenda” 264 .
Erwin Schroedinger, fisico austriaco, autore delle celebri equazioni, è noto per aver
coltivato, dopo essersi rifugiato a Dublino in seguito all’Anschluss, anche un certo interesse
264 M. Planck: Scienza, filosofia e religione. Fratelli Fabbri Editori, Milano, 1965; p. 254 e p. 255.
Tuttavia poche pagine prima (p. 247) leggiamo che invece “il problema di Dio mai e poi mai si
lascia risolvere per via scientifica, cioè per argomentazioni logiche, fondate sui fatti. Piuttosto la
risposta a questa domanda è unicamente ed eslusivamente affare della fede, della fede religiosa”.
Questo è un esempio del fatto che non sempre le affermazioni sono congruenti tra loro.
146
per la biologia, giungendo a postulare come substrato dell’ereditarietà un “cristallo
aperiodico”, in cui molti videro una prefigurazione del DNA. Nel suo libro “Che cos’è la
vita ?”, egli esamina la biologia dal punto di vista della fisica quantistica. Il problema che
indaga maggiormente è quello della riproduzione e della conservazione di una struttura
complessa quale è quella del vivente, che mostra delle caratteristiche per lui assai
sorprendenti:
“Le caratteristiche più sorprendenti sono: primo, la curiosa distribuzione degli ingranaggi
in un organismo pluricellulare…; e secondo, il fatto che ogni singolo ingranaggio non è
ovviamente opera umana, ma è il più bel capolavoro mai compiuto da Dio, secondo le linee
della meccanica quantica” 265
Nella conclusione del suo libro, Schroedinger rivela chiaramente