12.05.2016 Views

Libro

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Paolo Vezzoni

Intersezioni

Questioni biologiche

di rilevanza filosofica

Prefazione di

Renato Dulbecco


Affermare che la Filosofia sia un sottoinsieme della Scienza potrebbe apparire

eretico sia ai filosofi che agli scienziati. Tuttavia questo è quanto il presente

libro sostiene con due diversi tipi di argomentazioni.

Il primo consiste nell’adottare un’accezione ampia di Scienza, del tipo di

quella in vigore presso gli antichi Greci (scienza come conoscenza, senza ulteriori

distinzioni) e nel definire come Filosofia l’insieme delle proposizioni di

interesse ‘vitale’ per l’uomo. Il secondo è di mostrare di fatto quante di queste

proposizioni ‘vitali’ per l’uomo siano presenti nel settore della Scienza che va

sotto il nome di Biologia.

L’autore esamina tutto ciò che la Biologia ci dice sui fenomeni viventi e su

come si sono formati nel corso dell’evoluzione, sulla relazione tra geni e personalità,

sulla coscienza, il linguaggio e gli altri aspetti che hanno a che fare

con la specificità della natura umana.

Paolo Vezzoni, nato a Milano nel 1950, ha conseguito il diploma

di maturità classica presso l’Istituto Salesiano Sant’Ambrogio di

Milano e si è laureato in Medicina e Chirurgia nel 1974 presso

l’Università di Milano.

Ha lavorato come Dirigente di Ricerca presso il CNR, occupandosi

di genetica umana nell’ambito del Progetto Genoma Umano, diretto

dal prof Renato Dulbecco, Premio Nobel per la Medicina,

di cui è stato vicecoordinatore. Attualmente dirige il Laboratorio di

Biotecnologie Mediche del CNR presso l’Istituto Clinico

Humanitas.

E’ autore di oltre centottanta pubblicazioni scientifiche e di vari

libri e articoli, tra cui: “Biotecnologie della vita quotidiana”,

Laterza, 2000; “Si può clonare un essere umano”, Laterza, 2003;

“Il futuro e il passato dell’uomo”, Bruno Mondadori, 2006. Per

la rivista “Le Scienze” ha curato insieme a Renato Dulbecco il dossier

“Il Progetto Genoma Umano”, Le Scienze, Quaderni n. 100 D,

1998 e un inserto su “Clonazione: problemi etici e prospettive

scientifiche, Le Scienze, suppl, maggio 1997. E’ autore della voce

“Biotecnologie” per l’Enciclopedia Treccani.

Il presente libro “Intersezioni. Questioni biologiche di rilevanza

filosofica” è stato pubblicato da McGraw-Hill nel 2000.

Email: paolo.vezzoni@itb.cnr.it


A Paolo Raineri

Amico e maestro

Medicus atque philosophus

A mia moglie e ai miei figli

QUESTIONI BIOLOGICHE DI RILEVANZA FILOSOFICA

Paolo Vezzoni

Prefazione di Renato Dulbecco

1


QUESTIONI BIOLOGICHE DI RILEVANZA FILOSOFICA

Prefazione

Avvertenza

Prima parte: Introduzione, Materiali e Metodi

1. Le basi evolutive della conoscenza

. Uomini e conigli

. Il problema della conoscenza

. Terreno sdrucciolevole

.. Postulati

.. Termini e definizioni

.. Fede nella natura

. La base biologica della conoscenza

. Scienza e filosofia

.. Scienza e filosofia: anatomia di un rapporto

. Uno ed un solo metodo di conoscenza per un’enorme vastità di problemi differenti

.. Ritorno al coniglio

.. Materiale e metodi (i metodi della conoscenza)

.. Verificabilità e falsificabilità

.. Miseria della falsificabilità

.. Ci sono più proposizioni in cielo e in terra che in tutta la filosofia della scienza

.. Un metodo proteiforme

.. Castelli di carte

.. Costruttivismo

. Conclusioni

. Tesi del volume

Seconda parte: Risultati

2. Ordine meccanicismo ed ereditarietà

. La biologia molecolare

. La molecola principe

. L’uovo o la gallina

. Il lato oscuro del DNA

. Come si formano i genomi

. Il livello dell’organismo

. Lo sviluppo embrionario

3. L’evoluzione

. L’evoluzione è

. Come funziona l’evoluzione

. La genetica dell’evoluzione

. L’evoluzione umana

.. Paleontologia

.. Genetica

. Progresso e disegno versus caso e necessità

. Pensiero finale

2


4. Geni e comportamento

. L’altruismo

. Geni e comportamento

. Lipidi egoisti e memi egoisti

. I gemelli

. Animali modificati

. La genetica umana e i geni del comportamento

. Rilevanza filosofica

5. La coscienza

. Le neuroscienze

. Biologia molecolare e cervello

. Tecniche di imaging

. La coscienza

6. L’intelligenza artificiale

. L’eresia catara (continua)

. Il dibattito sulla macchina di Turing

. L’intelligenza Artificiale

. COG

7. Gli effetti comportamentali delle alterazioni cerebrali

. Le malattie ereditarie neurologiche

. Lesioni cerebrali con effetti comportamentali

. Alterazioni selettive della coscienza

. Il cervello splittato

. Le malattie mentali

. False e vere memorie

. Una personalità assai fragile

8. Il linguaggio

. Le basi biologiche del linguaggio

. Le basi cerebrali del linguaggio

. Origine evolutiva del linguaggio

. Linguaggio e pensiero nelle scimmie

. Conclusioni

Terza parte: Discussione

9. La maledizione di Hume

. Cos’è la filosofia

. Proposizioni rilevanti per la vita

. La saggezza della filosofia

. Di ciò di cui si può parlare non è lecito tacere

. Il 40% degli scienziati sono francamente dualisti

. Gli scienziati fanno filosofia?

. Ma chi esattamente cade sotto a maledizione di Hume?

10. L’argomentazione di Paley

. L’ordinatore cosmologico

3


. L’ordinatore biologico

. L’unità di tutti i viventi e l’unità del vivente con il non vivente

. La derivazione del vivente dal non vivente

. Tutto è spiegabile all’interno del sistema

. I buchi neri della teoria

11. Il dilemma di Delgado

. Monisti, dualisti, panpsichisti, riduzionisti, emergentisti

. Il difficile concetto di anima

12. Il monito di Epicuro

. La schiavitù dei geni

. Libertà e cervello

. Determinismo oltre i geni (interazionismo)

. La paura sociale del determinismo

. Un punto a favore dei dualisti

Parte quarta: Conclusioni

13. L’invettiva di Feyerabend

. E’ la scienza che definisce i confini dell’indagine filosofica

4


PREFAZIONE

Abbastanza spesso un biologo, uno sperimentatore, dopo un certo numero di anni di esperienza, comincia a guardare a

ciò che sta facendo in un modo nuovo: non si limita a considerare solo l’oggetto a cui sta lavorando, ma guarda oltre, a

problemi più vasti. E così è indotto a cercar di capire l’organizzazione del mondo vivente, le sue leggi, includendo

quelle con cui lui stesso ha familiarità, ma in un disegno più ampio. Egli sente la necessità di evitare una trappola:

quella “di essere così immerso nel mare della scienza da non accorgersi che c’è qualcosa fuori di esso”. Questo è il caso

del collega Paolo Vezzoni, il cui interesse principale sono stati i geni responsabili di malattie ereditarie, e che ora, con

questo libro, affronta i più vasti problemi della biologia, quelli di natura filosofica. Leggendo il suo libro si incontrano

alcuni dei nomi di scienziati spesso illustri che lo hanno preceduto su questo cammino.

Il ventaglio degli argomenti contenuti nel libro è molto esteso, ma si concentra su due domande principali: qual è la

base della conoscenza di noi stessi, ossia della nostra coscienza, e qual è l’origine della vita. Questi problemi trovano

nel libro un’ampia trattazione, che include i precedenti storici, a cui si dà grande importanza, e le conseguenze

biologiche attuali, che vengono discusse in considerevole dettaglio per quel che riguarda il ruolo che possono avere nel

chiarificare i due problemi.

Una speciale attenzione viene rivolta al ruolo del cervello umano come possibile determinazione della coscienza.

Vengono anche esaminati nello specifico i metodi con cui si può arrivare alla conoscenza di questi problemi, per

arrivare alla conclusione che il metodo scientifico, sperimentale, è il solo utile.

I problemi vengono discussi con la logica severa che consenta i pro e i contro di ogni proposizione. Di notevole aiuto in

queste trattazioni sono gli abbondanti riferimenti ad autori precedenti allo scopo di presentare vedute spesso contrastanti

ma rilevanti rispetto ai punti in discussione; molti autori sono citati con precisione in modo che sia facile per un lettore

interessato identificare alter fonti.

In queste discussioni l’autore prende una posizione essenzialmente imparziale. Da buon biologo e sperimentatore egli

considera tutti i dati a disposizione per cercare di giungere ad una conclusione. A un certo punto egli scrive: bisogna

“mostrare quanto di bello produce la conoscenza e lasciare che la gente scelga”. Contrariamente a molti dei suoi

predecessori, egli non argomenta per difendere una sua posizione, ma per arrivare a qualche cosa che si avvicini ad un

consenso. Questo non è facile, data la natura dei problemi: l’autore è ben conscio di questa difficoltà, e cerca di

attenuarla ricorrendo all’umorismo.

I problemi discussi nel libro potrebbero facilmente sfociare in considerazioni religiose, ma l’autore per lo più riesce ad

evitarlo, rimanendo nell’ambito della logica. Solo verso la fine viene posta una domanda che fa intravedere questa

possibilità: “Deve la storia della biologia degli ultimi 3 – 4 secoli venir necessariamente letta come la progressiva

scomparsa dell’ordinatore biologico? O potrebbe essa venir letta come la storia della progressiva purificazione dell’idea

di ordinatore?”. L’idea dell’ordinatore è supportata dall’esistenza di ordine e causalità nella Nature e dalla grande

quantità di incognite riguardanti la vita e l’Universo. Perciò è possibile una Weltanshauung delle nostre conoscenze che

sia più vasta, ma basata e centratasu di esse. Si parla ora di Dio, ma non un “Dio tappabuchi”. Il libro conclude con un

dilemma: “Che Dio esista è assurdo. Ma non si capisce come questa assurdità diventi intelleggibile se le sue aporie

vengono trasferite alla realtà materiale. Per incredibile che possa apparire qualcosa sembra proprio che esista”. E infine

l’ultima domanda: “C’è qualcuno che crede di risolvere facilmente questo problema?”.

Ho letto il libro con molto piacere: ci ho pensato molto e ho imparato molto.

Renato Dulbecco, aprile 2000

5


AVVERTENZA INDISPENSABILE

Jean Piaget, il fondatore dell’epistemologia genetica, sosteneva che i ragazzi di 15-20 anni

attraversano una fase maturativa caratterizzata da una certa propensione alle questioni filosofiche.

Col passare degli anni questa fase viene superata, così che al raggiungimento dell’età adulta queste

problematiche perdono interesse.

Una piccola porzione di persone sembra tuttavia essere incapace di procedere alla fase successiva e

mantiene un certo interesse per domande di carattere filosofico. Molti ritengono che questo possa

nuocere all’individuo, limitando la sua capacità ad affrontare i problemi concreti della vita

quotidiana, e probabilmente hanno ragione.

Questo piccolo libro in realtà è scritto esclusivamente per questa categoria di disadattati,

sicuramente meno dell’1% della popolazione generale, che, a quanto sembra, ha ancora tempo da

perdere. In effetti, non riesco a pensare ad un solo valido motivo per cui una persona sana di mente

debba interessarsi di problemi filosofici, a meno che non faccia parte dell’establishment dei filosofi

di professione per i quali la filosofia è un problema di sopravvivenza.

La biologia è una scienza così vasta e la mia ignoranza è talmente profonda che questo testo sarà

certamente ricco di errori ed omissioni, e di questo mi scuso. In particolare mi sarebbe piaciuto

avere molta più esperienza in un settore quale quello della neurofisiologia e dell’imaging cerebrale

che sono affascinanti, pur essendo estremamente specialistici.

I settori della biologia che sono di pertinenza filosofica sono, nella mia opinione, così numerosi che

non è possibile elencare né tutti i fatti né i punti di vista di ognuno. Ho cercato di riportare

fedelmente il pensiero di tutti quelli che ho menzionato, facendo spesso uso di citazioni dai lavori

originali. Malgrado ciò, è possibile che in certi casi io abbia travisato il pensiero di qualcuno, e sono

pronto a far ammenda fin d’ora.

Ho pensato di dividere il testo in alcune sezioni, con una cadenza che vuole ricordare quella di un

articolo per una rivista scientifica. Secondo questo schema generale, il primo capitolo funge da

Introduzione e da Materiali e Metodi: in esso si fa il punto sulla situazione e si espone il metodo con

cui si vuole procedere. Nei Risultati (capitolo 2-8) si elencano i dati raccolti, mentre nella

Discussione (capitolo 9-12) si cerca di interpretarli. Segue un capitolo conclusivo (capitolo 13).

Questa divisione è evidenziata nell’indice.

Le frasi che precedono ogni sezione sono tutte prese dal primo capitolo di un libretto di Thorton

Wilder. In “Il ponte di St. Louis Rey” un frate assiste al crollo del ponte sulla strada che da Lima

porta a Cuzco e si chiede perché proprio quei cinque uomini e non altri siano morti: essendo per sua

natura portato alla sperimentazione, egli decide allora di analizzare le loro vite in maniera

dettagliata per avere la risposta alla sua domanda. Racchiude le sue conclusioni in un grosso tomo,

che, giustamente, viene bruciato sulla pubblica piazza insieme al suo autore. Naturalmente si tratta

di una storia inventata, l’unica cosa vera sembra sia stato il crollo del ponte.

Impossibile ricordare tutte le persone da cui ho preso qualcosa scritto in questo libro. I miei

familiari, tutti, quelli deceduti e quelli viventi, da cui ho imparato tutto. Poi gli amici con i quali ho

discusso di filosofia per tanto tempo da giovane: Amedeo, Andrea, Piero, Roberto, Ugo, Franco,

Daniele, Claudio. Poi i padri salesiani del Liceo Classico di Milano negli anni dal 1963 al 1968,

alcuni dei quali erano dei veri crani. Un pensiero particolare va poi a Franco Pozzi e Paolo Raineri.

6


Infine vorrei ricordare alcuni dei miei colleghi del CNR di Milano. Nessuno di tutti quelli che ho

menzionato, ovviamente, è responsabile per le aberrazioni qui contenute.

7


Parte prima

Introduzione e Materiali e Metodi

“On Friday noon, July the twentieth, 1714, the finest bridge in all Peru broke and precipitated five

travellers into the gulf below. This bridge was on the high road between Lima and Cuzco, and

hundreds of persons passed over it every day….The bridge seemed among the things that last for

ever; it was unthinkable that it should break….

Everyone was deeply impressed, but only one person did anything about it, and that was Brother

Jupiter. By a series of coincidences so extraordinary that one almost suspect the presence of some

Intention, this little red-haired Franciscan from Northern Italy happened to be in Peru converting

the Indians, and happened to witness the accident.

It was a very hot noon, that fatal noon, and coming around the shoulder of a hill, Brother Juniper

stopped to wipe his forehead…At all events he felt at peace. Then his glance fell upon the bridge,

and at that moment a twanging noise filled the air, as when the string of some musical instrument

snaps in a disused room, and he saw the bridge divide and fling five gesticulating ants into the

valley below.

Anyone else would have said to himself with secret joy: ‘Within ten minutes myself!…’. But it was

another thought that visited Brother Juniper: “Why did this happen to those five? If there were any

plan in the universe at all, if there were any plan in a human life, surely it could be discovered

mysteriously latent in those lives so suddenly cut off. Either we live by accident and die by accident,

or we live by plan and die by plan. And on that instant Brother Juniper made to resolve to inquire

into the secret lives of those five persons that moment falling through the air, and to surprise the

reason of their taking off.”

Thorton Wilder, The Bridge of Saint Louis Rey

8


Capitolo 1.

LE BASI EVOLUTIVE DELLA CONOSCENZA

Uomini e conigli

A Natale mi è giunto in casa un coniglio nano. Se la vita di un coniglio è dura, quella di un coniglio

nano lo è ancora di più. In inverno essenzialmente vive in una piccola gabbia passeggiando talora

per casa, distruggendo tutto quello che riesce. A parte gli improperi che si prende, finchè è in casa

la sua vita è tranquilla, ma in estate i problemi per lui sono maggiori. Quando arriva la bella

stagione parte del suo tempo lo trascorre in un giardino relativamente aperto, perché lui è così

piccolo che passa in tutti buchi e il recinto è assai basso.

Fare del rabbit-watching mentre sta in giardino è assai istruttivo. Si capisce bene perché si dice

“meglio un giorno da leone che cento da coniglio”. Per giunta il nostro coniglio ha degli handicap

ulteriori: non ha buche in cui nascondersi e rilassarsi e secondo, non ha avuto il necessario training.

Il poveretto bruca due secondi e poi alza il muso. Fiuta il vento, ascolta i suoni, spia dappertutto, al

più piccolo rumore sospetto scatta e cambia posizione. Tutti i suoi sensi sono tesi al massimo. Per

lui veramente “nihil est in intellectu quod prius non fuerit in sensu”. Se Raffaello avesse disegnato

un coniglio nella sua Scuola di Atene, non c'è dubbio che l'avrebbe raffigurato con le quattro zampe

ben piantate per terra.

In questa cornice, si capisce come il coniglio debba sfruttare al massimo tutte le informazioni che

gli arrivano. Il loro processamento deve essere corretto, pena la vita. Il coniglio è una macchina per

fare associazioni: odori, rumori, e ovviamente immagini devono essere collegati ai mille pericoli

che lo circondano. Fare associazioni è il suo mestiere, ma cosa associare tra loro? E’ probabile che

il coniglio lo impari da piccolo, presumibilmente anche guardando il comportamento dei suoi simili.

In questo, appunto, il mio coniglio è svantaggiato, non ha avuto nessuno da cui imparare. E così

all’inizio non è stato in grado di comprendere che il giardino accanto era un luogo pericoloso.

Peraltro ho dei dubbi persino che gli fosse chiaro il concetto di cane. E così il giorno che

spontaneamente si è infilato nel giardino di mio fratello, ho potuto per la prima volta nella mia vita

assistere ad un buon esempio di vera lotta per la sopravvivenza. Per la mia generazione, che non ha

fatto nessuna guerra e che è aliena anche dalla caccia, è stato uno spettacolo angosciante, perché né

il cane né il coniglio erano più controllabili, e solo il ricorso al getto d’acqua, come si fa nelle

manifestazioni di piazza, ha potuto distogliere il cane dal fare il suo mestiere. Per il coniglio fare

cattive associazioni o non fare quelle giuste ha un prezzo che generalmente lui paga con la vita, se

non interviene un deus ex machina che cambia il corso degli eventi e risolve situazioni difficili.

Nel corso dei milioni di anni, l’apparato nervoso ha stabilito una stretta connessione tra organismi e

mondo esterno. Era necessario che questa associazione si stabilisse perché le forme viventi più

evolute potessero aver successo. Nelle ultime centinaia di migliaia di anni processi ancora del tutto

ignoti hanno fatto sì che l’interazione con il mondo esterno diventasse così sofisticata da creare un

organismo in grado di riflettere su questo processo ed in ultima analisi su se stesso e sulla realtà che

lo circonda. Non sappiamo nulla su come questo sia avvenuto e quale sia il suo substrato anatomico

e fisiologico, ma la base di questo processo trae certamente origine dalla necessità che alle proprie

sensazioni corrisponda qualcosa di reale. Meccanismi che fossero stati slegati dalla realtà non

avrebbero avuto successo. Quando ci domandiamo come sia possibile che la nostra mente sia in

rapporto corretto con la realtà, dobbiamo tenere presente che organismi da essa avulsi non

avrebbero neanche potuto evolversi.

Ovviamente la natura non ha alcun interesse per gli organismi che essa produce, per lei uno vale

l’altro. Tuttavia gli organismi sono stati in grado di sfruttare alcune contraddizioni della natura,

9


quali l’esistenza di regole. Anche in questo caso non sappiamo perché la natura abbia le sue leggi,

ma constatiamo di nuovo che, se non le avesse, non sarebbero possibili organismi di una certa

complessità. Questa è la miglior risposta a chi sostiene che le leggi di natura siano un’invenzione

della mente umana. Le associazioni, come quella tra un certo odore e la presenza di un carnivoro,

valgono se non sempre, assai spesso. In realtà non sta scritto da nessuna parte che i sensi debbano

dirci sempre cose valide, ed in effetti essi possono essere limitanti o addirittura ingannevoli. Un

puma può avvicinarsi contro vento. Il rumore di un cucchiaio contro una scodella può venir

associato al pasto che contiene, come ben sa il cane di Pavlov. E’ probabile che associazioni

fraudolente avvengano anche in natura, e che in un primo momento durante il suo addestramento

l’animale associ tante sensazioni ad uno stesso evento. La maggior parte di esse probabilmente non

perdurerà, ma alcune, quelle evoluzionisticamente vantaggiose, potrebbero rinforzarsi. Per il

coniglio nano ci sono solo associazioni, non causalità. David Hume sarebbe soddisfatto in un

mondo di conigli 1 .

Il problema della conoscenza

Rimane il problema: quello che è vero per il coniglio è vero anche per l’uomo? Con l’apparire

dell’uomo, le associazioni tra stimoli vengono processate ulteriormente in maniera completamente

nuova. Per quanto tutti i fenomeni biologici si siano evoluti nel tempo e si possano ricostruire

alcune tappe di ogni trasformazione, rimane che il risultato finale si manifesta con delle novità che

non sarebbe stato facile prevedere dall’inizio. L’anatomia e fisiologia comparata, più recentemente

supportate dalla genetica comparata, mostrano come i geni comandino le strutture, la cui evoluzione

è chiara solo col senno di poi. Anche se non possiamo sapere se l’intelletto infinito postulato da

Laplace non possa essere in grado di prevedere tutta la storia evolutiva, noi umani assistiamo alla

comparsa di proprietà che definiamo emergenti, perché non riusciamo a spiegarne la genesi. Il che

non vuol dire che non esistano.

Così la capacità di conoscere è una capacità emergente, stupefacente quanto si vuole, ma è una

realtà. Vi è una specie che pretende di dire qualcosa sul mondo di cui essa stessa fa parte. Come ciò

abbia potuto svilupparsi rimane un mistero. Negarne a priori la possibilità è dogmatismo,

esagerarne il contenuto, superbia.

Dalla notte dei tempi l’uomo ha cercato di stabilire ciò che è. Si è trovato così a discutere dei

metodi per conoscere, dei limiti della conoscenza, del ruolo dei sensi, del loro superamento, del

concetto del concetto, fino a giungere alla messa in discussione della realtà esterna. “Nulla esiste, se

anche qualcosa esistesse non si potrebbe conoscere, se anche qualcosa si potesse conoscere non si

potrebbe comunicare” dichiara Gorgia, punito per questo con la qualifica di Sofista. In realtà questo

aforisma ci prova che i Greci avevano già raggiunto un grande livello di riflessione sulla

conoscenza umana, giungendo a dubitare dei propri sensi. I paradossi di Zenone ne sono un’altra

prova. Chi ci assicura dei nostri sensi, affidarci a loro è una “petitio principii”. In realtà i Greci

hanno già detto tutto, noi siamo qui solo per i dettagli.

Un paio di millenni dopo, Copernico e Galileo potranno costruire su questa dualità sensi-ragione un

nuovo sistema per niente intuitivo. Se da un lato Galileo se la prende con coloro che non vogliono

credere a quello che i sensi dicono loro tramite un nuovo strumento, il cannocchiale, dall’altro li

1 La dottrina di Hume reagisce contro il concetto di legame causale, sostenendo che la nostra mente

ha la propensione di associare degli eventi tra loro, ma che questa associazione non rivela un

legame necessario di tipo causale.

10


accusa anche di non sapersi liberare dai sensi, quando invocano esperienze di ogni giorno per

sostenere la fissità della Terra.

“Né posso a bastanza ammirare l’eminenza dell’ingegno di quelli che l’hanno ricevuta [la teoria

copernicana] e stimata vera, ed hanno con la vivacità dell’intelletto loro fatto forza tale ai propri

sensi, che abbiano possuto antepor quello che il discorso gli dettava, a quello che le sensate

esperienze gli mostravano apertissimamente in contrario” 2 .

Quello che ci vuole è un misto di tutti e due. Non c’è niente nel nostro intelletto che non sia passato

attraverso i sensi, ma non tutto quello che ci è entrato è buono e lodevole.

Nasce così una necessità profonda, quella di riflettere sulla conoscenza e sulle vie per ottenerla. Se

esiste l’intelletto che si pone di fronte alla realtà e la indaga, è anche vero che il più delle volte si

tratta di un lavoro sporco. Come sempre nella vita, non è tutto oro ciò che luccica. Si può

trascorrere notti intere ad ammirare gli astri e a discutere dei massimi sistemi, ma si deve anche

scendere il Rio delle Amazzoni infestato da sciami di incredibili insetti, viaggiare col mal di mare

su una nave per cinque anni intorno al mondo, inseguire l’Eldorado quando tutti asseriscono che

non esiste, seguire il corso del sole per raggiungere le Indie, somministrare dei vaccini per

dimostrare che proteggono dalla rabbia, scavare nel deserto dell’Etiopia per trovare ossa vecchie di

milioni di anni, cercare la pietra filosofale o tentare di rievocare gli spiriti passati. Tutte queste sono

manifestazioni dello stesso desiderio di conoscere. Il problema è riuscire a capire quando sono i

sensi e quando è la ragione che sbaglia.

Terreno sdrucciolevole

1.Postulati

Si dice sovente che alla base di ogni conoscenza vi sono alcuni presupposti senza i quali non si

potrebbe neanche cominciare a discutere. Essi sono: che il mondo esiste, che noi esistiamo, che il

mondo è conoscibile e che noi possiamo conoscerlo.

Ogni tanto qualcuno si dà da fare per dimostrare che è proprio così. Alcuni vogliono cercare di

provare tutto dall'inizio, così da fondare tutta la nostra conoscenza con certezza. In realtà, preistoricamente

parlando, che il mondo esista e che noi esistiamo, non è un presupposto, bensì la

prima delle nostre conoscenze. Se non avessimo stabilito che noi esistiamo e che c'è qualcosa fuori

da noi non avremmo quella dote che va sotto il nome di coscienza.

Se pertanto è vero che non saremmo qui a leggere e a discutere se questa prima scoperta non fosse

mai stata effettuata, è anche vero che non siamo in grado di rispondere all'obiezione che tutto

quello che ci circonda è un'illusione e che quello che crediamo di conoscere è una costruzione

mentale.

Né si può pensare che questa critica sia monopolio di poche menti astruse. In India, l’idea che il

mondo fosse un'illusione da cui doversi liberare risale all'alba della civiltà. Platone nella Grecia

razionale asseriva pur sempre che la realtà è quella che sta fuori dalla caverna e che a noi toccano

2 Vedi G. Galilei: Dialogo sopra i due massimi sistemi del mondo. Opere, Ed.Naz, vol VII. Torino,

1964. Vedi anche R. S. Westfall: The construction of modern science. Cambridge University Press,

Cambridge, 1977, p 21 e P.K. Feyerabend: Il realismo scientifico e l’autorità della scienza. Il

Saggiatore, Milano, 1983, p. 299-343: il passo citato si può trovare a p. 321.

11


solo le ombre. I Pirroniani dubitavano di tutto, tanto da meritare secoli dopo l’attenzione di Pascal,

mentre il suo contemporaneo Descartes non poteva escludere l'esistenza di un demone ingannevole,

anche se sosteneva di poterlo a sua volta raggirare con un gioco di parole.

Checché se ne dica, è veramente grande che queste conclusioni abbiano potuto nascere migliaia di

anni fa. Ci aspetteremmo al contrario una piatta accettazione dei dati sensoriali da parte di popoli

pieni di superstizioni e credenze le più svariate. Il fatto che il livello di critica delle apparenze possa

essere stato così elevato testimonia che la riflessione su se stessi e sul pensiero trae origine dalla

notte dei tempi. Conclusione che del resto va di pari passo con lo stupore che ci coglie davanti alle

pitture rupestri di decine di migliaia di anni fa.

A queste obiezioni in effetti cosa possiamo rispondere? Essenzialmente, il massimo della nostra

risposta nel corso dei millenni è stata del tipo riassumibile nella frase di Engels: "The proof of the

pudding is eating". Di meglio non abbiamo saputo dire. L’unica risposta che abbiamo saputo dare è

stata a livello pratico, non teorico. Abbiamo così mostrato come, se accettassimo questa obiezione,

dovremmo trarre conseguenze fastidiose, compreso l'invito a buttarsi nel pozzo, perché comunque è

un’illusione, o impopolari, come l’invito a regalare dollari perché tanto non esistono. Vista la

scarsità di argomenti conviene accettare una soluzione di compromesso. Vi è una base biologica del

nostro rapporto conoscitivo col reale, ma questa asserzione non è in grado di convincere tutti,

pertanto accettiamo che il reale esiste ed è conoscibile come un postulato. In fondo la geometria di

Euclide comprende cinque postulati e di questi quattro non sono mai stati posti in discussione in

oltre duemila anni.

2. Termini e definizioni

Mentre Descartes cercava di fondare tutto dall’inizio, Blaise Pascal scriveva un piccolo libretto “De

l’esprit geometrique et de l’art de persuader”. Dell’arte di convincere e di persuadere” in cui

riassumeva brevemente lo stato dell’arte della conoscenza 3 . Il nostro modo di conoscere è simile a

quello della geometria, vi sono assiomi che non possiamo dimostrare e vi sono termini che non

possiamo definire. Mentre Cartesio asserisce di pensare e quindi di essere, Pascal mostra

semplicemente come il termine essere sia per l’appunto indefinibile, rendendo pertanto vana la

formulazione di Descartes. Se tutto il nostro linguaggio si basa sul verbo essere, che non sappiamo

definire, evidentemente le basi del nostro ragionamento sono fragili. Quasi due secoli dopo, la

formulazione delle geometrie non euclidee avrebbe confermato che i punti di partenza di tutti i

nostri ragionamenti sono arbitrari, che anche quello che non sembra intuitivo può essere costruito in

un sistema formale. Ma se il terreno su cui si lavora non è solido, se non possiamo neanche dire che

due rette parallele non si incontrano mai, allora qual è lo stato delle costruzioni che vengono

edificate su di esso?

Il verbo essere, che è alla base di tutto, non è definibile e quindi qualsiasi costruzione edificata in

maniera formale su di essa non sa in realtà di cosa parla. Come è possibile basare tutto un sistema

che deve parlarci della terra e dei cieli senza sapere cosa esso voglia dire? D'altro canto, da dove

nasce questa difficoltà? Dal fatto che questo concetto di essere è primitivo, coincide con

l'acquisizione stessa della capacità conoscitiva, è il presupposto senza il quale non saremmo umani.

E' una modificazione che intercorse nel cervello di un ominide che diede origine alla specie H.

sapiens. Questa modificazione ce l'abbiamo tutti ed è per questo che ne possiamo parlare. Essa è

intersoggettiva, tutti abbiamo la stessa modificazione cerebrale e le abbiamo dato il nome di essere.

3 B. Pascal: Sullo spirito geometrico e sull’arte di persuadere. In Opuscoli e lettere. Edizioni

Paoline, Milano; p. 80-120. Il libro fu scritto circa nel 1658

12


Ma le difficoltà non si fermano al concetto di essere. La verità è che abbiamo grande difficoltà

anche a definire operazioni che stanno alla base di ogni forma di conoscenza. Termini indicanti

processi come "spiegazione", "dimostrazione", e altri sono in realtà mal definiti, tanto che alla fine

ci si deve rivolgere al "senso comune", o più prosaicamente, all'autorità di un dizionario, che

ovviamente di autorità non ne ha alcuna, anche se può essere utile per superare gli esami di greco o

di latino.

Il sistema stesso del ragionare è in realtà assai meno certo di quanto possa sembrare. Il problema del

nesso non è chiaro per niente. Prendiamo la migliore delle forme possibili, quella del formalismo

logico o matematico. Certo, alcune forme di ragionamento, come quella del sillogismo, può essere

descritta facendo uso della teoria degli insiemi. Ma cosa dire di alcune nozioni che stanno alla base

di tutto, ad esempio qual è lo status dei connettivi ? Noi li usiamo, addestriamo i bambini ad usarli,

ma non possiamo far di più. In realtà, c’è bisogno di un lungo training perché tutti li usino allo

stesso modo, tanto che anche persone di un certo livello non sempre sanno maneggiarli

correttamente. E' probabile che siamo di fronte a concetti primigeni, che, come accade per il verbo

essere, sono comprensibili solo in quanto hanno un correlato neuronale che è uguale o simile in tutti

i cervelli, almeno in quelli che vengono addestrati nella logica matematica. Il sospetto pertanto è

che ci voglia un addestramento speciale perché tutti possiamo utilizzare termini, concetti ed

operazioni nello stesso senso. In effetti questo potrebbe spiegare perché molti non capiscono la

matematica, in quanto non sono in grado di "sintonizzarsi" sulla stessa lunghezza d'onda degli altri.

3. Fede nella natura

L'ultimo grande presupposto per la conoscenza è la fede nella regolarità della natura. Se la natura

non avesse un comportamento regolare, ogni nostro tentativo di conoscere non sarebbe mai

sommatorio. Ogni dato singolo potrebbe venir acquisito, ma non faremmo alcun passo avanti.

Potremmo presumibilmente dire proposizioni del tipo "ora, qui", ma non generalizzazioni. Se il

giaguaro non riflettesse la luce sempre allo stesso modo e se i fotoni non seguissero sempre le stesse

regole, il coniglio potrebbe accorgersi di un giaguaro una volta sì e una no, e la sua corsa

terminerebbe presto.

In effetti, come scrisse Hume,

“If there is any suspicion that the course of nature may change, and that the past may be no rule for

the future, all experience become useless and can give rise to no inference or conclusion” 4 .

Anche la fede nella regolarità della natura non è in realtà un dato acquisito, ma è il risultato di una

serie di analisi del nostro rapporto con il mondo esterno. E' un'estrapolazione di dati, un’inferenza

su base induttiva, una conclusione cui i primi uomini arrivarono senza che noi possiamo risalirvi.

Inferenza che tra l’altro ha ricevuto alcune conferme da misurazioni. Ad esempio, l’analisi ha

consentito di misurare la costante gravitazionale di Newton, in un arco di oltre 3 millenni, nel quale

è stato determinato che il mutamento annuale è inferiore a quello di una parte su un miliardo 5 .

La nostra presa di coscienza circa la regolarità della natura è pertanto un’inferenza su base empirica,

e va di pari passo, e forse coincide con l’enunciazione del principio di causalità. Cos'è il principio di

causalità? non è una categoria kantiana, non è un principio, ma è la prima delle leggi empiriche.

Pertanto potrebbe essere fallibile, ma malgrado la critica di Hume pochi credono che l’associazione

4 D. Hume. An enquiry concerning human understanding. IV-II-32 (Encyclopedia Britannica,

Chicago, 1952)

5 Citato in Goddard Lynch, A. “Did Popper solve the Hume’s problem?”. Nature 366:105,1993.

13


ipetuta di fenomeni non significhi proprio nulla. Da numerose osservazioni della natura, venne

posta l'ipotesi che ogni evento è collegato ad altri in maniera indissolubile e a questo legame si

diede il nome di causalità. Le osservazioni successive hanno rafforzato questa ipotesi e, con buona

pace di molti meccanici quantistici, ci vuol altro che un principio di indeterminazione per scuoterla.

Rimane tuttavia che il termine di “causa” rientra tra quelli che sono difficilmente definibili, che

possiamo chiamare primitivi, e che per parlarne tra noi dobbiamo assumere o sperare che anche i

nostri interlocutori intendano la stessa cosa, cioè che abbiano avuto la nostra stessa modificazione

cerebrale. Il che in effetti sembra che succeda.

La base biologica della conoscenza.

Il substrato materiale della nostra conoscenza si è evoluto da quello degli animali inferiori, ma ha

acquisito delle capacità imprevedibili. Theodosius Dobzhansky inizia un suo libro osservando che

"Ciò che è strano, meraviglioso, non è l’esistenza reale di Dio, ma che l’idea della necessità di un

Dio sia sorta nella mente di una bestia selvaggia e immorale come l’uomo” 6 .

Se a quell’epoca ci fossero state riviste scientifiche, la nascita dell’idea di Dio sarebbe stata

certamente considerata un breakthrough e avrebbe meritato lunghi editoriali favorevoli. Il problema

è che non ci sono registrazioni dirette delle prime grandi conquiste conoscitive dell’umanità. La

ruota è arrivata tanto, tanto tempo dopo.

Queste grandi conquiste, non sono acquisite per sempre e non sono ancora state cooptate nel

genoma, né si può sapere se un giorno lo saranno. Devono ancora essere apprese da ogni membro

della nostra specie, ma quello che c’è nel nostro genoma ci consente di candidarci ad entrare nel

club. Nei club più esclusivi si entra solo in base al pedigree. Per questo, lo scimpanzé, per ora ne

resta fuori. Però siamo in un periodo di grande democrazia e non sappiamo cosa succederà nel

prossimo millennio.

Che vi sia una base biologica nella nostra conoscenza e che questa possa essersi evoluta, può essere

accettato da molti, ma non da tutti. D’altro canto questa interpretazione ci potrebbe spiegare perché

mai possiamo conoscere la realtà. Perché ci siamo nati dentro. Vi è un gap di qualche milione di

anni tra l’Homo sapiens e l’antenato comune con le scimmie antropomorfe e le tappe intermedie

vengono indagate con gran difficoltà. Sotto i nostri occhi abbiamo ora una specie che non solo

esegue meccanicamente associazioni e comportamenti, ma una specie che formula domande su

tutto. Su ciò che è necessario sulla sua sopravvivenza, ma anche su questioni di fondo: chi è l’uomo,

cos’è la coscienza, da dove origina l’universo e l’uomo stesso, sull’esistenza del mondo reale, che

formula concetti astratti, che si interroga sugli universali, che analizza il proprio cervello, che cerca

di fondare su basi certe le proprie convinzioni. L’uomo vuole conoscere tutto. Sono situazioni

completamente nuove, proprietà emergenti la cui base è ignota, prima di noi non se ne trova traccia.

La domanda pertanto è: come è possibile con tutte queste limitazioni costruire qualcosa che stia

in piedi? La risposta è che è possibile, anche se quello che si ottiene è soggetto a rovinosi crolli.

D'altro canto è possibile costruire palafitte senza conoscere minimamente la legge di gravitazione

universale che tuttavia governa la statica della palafitta. Cuore e polmoni fanno il loro lavoro da

decine di milioni di anni, anche se noi non sappiamo come.

6 T. Dobzhansky: Le domande supreme della biologia. De Donato, Bari, 1969; p. 11. Dobzhansky

cita la frase da Dostoevskij che la fa pronunciare a Ivan Karamazov.

14


Il coniglio nano poveretto, si dà da fare come può. Si attacca a tutto quello che può essergli utile per

salvarsi la pelle. Noi non siamo in una situazione tanto migliore per certi aspetti. E' vero, dopo

centinaia di migliaia di anni di lotta e dopo avere sviluppato una considerevole astuzia, vogliamo

conoscere il mondo non solo per portare a casa la ghirba ma anche per avere risposte a domande che

nessun coniglio si porrebbe mai. Ciononostante, siamo su un terreno assai sdrucciolevole per quanto

riguarda la nostra conoscenza e possiamo scivolare ad ogni pie’ sospinto.

Per fortuna, possiamo far tesoro di tutti i tentativi ed errori fatti dal coniglio. Nel corso di decine di

milioni di anni, le forme viventi cosiddette superiori hanno sviluppato un profondo rapporto con il

mondo reale a prezzo del loro sangue. Non abbiamo idea di quanti organismi si siano sacrificati per

consentire all'uomo di arrivare ad avere non solo degli ottimi sensori, ma soprattutto una capacità

processiva che anche i computer ci invidiano. L'eredità che abbiamo ricevuto è consistente e,

bisogna dire, noi non l'abbiamo certo seppellita sotto terra, ma l'abbiamo investita al meglio.

Abbiamo ereditato la capacità di raccordarci con il reale, anche se non sappiamo come, né quale sia

la base di questo fenomeno, e l'abbiamo applicata così bene che gli dei ci guardano ora con

sospetto. Essi hanno incatenato Prometeo e ci hanno scaricato addosso tutto il contenuto del vaso di

Pandora, ma questo non ci ha fermato. Ci siamo fatti scacciare dal giardino dell'Eden, ma tutto

quello che abbiamo ora ce lo siamo procurato da soli. Fra tutto ciò non vi è dubbio, la conquista

principale è l'affermazione che noi esistiamo.

Pertanto la nostra conoscenza si basa su una serie di risultati grandiosi ottenuti nella notte dei

tempi da sistemi cerebrali che hanno operato una serie di analisi che ci hanno esse stesse

permesso di diventare uomini. Questi risultati, che hanno avuto luogo in tempi e modi che per ora

ci sfuggono completamente, sono tuttavia indimostrabili, nel senso che attribuiamo a questa parola

nelle rigorose analisi scientifiche. Almeno per ora.

Può darsi che questa conclusione getti qualcuno nella disperazione e lo induca all'abbandono e alla

rinuncia. Non credo che per costoro si possa far nulla, sono persi per la conoscenza (la loro scelta

comunque può avere ottime motivazioni). Ma con tutti gli altri ci si può incamminare verso il

terreno della discussione. D'altro canto, cosa dire ad uno che vuole giocare a calcio con le mani ? Se

questo ci chiede perché le regole sono così o, peggio, se ci comincia a chiedere da dove discende

l'obbligo di non usare le mani, cosa si può fare? si può solo chiedergli di togliere il disturbo o nei

casi estremi lasciarlo a parlare da solo.

D'altro canto, il calcio si fa diffondendo sempre più, anche negli Stati Uniti sempre refrattario a

questo sport 7 . Evidentemente il calcio è dotato di un certo fascino tra i giovani. L'analogia però si

dovrebbe fermare qui. Se non c'è nessun motivo per preferire il calcio al basket o al baseball, è

probabile che ci siano numerosi motivi perché la conoscenza sia piacevole per le menti giovani (o

ce ne sono di più che incentivano l'irrazionalità ?). Questi motivi non sono assoluti, ma si spera ci

siano: chi mai sceglie di giocare a cricket oggidì ?. E' bene che sia chiaro fin dall'inizio che si può

decidere di vivere nelle tane fino a diventare ciechi, ma anche i timidi conigli hanno scelto di non

limitarsi a vivere nei cunicoli (da cui il loro nome dotto, Oryctolagus cuniculus, da cui

presumibilmente è derivato il termine italiano) perché evidentemente qualcosa di piacevole c'è

anche fuori, anche se si rischia la pelle.

Pertanto, l'unica possibilità è mostrare quanto di bello produce la conoscenza e lasciare che la gente

scelga. Anche se il terreno è sdrucciolevole, possiamo pure tentare di costruire qualcosa. Date le

7

Trovandomi nell’occasione negli Stati Uniti, ho avuto recentemente modo di verificare

l’entusiasmo degli americani per la vittoria ai mondiali di calcio della nazionale femminile (1999),

vittoria che solo una decina di anni fa avrebbe lasciato tutti indifferenti.

15


premesse, possiamo pensare ai castelli di carte. Non hanno alcuna fondamenta, eppure stanno in

piedi e sono tanto più belli quanto più è bravo l'artista. Ogni tanto cadono giù, ma i materiali sono

sempre riutilizzabili e possono servire per riedificare castelli più belli di quelli di prima.

Scienza e filosofia

Storicamente, ci sono state due grosse pretese alla conoscenza. Sono stati chiamati scienza e

filosofia, anche se vi è grande confusione sui termini. A volte il nucleo centrale della filosofia è

andato sotto il nome di metafisica.

1. Scienza e filosofia: anatomia di un rapporto

L’uomo occidentale parla in diverse lingue, ma pensa in greco. Non che non vi siano state

nell’estremo Oriente sistemi di pensiero di notevole complessità, ma tutti noi viviamo in

problematiche formalizzate dagli antichi Greci.

E’ noto, e viene insegnato in tutte le scuole di ogni ordine e grado, che per gli antichi greci la

conoscenza è una sola, e nei dialoghi platonici vi è un solo modo di ragionare. Aristotele, che fece

una summa delle conoscenza nel suo tempo, distinse nei suoi libri la Fisica (da φυσισ, natura) dalla

Metafisica, anche se le origini di questa denominazione non sono certe 8 . E’ anche noto che nel

Medioevo tutto fu denominato dalla teologia, che per i Greci era una parte della filosofia:

“Philosophia ancilla theologiae”. Non vi è nessuna opposizione tra Teologia e Filosofia, e San

Tommaso è perfettamente aristotelico. Nel Rinascimento però si assiste alla rimessa in discussione

di questo rapporto. La scienza diventa un partner esigente, anche se l’oggetto del contendere non è

la Teologia in se stessa bensì l’interpretazione letterale delle Scritture. La diatriba tra teologia,

filosofia e scienza raggiunge il culmine con la condanna di Galileo 9 . In realtà, Galileo è aristotelico

nel metodo, perché si richiama all’esperienza, e cos’è l’esperienza se non ciò che passa attraverso i

sensi ? 10 Una serie di eventi culturali e politici fanno sì che Galileo si opponga ai neo-aristotelici.

Quali che siano state le cause che portarono al processo di Galileo, rimane che “nell’immaginario

collettivo”, il processo rappresentò sempre il momento che rese indipendente la scienza dalla

Teologia.

Data la potenza della Chiesa di Roma in quel periodo, sorse per gli scienziati la necessità di trovare

un modus vivendi che consentisse loro di perseguire i propri studi senza correre rischi. Nasce così la

separazione tra scienza e filosofia, tra sapere scientifico e sapere filosofico e teologico, tra chi si

interessa del contingente e chi si interessa dell’assoluto. Una buona soluzione dal punto di vista

pragmatico, ognuno è padrone del suo campo e non invade quello dell’altro. L’enorme aumento

delle conoscenze facilita questa separazione: è difficile impadronirsi di più di una branca del sapere.

Se nel tardo Rinascimento la gente può ancora perseguire ambedue gli interessi, basti pensare a

Isacco Newton che scrisse tanti saggi scientifici quanti teologici, man mano che si procede

l’aumento delle conoscenze diventa tale da rendere difficile la pratica di entrambi i settori, il che

contribuisce a divaricare ulteriormente i due tipi di conoscenze.

8 Potrebbe essere che il termine “metafisica” tragga origine dal fatto che veniva dopo il libro di

Fisica o che si volesse indicare argomenti che andavano al di là delle cose fisiche.

9 Vi sono varie interpretazioni delle motivazioni che portarono alla condanna di Galileo, alcune

delle quali addirittura vedono il processo come un sistema per proteggere Galileo da accuse più

pesanti che non la difesa della teoria copernicana, che sarebbe all’epoca stata appoggiata dalla

Chiesa. Vedi P. Redondi: Galileo eretico. Einaudi, Torino, 1983.

10 Vedi quanto affermato sopra sul sottile gioco tra sensi e ragione in Galileo.

16


In Inghilterra tuttavia le cose si svilupparono un po’ diversamente. Qui in seguito allo scisma

anglicano, l’influenza della Roma cattolica era minore. Se è vero che David Hume, col suo invito a

bruciare tutti i libri che non contengano discorsi sulla esperienza o sulla matematica, deve essere

considerato il precursore dei positivisti logici, è anche vero che nell’ambito della Royal Society fu

molto attiva una corrente di pensiero che traeva fiducia dalla religione per lo studio della natura. Il

magnifico ordine naturale veniva considerato una manifestazione divina e l’indagine della natura

veniva vista come una via che portava a Dio. Pertanto la divisione tra scienza e teologia fu inferiore

nell’isola a quella che si manifestò nel continente. Numerosi studi supportano l’ipotesi che, ben

lungi dall’ostacolare la scienza, i presupposti del Cristianesimo abbiano favorito l’indagine

scientifica 11 .

C’è da chiedersi appunto se la visione cristiana non sia stato un elemento decisivo nella nascita

della nuova fisica. Perché la scienza è nata in Occidente ? Come avrebbe potuto nascere in India, in

un paese dove la realtà viene considerata illusione e l’agire ostacola il raggiungimento del nirvana ?

O dove la discussione è impedita dalla mistica ? Nella Summa di Tommaso d’Aquino, tutto vuole

essere rigorosamente dimostrato, il ruolo della ragione è fondamentale: essa è buona e può portarci

alla conoscenza della verità (che in fondo coincide con Dio). Il mondo è il nostro regno, e il precetto

biblico di andare e conquistare il mondo stimola l’uomo non solo a conoscere ma anche ad agire.

Come Weber attribuisce al protestantesimo un ruolo nella genesi del capitalismo, così Robert

Merton sostiene l’enorme importanza del Puritanesimo e del suo ethos nella genesi della scienza del

Settecento 12 . La Royal Society stessa era piena di Puritani. Thomas Sydenham, Robert Boyle, Isaac

Newton e tantissimi altri vedevano gli studi della natura come la glorificazione di Dio e della sua

opera. “The wisdom of God manifested in the work of creation” è il titolo di un libro di John Ray.

William Derham scrive una “Physico-Theology”. Nasce e si diffonde una “Natural Theology” che

si propone di dimostrare l’esistenza e la bontà di Dio attraverso lo studio della natura: William

Paley ne è l’esponente più noto, e il suo libro, uscito nel 1802, porta appunto questo titolo 13 .

La teoria dell’evoluzione segna un nuovo punto di frizione tra scienza e teologia, da cui nel

frattempo anche la filosofia si era emancipata. Pertanto non si può parlare di diatriba tra scienza e

filosofia, in quanto vi erano ormai molte e diverse filosofie ufficiali. Quando le memorie di Darwin

e Wallace vengono presentate alla Royal Society, la Rivoluzione francese e l’Illuminismo sono già

passati e Lamettrie ha già scritto il suo libro “L’homme machine” da oltre un secolo 14 . E’ noto che

solo da pochi anni la Chiesa Romana ha ufficialmente riabilitato dopo Galileo anche Darwin. Ma di

nuovo in Gran Bretagna, malgrado il noto dibattito tra Thomas Huxley e il vescovo Samuel

Wilbeforce, l’accettazione della teoria dell’evoluzione negli ambienti ecclesiastici anglicani è assai

più rapida. Nel 1896, Frederick Temple diviene arcivescovo di Canterbury, la massima carica della

11 C.A. Russell (editor): Science and religious belief. Vedi soprattutto i contributi di R. Merton e di

D.S. Kemsley. Inoltre, vedi R. Hooykaas: Religion and the rise of modern science. Scottish

Academic Press, Edimburgo, 1977

12 R.K. Merton: Puritanism, pietism ans science. Sociological Review 28, part I, gennaio 1936.

Reprinted in C.A. Russell: Science and religious belief. The Open University Press, Londra, 1973;

vedi nota 13, p 20-54. “It is the thesis of this study that the Puritan ethics, as an ideal-typical

expression of the value-attitudes basic to ascetic Protestantism generally, so canalized the interests

of seventeenth-century Englishmen as to constitute one important element in the enhanced

cultivation of science”. p. 20.

13

W. Paley: Natural Theology, or Evidence of the existence and attributes of the Deity collected

from the appearances of nature. Londra, 1802

14 J. Offroy de Lamettrie: L’homme machine, Leida, 1748

17


Chiesa d’Inghilterra. Dodici anni prima aveva tenuto le “Bampton lectures” a Oxford sulla relazione

tra religione e scienza, dove l’evoluzione veniva considerata un assioma 15 .

Ma soprattutto la tregua viene rotta dai neopositivisti o positivisti logici. Nell’accezione di

Wittgenstein, di ciò di cui non si può parlare bisogna tacere; ma se questo non implica ancora un

giudizio negativo sull’ineffabile, per i filosofi del Circolo di Vienna la metafisica è puro nonsenso.

Ciò che ha senso, logica e matematica a parte, è solo ciò che è suscettibile di verifica sperimentale,

e la metafisica non lo è. Karl Popper introdurrà il concetto di falsificabilità invece di quello di

verificabilità, il che, dal punto di vista dei metafisici, non fa alcuna differenza. In seguito però

l’accusa di nonsenso viene in parte mitigata. La verificabilità o la falsificabilità diventano semplici

criteri di demarcazione e non criteri di senso. Siamo di nuovo alla tregua armata, alla guerra fredda,

ma per lo meno i due schieramenti smettono di accapigliarsi.

La separazione tra scienza e filosofia potrebbe dipendere dal fatto che il metodo di conoscenza è

diverso, dal fatto che il dominio di interesse è diverso o da entrambe le cose. Nell’accezione più

diffusa è l’ultima accezione ad essere preferita dai sostenitori di entrambe le parti. Analizziamo

innanzitutto il problema del metodo di conoscenza.

Uno ed un solo metodo di conoscenza per una enorme vastità di problemi differenti

1. Ritorno al coniglio

Il metodo scientifico è la diretta conseguenza della conoscenza animale. Per l’animale, i dati

sensoriali entrano nel sistema nervoso centrale e vengono automaticamente messi in relazione con

altri dati, il tutto viene poi collegato con alcune risposte comportamentali che tendono

essenzialmente alla conservazione dell’individuo. Il rapporto temporale è estremamente importante

e per l’animale vale assolutamente il “post hoc ergo propter hoc”. Quello che funziona qui è una

specie di induzione automatica. A valle di tutto ciò c’è la verifica del mondo esterno. Se il coniglio

ha sentito un odore ed è fuggito nella tana, la realtà potrà premiarlo se la sua induzione ha

funzionato bene o potrà punirlo se ha funzionato male 16 . Per l’uomo l’induzione è cosciente e anzi

soggetto di accesi dibattiti sulla sua importanza e sul suo significato. Quello che per l’animale è uno

strumento di sopravvivenza diventa qui un principio di conoscenza. Anche per l’uomo comunque il

mondo esterno emette sentenze, ma in campo conoscitivo ormai chi muore sono generalmente le

teorie.

2. Materiali e metodi (i metodi della conoscenza)

Che io sappia, nel corso della storia sono stati reclamati essenzialmente tre tipi (o modi o metodi) di

possibile acquisizione di nuove conoscenze:

1. Il metodo sperimentale, che ha le sue radici nel famoso “nihil est in intellectu quod prius non

fuerit in sensu”, ha permeato tutto il mondo occidentale a partire almeno da Aristotele, tanto da

essere accolto con Tommaso d’Aquino anche nella sfera religiosa e diventare la dottrina

ufficiale dell’Occidente per numerosi secoli: esso prevede che ogni nuova conoscenza derivi

all’uomo attraverso l’interazione tra il suo sistema nervoso (centrale + periferico + organi di

senso) e la realtà esterna.

15 O. Chadwick: Evolution and the churches, 1966, ristampato in Science and Religious belief, vedi

op.cit p.282-293, 1977

16 Nell’esempio in questione, il coniglio salva la pelle se c’è effettivamente in giro un predatore, ma

se in assenza di predatore continuasse a rifugiarsi nei cunicoli, la sua alimentazione ne soffrirebbe.

18


2. Il metodo basato sull’intuizione, che ammette che nuove conoscenze possono essere acquisite

anche senza che queste passino attraverso i sensi, riconosce due varietà, a seconda che a) queste

conoscenze fossero già in noi e andassero solamente risvegliate o invece b) non fossero

precedentemente in noi e noi potessimo acquisirle ex-novo sia in maniera attiva (“meditando”)

che in maniera passiva (per “folgorazione o illuminazione”). Questo metodo, pur ritrovandosi

più frequentemente nella cultura orientale, è presente anche in quella occidentale, basti pensare

oltre che a Platone anche a Bergman. Per alcuni addirittura questo è il metodo di tutta la

filosofia o per lo meno di quella parte di essa che va sotto il nome di metafisica. Generalmente,

ma non è detto che la distinzione sia costante, si ritiene che la versione occidentale motivi

queste sue affermazioni con ragionamenti (pensiamo anche solo alla teoria delle Idee e

dell’Iperuranium di Platone, che, seppure presentata sotto forma dialogica e non con un vero

trattato, tuttavia è sufficientemente chiara e motivata, mentre la versione orientale si fa spesso

un vanto di non essere comunicabile con ragionamenti chiari e distinti, ma solo intuita, sentita,

partecipata o vissuta).

3. Il metodo basato sulla rivelazione in senso lato, può essere definito come segue: è il metodo per

cui un individuo acquista una nuova conoscenza in quanto un altro individuo gliela comunica;

mentre tuttavia l’individuo efferente ha ottenuto o sostiene di aver ottenuto la conoscenza

attraverso l’esperienza diretta del fatto in questione, l’individuo afferente ha precluso questa

possibilità. Questa situazione è presente in molte religioni, ma è anche parte integrante della

nostra vita quotidiana; inoltre molte proposizioni riferite al passato e non regolate da leggi note

appartengono a questa categoria.

Vediamo ora di dire qualche parola in più su ciascuno di questi presunti metodi.

1. Il metodo sperimentale

Il metodo sperimentale si basa sull’esperienza. Attraverso i sensi noi possiamo acquisire un certo

numero di conoscenze che non hanno bisogno di ulteriore elaborazione: possiamo chiamare le

proposizioni che esprimono questo tipo di conoscenza “proposizioni protocollari”, avvisando

tuttavia che non tutti concorderebbero sulla loro semplicità; alcuni infatti sostengono che non si

danno osservazioni pure, ma solo osservazioni mediate da teorie (o nell’ambito di teorie); altri, più

biologicamente, fanno notare che ogni osservazione è sempre elaborata e quindi trasformata dal

nostro sistema nervoso. Come abbiamo detto, vi sono delle limitazioni che minano alla base

l’assunzione del dato come dato puro. Le prime definizioni e le prime assunzioni hanno una base

biologica ed evolutiva che da un lato le rendono incarnate e non astratte (in senso buono), ma

dall’altro assicurano l’ancoraggio alla realtà.

Tutto ciò è senz’altro vero, ma noi qui le considereremo ugualmente come proposizioni semplici e

certe in quanto questo è l’uso che ne fa lo scienziato nel suo lavoro di ogni giorno. Esse vengono

anche dette “atomiche” perché, oltre a rappresentare delle conoscenze, sono anche le unità con cui

vengono costruite conoscenze più generali; è proprio l’enunciazione delle relazioni più generali,

anzi è proprio l’enunciazione delle relazioni tra più fatti (o più proposizioni) che costituisce le

grandi scoperte della scienza. Ora, mentre possiamo considerare le proposizioni atomiche come

immediatamente date attraverso i nostri sensi, abbiamo invece dei procedimenti precisi per valutare

la validità delle conoscenze che parlano di relazioni tra queste proposizioni, e che in genere

vengono chiamate leggi. Pur con qualche schematismo, si può dire che una legge nasce passando

attraverso varie fasi, da tempo riconosciute come caratteristiche del metodo sperimentale.

In una prima fase, che potremmo chiamare di elencazione, si selezionano le proposizioni atomiche e

non atomiche (queste ultime già precedentemente valutate) tra le quali si vuole descrivere una

nuova relazione; potremmo dire semplicemente che in questa fase si elencano i fatti che si vuole

spiegare, senza che abbia alcuna importanza il modo con cui questi siano stati ottenuti: non

interessa cioè sapere se sono stati ottenuti in maniera casuale o addirittura nell’ambito di un’ipotesi

che si vuole controbattere.

19


Nella seconda fase, che potremmo chiamare delle ipotesi, si enuncia la proposizione che descrive in

che modo i fatti precedentemente elencati stanno in relazione tra loro; questa proposizione viene

chiamata ipotesi in quanto se ne riconosce già in partenza l’aspetto di incertezza. In linea di

principio, non vi sono limiti all’arditezza delle ipotesi, essendo questo per molti addirittura un

momento governato dalla libera fantasia o un’attività simil-artistica: unica limitazione che tale

ipotesi sia testabile, cioè che l’ipotesi preveda delle condizioni in cui possa essere verificata o

falsificata, o meglio, in cui possa essere corroborata o indebolita.

E’ importante sottolineare che non vi sono regole fisse per la seconda fase. Per formulare ipotesi

che spieghino tutti i dati raccolti, la mente umana può fare quello che vuole. Può lavorare di

immaginazione, può fare ricorso alle esperienze personali, al proprio senso estetico, alla semplicità,

alla complessità, può trarre spunto dai sogni o dalla cabala, da antichi scritti o da intuizioni

fantascientifiche. Einstein può immaginare di viaggiare su un raggio di luce e Kekulè può sognare

le bisce che si mordono la coda 17 . Si può essere mossi da convinzioni religiose o dal freddo

materialismo, quello che conta non è la psicologia o la sociologia della genesi dell’ipotesi bensì le

sue conseguenze predittive: l’ipotesi deve tornare a confrontarsi colla realtà per ricevere il premio o

il castigo.

Quello che pertanto distingue il metodo scientifico è essenzialmente il fatto che a giudicare delle

bontà di una modificazione cerebrale, quale è una ipotesi, viene chiamato non la mente stessa ma un

arbitro esterno. Naturalmente in pratica vi sono dei limiti alla formulazione di teorie, limiti che sono

psicologici e tecnici. Le ipotesi più pazze possono venir formulate, ma dal momento che la loro

verifica è un processo costoso sia per l’individuo che per la società nel suo insieme, ognuno di noi

opera una certa selezione, cercando di scegliere quelle che sembrano meno strambe o più facili da

verificare.

Quindi mentre porre ipotesi può essere considerata un’attività a priori, l’aggancio con l’esperienza

viene assicurato dal confronto con i fatti, e in questo appunto consiste la terza fase che chiameremo

perciò fase della verifica (non avendo a disposizione nella lingua italiana un semplice sostantivo

corrispondente all’aggettivo “testabile”, di origine anglosassone). La verifica delle ipotesi avviene

mediante il confronto tra le proposizioni previste dalla nuova ipotesi e quelle che descrivono i fatti

realmente verificatesi in seguito all’esperimento. L’esecuzione degli esperimenti costituisce

pertanto la terza fase del metodo sperimentale, e la valutazione dei risultati in rapporto all’ipotesi ne

costituisce la fase conclusiva.

Riassumendo, le proposizioni ottenute mediante le regole del metodo sperimentale hanno le

seguenti caratteristiche: esse sono empiriche, cioè sono ancorate alla realtà; sono sintetiche, cioè ci

danno delle novità, sono provvisorie, cioè possono essere sostituite da altre in qualsiasi momento.

2. Il metodo intuitivo

I sostenitori di questo metodo non rifiutano affatto le conoscenze ottenibili mediante il metodo

precedente; tuttavia sostengono che anche con questo metodo si possono ottenere conoscenze

genuine. Forse si può caratterizzare sufficientemente bene questo metodo se si dice che sostiene che

le prime due fasi del precedente metodo da sole sono in grado di fornire conoscenze: la terza fase

viene considerata inadatta in certe situazioni. Il momento della verifica viene spesso soppresso per

via del fatto che si pretende di parlare di un mondo che va al di là delle esperienze sensibili e per

questo si etichetta frequentemente questo metodo come “filosofico” o “metafisico”, ma sarebbe

possibile applicarlo anche alla realtà sensibile. Le conoscenze che si crede di aver ottenuto mediante

questo metodo vengono spesso definite dai loro sostenitori come assolute; con questo termine

17

Questi sono solo alcuni esempi dei modi più pazzi in cui le ipotesi possono nascere. Einstein

sostiene che da bambino sognava di farsi trasportare da un raggio di luce e che questo lo aiutò

nell’ideazione della teoria della relatività. Kekulè sostiene di aver avuto l’idea della struttura

dell’anello aromatico del benzene sognando dei serpenti che si mordevano la coda.

20


sembra che si intenda dire che esse non sono suscettibili di modificazione nel tempo e nello spazio,

almeno per quanto riguarda il loro nucleo centrale.

Il distacco netto tra questi due metodi viene generalmente attribuito al rifiuto galileiano del “tentar

l’essenza”, riecheggiato poi dal newtoniano “hypotheses non fingo”, dove il termine ipotesi veniva

utilizzato in un senso completamente diverso da quello che poi si è imposto nell’accezione

moderna. L’esistenza di un mondo al di là dei sensi non accessibile tramite la semplice esperienza,

già presente in Platone e ovviamente nelle filosofie indiane, ha in realtà permeato di sé il dibattito

filosofico di tutti i tempi, compreso quello moderno, ritrovandosi non solo in Kant, ma anche in

Wittgenstein, anche se spesso ne veniva sostenuta l’inconoscibilità. Altre volte, se richiesti di

spiegare le modalità con cui si possa avere accesso a questo mondo, i sostenitori della sua esistenza

tirano in ballo concetti a loro volta non facilmente verificabili, quali l’introspezione, la meditazione

e così via. Talora si sostiene che questo mondo possa venir conosciuto attraverso l’esperienza

mistica o che semplicemente basti risvegliare in noi conoscenze sopite come appunto fa la

maieutica socratico-platonica.

Una variante estrema di questo metodo di conoscenza è quello di tipo zen. Io conosco, io so. Tu non

sai e non ci posso far niente. Chiuso il discorso. Al massimo posso raccontarti una bella favoletta.

Con tutto il rispetto per le filosofie orientali e per le loro magnifiche intuizioni, questo approccio,

assai riverito nel mondo orientale, da noi viene riservato in genere ai bambini piccoli, a cui noi ci

rivolgiamo con la versione occidentale dello zen: “E’ così, perché di sì”. Gli psicologi dell’età

infantile ed evolutiva ci dicono che questo atteggiamento è assai dannoso nel rapporto adultibambini.

3. Il metodo della rivelazione

Bisogna subito precisare che qui intendo il termine in senso molto ampio, non nel senso

strettamente religioso. Il singolo individuo può venir a conoscenza di un fatto di cui non ha avuto

esperienza, attraverso l’informazione che gli viene comunicata da un altro individuo che sostiene di

averne avuto esperienza diretta (se non sostiene di averne avuto esperienza diretta si ricade nel caso

precedente, anzi in un sottotipo ancora più debole). Molte proposizioni riguardanti il mondo

materiale del passato cadono in questa categoria, in quanto noi dobbiamo basarci per la loro verifica

su quanto ci viene testimoniato da altri; fanno eccezione quelle che obbediscono a leggi che si

presume funzionassero anche in passato (ad esempio, molti eventi cosmologici possono venir testati

in base a queste assunzioni) o eventi che hanno lasciato tracce ancor oggi rilevabili (ad esempio in

campo biologico, lo studio del DNA consente ora di esplorare almeno parzialmente il passato di

specie e individui). Per altri eventi di cui l’unica traccia è il resoconto scritto, figurato o parlato di

uno o più uomini, la storia, configurandosi come disciplina scientifica che procede per verifica di

ipotesi, ha elaborato una serie di regole per stabilire l’autorevolezza della fonte, come si suol dire.

Infine nel passato vi sono eventi che non hanno lasciato tracce né sulla carta né nella pietra e non

sono più testabili. Qual è lo status di proposizioni intorno ad essi ?

Nella nostra vita quotidiana, questo metodo di accrescere le nostre conoscenze è tanto frequente che

neanche ce ne accorgiamo; in realtà, il fatto che i vari uomini attribuiscano autorevolezza diversa a

fonti diverse è una delle cause per cui vi siano versioni contrastanti di un medesimo evento in teoria

facilmente constatabile, tanto da dover rientrare addirittura nell’ambito delle proposizioni atomiche:

basta pensare ai fatti che accadono durante una manifestazione politica per concludere che il più

delle volte un osservatore imparziale avrebbe tutte le possibilità per enunciare una proposizione che

rispecchi l’accaduto, ma che generalmente chi non ne ha avuto esperienza diretta si troverà

nell’impossibilità di decidere quale delle due versioni rispecchi veramente quello che è successo.

Questo capita naturalmente perché l’evento non è ripetibile, il che al contrario è un assunto di base

per chi studia i fenomeni col metodo sperimentale: lo scienziato, quando esamina un articolo su una

rivista scientifica, anche se non ripete l’esperimento, sa che altri laboratori lo faranno; ciò oltretutto

agisce da deterrente, perché in teoria chi bara sa in partenza che verrà scoperto.

21


Le varie religioni riconoscono spesso fondamentale importanza a questo metodo, e alcune di esse,

ad esempio il Cristianesimo, procedono con dei criteri che sono di tipo storico, valutando i

documenti e analizzando le fonti con criteri precisi e riconosciuti, reclamando che i fatti accaduti

siano valutati con lo stesso spirito con cui si valutano quelli riferiti da Tacito o Tucidide.

Ci si può chiedere quali caratteristiche abbiano le proposizioni ottenute con questo metodo: esse

sono senza dubbio incerte, anche se stabilirne la validità o almeno la probabilità sembra essere

ancora più difficile che per quelle ottenute col metodo sperimentale in senso stretto. Parimenti sono

provvisorie. Sono tuttavia empiriche e sintetiche, per lo meno quelle su eventi che hanno lasciato

una traccia.

4. Valutazione di questi tre metodi di conoscenza

Quello che dovrebbe essere chiaro a tutti è che non conosco nessuna argomentazione che costringa

ad accettare o rifiutare l’uno o l’altro o una combinazione di questi metodi. La valutazione di un

metodo deve basarsi su criteri che non fanno parte del metodo stesso. L’unico criterio cui sembra

possibile appellarsi è quello dell’analisi dei risultati. Ora sembra sufficientemente palese che quanto

a conoscenze prodotte il metodo sperimentale ne ha prodotte infinitamente di più del metodo basato

sul metodo dell’intuizione (ammesso pure che questo ne abbia prodotta qualcuna). Inoltre, anche se

i singoli scienziati possono ostinarsi a seguire convinzioni errate, a lungo andare generalmente

riescono a mettersi d’accordo. Vi è quindi un certo progresso nelle proposizioni ottenute col metodo

scientifico, mentre questo progresso non è ben visibile nelle pretese conoscenze ottenute col metodo

intuitivo, e questo per il semplice motivo che non vi sono criteri per stabilire chi ha intuito giusto.

Insomma, l’unica argomentazione che un seguace del metodo sperimentale potrebbe addurre per

convincere gli altri della bontà del suo metodo consiste nel mostrare come l’interlocutore viva

immerso in un mondo costruito in base ad esso; se poi lo stesso volesse argomentare contro il

metodo intuitivo dovrebbe mostrare come questo metodo si sia mostrato tremendamente sterile o

addirittura abbia provocato dei danni rallentando l’acquisizione di nuove conoscenze.

Si capisce tuttavia come ci si stia avventurando su un campo minato, in quanto un seguace del

metodo intuitivo potrebbe replicare che il cosiddetto progresso della scienza è in realtà un regresso,

tanto è vero che siamo pieni fino al collo di problemi nati proprio da questa società tecnologica fino

al punto di vivere colla spada di Damocle del nucleare sulla testa (anche se in questo periodo la

minaccia sembra essersi ridotta) o da distruggere tutta la natura che ci circonda. Si potrà obiettare

che così facendo si sposta la discussione sull’eticità e non solo sul puro valore conoscitivo del

metodo sperimentale, ma si potrebbe rispondere di nuovo che, visto che i criteri devono

necessariamente essere a misura d’uomo, non si vede perché ci si debba limitare ad un criterio di

pragmaticità senza introdurre altri criteri.

Penso che la discussione potrebbe durare a lungo. Personalmente ritengo che non vi siano

conoscenze ottenibili al di fuori del metodo sperimentale 18 , ma sono costretto ad ammettere che

non ho argomentazioni cogenti per convincere nessuno.

3. Verificabilità e falsificabilità.

Come abbiamo visto, la terza fase del metodo scientifico prevede che sulla base dell’ipotesi

formulata si possano effettuare delle previsioni che avranno luogo nel mondo reale: se queste

18 Eppure in matematica sembra che questo succeda. Una persona si mette lì davanti ad un triangolo

rettangolo di cui conosce solo due lati e scopre come determinare l’altro lato senza misurarlo, anzi

dimostra che questo varrà per qualsiasi triangolo rettangolo. Ora, come questo avvenga ha in realtà

del misterioso. Si risponde in genere che la matematica è una tautologia, che non dice nulla sul

mondo reale, che nella conclusione non c’è nulla di nuovo che non sia già contenuto negli assiomi e

nelle definizioni della geometria, che si tratta di un mondo di convenzioni che ci siamo costruiti

noi…. Non so se questa spiegazione sia convincente. Rimane il dubbio che qualcosa ci sfugga.

22


previsioni, che possono accadere spontaneamente in natura o che noi possiamo provocare in seguito

ad operazioni che vanno sotto il nome di esperimenti, si verificheranno nel modo atteso, l’ipotesi

verrà confermata, in caso contrario verrà screditata. La verificabilità e la falsificabilità di una teoria

sono state spesso contrapposte, e per molti l’idea di falsificare le teorie invece di verificarle sembra

essere l’uovo di Colombo 19 . Da dove deriva questa sensazione?

In primo luogo deriva da una pessima comprensione dell’attività di ricerca, in parte dovuta al ruolo

preponderante ed eccessivo che gioca la fisica tra i filosofi della scienza. La stragrande

maggioranza dei filosofi della scienza sono di estrazione fisica e tendono a trarre i loro esempi da

questa disciplina. Per nostra fortuna, a forza di leggerli, dal momento che gli esempi sono sempre

gli stessi e i dibattiti sono sempre su principio di indeterminazione, esperimento EPR, dualità ondacorpuscolo,

diavoletto di Maxwell e gatto di Schroedinger, meccanica newtoniana in rapporto a

quella relativistica, alla fine ci si abitua. Questo però è un grosso limite, che deve essere apprezzato

nella sua interezza. Naturalmente, gli spettacolari risultati ottenuti a partire da Copernico

giustificavano questo approccio limitativo. In fondo, fino alla fine dell’ottocento la biologia era

poca cosa. La fisica inoltre sembrava parlare propriamente della realtà, perché cercava di rispondere

a domande sulla materia.

In quest’ottica, Rudolf Carnap e il Circolo di Vienna introdussero il criterio di verificazione come

criterio di senso del problema in oggetto. Una teoria aveva senso se era verificabile. Come abbiamo

visto, successivamente la verificabilità divenne un criterio non di senso della teoria, ma solo di

demarcazione tra proposizioni scientifiche e tutto il resto (metafisica).

Ma cosa voleva dire verificabile ? Secondo Hume, non c’era modo di arrivare alla certezza perché il

verificarsi di cento previsioni non implicava nulla a proposito della centounesima. Dal momento

che due fenomeni non sono in relazione causale ma sono solo associati tra loro dalla nostra mente,

ne discendeva che il centounesimo poteva essere tranquillamente diverso. Per Hume ogni nuovo

evento è, come nel lancio della moneta, assolutamente casuale: 10.000 teste non aumentano la

probabilità che esca croce. Ma neanche aumentano la probabilità che esca testa, come sarebbe

portato a pensare un empirista che al contrario comincerebbe a sospettare che la moneta abbia due

teste.

Onestamente non c’è uno scienziato che sia disposto a dar retta a Hume nella pratica, e ci si può

giurare che anche dopo solo cento sequenze identiche con probabilità ½ o 1/6, ogni giocatore

d’azzardo comincerebbe a pensare che la moneta o il dado siano truccati. Sarei proprio curioso di

leggere i giudizi dei referee 20 davanti ad un lavoro che presentasse una simile sequenza di eventi

sperimentali come prodotta dal caso. Ma dal momento che i filosofi della scienza non sono giocatori

d’azzardo e spesso neanche scienziati, questo problema l’hanno preso sul serio. Così, davanti alla

proposta della sostituzione della verificabilità con la falsificabilità, molti hanno pensato che questo

problema fosse stato risolto.

Il ragionamento che sta sotto ci è noto. Mentre non bastano centomila predizioni positive

confermate, ne basta una sola negativa per falsificare una teoria. In questo modo ci possiamo

chiedere quando una teoria è scientifica? Risposta: quando è falsificabile.

19 K. Popper: La logica della scoperta scientifica. Einaudi, Torino, 1970. La prima edizione è del

1934.

20 Oggi ogni articolo che deve essere pubblicato su una rivista scientifica viene esaminato da due o

più referee che hanno il compito di sviscerare il lavoro nei più piccoli dettagli e di valutarne

l’importanza, così da consigliare l’editore se accettare o no il manoscritto per la pubblicazione.

23


4. Miseria della falsificabilità

Ma è la falsificabilità un buon criterio di demarcazione nelle discussioni teoriche sulla scienza o

almeno un buon criterio pratico?

Diciamo subito che per quanto riguarda la seconda parte della domanda, la risposta è senz’altro

negativa. Di fatto vi sono pochissime situazioni in cui gli scienziati si mettono a pensare di

falsificare una teoria. Può accadere che quando vi sono due teorie, entrambe molto accreditate ma

incompatibili, qualcuno possa pensare che sia bene cercare di fare esperimenti o osservazioni che ne

annullino una, così l’altra automaticamente acquista maggior credito. Oppure a volte, nella diagnosi

medica, può succedere che si richiedano esami (cioè che si compiano osservazioni) per escludere

una diagnosi: è pur sempre importante poter dire al paziente, “guardi non sappiamo ancora cosa ha,

ma abbiamo comunque accertato che un tumore non ce l’ha”. Ma quest’ultima situazione, come

vedremo, è una situazione particolare, perché ci si muove non nel completo ignoto, bensì in un

sistema di caselle che è già predeterminato. Ma nella stragrande maggioranza delle ricerche che

vengono pubblicate ogni settimana, si chiedono e vengono riportate verifiche e non confutazioni.

Hermann Bondi e Fred Hoyle qualche decennio orsono lanciarono una teoria detta dello “steady

state” per la formazione dell’universo in concorrenza con il Big Bang. Essendo ammiratori di

Popper, dichiararono che la loro teoria sarebbe stata falsificata da alcune condizioni specifiche.

Quando l’occorrenza di queste condizioni fu accertata, essi cercarono comunque di modificare la

loro teoria in modo da includere anche i nuovi fenomeni 21 .

Certamente questa resistenza potrebbe essere attribuita al principio di Planck, secondo cui le idee

sbagliate scompaiono perché i loro sostenitori muoiono e ai giovani non gliene frega niente della

vecchia teoria, ma sarebbe tuttavia sbagliato pensare che la falsificazione sia sempre efficace. Molto

spesso, accade che la vecchia teoria, che è stata screditata da esperimenti o da osservazioni, possa

venir salvata da apposite modifiche, dette ipotesi “ad hoc”, che, da molti storici della scienza che le

esaminano però in periodo posteriore, vengono trattate più o meno alla guisa delle giustificazioni di

un bambino colto con le dita sporche di marmellata. Chi ha detto che le ipotesi “ad hoc” sono

sbagliate per principio ?

Consideriamo questo esempio “paradigmatico”, direbbe qualcuno. Con i suoi lavori eseguiti nella

seconda parte dell’Ottocento, Mendel aveva stabilito che i geni si ereditano in maniera indipendente

l’uno dall’altro e aveva formulato le leggi che vanno sotto il suo nome. Ma quando, dopo la

riscoperta delle sue leggi, gli studi vennero ripresi, si notò che questo non era vero per tutti i geni.

Alcuni venivano ereditati insieme. Per fortuna invece di eliminare Mendel e i suoi piselli, si

provvide a fare un’ipotesi “ad hoc” che spiegava come mai questo succedeva: i geni avrebbero

potuto risiedere su strutture che venivano ereditate globalmente. Le eccezioni pertanto erano vere,

l’ipotesi “ad hoc” si rivelò esatta, e le leggi di Mendel vengono ancora chiamate leggi anche se i

geni sullo stesso cromosoma possono venir ereditati insieme.

Ma poi c’è un altro problema pratico: c’è una certa reciprocità di verifica e confutazione. Se un

esperimento che dovrebbe falsificare la teoria dà un risultato negativo, la teoria non l’ho falsificata,

ma in fondo ho anche contribuito ad aumentare il suo grado di verifica. Vi possono poi anche essere

casi in cui dopo aver fatto falsificazioni e verifiche non si capisce più niente e si deve enunciare un

nuovo principio per dire che in fondo entrambe le teorie avevano ragione (è il caso della natura

della luce).

Ma il vero problema che rende poco importante la falsificazione è che i fisici hanno sempre

presente teorie universali, mentre i biologi convivono facilmente con teorie imperfette. Ora, i fisici

21 S.G. Brush: How cosmology became a science. Sci Am, agosto 1992; p. 62-70

24


ammettono, subendo l’influenza di Hume, che c’è sempre la possibilità che se lascio cadere un

bicchiere, questo invece di fracassarsi in terra si metta a volare per aria, ma poi rimarrebbero assai

stupiti se questo accadesse. I biologi invece non si stupiscono molto quando qualcosa va storto: non

si scompongono affatto davanti alle eccezioni.

Se la prima metà del XX secolo è stato l’era della fisica, la seconda metà è il dominio della

biologia. Tra i brillanti risultati ottenuti dalla genetica, c’è naturalmente l’attribuzione al DNA di un

ruolo fondamentale come base dell’ereditarietà. La scoperta del codice genetico ha unificato i

viventi e ha dato il “la” ad un’infinità di scoperte. Questo codice prevede che ad ogni tripletta

corrisponda un aminoacido, ma qualcuna di queste triplette ha invece il significato di stop.

Meccanismo universale, verificato in un’infinità di organismi; tuttavia in alcuni casi queste triplette

codificano per un particolare aminoacido, la selenocisteina, o possono venir “aggirate”,

consentendo così di proseguire la decodificazione della successiva parte del messaggio 22 . Si

potrebbe dire: ho falsificato la teoria generale secondo la quale tutte le triplette UGA sono triplette

stop. E sarebbe giusto. E poi cosa faccio? Continuo ad usare il mio codice come prima, e nessuno si

straccia le vesti per questo. E ancora: il dogma centrale della biologia diceva che l’RNA veniva

prodotto dal DNA e non viceversa, ma quando venne dimostrato che anche l’altra via era possibile

si diede un premio Nobel agli scopritori e si andò avanti più contenti di prima.

In generale, tutte le proposizioni particolari non sono falsificabili. Il problema è che in biologia ce

ne sono un’infinità. Non conosco abbastanza bene la fisica per dire se ce ne sono tante anche lì, ma

in biologia, geologia, medicina una parte preponderante è fatta di proposizioni di questo tipo.

Tuttavia tutte queste proposizioni particolari possono essere verificate. Ben venga pertanto la

falsificabilità, ma non la si ritenga una panacea. Se proprio si volesse mantenere un criterio di

demarcazione si metta e/o. Una teoria o una proposizione è scientifica se è soggetta a verifica e/o a

confutazione.

5. Ci sono più proposizioni in cielo e in terra che in tutta la filosofia della scienza.

L’equazione testabilità = senso ha delle difficoltà. Qui ne elencheremo alcune.

Verificabilità in linea di principio.

L’idea di demarcare ciò che è scienza e ciò che è metafisica muoveva dal desiderio di dare il colpo

di grazia alla metafisica e presumibilmente anche alla religione. Tuttavia presentava anche un

aspetto molto attraente anche da un punto di vista pratico, perché rivelava la speranza di eliminare

tutta una serie di questioni assolutamente insulse, quali “quanti angeli ci stanno sulla capocchia di

uno spillo ?”. Con questa attrattiva si spiega il grande successo che ha ancor oggi il concetto di

verificabile. Un’infinità di articoli di commento a nuove tesi, sono in genere del tipo “la proposta di

X.Y. e collaboratori è nuova ed interessante, ogni conclusione è prematura, ma almeno l’ipotesi è

testabile”.

“Di ciò di cui non si parlare, è meglio tacere” pertanto, intesa in senso letterale questa

formulazione è innanzitutto un buon compromesso che dovrebbe funzionare come formula magica

per dirci ciò che vale la pena di prendere in considerazione ed evitare perdite di tempo inutili. In

realtà però, se è comprensibile che il singolo scienziato ritenga preferibile dedicare i propri sforzi a

qualcosa di investigabile (se no corre il rischio di non ottenere risultati pubblicabili), è fastidioso per

i teorici escludere tutto ciò che al momento è non investigabile.

22 B. Alberts et al: Molecular biology of the cell. Garland Publishing, New York, 1994; p. 467.

25


Per comprendere quali problemi siano reali (e quindi affrontabili) Moritz Schlick introdusse il

concetto di verificabilità in linea di principio: noi non possiamo verificare se ci siano crateri

sull’altra faccia della luna, ma possiamo per lo meno, in linea di principio, immaginare le

operazioni per poterlo fare 23 . Schlick scriveva alla fine degli anni venti.

Il problema tuttavia è che la verificabilità, o la falsificabilità, sono in parte funzione dello spazio e

del tempo, delle teorie in voga, nonché dello strumento conoscitivo con cui noi conosciamo e cioè il

nostro cervello. Questo fa sì che introdurre il concetto di verificabilità in linea di principio rischia di

farci prendere delle cantonate. La formulazione di un problema, ad esempio quello della nascita

dell’universo, potrebbe venir catalogato come metafisico in un’epoca ma come scientifico in

un’altra. Inoltre siccome molti problemi sono completamente immersi in una teoria, l’abbandono

della teoria potrebbe rendere il problema metafisico per coloro che vengono dopo e perfettamente

valido per quelli che vi sono immersi. Data una sistemazione concettuale di tipo tolemaico, un

uomo medievale potrebbe pensare che la costruzione di una torre sufficientemente alta potrebbe

risolvere il problema di cosa c’è al di là delle stelle fisse (torre di Babele). O potrebbe pensare di

riuscire a bucare la sfera celeste come nel famoso dipinto, un’immagine ripresa da un recente film

24 .

Prendiamo due discipline come la psicologia e la cosmogonia. Queste oggi vengono usualmente

ritenute parte della scienza (anche se non da tutti). E’ vero che la radiazione cosmica di fondo può

essere una verifica del big bang, ma come si procede quando di sente parlare di concetti quali

universi paralleli, singolarità, creazione continua di materia ? Siamo in grado di verificare una

singolarità ? E se è lecito chiedersi cosa succede dal 10/-37 al 10/-35 secondo, perché non ci si può

chiedere cosa succedeva tra il tempo zero e il 10/-44 secondo? Forse non lo sapremo mai, ma questi

microbi di secondo non sono reali quanto gli altri? E siamo proprio sicuri che non ha senso

chiedersi cosa succedeva al tempo zero ? Se questi universi paralleli esistono, come facciamo a

dimostrarlo ? Non solo, ma spostiamoci indietro di cento anni, quando comunque la mentalità

scientifica era già perfettamente stabilita. Cosa avrebbero pensato i fisici di allora di tutti questi

discorsi ? Certamente alcuni li avrebbero bollati tutti come metafisici. E cosa dire dell’azione a

distanza postulata da Newton ? Pura metafisica, come facciamo a pensare che qualche forza agisca

a distanza, potrebbero dire i suoi contemporanei. Tre secoli dopo Einstein, in un altro contesto,

ironizzava su una “misteriosa azione a distanza” che dovrebbe legare tra loro gli elettroni 25 . E poi

gli esperimenti teorici che status hanno ? E’ più metafisico il gatto del Cheshire o il felino di

Schroedinger ?

In psicologia, la coscienza è sempre stato un terreno minato. Cinquant’anni fa imperava il

behaviorismo, che partiva dal presupposto che quello che c’è dentro nella testa degli individui è

metafisica. E’ una scatola nera, è inutile indagare quello che c’è dentro, quello che possiamo

studiare è quello che entra (stimolo) e quello che esce (risposta). In effetti, non è chiaro come si

possa verificare quello che uno realmente pensa. Forse che il problema scompare per questo? Per

giunta, non siamo neanche d’accordo su ciò di cui stiamo parlando, perché non riusciamo a definire

23 citato in A.J. Ayer: Linguaggio, verità e logica. Feltrinelli, Milano, 1961; p. 14.

24 Nella nota immagine, che secondo H. Robin sarebbe apocrifa (vedi il suo The scientific image

from caveman to computer, Abrams, New York, 1992), un uomo buca il guscio delle stelle fisse,

giungendo a vedere le grandi ruote che muovono i corpi celesti). Nel film “Truman’s show” questa

immagine viene ripresa al termine del film quando Truman arriva al limite della calotta che copre il

villaggio su cui egli ha vissuto ignaro. In questo film vi sono almeno due livelli di lettura. Il primo è

quello dell’incredibile, totalizzante e diseducativo ruolo che svolge la televisione nella nostra

società. Il secondo, invece, può essere compreso ricordando la famosa immagine citata.

25 R.G. Newton: La verità della scienza. McGraw-Hill Libri Italia, Milano, 1999 p 177

26


ene neanche il concetto di coscienza. Tuttavia negli ultimi anni, questo atteggiamento è mutato, il

fantasma del behaviorismo non si aggira più nelle aule dei congressi europei e oggi con le nuove

tecniche di immagine che vengono eseguite nel cervello, si comincia a pensare che forse qualcosa

su alcuni aspetti della coscienza si può anche dire.

Queste difficoltà, e la funzione positiva che concetti vaghi o teorie non ben formulate o per il

momento mancanti di una chiara strategia di verifica, sono alle base di più recenti allargamenti

dell’attributo di scientifico a teorie o qualcosa del genere che vengono chiamati da Lakatos

“programmi scientifici di ricerca” 26 e da Popper “programmi metafisici di ricerca” 27 . Per Popper,

anche la teoria dell’evoluzione non sarebbe una teoria ma un programma metafisico di ricerca, in

quanto non obbedisce al suo criterio di falsificabilità. Ora, questo esempio chiarisce come si rischi,

non il ridicolo, ma almeno la plausibilità, se non si rimane un po’ elastici e se si vuole ingabbiare

l’attività conoscitiva umana in rigidi armature, che ci proteggono magari dagli attacchi dei

metafisici, ma non ci consentono poi di piegarci a raccogliere un fiore che scorgiamo lungo il nostro

cammino. Ora, considerando lo status che occupa in biologia la teoria dell’evoluzione, se la

qualifica di programma metafisico di ricerca è un titolo nobiliare che viene attribuito alle grandi

teorie esplicative per i loro sublimi meriti di servizio, va bene, ma se metafisico viene usato nel

significato usualmente attribuitogli dai filosofi della scienza, allora, pensando alla teoria

dell’evoluzione, non resta che dichiararsi tutti metafisici.

Inoltre, la verificabilità dipende anche dal sistema che conosce, e cioè dal nostro cervello. Per il

momento crediamo che la nostra possibilità di costruzione di teorie verificabili sia superiore a

quella dello scimpanzé. Lo scimpanzé, come del resto il coniglio nano, secondo studi recenti

potrebbe forse essere in grado di fare alcune verifiche. Quale era il grado di teorizzazione

dell’Australopiteco o dell’Homo erectus? Certamente l’insieme delle proposizioni scientifiche di

questi due ominidi sarebbe più limitato del nostro, ma la luna esisterebbe ugualmente 28 . E anche le

supernove, anche se nessun Australopiteco sarebbe in grado di concepire come verificare la loro

esistenza. E quali saranno le possibilità di un uomo fra un milione di anni? Dal momento che la

possibilità conoscitiva dal coniglio a noi ha fatto molta strada, non è impossibile che ne faccia

dell’altra. Tuttavia il reale (o per lo meno le leggi di natura) non è mutato apprezzabilmente negli

ultimi dieci miliardi di anni. Pertanto se definire un problema scientifico vuol dire definire un

problema reale, non dovremmo peccare troppo di antropocentrismo. Quello che noi possiamo

conoscere non si identifica con ciò che è reale e neanche con quello che deve ritenersi sensato.

Un altro problema. Quanto deve essere verificabile una teoria per essere considerata scientifica.

Prendiamo ad esempio l’ipotesi che ci siano altri uomini (cioè esseri intelligenti, sempre che noi

possiamo considerarci tali) nello spazio. In attesa di ricevere un elenco di numeri primi dal cosmo o

di spedire nelle galassie delle sonde del tipo Star Wars che ci trovino la principessa Amidala, cosa

possiamo fare ? Non si sa bene, però qualcuno potrebbe sostenere che questo problema sia

metafisico ? Qualcuno potrebbe argomentare che dato l’enorme numero di pianeti simili alla Terra

26

I. Lakatos: Falsification and the methodology of scientific research programmes. In Criticism

and the growth of knowledge. A cura di I. Lakatos e A. Musgrave, Cambridge University Press,

Cambridge, 1970

27 K. Popper: Unended quest: an intellectual autobiography: William Collins Sons, Glasgow, 1976,

p. 167-180

28 L’immagine è presa da N.D. Mermin: Is the moon there when nobody looks ? Reality and the

quantum theory. Physics Today, aprile 1985, p. 38-47. A sua volta Mermin la prende da A. Pais

(Rev Mod Phys 51:863, 1979) che egli cita nel suo articolo: “We often discussed his notions on

objective reality. I recall that during one walk Einstein suddenly stopped, turned to me and asked

whether I really believed that the moon exists only when I look at it”.

27


che ci deve essere nell’universo 29 , è probabile che questi esseri esistano. Ma di quanto questa

affermazione, che si basa su un’osservazione scientifica, muta i termini del problema ? Intendo dire:

le verifiche non sono tutte dello stesso tipo, ci sono quelle che ci convincono di più e quelle che ci

convincono di meno. Se è disponibile solo una verifica il cui potenziale di conferma è piccolo a

piacere, la teoria diventa scientifica? O rimane ancora nel limbo ?

Un ultimo grande problema è quello che chiamerei il potere esplicativo statico di una teoria. O

anche metodo scientifico abortivo. Un’ipotesi che si adatti bene ad un certo numero di fatti, e che li

colleghi tutti in un’unica spiegazione, ma che non preveda ulteriori verifiche o più frequentemente,

le cui verifiche non siamo al momento ottenibili, che status ha ? Se ne deve parlare o bisogna

tacere? E’ scientifica o metafisica ? Se completiamo la fase 2 del metodo scientifico, cioè

prendiamo un certo numero di fatti e facciamo un’ipotesi che li collega tutti, e non riusciamo a

vedere come andare avanti nella sua verifica, come dobbiamo considerarla ? In fondo, si basa su

fatti: spiega tutte le “postdizioni” ma non ha predizioni. E’ chiaro che nell’accezione ristretta, non

dovrebbe essere scientifica, e ciò certamente ci ripara dall’inserimento di ipotesi assurde. Ad

esempio, che le piste di Nazca siano state fatte dagli alieni, magari spiega un paio di fatti,

essenzialmente l’esistenza di disegni visibili solo dall’alto, ma se si cerca di pensare ad altre

verifiche, nessuno saprebbe come andare avanti. E’ facile dire che quest’ipotesi è ridicola

(incidentalmente, i suoi sostenitori direbbero che in linea di principio essi sanno benissimo come

provare l’ipotesi, basterebbe che gli alieni si facessero vedere), ma è metafisica ? Oppure, poniamo

che noi spieghiamo certi comportamenti e addirittura certi stati patologici con alcune teorie, con

l’inconscio: dal momento che questo non è (anche per sua stessa definizione) indagabile, cosa

dobbiamo pensare del suo status ? e quando avessimo un’ottima teoria, trovata all’ultimo minuto,

che spiega un sacco di fatti proprio bene, ma non si possa poi andare avanti con altre verifiche, cosa

ne sarà di lei ? Le postdizioni non hanno proprio alcun valore ? 30

Proposizioni esistenziali

E' stato detto che la scienza si interessa delle leggi generali, quelle che sono suscettibili di indagini

ripetute, verificabili. Il particolare invece non sarebbe oggetto di scienza. Ma non è esattamente

così. Questo è uno degli svantaggi della fisicizzazione eccessiva della filosofia della scienza. La

scienza di ogni giorno è fatta di indagini che non possono essere espresse sotto forma di leggi

generali bensì di conclusioni particolari. Anche queste conclusioni hanno la loro dignità, anzi in

alcune discipline sono preponderanti.

Prendiamo per esempio lo studio delle malattie. Possiamo chiederci se un gene specifico è

responsabile di una certa malattia ereditaria. Cosa dobbiamo fare ? Essenzialmente dobbiamo

prendere il DNA di pazienti affetti da quella malattia e sequenziarlo. Se ne troviamo anche uno

solo, possiamo concludere che la nostra ipotesi di lavoro è corretta ed è stata verificata: ad esempio

"il gene JAK3 è responsabile di una grave forma di immunodeficienza" 31 . Possiamo forse

falsificare la nostra ipotesi? Come abbiamo visto, per le proposizioni particolari ci si rende conto

che la falsificabilità cade nelle stesse sabbie mobili della verificabilità delle leggi generali. Se

29 G.W. Wetherill: Occurrence of Earth-like bodies in planetary systems. Science 253:535-538,

1991

30 Questo discorso verrà ripreso più avanti. Vedi capitolo 9.

31 P. Macchi et al:. Mutations of JAK3 gene in patients with autosomal severe combined

immunodeficiency (SCID). Nature 377:65-68, 1995

28


esamino 100 casi di SCID 32 e non trovo neanche un caso in cui il gene JAK3 è alterato posso

sempre pensare che il prossimo paziente lo possa avere. E se anche esamino tutti i pazienti con

SCID che ci sono sulla terra, posso sempre pensare che ne nasca uno con l’alterazione di questo

gene.

Il metodo scientifico si applica sia all’ignoto universale che all’ignoto parziale. Mi spiego: se sto

studiando come nasce il cancro, parto da quello che so per indagare altri aspetti al momento

sconosciuti per i quali non c’è alcun sistema di riferimento. Viceversa, se voglio effettuare una

diagnosi, voglio ad esempio sapere se un particolare paziente ha un cancro o un’altra malattia. In

questo caso, dispongo di un certo numero di caselle, ognuna corrispondente ad una diagnosi, che io

stesso ho definito. Devo solamente sapere in quale casella mettere i sintomi e segni del paziente 33 .

Tuttavia per far questo, formulo comunque delle ipotesi, e verifico se il paziente mostra anche i

sintomi, segni o test di laboratorio che dovrebbe avere se appartenesse a quella casella.

In questo caso, è interessante notare come il teorema di Bayes ci consenta di valutare la probabilità

di una diagnosi, dati un certo numero di sintomi. Questo perché ci si muove, nel caso della diagnosi,

in un sistema parzialmente da noi stessi definito. Se noi abbiamo stabilito la probabilità a priori che

associa un sintomo (oppure un segno, esame di laboratorio o altro) ad una serie di malattie, allora la

diagnosi diventa un semplice calcolo e noi possiamo avere automaticamente la completa diagnosi

differenziale del paziente, cioè tutta la serie di possibili diagnosi con annessa una probabilità 34 .

Questo precisamente è quello che manca nella diatriba verificabilità e falsificabilità quando si fa

ricerca in ambiente assolutamente ignoto: la verifica non è quantificata. Gli scienziati compiono i

loro esperimenti, ma la valutazione della verifica è generalmente a spanne. Ne consegue che

nessuno è in grado di dire quanto un’ipotesi sia stata verificata, il che per una ideologia che fa della

quantificazione un mito, è un fattore limitante.

Proposizioni del passato

Ugualmente interessanti i problemi rivolti al passato. I problemi del passato sono talora ritenuti

non-scientifici in quanto non soddisfano il criterio della ripetibilità. Si ritiene in genere che

caratteristica della scienza sia la possibilità che ognuno possa ripetere indipendentemente gli

esperimenti, e che questi siano accessibili a tutti. Ma anche qui il reale e il sensato si dimostrano

relativi al tempo e allo spazio. Durante la guerra di secessione americana, ci si poteva chiedere se

Abramo Lincoln fosse affetto da ulcera e da sindrome di Marfan. Problema perfettamente lecito: se

ne poteva parlare. E problema anche sensato. Morto Lincoln, la diagnosi di Marfan, studiando le

caratteristiche delle sue ossa, potrebbe ancora venir discussa senza giungere ad alcuna certezza, ma

la possibilità di porre diagnosi di ulcera non esiste più: trattandosi di parti molli, il suo stomaco non

c’è più ed ogni prova di ulcera è scomparsa. Oggi, è possibile fare diagnosi di Marfan con certezza

sulle ossa di Lincoln, prelevando il suo DNA, ma la diagnosi di ulcera rimane per il momento non

indagabile. E’ insensato chiedersi se Lincoln avesse l’ulcera ?

Naturalmente il passato può essere oggetto di scienza, tramite una serie di esperimenti che possono

venir effettuati e che sono accessibili a tutti. Ma vi sono certamente fatti che al momento attuale non

sono più suscettibili di esame. Anche la linea di sostenere la dimostrabilità in linea di principio è

discutibile. Dire che l’ulcera di Lincoln è un problema scientifico perché centocinquanta anni fa io

32 SCID: severe combined immunodeficiency, immunodeficienza severa combinata: si tratta di una

grave malattia ereditaria in cui il paziente non ha difese immunitarie e muore perché non riesce a

superare le infezioni

33 “Diagnosticare non è altro che atribuire il caso in esame ad una determinata classe o specie

nosografica.” P. Raineri: Diagnosi clinica. Storia e metodologia. Borla, Roma, 1989

34 E. Poli: Metodologia medica. Rizzoli, Milano, 1965; p.83-91.

29


avrei potuto indagarla può ancora passare. Ma che dire di quello che è successo alcuni milioni di

anni fa, o quando la terra era un ammasso fiammeggiante ? Non avrei neanche la più pallida idea

delle condizioni che potrebbero consentire di fare la verifica. O di cosa è successo durante il primo

secondo dopo il big bang? Tutta la teoria dell’evoluzione si basa su avvenimenti del passato, dei

quali la maggior parte sfugge alla nostra analisi e forse anche ad analisi future. Cosa dobbiamo

pensare di essa ?

Proposizioni su proposizioni

C’è un’ultima categoria di proposizioni che ci interessa in particolar modo. Nella ricerca scientifica

incappiamo in diversi tipi di proposizioni. Possiamo dire: una mutazione nel gene JAK3 causa

un’immunodeficienza grave. Questa proposizione può anche essere espressa nella forma: tutti gli

individui che hanno un’alterazione della funzione della proteina Jak3 hanno un’immunodeficienza.

O possiamo dire: lo studio dei geni homeobox e delle loro mutazioni dimostra che una struttura

embrionaria viene diretta da una sequenza nucleotidica 35 . Ma che dire della seguente: i geni

homeobox hanno giocato un ruolo importante nell’evoluzione delle specie. Questa proposizione è

già di un tipo un po’ diverso. E ancora: lo studio dell’embriologia sperimentale dimostra che lo

sviluppo dell’embrione è regolato da interazioni tra molecole che possono venir perfettamente

descritte con le leggi della chimica e della fisica. E infine: lo studio dell’embriologia sperimentale

non ha bisogno di postulare alcuna forza che non possa essere descritta in termini chimico-fisici.

Questa potrebbe essere descritta come la formulazione dell’ipotesi derivata per induzione dai

risultati di numerosi esperimenti in cui l’analisi di mutazioni spontanee o provocate di geni, insieme

agli altri esperimenti di manipolazione embrionaria, causano alterazioni nello sviluppo embrionario.

Tuttavia, non solo la rilevanza per l’uomo è diversa, ma ci rendiamo anche conto che stiamo

descrivendo livelli diversi della nostra conoscenza, e non solo perché quasi un secolo fa Driesch ha

postulato un’entelechia 36 come responsabile dello sviluppo embrionario e quindi c’è bisogno di

controbattere questa affermazione. Se il vitalismo non fosse mai esistito, l’affermazione potrebbe

comunque comparire in un testo moderno di embriologia. Semplicemente l’ultima proposizione

riguarda un problema più vasto. Guardando le mutazioni della Drosophila in cui il moscerino della

frutta presenta quattro ali invece di due, vogliamo conoscere la causa di questo fenotipo, ma una

volta identificatala, abbiamo ancora voglia di chiederci: questa scoperta ci dice qualcosa sulle leggi

che regolano lo sviluppo embrionario? E questo a sua volta ci dice qualcosa sull’uomo? Ben lungi

dall’essere insensate, queste domande raggiungono il livello più profondo della conoscenza, che si

avvicina al noumeno, o addirittura vi si identifica. Il fatto che adesso si abbia paura di tentare il

livello più profondo della conoscenza è un portato storico della diatriba scienza-filosofia, che ci fa

sospettare di cadere in un pozzo senza fondo, ma in realtà è lo scopo ultimo della conoscenza. Vi è

stato probabilmente un eccesso di reazione nel corso della storia. Così il fatto che si corre il rischio

di infilarsi nelle sabbie mobili non ci può far negare la loro esistenza. Potremmo deciderci di

tenercene alla larga, ma con questo potremmo rinunciare a interessanti prospettive. Alla fin fine,

Colombo ha scoperto l’America rischiando di lasciarci la pelle e questo ha portato nuove

conoscenze (anche se gli indios avrebbero preferito che se ne restasse alla corte di Isabella di

Castiglia). Cosa sia il noumeno, la realtà in se stessa, non è ben chiaro, proprio perché per

definizione si tratta di cose inconoscibili a detta dei creatori del termine, ma è probabile che vi siano

35 Mutazioni nei geni homeobox possono provocare l’assenza, la formazione o la duplicazione di

intere strutture come un’ala o una zampa nella Drosophila melanogaster, un insetto che viene molto

studiato dai genetisti. Vedi il capitolo sullo sviluppo embrionario e sull’evoluzione. Qui basta dire

che mutazioni di questa portata potrebbero aver avuto un ruolo nell’evoluzione delle specie.

36 Vedi capitolo sullo sviluppo embrionario. Entelechia è un termine introdotto da Driesch per

indicare un’entità non materiale che guiderebbe lo sviluppo embrionario.

30


conclusioni scientifiche che esauriscono quasi completamente questo aspetto o che comunque ci

fanno sentire intellettualmente assai soddisfatti.

6. Un metodo proteiforme.

In realtà il metodo scientifico non è affatto esclusivo della nostra attività di ricerca. Si tratta, a

pensarci bene, di un metodo che utilizziamo in ogni momento e in qualsiasi circostanza. Questa

varietà di problemi non viene sempre apprezzata. Però così si rischia di avere una visione limitata

dei meccanismi della conoscenza. Non c'è invece nessuna differenza sostanziale tra come noi

affrontiamo il problema di sapere se dietro all'angolo c'è un giaguaro o di sapere se il protone

decade. Certamente la portata della conoscenza è diversa sotto molti aspetti, ma il meccanismo che

utilizziamo per arrivare alla conoscenza è lo stesso.

Vi sono altri aspetti della vita di ogni giorno. La similitudine tra casi polizieschi e ricerca sono stati

menzionati spesso. Ma se perdiamo le chiavi della macchina, cosa facciamo? Formuliamo delle

ipotesi su dove possiamo averle dimenticate e poi le verifichiamo. In questo caso spesso la ricerca

ha una fine e le chiavi vengono trovate, ma il procedimento è lo stesso, anche se ci si muove talora

in zone non completamente ignote.

Così come il coniglio analizza i dati, effettua associazioni e agisce in conseguenza, cercando di

massimizzare tutte le informazioni e tutte le passate esperienze sue e dei suoi compagni con cui in

precedenza è venuto a contatto, così ogni individuo e per riflesso ogni specie sulla terra, ha la

necessità di rispondere a diversi tipi di problemi in cui una buona conoscenza dei termini della

questione, degli attori e delle circostanze nonché delle regole del gioco non possono che giovargli.

In un modo assolutamente misterioso, le esperienze fondamentali dei suoi antenati sono state pian

piano trasferite nel suo genoma durante la storia evolutiva della specie. Il coniglio è predisposto a

scappare se vede un cane, mentre il cane è predisposto a corrergli dietro. Esempi di questo genere

vanno dalla danza delle api all’imprinting dei paperini di Lorenz. Altre esperienze invece non sono

codificate nel genoma e dobbiamo commettere degli errori per potercene giovare. Come può

accadere ciò ? Esiste solo una filosofia che ha tentato veramente di rispondere a questa domanda, ed

è la dottrina dell’armonia prestabilita di Leibniz. In realtà, non vi è un’armonia prestabilita, ma

questa armonia ce la siamo guadagnata nel corso dell’evoluzione a forza di lacrime e sangue.

Certo il terreno è sdrucciolevole, non sappiamo neanche se sogniamo o siam desti, non sappiamo

bene di cosa parliamo e non sappiamo neppure se dar retta ai nostri sensi o alla nostra ragione, anzi

sappiamo che a seconda della circostanza a volte avranno ragione gli uni e a volte l’altra. Usiamo

termini su cui si basa tutto il nostro sapere che però non sappiamo definire e termini che potrebbero

essere classificati come “metafisici” in un senso sgradevole, ma che corrono il rischio di diventare

dopo un po’ di tempo perfettamente scientifici. Campo magnetico, fattore, azione a distanza,

telepatia, coscienza, introspezione, principio di complementarietà, singolarità. Alcuni di questi

hanno già raggiunto uno status scientifico, altri potrebbero esserne sempre esclusi, altri ancora

stanno lottando per raggiungerlo.

Come il coniglio, e come Pascal sosteneva, non possiamo restare inerti. Dobbiamo scommettere.

Bisogna pur muoversi con una visione pragmatica, ma sapendo che non tutto è uguale, non tutte le

risposte hanno lo stesso valore. Qualsiasi cosa ci fa andare avanti va bene, ma non sappiamo

neanche qual è la direzione in avanti. Malgrado ciò è certo nessun coniglio vuole finire in bocca al

giaguaro.

31


7. Castelli di carte.

Come è allora possibile ottenere qualcosa di valido? Se le definizioni e la logica si basano su

modificazioni del cervello, che da sole non provano il mondo reale, come fanno le nostre

osservazioni a esprimere qualcosa di vero? L’idea di fondare tutto su basi solide, non rispecchia

quello che succede in realtà nell’attività scientifica. Queste solide basi non esistono. Piuttosto, tutti i

nostri sforzi sono come castelli di carte, non tanto perché questi possono crollare, perché anche le

altre costruzioni lo fanno, ma perché questa immagine sottolinea l’interdipendenza delle

osservazioni e delle ipotesi stesse. Mentre un muro di mattoni può stare in piedi da solo, ogni

ipotesi si basa su altre, così come una carta da sola non può stare in piedi. Quando affrontiamo una

nuova tecnica che speriamo ci dica cose nuove su un pezzo di realtà, otteniamo dei dati, ma chi ci

dice che sono quelli buoni ? Ma dopo un certo numero di osservazioni, e confrontando con tutto

quello che si sapeva in precedenza, si vede se i nuovi dati (letteralmente) stanno in piedi. Se stanno

in piedi, il castello di carte tenderà ad ampliarsi, potrà fondersi con altri castelli o demolirli per

utilizzarne lo spazio. Mano a mano potrà succedere che i vari castelli si appoggino l'un l'altro, fino a

raggiungere dimensioni e strutture sorprendenti, ma saranno sempre poggiati su un terreno

sdrucciolevole e l'eventuale crollo di un settore potrebbe trascinarne altri con sé.

Come mai riusciamo – sembra - a ragionare su gli stessi concetti se non possiamo definirli ? Non

c’è prova in realtà che tutti intendiamo la stessa cosa con lo stesso termine, ma il fatto che

riusciamo a fare un certo numero di transazioni significa che esiste un certo grado di

intersoggettività. Qual è la base di questa intersoggettività? La base sta nell’anatomia e nella

fisiologia del nostro cervello. E’ probabile che il verbo essere sia quanto è rimasto del momento

decisivo in cui è nata la coscienza e l’uomo è diventato tale. I cervelli devono avere delle regolarità

che sono sempre le stesse per tutti gli uomini. E’ possibile che l’educazione (il training)

contribuisca a far sì che complessi sistemi di eventi procurino le stesse modificazioni. In realtà

viene troppo sottovalutata la base di questa intersoggettività. La logica sembra a noi adulti un

qualcosa di ineluttabile, ma è chiaro che per i bambini non lo è. Abbiamo ragionato per millenni e

posto delle regole per i sillogismi, senza conoscere la teoria degli insiemi a livello esplicito. Come

poteva succedere questo? La risposta è che deve esserci una struttura cerebrale che è stata forgiata

dalle regole ferree della logica della natura. I bambini greci e latini, e oggi ancora i tedeschi usano

le declinazioni con disinvoltura, senza minimamente sapere cosa sono i casi e i complementi 37 .

Probabilmente l’allenamento guidato dagli adulti, sulla base di una serie di stabili connessioni

cerebrali determinata dai nostri geni e presenti in tutti gli individui appartenenti alla specie umana,

sta alla base di questo fenomeno. Presumibilmente, non esiste solo una struttura per il linguaggio,

come postulano Chomski e i suoi seguaci, ma anche una struttura per la logica.

In realtà, ci siamo evoluti con o per la capacità di prendere decisioni sulla base di dati talora assai

scarsi. Ovviamente, se il coniglio vede un bulldog scappa. Ma cosa deve fare se ne sente l’odore? E

se non lo sente? Può attraversare una strettoia se non sente niente? E se inseguito si trova di fronte

ad un bivio, cosa fa, si siede a pensare un esperimento? Ovviamente no. Ma ci sono situazioni in cui

noi veniamo buttati e dobbiamo scegliere prima di poter compiutamente analizzare tutte le

circostanze. Diremo allora che il problema non ha senso? O cercheremo allora di affrontarlo al

37 E’ impressionante pensare come gli antichi Greci, che inizialmente erano dei barbari, potessero

avere una lingua del genere, e prima di loro probabilmente ce l’avevano altre popolazioni

indoeuropee. Quanto ai tedeschi, mi sono sempre chiesto se il fatto di avere mantenuto questa

proprietà che altre lingue hanno perso abbia qualche relazione con le caratteristiche che vengono

generalmente attribuite a questo popolo. D’altro canto, ci sono poche lingue misere come l’inglese,

ma le nazioni che parlano questa lingua hanno mostrato negli ultimi tre secoli un grande successo

evolutivo.

32


meglio ? Come vedremo, studi recenti ci confortano nell’idea che abbiamo strutture adeguate per

compiere decisioni su dati dubbi ed incerti.

L’approccio logico che può essere usato in queste circostanze è il seguente: cominciamo a muoverci

e a mettere insieme qualcosa. Utilizziamo definizioni temporanee o comunque rifacciamoci

implicitamente all’idea di un rapporto mente/natura. Quando avremo ottenuto qualcosa, vediamo se

sta in piedi. Il fine, in questo caso, giustificherà i mezzi. Se il castello di carte starà in piedi, ci

congratuleremo tra noi e cominceremo ad abitarci.

Dobbiamo pertanto iniziare a costruire sapendo che tutto può franare, ma che comunque, visto

l’ambiente non proprio socievole che ci circonda, è meglio avere a disposizione una palafitta di

tronchi che dormire per terra. Come potremo convincere la gente ad abitare nella nostra palafitta o

addirittura a seguirci in un tempo successivo in abitazioni di livello superiore ? A coloro che ci

mostreranno i disagi dei tronchi, la possibilità che si rompano i pali, l’umidità del lago, e la

possibilità di mostri lacustri, onestamente non potremo ribattere nulla. Non si può pensare che su

alcuna attività umana si arrivi al consenso universale. Non si tratta più di dimostrare (cosa che

probabilmente non è possibile) ma di mostrare la piacevolezza degli edifici che man mano verranno

costruiti.

8. Costruttivismo

Una volta accettate tutte queste limitazioni e aver convenuto che la base dell’armonia tra il nostro

cervello e il mondo reale è la nostra storia evolutiva, la polemica recente con i costruttivisti viene a

cadere. Nel senso che abbiamo nello stesso istante le ragioni del nostro condizionamento e della

nostra libertà di pensiero.

In realtà il dibattito su quanto le nostre abitudini, i nostri preconcetti, le nostre credenze, i nostri

malesseri, le nostre frustrazioni ecc possano influire sulla ricerca della verità, di cui il processo

scientifico è una manifestazione, è di vecchia data. Negli ultimi tempi, a tutte queste preoccupazioni

si è aggiunta anche quella del controllo sociale. La critica marxista ad esempio, oggi meno

aggressiva di un tempo, mostrava come la politica determina anche quale scienza venga fatta, e

poneva l’accento sui danni provocati da una scienza al servizio del capitalismo. Entro certi limiti,

questo è sempre stato vero, basti pensare alla ragione per la quale i finanziatori tiravano fuori i soldi

per finanziare i viaggi intorno al mondo nel secolo sedicesimo.

Oggi tuttavia il controllo politico della ricerca è al massimo: ogni anno si aspetta il bilancio dello

stato per sapere se la risorse saranno minori e maggiori. La scelta di quale progetto finanziare è

sempre più ad alto livello, e, visto che, come si dice, il denaro è del contribuente, si invoca sempre

più l’intervento del cittadino nel giudizio sulla bontà e validità della ricerca. Questo è per certi versi

giusto, per altri errato, ma certamente è inevitabile. Tutto questo è pacifico, né vale la pena di

insistervi troppo. Le decisioni sociali e politiche plasmano tutto l’indirizzo della ricerca. Così pure è

pacifico che la scienza abbia portato ad applicazioni tecnologiche perverse.

Ma il costruttivismo dice qualcosa di più rispetto a questo. Dice che il modo stesso con cui

conosciamo il mondo, i termini della scienza, l’intero suo orizzonte sono costruzioni sociali 38 .

38 Una buona esposizione delle dottrine costruttivistiche è, secondo la mia opinione, quella

presentata in R.G. Newton: La verità della scienza. McGraw-Hill Italia, Milano, 1999. La prima

edizione inglese è del 1997; p. 17-39. Dal momento che si tratta di un settore in cui la polemica è

accesa e che Newton milita nel campo contrario, se uno volesse farsi un’idea delle tesi

costruttivistiche di prima mano può leggere le opere di D. Bloor, B. Latour & S. Wolgar, e di altri

ivi citati.

33


Questo ha provocato la reazione dura di coloro che ritengono che la scienza sia comunque un

riflesso della realtà. La polemica è poi stata acuita dalla beffa di Alan Sokal, un fisico

anticostruttivista che scrisse un articolo infarcito di assurdità e lo spedì a una rivista costruttivista

che glielo accettò 39 . Quando la beffa fu resa nota, molti realisti furono soddisfatti: era stato

dimostrato che il costruttivismo era una massa di stupidaggini.

In realtà la beffa di Sokal dimostra solo che la rivista cui l’articolo fu spedito aveva dei pessimi

referee, o al massimo che il comitato editoriale è ignorante o disattento. Tuttavia chi sa quanto è

difficile talora giudicare un articolo potrebbe essere più comprensivo: anche le grandi riviste

scientifiche talvolta hanno accettato delle patacche. Quello che invece è veramente buffo è il tono

del dibattito, dove i realisti concedono che la scienza è in parte condizionata dai tempi in cui uno

vive, mentre i costruttivisti sostengono che loro sono i primi difensori della parziale oggettività

della scienza. In pratica, il dibattito ricorda altri tipici, ad esempio quello sul ruolo rispettivo della

genetica e dell’apprendimento su alcune caratteristiche umane. Vi sono le due tesi estreme, e poi la

maggior parte delle persone che sono nel mezzo, e nessuno ha gli strumenti per quantificare quello

che dice. Certamente, le idee correnti possono plasmare il pensiero di uno scienziato e dirigere il

corso della scienza, ma fino ad un certo punto. Il problema è che nessuno ha dei metodi per dire

quanto spesso e in che misura questo succede. Soprattutto non può dirlo quando ne è ancora in

mezzo: chi ci riesce è un precursore del suo tempo e generalmente è destinato all’oblio. Quanti

studenti liceali sanno che Aristarco di Samo formulò una teoria eliocentrica abbastanza

soddisfacente quasi due millenni prima di Copernico ? Infine, è presumibile che questa influenza

non sia uguale per tutti i settori scientifici, che in alcuni la liberazione dalle pastoie della società sia

più lenta, che in altri le lenti colorate sociali ci impediscano di apprezzare alcuni aspetti, che in altre

ancora esse siano così scure da farci sfuggire alcuni aspetti della realtà.

Certo, se per società si comprende tutto, incluse le idee scientifiche e gli aspetti tecnologici che esse

determinano, il condizionamento è complesso. Ma questo è ovvio. Quello che conta è che l’uomo

continuamente opera tentativi di “astrazione” verso la realtà, e che questa possibilità gli è data dalla

sua storia evolutiva che è stata forgiata dal suo costante rapporto con le leggi naturali senza il quale

nessun organismo vivente avrebbe potuto propagarsi con successo.

Conclusioni

La conclusione è che il metodo scientifico è l’unico mezzo per conoscere. In realtà, se questo

termine sembra troppo riduttivo, anche solo per motivi storici, potremmo chiamarlo il metodo

razionale (meglio ancora, visto quello che è stato detto, sarebbe meglio: ragionevole). Esso trae

origini dalla nostra storia evolutiva. La raccolta di dati (tramite i sensi) e la loro elaborazione

(tramite il cervello) è alla base dell’esistenza stessa delle forme superiori e il motivo migliore per

pensare che il mondo fuori da noi esista veramente e noi possiamo in parte conoscerlo, perché se il

39 Alan Sokal, professore di fisica alla New York University, spedì un articolo infarcito di

inesattezze dal titolo “Transgressing the boundaries: towards a transformative hermeneutics of

quantum gravity” e lo spedì alla rivista costruttivista “Social Text” che lo pubblicò. La rivelazione

della beffa scatenò una viva polemica tra le due fazioni, che non fu limitata alle riviste scientifiche,

raggiungendo le prime pagine di quotidiani come il New York Times, l’International Herald

Tribune, il London Observer e Le Monde. In Italia, a mia conoscenza, i quotidiani non hanno

ripreso il problema non perché volessero mettere a tacere la cosa, ma semplicemente perché in Italia

la scienza non interessa a nessuno. Sokal ha poi scritto un libro “Imposteures Intellectuelles”,

pubblicato prima in Francia e poi in America. Vedi anche le opinioni apparse in Nature 386:545-

547, 1997; 387:331-334, 1997; 387:543-546, 1997

34


nostro rapporto con la realtà fosse scorretto (cioè se i nostri sensi e la nostra capacità di analisi), non

avremmo avuto fortuna. Ma ad un certo punto è sorta nell’uomo la capacità di mettere in dubbio la

correttezza di questo rapporto, cioè di chiedersi come questo sia possibile, e nel contempo di

prendere coscienza che nulla di quello che ci appare con i sensi non possa essere ingannevole. Ci si

parano allora di fronte problemi di facile soluzione e problemi formidabili. La nostra mente oscilla

pertanto tra il desiderio di avere davanti problemi solubili e quello di affrontare quelli più grossi

anche se nessuno li ha mai risolti. In una delle oscillazioni di questo pendolo, si è stati tentati di dire

che tutto ciò che non è solubile (in linea di principio) è puro nonsenso. O che per lo meno che non

valga la pena di parlarne. Oppure che si può parlarne solo con la poesia.

Scopo del presente libro è mostrare come in realtà l’approccio scientifico sia il solo approccio

possibile, ma che vi è stata troppa enfasi sulla verificabilità attuale. Un australopiteco neopositivista

probabilmente classificherebbe il problema se vi siano crateri sull’altra faccia della luna come

chiaramente metafisico. Al contrario alla domanda se gli dei ogni tanto si arrabbino risponderebbe

che è provato, come verificabile da tuoni e fulmini. Ad un ragazzo del Bangla Desh fu chiesto una

volta se secondo lui gli spiriti esistevano, ed egli rispose che ne era certo. Richiesto della base della

sua certezza, disse che ne era sicuro perché avevano ucciso suo zio. D’altro canto, se introduciamo

il concetto di verificabilità attuale in un determinato momento nel tempo e nello spazio rischiamo di

finire come gli austrolopitecini ipotetici, di elevare la nostra limitatezza a metro di misura di tutte le

cose (παντων των κρεματων αυστραλοπιτεχον μετρον ειναι). Non vorrei che fra 5000 anni ci

considerassero una specie di mente ristretta.

Infine il metodo scientifico non va sovravvalutato. Non è in grado di risolvere il problema delle

definizioni, anzi, più la branca è moderna e più le definizioni sono traballanti e più ci si deve

appellare al senso comune. Il verbo essere è, apparentemente, la base di tutta la conoscenza, ma non

sappiamo cos’è. Probabilmente è uno stato dei nostri neuroni, cui corrisponde non si sa che cosa in

una mente che non si sa che cosa è. Anche le procedure di ragionamento, che ci sembrano tanto

belle, devono essere accettate sulla base del senso comune (buon senso). Impariamo a ragionare

dagli altri, e presumibilmente questo processo, che non è completamente arbitrario, anzi forse non

lo è affatto, viene accettato senza valide motivazioni. Siamo ben lontani da un sistema formale.

Ogni tanto ci troviamo di fronte a nuove frontiere per le quali dobbiamo creare nuovi termini, e non

sappiamo bene quali siano metafisici e quali no. Siamo proprio certi che fra mille anni il principio

di complementarietà di Bohr non venga considerato come un residuo metafisico? 40 Nei territori di

frontiera, dove i sentieri non sono segnati, questi pericoli sono maggiori. Ma spesso le ricchezze

maggiori si raccolgono in territori inesplorati.

Tesi del volume

Una delle prime cose che si imparano facendo pratica di ricerca è distinguere i fatti dalle

interpretazioni. Questo, nelle memorie scientifiche viene sottolineato mediante la distinzione tra il

capitolo che verte sui “Risultati” e quello che li interpreta che viene indicato come “Discussione”.

Ho pensato di mantenere questa separazione anche in questo libro, perché in teoria sui Risultati tutti

dovrebbero essere d’accordo, essi o sono o non sono (in realtà non è esattamente così), mentre sulle

interpretazioni l’accordo è, comprensibilmente, più difficile. Così, il capitolo introduttivo che ho

finito di esporre può essere considerato come l’Introduzione di un lavoro scientifico, in cui viene

tratteggiato in grande linee il problema che deve essere esaminato. Nello stesso capitolo introduttivo

40 A parte le ben note idee di Einstein sull’argomento, vale la pena di menzionare il giudizio di

Schroedinger, che riferendosi al principio di complementarietà notò, citando Goethe, che quando

mancano i concetti si inventano dei nomi.

35


è stato anche fatto cenno a quelli che possono essere considerati i “Materiali e i Metodi” che si

seguono nell’analisi, che in un articolo scientifico rappresentano una sezione fondamentale.

Nei capitoli che seguiranno immediatamente, verrà riportato un certo numero di dati, che

rappresentano una sezione analoga ai “Risultati” di una memoria scientifica. In questa sezione si

esporranno i risultati che sono stati ottenuti in varie discipline, e che come tali dovrebbero essere

riconosciuti da tutti. Nella parte finale del libro troveremo dei capitoli in cui i temi dell’introduzione

vengono ripresi alla luce dei risultati e dove questi vengono commentati più o meno come avviene

nella sezione “Discussione” dei lavori scientifici.

Naturalmente, anche in un lavoro scientifico, non su tutti i risultati vi è sempre accordo comune.

Spesso gli scienziati hanno a disposizione risultati non univoci, talora anche contradditori. Queste

discrepanze possono talora anche trasformarsi in feroci polemiche tra scuole di pensiero scientifico

che possono anche andar avanti per anni. Esse possono dipendere da diverse tecniche adottate, da

disegni sperimentali differenti, dall’esperienza dello sperimentatore, da errori involontari e

raramente da manipolazioni consce o inconsce introdotte dallo sperimentatore. Queste discrepanze

tuttavia vengono generalmente risolte in un tempo relativamente breve, salvo alcune eccezionali che

tornano alla superficie persino in epoche diverse 41 .

Per quanto queste discrepanze sui risultati possano essere rilevanti, quelle sull’interpretazione dei

risultati sono ben più complesse e talora insolubili. Pertanto nella Discussione, lo scienziato

generalmente le esamina tutte, elencando gli argomenti contro o a favore, e talora prendendo

posizione, generalmente con prudenza, accompagnando i suoi rilievi con perifrasi del tipo:

“secondo me”, “sembrerebbe ragionevole concludere”, “alcuni sono portati a sostenere che” e così

via. Nella Discussione bisogna mantenere una mentalità elastica ed essere aperti anche alle ipotesi

che sembrano meno probabili.

Vi è tuttavia un’ulteriore avvertenza da prendere in considerazione, e riguarda la sezione che

potremmo chiamare dei Risultati. Vi è un’infinità di risultati possibili da elencare e una scelta è

stata effettuata su base per così dire arbitraria. Ho cercato di selezionare quei settori della biologia

che hanno una pertinenza filosofica, secondo un approccio che è stato accennato nell’introduzione e

che verrà maggiormente motivato nella Discussione. L’esposizione della sezione Risultati ha per

certi aspetti le fattezze di una review, cioè di quel tipo di articolo scientifico in cui, dopo anni di

lavoro su un particolare argomento che si crede rilevante per la rivista e per la biologia in generale,

si fa una revisione di tutti i dati disponibili, si tentano delle conclusioni e soprattutto si indicano le

linee future di ricerca che dovrebbero chiarire gli aspetti ancora rimasti oscuri.

Essenzialmente, nell’Introduzione abbiamo accennato che la conoscenza ha una base biologica,

legata in un qualche modo alla storia evolutiva del nostro sistema nervoso. Questa prospettiva

storica è l’unica in grado di spiegare come mai può succedere che conosciamo qualcosa sul mondo

reale. Tuttavia, questa stessa incarnazione biologica della conoscenza è la fonte della sua

limitatezza, caratterizzata da postulati, termini e definizioni che non hanno ulteriore riduzione se

non quella del nostro cervello, che per ora ci sfugge, e che comunque non può essere la garanzia

aprioristica di alcuna certezza. I materiali su cui bisogna lavorare e i metodi, o meglio, l’unico

metodo, da seguire, quello che mantiene l’ancoraggio con la realtà, sono pure stati esposti e

motivati brevemente in questo capitolo introduttivo.

41 Un classico esempio di disputa che andò avanti secoli per questioni tecniche è quello della

generazione spontanea.

36


Lo scopo principale del libro non è quello di discutere di singole proposizioni scientifiche, bensì

quello di fare filosofia. Per questo la prima preoccupazione è di chiedersi se questo ha un senso o se

si tratta di discorsi vuoti. La tesi che sosterrò è che fare filosofia è possibile e addirittura doveroso.

Nelle pagine seguenti mostrerò infatti come esistano di fatto proposizioni scientifiche che sono di

importanza filosofica e che pertanto definiscono un insieme di proposizioni che interessano l’uomo

in quanto tale. A differenza di quanto molti sembrano pensare, sarà facile dimostrare che non è vero

che i dibattiti filosofici non portano mai a nulla, ma che al contrario portano ad un sensibile

progresso i cui tempi sono tuttavia assai più lenti di quelli generalmente attribuiti all’impresa

scientifica.

37


Parte seconda

Risultati

“ It seemed to Brother Juniper that it was high time for theology to take its place among the exact

sciences, and he had long intended putting it there. What he had lacked hitherto was a laboratory.

Oh, there had never been any lack of specimens….But these occasions had never been quite fit for

scientific examination. They had lacked what our good savants were late to call proper

control….But this collapse of the bridge of San Luis Rey was a sheer Act of God. It afforded a

perfect laboratory. Here at last one could surprise his intentions in a pure state.

You and I can see that coming from anyone but Brother Jupiter this plan would be the flower of a

perfect scepticism. It resembled the effort of those presumptuous souls who wanted to walk on the

pavements of heaven and built the Tower of Babel to get there. But to our Franciscan there was no

element of doubt in the experiment. He knew the answer. He merely wanted to prove it, historically,

mathematically, to his converts….

This was not the first time that Brother Juniper had tried to resort to such methods. Often on the

long trips he had made (scurrying from parish to parish, his robe tucked up about his knees, for

haste) he would fill to dreaming of experiments that justify the ways of God to man; for instance, a

complete record of the Prayers for Rain and their results….”

Thorton Wilder, The Bridge of Saint Louis Rey

38


Capitolo 2.

ORDINE, MECCANICISMO ED EREDITARIETA’

La biologia molecolare

Il vitalismo era una dottrina biologico-filosofica che supponeva che i processi vitali fossero

intrinsecamente diversi da quelli della materia inanimata. Oggi al contrario si accetta facilmente che

il comportamento dell’unità elementare della vita, la cellula, sia spiegabile completamente con le

leggi della chimica e della fisica. Il termine biologia molecolare indica appunto che tutti i fenomeni

vitali possono essere spiegati a livello molecolare. E’ presumibile che nel prossimo secolo prenderà

piede una biologia “atomica”, che del resto è già in atto, o addirittura una biologia subatomica.

Il termine di biologia molecolare, che ha assunto poi significati più ristretti 42 , in realtà sta ad

indicare che siamo in grado di studiare e descrivere i viventi a livello delle molecole che li

compongono. In realtà, se è vero che una completa descrizione in questi termini non è ancora

compiuta nei dettagli, è anche vero che in alcuni specifici settori la descrizione si confronta già con

livelli inferiori, submolecolari. Questo progressivo aumento di conoscenze per livelli progressivi, in

cui la realtà assume, per così dire, una struttura a cipolla, è stata descritta da molti, tra cui, Francois

Jacob. Nel suo libro “La logique du vivant” 43 , la similitudine delle bamboline russe viene utilizzata

per illustrare questo concetto: le nostre spiegazioni aprono nuove domande che devono a loro volta

essere spiegate ad un livello più profondo, il cui raggiungimento dopo un certo periodo esigerà di

passare ad un livello successivo, in una progressione che si spera, ma non ne siamo certi, prima o

poi abbia a finire.

Il fatto che tutto possa essere spiegato a livello molecolare significa che il biologo utilizza per i suoi

studi leggi e concetti che prende a prestito dalla chimica e dalla fisica. Interpretata in questo senso,

la biologia molecolare è diretta discendente del meccanicismo seicentesco iniziato da Descartes.

All’epoca di Descartes la meccanica era il settore della fisica più avanzato e poteva sembrare adatto

spiegare il vivente in questi termini. Ancora un secolo dopo, Lamettrie usava il termine macchina

per descrivere l’uomo. In seguito divenne evidente che la meccanica da sola non poteva spiegare

tutto, e per questo il termine “meccanicismo” risultò un po’ obsoleto, e viene oggi sostituito con il

termine “riduzionismo”, col quale appunto si indica che il vivente può essere ampiamente “ridotto

a”, cioè “descritto con” leggi fisiche e chimiche comprese quelle che eventualmente non avessimo

ancora scoperto. A sua volta anche questo termine presenta delle difficoltà 44 : vi sono delle

proprietà del vivente che vengono considerate emergenti, nel senso che riesce difficile ascriverle a

livelli più bassi, tanto che alcuni invocano nuovi approcci non riduzionisti. Se anche descriviamo

perfettamente la struttura e la fisiologia di una cellula, il comportamento sociale non dico di

organismi ma anche di popolazioni cellulari gode di proprietà che non si immaginerebbero se si

studiasse solo le singole cellule. Ad esempio, il riconoscimento del self da parte del sistema

immunitario non avrebbe senso se esistessero solo cellule isolate. Quello che si vuole indicare oggi

42 Oggi, senza fare troppa attenzione si usa questo termine per indicare un insieme di tecniche che

nello stesso tempo si basano su, e contribuiscono allo studio del DNA. Esso viene spesso usato in

opposizione al termine biochimica. Ci sono i biologi molecolari che sono distinti dai biochimici:

questi ultimi hanno un’impostazione più classica, mentre gli altri essenzialmente sono i padroni

delle tecniche di ingegneria genetica che applicano ai più svariati problemi biologici. Qui invece

viene mantenuto il significato originario, che è quello di una scienza che si dedica allo studio dei

fenomeni biologici a livello delle molecole.

43 F. Jacob. La logique du vivant. Einaudi, Torino, 1971. L’edizione francese è del 1970.

44 Vedi la discussione del riduzionismo nel capitolo 11.

39


con questi termini in realtà è che i costituenti degli organismi sono molecole che obbediscono alle

leggi di natura che regolano anche il mondo inanimato, e che non bisogna postulare leggi di tipo

sostanzialmente diverso, anche se le proprietà di sistemi viventi organizzati non sarebbero

facilmente predicibili conoscendo le proprietà dei suoi costituenti isolati.

Si possono fornire alcuni esempi di queste descrizioni, che coinvolgono alcuni degli aspetti più

spettacolari del vivente, senza pretendere di scendere in dettagli che sono assolutamente al di fuori

dallo scopo del presente libro. La cellula, che è l’unità fondamentale del vivente, è un insieme

organizzato di molecole. Le strutture che in esse sono riconoscibili, sono tutte composte da

molecole ordinate. La membrana cellulare, ad esempio, che separa la cellula dall’ambiente

circostante e che è la base della sua individualità, è formata da un doppio strato di fosfolipidi in cui

sono comprese numerose proteine, di cui molte diverse da cellula a cellula. La regolazione di molte

interazioni con l’ambiente avviene a questo livello, e meccanismi fisici e chimici vengono utilizzati

per descriverle. Si parla così di gradienti, di diffusione, di costanti di dissociazione e di cinetiche di

legame.

La produzione di energia viene pure descritta in termine di calorie acquisite o utilizzate, l’energia

dei legami chimici viene ceduta od immagazzinata, a livello della membrana mitocondriale

vengono scambiati protoni ed elettroni, ecc. La cellula è un sistema aperto e pertanto essa elude il

secondo principio della termodinamica. L’energia viene immagazzinata nei legami chimici di una

molecola, l’ATP, che rappresenta la moneta di scambio valida per ogni reazione.

La duplicazione cellulare viene osservata tranquillamente al microscopio ed è una successione

precisa di eventi molecolari. Vi è tutta una serie di checkpoint che devono essere superati perché la

replicazione possa aver luogo e se tutti i controlli sono a posto, si procede. In primo luogo viene

duplicato il DNA, poi il DNA si condensa per poter essere impacchettato, così da essere sicuri che

venga mantenuto durante il viaggio. Sono ormai note molte molecole che giocano un ruolo in

questa condensazione. Poi il DNA condensato, sotto forma di cromosomi, attaccati a dei

microtubuli si dispongono in maniera ordinata lungo un fuso mitotico e vengono divisi in modo

esatto tra le due nuove cellule. Se alcune delle molecole implicate in questi meccanismi sono

alterate, la corretta segregazione del materiale cromosomico è impedita o avviene in maniera

erronea.

Il movimento cellulare si basa su una rete di proteine che compongono quello che viene detto il

citoscheletro. Tra queste, due sono fondamentali per il movimento cellulare, l’actina e la miosina.

Facendo presa su punti di contatto con la membrana interna, le miosine scivolano su filamenti di

actina che vengono incessantemente demoliti e ricostruiti, trascinando con sé parte del citoplasma e

contribuendo al movimento cellulare. Questo movimento interno, questa volta ripetuto e coordinato

in tutte le cellule, è alla base della contrazione muscolare. I filamenti di actina sono in contatto con

quelli di miosina, e quando la miosina si contrae, avvicina tra loro i vari filamenti di actina che,

essendo fissati a punti d’ancoraggio intracellulari accorciano le distanze tra questi punti,

provocando la contrazione della cellula muscolare.

Non solo le strutture sono formate da molecole ordinate, ma anche le interazioni tra cellule e i

segnali che tra loro si scambiano sono descrivibili in questi termini. La trasduzione del segnale

dall’esterno all’interno del citoplasma e via via fino al nucleo è uno dei campi più attivamente

studiati, in quanto è alla base di fenomeni fisiologici quali il differenziamento e la replicazione

cellulare, o patologici quali la trasformazione neoplastica. Questo meccanismo, che è un

meccanismo a cascata dove un evento ne stimola degli altri fino a che non viene esso stesso inibito

con un ritorno allo stato iniziale, può venir esemplificato dal modo d’azione di alcune citochine

come le interleuchine 2, 4 o 7, piccole molecole che giocano un ruolo fondamentale nella

40


maturazione dei linfociti. Queste interleuchine si legano a delle proteine presenti sulla membrana

cellulare (recettori), che hanno una porzione esterna che lega la interleuchina, una porzione che

attraversa la membrana e una porzione interna che è a contatto con altre molecole, ad esempio le

kinasi JAK. Queste fosforilano il recettore stesso, e altre proteine, tra cui quelle denominate STAT,

che vengono attivate, entrano nel nucleo e si legano in alcuni punti al DNA. In seguito, altre

proteine defosforilano il recettore che ritorna nella conformazione iniziale, pronto ad essere

riutilizzato; alternativamente in seguito all’avvenuto segnale, la cellula può passare ad uno stadio in

cui il recettore non ha più alcun ruolo e in questo caso può venir degradato. Il segnale cioè non

arriva direttamente dall’esterno ma agisce tramite una cascata di interazioni molecolari che

provocano nella cellula una risposta.

La molecola principe

Tra tutte le molecole che costituiscono la cellula, una però ha un ruolo fondamentale: l’acido

desossiribonucleico, più conosciuto come DNA. Esso è la sede di tutte le informazioni necessarie

per il funzionamento della cellula. Esso raggruppa in sé tutto il necessario per processi complessi

come la moltiplicazione cellulare, la differenziazione tissutale, il funzionamento o il

malfunzionamento di cellule ed organismi, ecc.

Come Gregorio Mendel, il fondatore della genetica formale il cui lavoro rimase sconosciuto per

oltre 30 anni, anche il DNA è stato per lunghi anni ignorato. Scoperto più o meno all’epoca in cui

l’abate moravo enunciava le sue famose leggi, pur risiedendo nel nucleo come implica il suo nome,

venne considerato troppo ottuso per essere la base dell’ereditarietà: si trattava di un polimero

lunghissimo ma monotono, perché composto da una successione di solo quattro piccole molecole

dette nucleotidi. Le proteine sembravano assai più attraenti e meno noiose, consistendo di un

assortimento svariato di 20 aminoacidi. Ma nel 1944 il gruppo di Oswald Avery alla Rockefeller

University lo buttava sulla scena e dal 1953 il brutto anatroccolo diventò un cigno. Da allora il

DNA continua ad avere sempre maggiori riconoscimenti: base della ereditarietà, software della vita,

principio unificante di tutte le forme di vita, partner della selezione naturale, determinante del

comportamento umano e così via. Non sappiamo ancora se tutto ciò gli spetta di diritto, ma si sa, è

sempre bello balzare sul carro del vincitore. In realtà, come spesso succede, non è tutto oro ciò che

luccica, e per essere equilibrati bisogna ricordare che il DNA è anche la base di un’infinità di

malattie ereditarie per non parlare del cancro.

Il genoma dell’uomo, che non è altro che il suo DNA, come più o meno quello di tutti i mammiferi,

contiene circa 100.000 geni. I geni sono una realtà fisica, in quanto non sono altro che dei pezzi di

DNA, un polimero formato a sua volta dall’alternarsi o il succedersi (da cui la parola sequenza) di

quattro piccole molecole, dette basi o nucleotidi. Il genoma dell’uomo è composto di circa 3

miliardi di nucleotidi, presenti in duplice copia. Una piccola parte, forse il 5-10%, rappresenta un

codice, da noi parzialmente conosciuto, che contiene appunto circa 100.000 informazioni per

costruire proteine. La funzione della restante parte non è ancora ben nota, potrebbe anche essere che

parte del DNA non abbia alcuna funzione, sia “junk DNA”, DNA spazzatura. Le proteine sono poi

responsabili della forma stessa della cellula e quindi di un organismo e occupano un posto centrale

perché regolano anche la produzione e il metabolismo di altri costituenti quali i lipidi e i glucidi,

oltre a presiedere al metabolismo degli stessi acidi nucleici, tra cui il DNA stesso.

Non c’è alcun bisogno di entrare nei dettagli che ci porterebbero lontanissimo. Può però essere utile

insistere nella similitudine del computer, perché questo è ormai a noi molto familiare. Questo

perché nel corso dell’evoluzione, la cellula ha avuto la necessità di immagazzinare in maniera

sicura i buoni risultati che otteneva e questo lo ha fatto sotto forma di informazione. Se nascondo un

41


tesoro, posso poi allontanarmi di migliaia di chilometri e tornare decine di anni dopo, o addirittura

affidare le istruzioni ad un altro, e il tesoro può essere ritrovato. Quello che conta è il loro contenuto

informativo. Ciò che sfuggiva nei secoli precedenti era proprio questo, che un’informazione può

essere immagazzinata in una struttura chimica. I geni sono pertanto pezzi di DNA i quali sono

istruzioni codificate. Tali istruzioni sono in grado però di produrre sia l’hardware che il software, è

come se un computer avesse le istruzioni non solo per funzionare ma anche per produrre altre copie

del suo stesso hardware.

Queste istruzioni consentono non solo di replicare le cellule e di assegnare ad ognuna di esse un

compito diverso, ma sono anche in grado di modificare le cellule in risposta a vari stimoli. Questo

vale sia per gli organismi monocellulari che per le singole cellule di organismi complessi, ma le

risposte saranno di livelli diversi. Un microrganismo risponde ad un cambio delle sostanze nutritive

nel suo terreno di cultura attivando informazioni (geni) diversi. Naturalmente questo può avvenire

entro limiti ben determinati, al di là dei quali la cellula non può rispondere e pertanto muore.

Tutte queste interazioni stimolo-risposta vengono effettuate in maniera automatizzata e molte di

queste possono essere descritte, modificate, manipolate e sfruttate sulla base di teorie consolidate,

contribuendo così ad aumentare la nostra fiducia nelle teorie stesse. Pertanto nessun scienziato fa

più uso di “proprietà vitali” specifiche della cellula. La possibilità di convertire la fisiologia

cellulare in denaro contante tramite le biotecnologie contribuisce certamente a diffondere la fiducia

in questa descrizione chimico-fisica della cellula sia nel grosso pubblico che tra i venture capitalists

di Boston e gli gnomi di Zurigo.

L’uovo o la gallina

La spiegazione dell’ereditarietà è ovviamente uno dei successi più clamorosi ottenuti dalla biologia

negli ultimi 50 anni. L’ereditarietà aveva sempre interessato gli uomini: un figlio assomiglia ai

genitori, ma può anche essere assai diverso nel carattere come nel fisico. Nel Settecento e

nell’Ottocento ci si chiedeva come questo potesse avvenire. Teorie come il preformismo cercavano

di spiegare questo incredibile fenomeno. Si invocavano homunculi dentro cui c’erano altri

homunculi e così via fino ad Adamo ed Eva.

Oggi sappiamo che non viene conservata alcuna forma, solo informazione per farla. Concetto

facilmente accettabile in un periodo in cui siamo passati dall’archiviazione di documenti cartacei,

destinati prima o poi al rogo, a quella di microfilm, fino a quelle di bit. La miniaturizzazione

dell’informazione ha luogo ovunque, negli ospedali come nelle banche, ma nessun sistema ha

ancora raggiunto le prestazioni fornite dal DNA.

L’informazione viene replicata ad ogni cellula, e ogni nuova cellula contiene generalmente tutta

l’informazione della cellula da cui è originata. Tuttavia cellule diverse (differenziate) non usano le

stesse informazioni, ma solo un sottoinsieme di esse. Come questo possa avvenire non è ancora

chiaro, anche se, per parti limitate di questo processo, sappiamo quali informazioni dicono quali

altre informazioni devono essere usate. Vi sono dei geni, detti fattori di trascrizione, che attivano

altri geni, e conosciamo anche un certo numero di “master genes” che stanno molto in alto in questa

gerarchia. Il “primum movens” tuttavia non ci è ancora noto. Per ogni organismo superiore, esso è

da rintracciarsi a livello della prima cellula dell’embrione. Tutto è mantenuto in una catena continua

in cui veramente non si può dire se è nato prima l’uovo o la gallina. In questo senso, il problema

dell’homunculus è risolto dal punto di vista delle dimensioni, ma non dal punto di vista della

regressio ad infinitum. In principio probabilmente era l’acido nucleico, o una miscela acido

nucleico-peptide.

42


In pratica ogni cellula attiva solo alcune delle istruzioni (= geni) contenute nel genoma, quelle

necessarie per la sua sopravvivenza, ed eventualmente quelle necessarie per la sua replicazione o

per esercitare una funzione relativa a tutto l’organismo nel caso degli organismi multicellulari.

Quando si replica, esegue prima un duplicato di tutte le istruzioni che vengono così passate ad ogni

nuova cellula. Ognuna di queste utilizzerà solo alcune delle informazioni codificate nel DNA, che

potranno variare nel caso nell’ambiente circostante siano avvenute delle modificazioni importanti.

Così i vari geni possono venire accesi o spenti in risposta alle necessità della singola cellula,

dell’intero organismo o delle modificazioni ambientali.

Pertanto, quali geni verranno espressi viene deciso dall’interazione tra il determinismo genico,

rappresentato dal DNA, e l’ambiente circostante. Cambiando l’ambiente, le istruzioni possono venir

mutate. Nell’ambiente si deve comprendere anche il citoplasma, che rappresenta quella parte

dell’ambiente, delimitata dalla membrana cellulare, più intimamente a contatto con il nucleo, in cui

il DNA è localizzato. Normalmente, il DNA della specifica cellula dirige la composizione del

citoplasma analizzando i segnali che riceve dall’esterno e rispondendo con l’attivazione di un

determinato set di istruzioni pertinenti, meccanismo che è alla base del progressivo

differenziamento cellulare. Questi riassestamenti possono essere massivi, come avviene ad esempio

dopo esposizione ad un fattore di crescita, ma sono comunque mediati da ciò che è presente nel

citoplasma (ad esempio, se la cellula non ha in precedenza prodotto un particolare recettore, potrà

essere completamente insensibile ad un determinato stimolo). Tuttavia, recenti esperimenti fanno

pensare che la capacità di riprogrammazione del DNA possa essere veramente notevole. Negli

esperimenti di clonazione, infatti, in cui un nucleo di una cellula adulta viene trasferito nel

citoplasma di un uovo, tutto l’insieme di istruzioni che quella particolare cellula aveva, viene

resettato e il DNA torna ad esprimere un altro set di istruzioni adatto al suo nuovo stato: è

presumibile che ciò avvenga in seguito all’esposizione al nuovo microambiente con cui è ora a

contatto e che manda segnali diretti all’attivazione di geni tipici di un precoce stadio embrionario.

Tuttavia, la composizione dello stesso citoplasma può, entro certi limiti, subire cambiamenti

notevoli anche in seguito a segnali che vengono dall’esterno, come testimoniato dai recenti

esperimenti di trans-differenziazione, in cui cellule nervose sono state spinte a differenziarsi in

cellule ematopoietiche tramite inoculo in vivo, senza che fosse necessario il trasferimento nucleare

45 . Tutto questo sta ad indicare che, pur nell’ambito di uno stretto determinismo genetico,

l’interazione con l’ambiente è pur sempre rilevante per il destino della cellula.

Il lato oscuro del DNA

L’alterazione di una singola istruzione può avere conseguenze drammatiche per la cellula o per

l’intero organismo. Il fenomeno è stato studiato sia in organismi unicellulari che in organismi

complessi. Nell’uomo ad esempio, vi sono almeno 5000 malattie ereditarie, che sono cioè dovute ad

un’alterazione di una delle istruzioni contenute nel DNA. Anche se non tutti i geni responsabili

delle malattie ereditarie sono ancora noti, tuttavia nella maggior parte di queste malattie in cui

l’istruzione errata è stata identificata, è possibile predire con estrema precisione chi è ammalato e

anche chi si ammalerà, anche nel caso che il soggetto sia ancora asintomatico perché la malattia

insorge in età avanzata. Bisogna tuttavia notare che i geni coinvolti in queste 5000 malattie sono

quelli la cui alterazione consente comunque un certo sviluppo dell’organismo. Altre istruzioni sono

di importanza vitale e un loro malfunzionamento non consente neanche di portare a termine la

45 Bjornson et al.: Turning brain into blood: a hematopoietic fate adopted by adult neural stem cells

in vivo. Science 283:534-537, 1999

43


gravidanza: quando questo avviene precocemente nello sviluppo dell’embrione, la malattia

generalmente non viene neppure riconosciuta.

Oltre alle malattie ereditarie che appaiono spontaneamente nell’uomo, vi è ora una tecnica assai

potente che consente di distruggere singole istruzioni nell’animale da esperimento, in particolare in

quello che è il modello principe per lo studio di genetica di mammiferi, il topo di laboratorio 46 . In

questo modo è possibile studiare la funzione di una singola istruzione nel complesso della fisiologia

della singola cellula e dell’intero organismo. In questo modo, sono state ricreate nel topo malattie

umane; inoltre è possibile studiare anche quelle che sono vitali per l’embrione e che nell’uomo non

è possibile indagare.

Il quadro che si ottiene è un quadro di completa automazione e le previsioni possibili sono

vastissime. Il fatto che studiando la sequenza del DNA di un bambino si possa conoscere il suo

destino è soltanto una delle dimostrazioni più eclatanti o sorprendenti della potenza esplicativa della

teoria.

Le conseguenze sono drammatiche per chi ne viene coinvolto personalmente. Ugo Foscolo

assegnava due quarti del nostro destino alla sorte 47 , ma non conosceva il lato oscuro della genetica.

Il fatto che basti che un solo nucleotide su 3 miliardi sia mutato per condannare un uomo alla

sofferenza e alla morte, deve far meditare profondamente chi è stato così fortunato da essere passato

indenne tra le maglie della sorte.

Come si formano i genomi

Nell’ambito del progetto Genoma Umano disponiamo ormai di un primo draft di circa il 90% della

sequenza della nostra specie e della sequenza completa di numerosi organismi unicellulari e di

alcuni multicellulari, tra cui spiccano il C. elegans e la D. melanogaster. Quello che sappiamo è che

questi genomi hanno una storia entro certi limiti ricostruibile e che alla base della formazione di un

genoma complesso quale quello umano c’è una serie di eventi assai diversi che non rivelano un

piano preciso ma piuttosto una serie di eventi scollegati tra loro.

Nel nostro genoma ad esempio troviamo le tracce di duplicazioni geniche di segmenti di una certa

lunghezza, cioè di segmenti di DNA che nel corso dell’evoluzione si sono duplicati. Questo ha

permesso che uno dei due geni duplicati sfuggisse alla pressione selettiva esercitata dalla sua

46 Questa tecnica, i cui risultati sono menzionati anche in capitoli successivi, si basa sul fatto che,

nel topo, vi sono cellule, dette staminali embrionarie, che mantengono la capacità, pur essendo

coltivate in provetta, di ripopolare l’embrione, dando origine quindi ad un individuo che è in parte

originato da loro stesse. Pertanto, se noi alteriamo un gene a queste cellule è possibile,

reimmettendole in un altro embrione normale, ottenere un individuo in cui parte delle cellule

derivano da quelle col gene alterato e che per questo viene detto chimerico. Dopo opportuni incroci

è possibile ottenere un topo in cui tutte le cellule portano l’alterazione prefissata che si voleva

studiare. In questo modo è possibile valutare la funzione di un gene per difetto, osservando cioè

cosa succede quando l’organismo non ce l’ha.

47 “La fama degli eroi spetta un quarto alla loro audacia; due quarti alla sorte; e l’altro quarto ai

loro delitti”. U. Foscolo: Ultime lettere di Iacopo Ortis. Rizzoli, Milano, 1975; p. 144. Il libro fu

pubblicato nella sua interezza nel 1802. Grande figura di poeta romantico, coetaneo di Byron e altri,

pur deluso dal Bonaparte, si batté per la causa repubblicana e dimostrò la validità del suo aforisma

morendo in miseria (a causa delle eccessive spese) e in esilio a Londra dopo aver rifiutato di

lavorare per il Governo Austriaco che aveva ripreso la Lombardia dopo la parentesi napoleonica.

44


importanza nell’economia della cellula e fosse libero di evolversi a produrre un gene diverso anche

se in parte ancora simile nella sua struttura a quello originario. Si è così andati incontro alla

formazione di famiglie geniche, cioè di geni che sono imparentati tra loro perché hanno un’origine

in comune, potendo tuttavia aver assunto funzioni completamente diverse e addirittura opposte. Non

solo, ma le modificazioni intervenute nelle regioni regolatrici possono portare ad un’espressione del

gene solo in particolari tessuti, così che la funzione del gene duplicato può manifestarsi in alcuni

tessuti ma non in altri. Geni nuovi vengono formati anche dall’assemblamento di pezzi di geni

originariamente presenti su tratti diversi di DNA, così che il nuovo gene può avere in comune delle

parti ( “domini”) con due geni diversi: ne può derivare un prodotto proteico che ha alcune proprietà

di entrambe le proteine originarie ma che svolge funzioni parzialmente nuove.

Non solo, ma i geni possono migrare all’interno del genoma. Essi possono venir trascritti in RNA

che per motivi ancora non chiariti può in certi casi reintegrarsi in un altro segmento cromosomale

dando così origine ad un’ulteriore copia del gene che tuttavia ha molte possibilità di non funzionare

più, cioè di non produrre la proteina originaria: nasce così uno pseudogene, un relitto evolutivo, che

via via tende ad accumulare mutazioni inattivanti. Oppure, in rari casi, tutto o parte della sequenza

trasposta viene riutilizzata o entrando a far parte di un nuovo gene o integrandosi in un punto che ne

consente l’espressione. Alcuni di questi “trasposoni” hanno avuto grande fortuna, perché sono

presenti nel genoma umano in un numero stimato vicino al milione di copie. La loro funzione non è

chiara, e potrebbero anche non averne alcuna, oppure potrebbero aver contribuito a particolari

passaggi evolutivi, avendo quindi svolto una funzione in un passato lontano che ora è andata

perduta 48 .

I genomi complessi pertanto sono un coacervo di geni che sono stati messi insieme in maniera

diversa senza un vero disegno preciso durante un processo assai lungo. Essi sono organizzati in

cromosomi che a loro volta sono strutture in parte conservate in parte modificate. Se si confrontano

cromosomi di specie diverse, si nota che alcuni geni sono associati tra loro (sono cioè l’uno accanto

all’altro lungo un determinato segmento cromosomico) in molte specie, ma che ad un certo punto

del cromosoma questa relazione termina bruscamente per rivelare una serie di geni che sono tra loro

nuovamente associati ma che in un’altra specie sono localizzati su un differente cromosoma. In altre

parole, a partire da un determinato progenitore comune sono avvenuti dei riarrangiamenti nei

cromosomi delle varie specie da esso derivate, alcuni dei quali possono anche avere contribuito al

processo stesso di speciazione.

Infine materiale genetico può venir inglobato nel genoma anche dall’esterno. E’ il caso di retrovirus

o altri elementi trasponibili che in casi relativamente rari riescono ad integrarsi nel genoma della

linea germinale, così da essere trasmessi alla progenie. Per quanto rari, questi eventi sono

cumulativi, e ogni specie contiene pertanto un certo numero di virus endogeni la maggior parte dei

quali ormai inattivati. In altri casi invece i geni dei virus integrati sono entrati a far parte del pool

genico della specie contribuendo sequenze codificanti o regolatrici. Questa integrazione tra

materiale genetico diverso ha assunto una particolare valenza nel caso del DNA mitocondriale: i

mitocondri sono organelli presenti nel citoplasma e coinvolti nel metabolismo energetico cellulare,

che si crede siano il risultato del inglobamento di un protobatterio nel citoplasma di un’antica

cellula. Si tratterebbe di un antico caso di simbiosi, testimoniato dal fatto che il mitocondrio ha

conservato alcuni dei suoi geni originari che vengono tramandati di cellula in cellula in maniera

indipendente dal DNA nucleare.

48 L’esistenza di DNA presente in grande numero di copie e che per giunta non ha alcuna funzione

è uno degli argomenti a favore dei sostenitori del DNA egoista, vedi più avanti.

45


Il livello dell’organismo

La descrizione molecolare dei fenomeni legati alla vita non si ferma a livello della singola cellula

ma si estende anche a livello dell’organismo nella sua interezza e non solo nel caso di anomalie

cellulari come potrebbero essere le malattie ereditarie. Come abbiamo detto, le proprietà di un

sistema di ordine di complessità maggiore non sempre sono così ovvie da poter essere predette al

livello inferiore. Tuttavia per molte di queste è possibile una buona descrizione molecolare. Qui ne

descriveremo un esempio, quello della risposta immunitaria adattativa.

E’ noto a tutti che una delle più efficienti difese immunitarie si basa sulla produzione di anticorpi 49 .

Queste molecole riconoscono molecole presenti sui nostri tessuti e molecole che sono presenti solo

su cellule estranee all’organismo. Si dice che sono in grado di distinguere il self dal non-self. Questo

processo, che ha la sua base a livello genetico, viene comunque acquisito durante lo sviluppo fetale

mediante dei complessi fenomeni descrivibili a livello molecolare e cellulare. Da un lato c’è la

necessità di riconoscere tutte le molecole estranee, che sono potenzialmente tossiche per

l’organismo, dall’altro c’è il bisogno di non danneggiare le proprie cellule.

I meccanismi genetici che stanno alla base di questo fenomeno, e cioè la produzione di anticorpi o

comunque di recettori specifici per le varie molecole “buone o cattive” sono sufficientemente noti

nei dettagli. Vi è un numero estremamente elevato di molecole da riconoscere e, a quanto pare, vi è

un numero altrettanto elevato di anticorpi che l’organismo riesce a produrre. In particolare, vi sono

anticorpi anche per molecole che l’organismo non ha mai incontrato né nella sua vita né in quella

della sua specie, anzi, possono venir prodotti anche anticorpi contro sostanze che in natura non

esistono. Dal momento che gli anticorpi sono proteine e che devono essere prodotti da geni, l’idea

che nel DNA di ogni specie potessero esservi tutti i geni anche per fare anticorpi per molecole che

abbiamo creato noi, sembrava assurda.

E in effetti non è così. L’anticorpo è formato da una parte costante e da una regione variabile che

differisce da anticorpo a anticorpo. Mentre la parte costante è codificata da un numero assai piccolo

di geni, la parte variabile è codificata da un numero elevato di piccoli segmenti di DNA che sono

presenti nel genoma di tutte le cellule, ma che nelle cellule che producono gli anticorpi, i linfociti,

vengono assemblati in maniera estremamente varia. Ne consegue che si possono formare una serie

di pezzi di DNA riarrangiati nella maniera più diversa, i quali alla fine di questo processo

produrranno un determinato anticorpo. Dal momento che vi sono miliardi di linfociti, saranno

disponibili un enorme numero di anticorpi predeterminati che sono candidati a legarsi ad un

antigene, inizialmente con un’affinità relativamente bassa. Malgrado questa bassa affinità, il legame

con l’antigene scatena una proliferazione dei linfociti che hanno quel determinato anticorpo, che

così aumentano grandemente di numero. Non solo, ma a seguito di fenomeni che avvengono a

livello del DNA di queste cellule proliferanti, il gene che produce l’anticorpo acquista delle

mutazioni che faranno produrre anticorpi leggermente diversi, la cui affinità per l’antigene potrebbe

essere minore o maggiore. Tuttavia, per un meccanismo selettivo, le cellule che producono un

49 Gli anticorpi, o immunoglobuline (Ig) sono prodotti da un sottoinsieme di linfociti, detti di tipo B.

Si distinguono 5 classi di anticorpi, denominati IgM, IgD, IgG, IgA, IgE. Per una loro corretta

produzione sono tuttavia necessari anche altre cellule tra cui i linfociti di tipo T. Questi a loro volta

producono una serie di molecole che appartengono alla stessa grande famiglia delle Ig, e i cui geni

pure vengono riarrangiati con un processo del tutto analogo a quello che viene utilizzato per

produrre gli anticorpi. Tutte queste molecole cioè hanno una parte costante codificata da uno o

comunque pochissimi geni e una parte variabile che varia da molecola a molecola. Vedi S.

Tonegawa: Somatic generation of antibody diversity. Nature 302, 575-581, 1983

46


anticorpo più “forte” verranno avvantaggiate sulle altre e cresceranno di più, aumentando la risposta

dell’organismo all’antigene dannoso.

Siamo davanti pertanto ad un meccanismo selettivo per cui il legame con l’antigene scatena la

produzione ed il miglioramento di un anticorpo specifico per l’antigene stesso a partire da un panel

di anticorpi che sono prodotti secondo uno schema generale ma con notevole variazioni individuali.

Parimenti, con un processo che però è meno conosciuto, si suppone che le cellule che producono

casualmente anticorpi contro molecole proprie dell’organismo (autoanticorpi) vengano eliminate: se

questo processo non è correttamente completato possono insorgere quelle che sono conosciute come

malattie autoimmuni.

Ma il livello di profondità dell’analisi arriva anche a livello molecolare. Il meccanismo alla base

della diversità anticorpale, come abbiamo visto, è dato dal riarrangiamento di piccoli pezzi di DNA.

Si tratta essenzialmente di un processo di taglia e cuci, in cui pezzi di DNA vengono tagliati e

quello che rimane alle loro estremità viene ricongiunto. Le molecole coinvolte in questo processo

sono oggi sufficientemente note, ed è noto nelle linee essenziali il loro funzionamento. I pezzi di

geni che devono essere assemblati hanno alla loro estremità interna delle sequenze nucleotidiche

specifiche che vengono riconosciute da molecole particolari, dette RAG, che sono in grado di

tagliare in corrispondenza di queste sequenze con una precisione quasi assoluta. Pertanto il taglio da

parte delle RAG fa sì che un pezzo di DNA venga eliminato dal genoma, e che il restante pezzo di

DNA possa venir ricongiunto mediante l’azione di altre molecole il cui mestiere è appunto quello di

ricucire le rotture del DNA. Dal momento che vi sono tantissimi pezzi che possono essere

ricongiunti con vario assortimento, e che per giunta questa giunzione è sempre un pochino diversa e

il numero di linfociti è altissimo, e che infine il gene riarrangiato può ancora mutare, si capisce

come il sistema possa funzionare in modo da proteggerci dalla maggior parte dei microrganismi che

incontriamo durante la nostra vita.

Esempi come questi ce ne sono a centinaia, ma sarebbe inutile dilungarci. Quello che conta qui è

capire la logica della descrizione. Questo esempio tratto dal sistema immunitario illustra il principio

generale secondo cui le interazioni delle cellule dell’organismo tra loro e con altre cellule estranee

possono venir descritte a livello molecolare. La descrizione avviene a posteriori, nel senso che non

sarebbe possibile, al momento per lo meno, prevedere ad esempio la via scelta dai vertebrati per

risolvere il problema dell’immunità studiando, non dico i procarioti, ma neppure gli invertebrati,

che non hanno questo sistema adattativo.

Potrebbe essere anche possibile andare oltre al livello dell’organismo individuale e tentare di

descrivere organizzazioni meta-individuali, cioè organizzazioni sociali ? Questo problema verrà

trattato più avanti in un capitolo successivo.

Lo sviluppo embrionario

La produzione di un organismo adulto a partire da una sola cellula è probabilmente il fenomeno

biologico più stupefacente, e ci riempie di commozione tanto quanto il cielo stellato sopra di noi e

la legge morale dentro di noi. E non solo nel caso dell’uomo, ma anche per organismi modesti come

i nematodi, i moscerini, i ricci di mare, le rane, i pesciolini o i topolini, tutti modelli che vengono

utilizzati in quella disciplina che va sotto il nome di embriologia sperimentale. Come viene

acquisito, a partire da una singola cellula, non solo il differenziamento in vari tessuti, ma anche la

disposizione tridimensionale e la formazione di strutture che sono identiche in tutti i membri della

stessa specie, oltre a presentare leggere variazioni tra una specie e l’altra?

47


Nel corso dei secoli questo problema era rimasto assolutamente confuso, e le teorie proposte erano

state vaghe o, peggio, ridicole. Per tre o quattro secoli si confrontarono preformisti ed epigenetisti. I

primi sostenevano che tutti gli embrioni esistevano già preformati nell’uovo o nello sperma: ne

conseguiva che ogni embrione doveva contenere dentro di sé un numero enorme di “homunculi”,

nel caso della generazione umana, perché dentro il seme di ogni homunculus doveva essercene un

altro in miniatura. Questa conseguenza della teoria, chiamata anche dell’inscatolamento (in francese

“emboitement”), era chiaramente facile bersaglio del sarcasmo da parte degli epigenetisti. Questi

proponevano invece l’esistenza negli embrioni di una “forza” che fosse in grado di indirizzare lo

sviluppo dell’embrione, ma naturalmente avevano il loro punto debole nella loro assoluta incapacità

a dare qualche dettaglio su di essa, così che le loro specifiche proposte erano estremamente facili ad

essere smantellate dalla critica degli avversari.

Hans Driesch, uno dei fondatori dell’embriologia sperimentale, lavorando all’inizio del secolo XX

presso la Stazione Zoologica di Napoli, giunse alla conclusione che l’embrione era dotato di tali

proprietà che non potevano essere spiegate dalle leggi che regolano la materia. L’embriologia

sperimentale consiste nel manipolare l’embrione o il “milieu” che lo circonda e vedere cosa

succede: da questi dati si può costruire una teoria che suggerisce poi nuovi esperimenti in una

sequela che è quella classica del metodo scientifico. L’embrione, è noto, origina come singola

cellula, poi si divide in due, quattro, otto cellule e così via. Tra i vari esperimenti di cui fu pioniere,

Driesch separò le cellule degli embrioni allo stadio di due o quattro cellule (blastomeri) e constatò

che ognuna di esse era in grado di produrre un embrione intero, seppure più piccolo. Parimenti, era

possibile fondere tra loro due embrioni al livello di blastula ed ottenere un unico organismo, questa

volta più grande. Questo ed altri esperimenti lo portarono a concludere:

“E’ quindi provato per alcuni fenomeni vitali che nessun meccanismo di qualunque tipo può essere

la loro base causale. Vi sono necessariamente degli agenti non meccanici. Diamo loro il nome

aristotelico di entelechia, pur sapendo che esso non corrisponde esattamente al concetto

rappresentato dal termine aristotelico…” 50

E’ interessante notare come Driesch sottolinei ripetutamente che le sue conclusioni sono la

migliore, anzi l’unica, spiegazione dei fatti che egli esamina. Egli è convinto che la sua conclusione

derivi dai fatti e che sia pertanto assolutamente scientifica.

“Abbiamo appena mostrato che vi è empiricamente una causalità vitale”. E più avanti: ”Molti non

vedono di buon occhio l’uso che il vitalismo fa del concetto di affinità dei mezzi e del fine, di

teleologia e anche di causa finale. Si potrebbe forse notare che nessuna di queste parole figura in

quest’articolo”. 51

Driesch viene considerato come l’ultimo vitalista (per lo meno di una certa importanza). Oggi in

realtà questi esperimenti che egli eseguì all’inizio del Novecento con grande perizia tecnica sono

alla portata di numerosi laboratori che si sono spinti assai più in là. Oggi è possibile eseguire i suoi

esperimenti su embrioni di topo, prenderne le cellule ai primi stadi di sviluppo e coltivarle in vitro,

reinserirle nella blastocisti e ottenere animali chimerici, cioè animali in parte derivati dalle cellule

50 H. Driesch. Le vitalisme. Scientia 7:13-22, 1907. Versione italiana citata in B. Fantini: La

macchina vivente. Longanesi, Milano, 1986 p 84. Nel termine vi è la radice ev (dentro, interna) e

quella tele (scopo, fine). Fantini (p 22) la definisce come un “fattore naturale non spaziale,

distribuito in tutta la materia vivente, è il principio direttore che permette di raggiungere un fine

preciso univoco seguendo strade diverse in condizioni diverse”. Il termine è tratto dal trattato

“Sull’anima” di Aristotele.

51 Ibidem, p 85.

48


della blastocisti ospite e in parte derivati dalle cellule in essa iniettate. In altre parole, le cellule dei

primi stadi dell’embrione sono totipotenti, e se trattate appropriatamente possono riformare tutto

l’organismo. Addirittura, il nucleo di una cellula, non solo embrionaria ma anche originata da un

tessuto differenziato contiene tutta l’informazione necessaria per ricostruire un organismo, come

hanno dimostrato gli animali clonati che vengono prodotti da qualche anno a questa parte. 52

La risposta è ormai chiara. L’entelechia coincide con il DNA. Nel DNA vi è il programma con tutte

le istruzioni che la prima cellula e poi tutte le altre devono seguire per arrivare a produrre

l’individuo adulto. La concomitante esplosione della teoria dell’informazione e dell’informatica

rende oggi questa spiegazione assai facile da comprendere e da accettare. Su cosa si basa questa

conclusione ?

Vi è un numero sproporzionato di osservazioni genetiche che si sono accumulate nel corso di questi

ultimi due decenni, costruite su osservazioni embriologiche eseguite nell’arco di tutto il secolo

ventesimo. Queste osservazioni sono di due tipi, essenzialmente, a seconda che siano eseguite su

fenomeni spontanei o su fenomeni provocati artificialmente. Abbiamo visto che in un mammifero

come l’uomo e il topo, a dispetto delle diversità nelle dimensioni e nelle capacità, esistono circa

100.000 geni. Come abbiamo detto, è oggi possibile inattivare in maniera assai precisa uno solo di

questi geni e vedere qual è il fenotipo che ne deriva: i risultati ottenuti getteranno luce sulla

funzione del gene indagato. Oppure è possibile studiare i fenotipi anormali insorti spontaneamente

nelle colonie di topi o altri animali e cercare di individuare qual è il gene la cui alterazione ha

provocato il difetto riscontrato.

La formazione delle strutture embrionarie sembrerebbe a prima vista essere troppo complessa per

poter essere spiegate con i geni. Come potrebbero le cellule venir istruite a disporsi a strati, a

formare strutture tubulari, a organizzarsi in organi che mantengono sempre la stessa forma in tutti

gli individui della stessa specie? Non sembra logico postulare l’esistenza di un organizzatore? E

questo organizzatore non sembra dover essere di una natura diversa dalle molecole? Se ci si

trasporta all’inizio del Novecento, quanti non si sentirebbero attratti dalle considerazioni di

Driesch?

Gli studi recenti hanno dato torto a Driesch anche in questo caso. Oggi possiamo causare facilmente

l’assenza di una struttura alterando un singolo gene. Lavorando come abbiamo detto nel topo con la

tecnica della ricombinazione omologa, possiamo inattivare un gene a piacere e vedere cosa ne

consegue. In alcuni casi otteniamo la scomparsa di un’intera struttura o di un organo. Pertanto un

singolo gene può essere o è responsabile della formazione di strutture tridimensionali. Non solo, ma

una loro alterazione può provocare la comparsa di strutture intere.

La storia delle mutazioni omeotiche è emblematica. Si tratta di un esempio eclatante e facile da

comprendere. L’embriologia molecolare, essendo di difficile studio nell’uomo per motivi ovvii, si

dedica con piacere allo studio di piccoli animali che vengono usati come modelli. Il vantaggio è che

su questi modelli si possono effettuare esperimenti con grande facilità; inoltre il tempo di

riproduzione è sensibilmente più corto che nell’uomo. Nel caso della Drosophila, si possono

ottenere progenie grandissime in poco tempo; nel topo la gravidanza dura 21 giorni e ogni 3 –4

mesi si ha a disposizione una nuova generazione di animali.

52 Per dettagli sulla vasta gamma di animali che possono essere ottenuti manipolando l’embrione si

può consultare l’articolo “Animali chimerici, transgenici, knockout e clonati” in Dulbecco et al.

“Clonazione: problemi etici e prospettive scientifiche". Edito come supplemento a Le Scienze del

maggio 1997.

49


Molti embriologi classici, anche prima dell’avvento delle tecniche di ingegneria genetica che hanno

consentito di studiare i geni, hanno fatto uso di mutanti. I mutanti, che sono veramente centrali per

lo studio dell’embriologia come di altri settori di ricerca biologica, sono stati definiti inizialmente

per il loro fenotipo, cioè per il loro aspetto. La parola viene dal greco, φαινω, appaio, la stessa

radice di fenomeno. Il fenotipo è come uno appare, intendendo però ormai anche quello che appare

a livello di test di qualsiasi natura. Il genotipo invece è quello che vi è dietro al fenotipo, la base del

fenotipo. Per decenni, nella prima parte del secolo il genotipo è stato qualcosa di misterioso, oggi

sappiamo che coincide praticamente con il DNA. Un uomo affetto da una malattia ereditaria, per

esempio, da fibrosi cistica, è un mutante.

L’importanza dei mutanti è dovuta al fatto che possiamo sperare di identificare il loro genotipo, cioè

l’istruzione sbagliata. Gli embriologi pertanto guardano le loro colonie di animali per vedere se

insorgono organismi con fenotipi interessanti, ma questa comparsa spontanea è rara. E’ naturale

quindi che abbiano cercato di aumentare la frequenza di queste mutazioni, semplicemente

esponendo gli animali ad agenti che danneggiano il loro DNA, quali, ad esempio, le radiazioni.

Durante un lavoro di questo tipo, furono identificati dei mutanti che dal punto di vista embriologico

erano enormemente interessanti: alcune mosche avevano quattro ali invece di due (Bithorax), altri

avevano una gamba al posto di un’antenna (Antennapedia). Si aveva quindi la possibilità di testare

l’ipotesi secondo cui singoli geni comandano la formazione di un’intera struttura. Se fosse stato

possibile identificare un gene alterato solo nei mutanti, l’ipotesi sarebbe stata confermata.

E in effetti l’ipotesi si rivelò esatta con l’identificazione di geni che erano alterati specificatamente

in questi due mutanti e che definirono una nuova classe di geni. Dal momento che mutazioni di quel

genere venivano chiamati omeotiche (dal greco “ομοιοσ”, simile 53 ), i nuovi geni vennero chiamati

“homeobox”. Quindi non solo vi erano dei geni la cui alterazione comportava l’assenza di una

struttura, ma anche geni la cui alterazione provoca la comparsa di strutture in sedi anormali. Anche

se il meccanismo alla base del fenomeno è ben lungi dall’essere conosciuto nei dettagli, vi sono

ormai numerosi casi del genere a carico di geni della stessa o di altre famiglie, che dimostrano come

anche i fenomeni embriologici più complessi dipendono dall’azione di singoli geni o dalla loro

interazione.

Prendiamo il caso dell’occhio. Più di cent’anni oro sono, William Paley aveva scritto:

if we had no other “example in the world of contrivance except that of the eye, it would be alone

sufficient to support the conclusion that we draw from it, as to the necessity of an intelligent

Creator” 54 .

Ma nel 1995, Walter Gehring e i suoi collaboratori hanno preso delle Drosophilae e hanno fatto

esprimere un gene da loro isolato (“eyeless”) in vari tessuti embrionali (imaginal disks) che

normalmente danno origine a strutture quali le ali e le zampe o gli occhi stessi. Ne vennero fuori

moscerini con occhi sulle ali e sulle zampe. Alcuni avevano occhi in cima alle loro antenne. Questi

occhi “ectopici” (cioè insorti in sedi anomale) erano molto simili a quelli normali e i loro

fotorecettori rispondevano alla luce 55 .

53 Termine introdotto alla fine del secolo XIX dal naturalista William Bateson per indicare il

fenomeno di trasformazione di un organo in un altro.

54 W. Paley. Natural Theology. vol I, p. 81 citato in C.A. Russell: Science and religious belief. The

Open University Press, Londra, 1973; p. 185.

55 G. Halder et al: Induction of ectopic eyes by targeted expression of the eyeless gene in

Drosophila. Science 267:1788-1792, 1995

50


Questi studi dimostrano che i geni regolano anche strutture così perfezionate come quegli occhi

davanti ai quali Paley si riempiva di ammirazione. Curiosamente, questo gene, la cui alterazione

provoca un fenotipo denominato appunto “eyeless”, ha un omologo nel topo, le cui mutazioni

causano un fenotipo denominato “small eye” 56 . Pertanto, in specie così distanti come le mosche e i

topi, lo stesso gene regola lo sviluppo dell’occhio, e la cosa è tanto più sorprendente in quanto gli

occhi degli insetti e dei mammiferi sono apparentemente profondamente diversi. Ma le sorprese non

finiscono qui: il gene omologo nell’uomo, chiamato anche “aniridia” (dalla malformazione che

provoca) è anch’esso responsabile di una malformazione ereditaria dell’occhio e omologhi del gene

sono stati trovati anche in organismi assai lontani evolutivamente quali le planarie.

Un altro esempio è costituito dalla formazione delle dita. Anche la mano, come l’occhio, sembrava

ai tempi di Darwin un esempio eccezionale di struttura che richiedeva un disegno. I pesci, come

noto, non hanno dita ma pinne. Si ritiene che le pinne siano gli antenati degli arti. Tuttavia non è

ben chiaro cosa se ne facessero i pesci delle dita, né come il primo abbozzo delle dita potesse essere

di vantaggio evolutivamente parlando. Questo problema, noto come l’enigma della transizione tra

pesci e tetrapodi (cioè animali con quattro arti), è un problema non ancora risolto. Si può ipotizzare

che le dita si siano sviluppate sulle pinne di pesci che avessero il loro habitat in fondali bassi e pieni

di vegetazione, e che questi primi abbozzi potessero dare un vantaggio di movimento in acque

basse. Il numero delle dita può essere assai diverso, è noto ormai che vi sono fossili che dimostrano

sei o otto dita: la pentadattilia non è più ritenuta necessariamente primitiva. Anche l’aspetto delle

dita può essere assai diverso: il cavallo corre su un monodito, la mucca cammina su due, l’uccello

vola con ali a tre dita, cammina su due o quattro dita a seconda della specie, mentre l’uomo ne ha

cinque sia alle mani che ai piedi, ma nella mano hanno subito un’evoluzione eccezionale. Quello

che però è chiaro è che nella formazione di arti così diversi quali quelli che si hanno negli uccelli e

nei mammiferi, sono implicati sempre gli stessi geni. Come nel caso della formazione degli occhi,

geni omologhi si ritrovano coinvolti in tutte le specie. Questo è dimostrato in maniera classica

tramite l’analisi dei mutanti, siano essi spontanei o ottenuti artificialmente, siano essi nell’uomo o

negli animali d’esperimento.

Come abbiamo visto, i geni homeobox sono fondamentali per la formazione di numerose strutture

durante lo sviluppo embrionario. I classici geni homeobox sia nell’uomo che nel topo sono raccolti

in quattro gruppi (“cluster”) su quattro differenti cromosomi. Ognuno di questi gruppi, la cui

struttura generale è simile in tutti e quattro, è formato da una successione ordinata di geni, simili tra

loro e simili anche a quelli degli altri gruppi. Tuttavia, in generale ogni gene di un determinato

gruppo è più simile al gene degli altri gruppi che occupa la stessa posizione che non a quelli del suo

gruppo. In altre parole, ognuno di questi geni può essere indicato con una lettera da A a D che

indica il cluster di appartenenza e da un numero che indica la sua posizione nel cluster. Geni con lo

stesso numero, che occupano cioè la stessa posizione hanno spesso una funzione correlata e spesso

ridondante. Questo termine significa che questi geni hanno talune funzioni proprie, che nessun altro

gene può sopperire, e altre che invece sono in comune con altri geni. Pertanto l’inattivazione di un

gene homeobox a volte dà origine ad un difetto leggero, mentre l’inattivazione combinata di due o

più geni causa un deficit che è maggiore di quello che ci si aspetterebbe dalla somma dei due singoli

deficit (questo perché alcune ognuno sopperiva a parte delle funzioni dell’altro).

I geni homeobox con i numeri più bassi sono coinvolti in difetti più craniali, mentre quelli con i

numeri più alti causano difetti nella formazione degli arti. Questo fatto è in correlazione con la loro

espressione che appunto viene regolata in maniera tale che i singoli geni vengono espressi durante

56 R. Quiring et al: Homology of the eyeless gene of Drosophila to the small eye gene in mice and

aniridia in humans. Science 265:785-789, 1994

51


lo sviluppo prima nelle regioni craniali e poi in quelle caudali. Questa corrispondenza tra la regione

in cui si esprimono e la loro localizzazione ordinata nel genoma è assai importante, ma la base di

questo fenomeno non è ancora chiara. Si è comunque visto che alcuni di questi geni, insieme a

numerosi altri di cui si comincia a comprendere il ruolo, sono coinvolti nella formazione degli arti

57 . In particolare quelli che occupano una posizione verso la fine di ogni cluster, che hanno la

numerazione tra 9 e 13, sono espressi negli arti durante il loro sviluppo embrionario. Come nel caso

dell’occhio, le mutazioni di questi geni nel topo e nell’uomo hanno dato dei quadri abbastanza

sovrapponibili, dimostrando come questi geni dirigano la formazione di queste strutture e come

questa loro proprietà sia conservata nell’evoluzione 58 .

L’inattivazione artificiale mirata del gene Hoxd-13 nel topo provoca un difetto nella formazione

delle dita, mentre l’inattivazione combinata dei geni Hoxd-11, -12 e -13 provoca una

malformazione più grave. L’inattivazione del gene Hoxa-13 provoca una malformazione lieve, ma

l’inattivazione sia del Hoxa-13 che del Hoxd-13 provoca l’arresto della formazione dell’intera mano

59 . Tutte queste mutazioni, come pure un’altra mutazione insorta spontaneamente (ipodattilia)

dovuta anch’essa al gene Hoxa-13 60 , sono studiate nel topo, ma anomalie dello sviluppo simili si

ritrovano anche nell’uomo. Nella nostra specie infatti, una mutazione del gene Hoxd-13 provoca

una condizione denominata sinpolidattilia 61 , mentre un’altra, che coinvolge invece il gene Hoxa-

13, provoca la sindrome mano-piede-genitali (hand-foot-genital syndrome) 62 . Pur con le leggere

differenze tra il fenotipo delle mutazioni umane e murine, il quadro globale suggerisce le stesse

conclusioni che sono state tratte dallo studio dei geni coinvolti nella formazione dell’occhio.

Oggi si ritiene che l’azione dei geni, in un delicato network di attivazione e inattivazione genica, sia

in grado di spiegare tutto lo sviluppo dell’embrione dal momento della fusione tra uovo e

spermatozoo fino al suo completamento. Non solo, ma l’embriologia comparata consente di studiare

tutta la meravigliosa varietà di soluzioni che sono state ideate per consentire un adattamento

all’ambiente. Il pitone, ad esempio, non ha arti, ma ha oltre 300 vertebre, tutte assai simili. Una

diversa regolazione dei geni homeobox e di altri geni sono responsabili di questa estrema soluzione

del pitone 63 , così come lo sono per la formazione delle ali degli insetti o di quelle degli uccelli. Vi

sono veramente pochi dubbi che i geni e la loro interazione con l’ambiente non siano in grado di

spiegare ogni cosa, dall’apparizione della testa che ha avuto luogo centinaia di milioni di anni or

sono, fino al pollice sovrapponibile dell’H. sapiens, apparso nell’ultimo secondo della giornata

evolutiva.

57 S. Manouvrier-Hanu et al: Genetics of limb anomalies in humans. Trends Genet 15:409-417,

1999

58 T. Kondo et al: Genetic control of murine limb morphogenesis: relationships with human

syndromes and evolutionary relevance. Mol Cell Endocrinol 140:3-8, 1998

59 J. Zakany & D. Duboule: Synpolydactyly in mice with a targeted deficiency in the HoxD

complex. Nature 384:69-71, 1996; T. Kondo et al: Of fingers, toes and penises. Nature. 390:29,

1997; Y. Herault & D. Duboule: Comment se construisent les doigts. La Recherche 305:40-44,

1998 .

60 D.P. Mortlock et al: The molecular basis of hypodactyly (Hd): a deletion in Hoxa13 leads to

arrest of digital arch fromation. Nature Genet 13:284-289, 1996

61 Y. Muragaki et al: Altered growth and branching patterns in synpolydactyly caused by mutations

in HOXD13. Science 272:548-551, 1996.

62 D.P. Mortlock & J.W. Innis: Mutation of HOXA13 in Hand-foot-genital syndrome. Nature Genet

15:179-180, 1997

63 M.J. Cohn & C. Tickle: Developmental basis of limblessness and axial patterning in snakes.

Nature 399:474-479, 1999

52


Capitolo 3.

L’EVOLUZIONE

L’evoluzione è ormai una teoria che viene utilizzata in tutti i campi della biologia. La sua vastità è

tale che Karl Popper le attribuisce il rango di programma di ricerca metafisico 64 . Questa

affermazione di Popper non è in verità piaciuta ai biologi evoluzionisti, e lo stesso Popper ha

parzialmente modificato la sua posizione. Forse nella sua definizione il filosofo austriaco voleva

solamente riconoscere la vastità della portata della teoria evoluzione o forse, prigioniero del suo

criterio di falsificazione, non vedeva bene come la teoria potesse essere falsificata. Rimane che vi è

una miriade di dati che si inquadrano assai bene nella teoria dell’evoluzione e anche scienziati che

non lavorano propriamente nel settore della zoologia usufruiscono positivamente della concezione

evoluzionistica.

In verità gli organismi mutano incessantemente e, su scala epocale, danno origine alle

trasformazioni più inattese. Anche il motore dell’evoluzione, l’adattamento all’ambiente, la fitness

o la lotta per la sopravvivenza, la selezione del più adatto, improntano i settori più diversi. Il

concetto di selezione ad esempio viene utilizzato per spiegare la risposta immunitaria come lo

sviluppo del sistema nervoso centrale. Essenzialmente, oggi si ritiene che la prima forma vivente si

è formata agli albori dell’esistenza della Terra stessa, in presenza di condizioni che non sono più

presenti sulla superficie della terra (ma potrebbero esserlo su altri pianeti o sotto la crosta terrestre)

e che da questa prima forma si sono evolute tutte le altre, fino all’uomo.

E’ interessante notare come la fiducia nella teoria dell’evoluzione si sia affermata nel corso dei

decenni. In effetti, vista col senno di poi, la storia della credenza nella creazione delle specie una

per una risulta stupefacente. In fondo, su cosa si basa oggi la nostra credenza nell’evoluzione ? Sul

fatto che gli animali sono estremamente simili l’uno con l’altro, che il piano di costruzione sembra

uno solo, che spesso vi sono varie gradazioni di un determinato carattere, che zone geografiche

isolate hanno animali differenti. In realtà anche oggi, abbiamo poche prove dirette di evoluzione: i

casi in cui abbiamo notato la trasformazione di una specie in un’altra sono praticamente assenti.

Abbiamo sì osservato variazioni della frequenza di alcuni caratteri nell’ambito di una certa specie in

seguito a processi selettivi, ma per questioni di tempo, l’osservazione diretta della trasformazione di

una specie in un’altra, o se vogliamo della derivazione di una nuova specie da un’altra ci è ancora

preclusa. Questi dati tuttavia erano già disponibili nelle loro linee essenziali anche duecento anni fa,

prima di Darwin e Wallace e anche prima di Lamarck. In fondo, anche solo guardando l’enorme

variabilità delle razze che vanno sotto la denominazione di cane, qualcosa doveva pur venir in

mente. Certo, oggi noi abbiamo infiniti dettagli sul piano generale di costruzione degli esseri

viventi, abbiamo tutti i dati genetici che Darwin non aveva, eppure il ragionamento che ne è alla

base poteva essere evidente anche 200 anni fa. Buffon e più compiutamente Charles Lyell, avevano

già dimostrato che la Terra era più antica di quanto non affermassero le Sacre Scritture, e lo stesso

Buffon si era posto il problema se il cavallo e l’asino non discendessero da un antenato comune,

concludendo tuttavia negativamente 65 . In effetti, per i sociologi della scienza, per i sostenitori

64 K. Popper. Unended quest. An intellectual autobiography. William Collins Sons & Co, Glasgow,

1976. “I have come to the conclusion that Darwinism is not a testable scientific theory, but a

metaphysical research program.” p 168. Nella nota 242 precisa che ha usato il termine

“metaphysical because nonfalsifiable”. Per i limiti di questo approccio, vedi anche prima parte.

65 Buffon nella sua Histoire Naturelle ha un capitolo famoso in cui solleva il problema della

parentela tra asino e cavallo. Vedi anche: F.Jacob & A. Langaney: Genèse et actualité de la theorie

de l’evolution. La Recherche 296:18-25, 1997

53


dell’importanza dell’influenza delle credenze sociali-filosofico-religiose sulle teorie scientifiche, la

teoria dell’evoluzione è un vero cavallo di battaglia.

In effetti, quando Darwin espose la sua teoria, aggiungendo a ciò che era già noto le sue

osservazioni raccolte nel lungo viaggio intorno al mondo col Beagle, tra cui sono famose quelle

sulla fauna delle isole Galapagos che erano isolate dal continente americano e su cui vivevano

specie simili ma non identiche a quelle del continente, poteva solo far notare la coincidenza ed

invocare il criterio della semplicità. Ma cosa era più semplice, postulare un enorme complesso di

reazioni e passaggi mossi da leggi e regole che al momento erano sconosciute e difficilmente

immaginabili, oppure rifugiarsi in un intervento esterno ? Ai creazionisti dell’epoca, pronti a

suggerire che l’unità generale dei viventi era ovviamente attendibile perché Dio creava tutte le

specie secondo lo stesso schema generale e che la presenza di fossili di specie scomparse era

comunque spiegabile con successive e ripetute ondate creative, era difficile rispondere. L’unica

spiegazione dell’improvvisa diffusione della teoria evolutiva sta nel fatto che il mondo era maturo

per preferire risposte che eliminavano interventi esterni nella vita di ogni giorno. Se gli astri si

muovevano da soli secondo regole semplici e belle, perché non potevano farlo anche i viventi?

L’evoluzione è

Può essere utile comunque, senza entrare nei dettagli, mostrare quello che è il quadro attuale delle

conoscenze sui meccanismi evolutivi, da cui poi trarre alcune conclusioni.

In primo luogo bisogna chiarire che l’evoluzione è, come recita la formula dei tribunali americani,

al di là di ogni ragionevole dubbio. Quello su cui si discute è come essa sia avvenuta nei dettagli.

Pertanto molte conclusioni attuali potranno venir modificate, e anche dati apparentemente chiari

potranno rivelarsi errati. Quello che oggi si ritiene abbastanza valido è 66 : che circa 3 miliardi e

mezzo di anni fa si sono formate le prime cellule. Che da queste cellule sono poi derivate tutte le

altre forme viventi, anche se nessuno potrebbe giurare sul fatto che la cellula si sia formata una

volta sola o più volte. Che alla base della prima cellula e successivamente di tutte le altre c’era un

acido nucleico, fosse esso il DNA o l’RNA. Che il DNA viene in genere ricopiato con esattezza, ma

che possono talora intercorrere cambiamenti piccoli (mutazioni) o grandi (macromutazioni) che

vanno dal cambio di un singolo nucleotide alla duplicazione dell’intero genoma, passando per le

grosse delezioni o inserzioni, e i rimaneggiamenti cromosomici. Che il numero delle specie viventi

è enorme, ma che quello delle specie estinte è ben maggiore.

Se si va nei dettagli, vi è un grande numero di posizioni che sono suscettibili in futuro di smentita.

Prendiamo per esempio il problema dell’orologio molecolare. Essenzialmente, per orologio

molecolare si intende il fatto che ci si aspetta che la quantità di mutazioni riscontrabili è funzione

lineare del tempo che separa le due specie studiate. Questo concetto viene utilizzato per datare il

tempo passato dal momento in cui due specie si sono separate dall’antenato comune. In realtà, non è

affatto detto che queste mutazioni insorgano sempre con la stessa frequenza nelle varie ere

geologiche; inoltre se anche fosse vero che avvengono tutte con la stessa frequenza, il loro valore

assoluto potrebbe non essere quello che noi pensiamo attualmente. I sequenziamenti massivi di

66 Vedi ad esempio: E. Szathmary & J. Maynard Smith. The major transitions in evolution.

W.H.Freeman, Spektrum, 1995. In questo libro gli autori fanno una storia dell’evoluzione

distinguendo otto transizioni maggiori. Le stesse conclusioni sono esposte in maniera più concisa in

E. Szathmary & J Maynard Smith: The major evolutionary transitions. Nature 374:227-232, 1995.

Degli stessi autori anche: The origins of life: from the birth of life to the origin of language. Oxford

University Press, Oxford, 1999. Vedi anche l’intervista a J. Maynard Smith in: La Recherche

296:32-35, 1997.

54


genomi di varie specie potranno modificare i dettagli, senza scuotere minimamente la nostra fiducia

nell’evoluzione. Un problema analogo si verifica quando si cerca di datare la separazione delle

varie popolazioni umane o si tenta di risalire alla nascita dell’Homo sapiens. Le stime attuali

dell’Eva mitocondriale o dell’Adamo genetico si basano su varie assunzioni, compresa quella del

tasso costante di mutazioni, che potrebbero anche essere notevolmente errate. Non per questo la

teoria dell’evoluzione ne verrebbe sminuita.

Come funziona l'evoluzione

Esula dallo scopo di questo libro elencare tutte le teorie e i dati che supportano l'una o l'altra tesi sui

meccanismi che stanno alla base dell’evoluzione biologica. Quello che è importante è trarre delle

conseguenze per quello che può interessare la rilevanza degli studi dell’evoluzione sul destino

dell'uomo (che è il tema principale di questo libro).

Il concetto di selezione naturale o di natura che seleziona fu formulato da Darwin e da Wallace. Si

dice che Darwin l’abbia derivato dalla selezione artificiale che veniva praticata dagli allevatori, che

erano stati in grado di ottenere razze con caratteristiche più interessanti commercialmente. Tuttavia

Darwin non conosceva i lavori di Mendel, che vennero pubblicati solo nel 1865, alcuni anni dopo il

suo primo libro. Sembra poi che la scelta di isolarsi dalla vita sociale dopo la morte della figlia

Annie gli abbia impedito di venirne a conoscenza 67 . Nel secolo successivo, l'unione tra genetica,

paleontologia, zoologia e geologia fece nascere quella che verrà chiamato Neodarwinismo o la

Grande Sintesi.

Essenzialmente, quello che rimane valido ancor oggi può essere così formulato: i nostri geni sono

fatti di una lunga sequenza di nucleotidi, nella quale insorgono mutazioni con una frequenza

abbastanza bassa. La maggior parte di queste mutazioni, che sono casuali, diminuisce la fitness

dell'individuo, ma alcune di esse possono dare origine a un vantaggio per l'organismo che verrà

selezionato positivamente.

In altre parole, la natura gioca alla roulette, ma è lei a dettare le regole. Le regole sono: io gioco e

perdo quasi sempre, tanto quello che perdo non ha per me alcun interesse, è carta straccia, ma

quando vinco immagazzino la vincita e riparto da zero: quello che vinco è moneta sonante che

comunque non metto più in gioco e che pertanto non posso più perdere. Con queste regole, la natura

non può perdere, è solo questione di tempo perché accumuli grandi vincite.

Il concetto di selezione funziona benissimo a livello cellulare. Si tratta di un potente approccio che

viene utilizzato per esperimenti di ogni giorno. Ad esempio, se si vuole trasfettare un plasmide in

una cellula batterica, si inserisce nel plasmide anche un marker selettivo, ad esempio la resistenza

all’ampicillina. Questo perché il plasmide non trasforma se non una piccola percentuale delle

cellule con cui viene a contatto e noi non sapremmo come distinguerle da quelle non trasformate

che sono la maggioranza. Invece, se sottoponiamo la miscela di cellule ad un mezzo selettivo, in

questo caso l’ampicillina, solamente le cellule trasformate potranno sopravvivere.

Questo vale anche per le cellule di mammifero, che usano marker selettivi come la resistenza alla

neomicina. Anche in questo caso il principio è lo stesso: solo le cellule che sono state trasformate

67 Daniel Dennett asserisce che una copia del lavoro di Mendel giaceva non letta sulla scrivania di

Darwin: vedi D. Dennett: Appraising grace: what evolutionary good is God. The Sciences,

January/February 1997, p. 39-45. Citazione a p. 41. Ignoro su quali documenti Dennett basi su

questa affermazione. Sembra invece certo che il lavoro di Mendel fosse disponibile presso la Royal

Society.

55


dal plasmide contenente la resistenza a questo antibiotico potranno sopravvivere in un terreno di

cultura contenente neomicina. Pertanto, a livello delle singole cellule, il concetto di selezione non è

solamente un concetto astratto ma fornisce effettivamente ogni giorno delle verifiche e delle

predizioni utilissime.

Più difficile è invece verificare l’intervento della selezione a livello delle specie. I problemi sono

due: il primo è che a livello di organismi pluricellulari, la formazione di una specie richiede

comunque un tempo assai lungo, e visto che la teoria dell’evoluzione ha poco più di cent’anni, non

è pensabile dirigere o anche solo constatare la formazione di nuove specie. Ed è ancora più difficile

fare predizioni per il futuro, cioè dire faccio un esperimento in cui otterrò questo e questo, come

dovrebbe fare ogni teoria che si rispetti. Il secondo problema riguarda il fatto che l’apparire di un

fenotipo nuovo, non è sempre la conferma che un cambio genetico sia avvenuto. Ad esempio, se

trasferisco in Nepal degli emiliani che hanno sempre vissuto in pianura, noterò che i loro figli

avranno livelli elevati di ematocrito, ma non sono per nulla certo che questo fenotipo sia su base

genetica. Così come se noto che tutti i polinesiani sono abilissimi nel nuoto, in maniera

statisticamente significativa quando confrontati con gli sherpa, e che è così da generazioni, non

concludo che la differenza sia su base genetica. Un carattere può venir acquisito da ogni nuovo

nato, in risposta al fatto che essi rispondono alla stessa pressione selettiva, senza che

necessariamente debba avere una concomitante modificazione genetica. Pertanto, quando notiamo

che in seguito ad una pressione selettiva avviene una modificazione fenotipica non possiamo esser

certi che questa sia dovuta ad un cambio genetico 68 .

68 Queste ricerche richiedono un tempo notevole, e molti scienziati non ci si imbarcano per il

semplice motivo che o sanno che non ne vedrebbero comunque la fine o pensano che non avranno

fondi sufficienti per seguire la ricerca fino in fondo o perché i sistemi di avanzamento di carriera

richiedono pubblicazioni frequenti. Tuttavia le cose non rimarranno sempre così. Vi sono pertanto

esempi in cui si sono avviate ricerche a lungo termine. Richard Lenski ad esempio lavora con

batteri originariamente identici dal punto di vista genetico e li analizza dopo numerose generazioni

trascorse in diversi tipi di terreno di cultura. In questo modo, dal momento che i batteri erano

derivati tutti da un solo battere (sono cioè clonali), le variazioni che derivano sono tutte acquisite

attraverso l’evoluzione. Vedi T. Appenzeller: Test tube evolution catches time in a bottle. Science

284:2108-2110, 1999.

Nei testi scolastici è riportato il caso delle farfalle di Londra (peppered moth Biston betularia), che

erano diventate scure perché così meglio si confondevano nello smog di Londra (i primi esemplati

scuri vennero notate fin dal diciannovesimo secolo), e che dopo la metà del Novecento

cominciarono a tornare chiare perché gli inglesi avevano migliorato il loro inquinamento. Sempre a

Londra vi sarebbero ormai differenze genetiche nette tra le zanzare che hanno colonizzato la

metropolitana cent’anni or sono e le loro cugine in superficie (Vedi K Byrne & R.A. Nichols: Culex

pipiens in London Underground tunnels: differentiation between surface and subterranean

populations. Heredity 82:7-15, 1999). Nel campo degli organismi multicellulari, le cose sono molto

difficili dal punto di vista organizzativo. Uno dei casi più interessanti è stato riportato nel 1997, a

vent’anni dall’inizio dell’esperimento. Lucertole di un’isola delle Bahamas sono state traslocate in

piccole isole in cui prima erano assenti e hanno mostrato cambi chiaramente adattativi. Ad esempio,

le gambe delle discendenti sono più corte di quelle delle lucertole originarie, e questo è dovuto alla

mancanza di alberi nelle nuove isole: gambe corte infatti danno maggior agilità ma minor velocità.

Non è chiaro tuttavia se questi cambiamenti siano su base ereditaria o appunto siano acquisiti da

ogni nuovo organismo che deve affrontare lo stesso problema. Vedi: J.B. Losos et al: Adaptive

differentaiationfollowing experimental island colonization in Anolis lizards.Nature 387: 70-73,

1997; T.J. Case: Natural selection out on a limb. Nature 387:15-16, 1997; V Morell: Catching

lizards in the act of adapting. Science 276:682-683, 1997.

56


La teoria classica di mutazioni casuali su cui poi agisce la selezione è stata ricavata oltre

cinquant’anni fa sulla base di vari esperimenti, tra cui quelli di Max Delbruck e Salvatore Luria.

Secondo quest’ipotesi, se si fa crescere per varie generazioni la progenie di un batterio che

successivamente viene esposta ad un virus, si formeranno colonie di batteri resistenti in maniera

uniforme in tutte le piastre se la mutazione viene stimolata in seguito all’esposizione al virus (cioè

se il meccanismo selettivo ha una certa responsabilità nella formazione della mutazione: mutazione

diretta o immunità su base ereditaria acquisita), mentre saranno presenti solo in alcune piastre se la

mutazione è avvenuta in precedenza all’esposizione (quelle che avevano avuto la mutazione in una

qualsiasi delle generazioni, prima che i batteri venissero esposti al virus, daranno origine a molte

colonie sulla stessa piastra). Quello che Delbruck e Luria videro fu che le colonie resistenti non

erano distribuite in maniera uniforme ma tendevano ad essere presenti solo in alcune piastre, il che

supportava il secondo meccanismo 69 .

Vi sono altre caratteristiche su cui si discute: queste mutazioni sono “casuali” e si potrebbe supporre

che provochino mutazioni modeste. La natura fa puntate di piccole dimensioni e quindi la sua

vincita è di piccola entità, e così l'aumento della ricchezza è lento e graduale. Si parla pertanto di

gradualismo adattativo. Vi sono però dei problemi, uno di natura teorica e una di natura

sperimentale, che ci suggeriscono che in certe circostanze la natura può anche sbancare il Casinò. Il

primo problema è che non si capisce bene come in molte situazioni un piccolo vantaggio possa

essere selezionato. Una piccola protuberanza, che potrebbe poi evolversi in un arto ad esempio, non

dovrebbe dare nessun vantaggio selettivo e pertanto non si capisce come potrebbe essere

selezionata. Il secondo deriva invece dallo studio dei fossili. Si assiste, in certe occasioni, ad un

improvviso sviluppo di nuove specie con caratteristiche completamente nuove, tali da far supporre

che esse sono sorte in maniera improvvisa, assai rapida e forse addirittura senza forme intermedie.

Chi ha notato questo fenomeno tende così a rigettare il gradualismo, e dire che l'evoluzione è

discontinua, ci sono momenti in cui agisce pigramente e momenti in cui si dà da fare assai. Questa

teoria, detta degli equilibri punteggiati (“punctuated equilibrium”), sostiene che, per l’appunto,

analizzando l’insieme dei fossili disponibili, spesso non riscontriamo un accumulo graduale di

variazioni morfologiche, bensì una vera e propria esplosione di nuove forme in certi periodi e di

relativa stasi in altri 70 . L’esplosione Cambriana è spesso citata come esempio: come risulta dalla

documentazione fossile disponibile, circa 550 milioni di anni fa, nel periodo denominato

Cambriano, apparvero quasi simultaneamente tutti i piani fondamentali di organizzazione degli

animali attuali. Questo sembrerebbe contraddire un accumulo graduale di variazioni. Responsabili

della comparsa di una tale elevata diversità potrebbero anche essere fattori climatici o fisici

straordinari peraltro postulabili ma non facilmente dimostrabili. Alternativamente, vi potrebbe

69 Il classico lavoro di Luria e Delbruck fu pubblicato nel 1943 (Genetics 28:491-511, 1943). Di

recente, Cairns e collaboratori (J. Cairns et al: The origin of mutant. Nature 335:142-145, 1988) e

altri ricercatori hanno sollevato la possibilità che in certi casi certe mutazioni nei batteri e nei lieviti

possono insorgere a frequenze molto più elevate di quelle che dovrebbe essere quelle casuali,

quando i fenotipi mutanti sono vantaggiosi. Questo, secondo alcuni, implicherebbe la possibilità che

eventi ambientali possano “dirigere” direttamente la formazione di nuovi fenotipi agendo sul

genotipo: si sarebbe di fronte ad un ritorno del lamarckismo. Il vero significato degli esperimenti di

questi scienziati è controverso (vedi ad esempio: R.E. Lenski & J. Miller: The directed mutation

controversy and neo-darwinism. Science 269:188-194, 1993). La recente scoperta di DNA

polimerasi “error prone” (che cioè possono commettere degli errori con una certa frequenza

aumentando quindi la frequenza dell’insorgenza delle mutazioni) che verrebbero attivate in seguito

a stress potrebbe almeno in parte spiegare tale fenomeno.

70 N. Eldredge & S.J. Gould: in Models in Paleobiology (editor T.J.M. Schopf). Freeman, Cooper,

San Francisco, 1972; p. 82-115.

57


essere stato un lento accumulo di variazioni in periodo precambriano, di cui però per ragioni che ci

sfuggono, non sono rimaste prove fossili.

A distanza di quasi trent’anni dalla sua formulazione, questa ipotesi ha acquistato un certo peso 71 ,

non solo su base paleontologica o evoluzionistica in senso proprio, ma anche sulla base dei risultati

della genetica dello sviluppo. Gli studi sulle mutazioni omeotiche farebbero in effetti pensare che

semplici mutazioni possono gravemente modificare il piano strutturale di un organismo e quindi far

fare di colpo un grande balzo in avanti dal punto di vista morfologico. Questa possibilità era stata

avanzata già oltre 60 anni fa, specialmente dal biologo Richard Goldschmidt, che aveva suggerito

che mutazioni che colpivano l’organismo in una precoce fase dello sviluppo embrionario, potevano

avere delle notevoli conseguenze morfologiche e strutturali. Egli aveva parlato di “mostri

promettenti”, cioè di organismi molto diversi da quelli della loro specie, la maggior parte dei quali

destinati all’oblio, ma con il potenziale in rari casi di trasmettere un notevole grado di

modificazione strutturale. L'analisi dei genomi che vengono accumulati ormai con un ritmo elevato

e i risultati nello studio dello sviluppo embrionario (vedi) hanno fornito alcune ipotesi plausibili su

come ciò possa avvenire. Inoltre, assai recentemente è stato evidenziato un fenomeno

completamente inatteso: una mutazione in un gene che codifica per una proteina denominata “heat

shock protein 90” sembra in grado di provocare uno spettro di difetti nello sviluppo della

Drosophila, i cui membri affetti peraltro risultano fertili 72 . Sebbene la base di questo fenomeno non

sia compresa, esso confermerebbe che mutazioni che provocano grandi fenotipi, che possono essere

poi tramandati geneticamente, siano effettivamente possibili.

Un altro dibattito concerne l’oggetto della selezione. Qual è il bersaglio della selezione: il singolo

gene, il genoma nel suo insieme, i gameti, l’organismo individuale, le famiglie, i gruppi, la specie

nel suo insieme ? 73 . Un'altra variazione sul tema riguarda il peso relativo di caso e selezione.

Variazioni vantaggiose possono essere selezionate, ma le variazioni neutre non dovrebbero esserlo.

Tuttavia, lo studio dei genomi ha mostrato come in realtà ci siano un sacco di mutazioni che non

sembrano associate ad alcun vantaggio (polimorfismi del DNA). La deriva genetica può però

modificare la frequenza di queste mutazioni: la deriva genetica è un nome altisonante per dire il

caso. Questa osservazione è stata suggerita da Mooto Kimura 74 e altri. La sua teoria neutralista

sottolinea come il caso possa produrre una variazione di frequenze nella popolazione in assenza di

selezione naturale.

Il quadro finale che si ha dei meccanismi evolutivi è il seguente: l’evoluzione è ovviamente una

certezza, ma i suoi meccanismi non lo sono. Tutte le ipotesi che sono state fatte a questo proposito

non sono mutualmente esclusive, ma, probabilmente, i meccanismi che essi invocano sono coesistiti

nel tempo, contribuendo in maniera più o meno rilevante e a seconda delle varie epoche, alla

formazione della diversità. Non esiste presumibilmente un modo solo né vi sono delle regole rigide

secondo cui gli organismi si sono evoluti. Anche la necessità dell’isolamento per la formazione di

una specie potrebbe non essere un presupposto indispensabile, dal momento che vi sono modelli

che consentono la formazione di una specie da una popolazione omogenea anche senza

71 S.J. Gould & N. Eldredge: Punctuated equilibrium comes of age. Nature 366:223-227, 1993

72 S.L. Rutherford & Lindquist S. Hsp90 as a capacitor for morphological evolution. Nature

396:336-342, 1998

73 E. Mayr: The objects of selection. Proc Natl Acad Sci USA 94:2091-2094, 1997

74 M. Kimura. The neutral theory of molecular evolution. Cambridge University Press, Cambridge,

1983. “Contrariamente alla teoria sintetica tradizionale, l’ipotesi neutralista afferma che la

grande maggioranza delle sostituzioni dei mutanti si effettua non per selezione darwiniana positiva

ma per fissazione casuale di mutanti neutri o quasi neutri dal punto di vista selettivo”. Citato in J.

Arnould: La conspiration du hasard et des contraintes. La Recherche 296:100-104, 1997.

58


isolamento 75 . Sebbene i meccanismi non siano chiari, abbiamo tuttavia un bagaglio enorme di dati

che si inquadrano bene nella teoria dell’evoluzione, sia di natura paleontologica che, più

recentemente, di natura genetica.

La genetica dell’evoluzione

Lo studio della genetica ha fornito un nuovo approccio allo studio dell’evoluzione e ha chiarito

meglio la base su cui il tempo ha lavorato per produrre tutta la varietà di specie che conosciamo. Il

tempo è il fattore basilare di tutto, ma bisogna tener conto anche dello spazio. Il principio generale è

che un cambio “vantaggioso” può venir conservato, ma che la sua occorrenza è assai rara. Pertanto

non stupisce che il primo vivente sia comparso sulla terra circa tre miliardi di anni fa. Si suppone

che la vita sia stata preceduta da una fase prebiotica, in cui molecole organiche abbiano cominciato

a formarsi in situazioni ambientali che attualmente non sono più presenti sulla superficie della terra.

Dopo la formazione dei primi viventi monocellulari in grado di immagazzinare le istruzioni

necessarie in un acido nucleico, l’impianto generale non è più stato modificato: tutte le forme

viventi hanno come base un acido nucleico. Tutti i cambiamenti successivi sono avvenuti mediante

modificazione delle istruzioni in esse contenute. Alcune di queste modifiche del programma

consentivano una maggior adattabilità all’ambiente dell’organismo che ne era portatore.

Negli ultimi dieci anni si è avuto un aumento tremendo nelle sequenze di DNA di numerosi

organismi. Il genoma di una ventina di microrganismi, incluso il lievito (che è il primo tra gli

eucarioti, cioè la prima cellula con nucleo) è stata completamente sequenziato, quello del primo

organismo multicellulare, il C. elegans, un nematode, è stato completato, e così pure quello della

Drosophila che è uno degli organismi preferiti dai genetisti. Il genoma dell’uomo sta per essere

terminato anch’esso. Il confronto di tutte queste sequenze ottenute da organismi così lontani nella

scala filogenetica ha mostrato chiaramente come l’evoluzione ha agito tramite conservazione e

modifiche. L’omologo di un gene umano è spesso rintracciabile nel lievito, nel C. elegans e nella

Drosophila, quasi sempre nel topo e praticamente sempre nelle scimmie antropomorfe. Vi è una

strettissima relazione tra la lontananza di due specie e le similarità nei loro genomi. A livello di

mammiferi, è difficile trovare un gene il cui corrispettivo (il gene omologo o come si dice più

propriamente il suo ortologo) non sia presente in tutte le specie, anche se il livello di omologia è in

genere in buona relazione con il tempo trascorso dalla separazione intercorsa tra le due specie, come

determinato mediante indagini indipendenti, quali quelle di natura geologica, morfologica o altre. In

pratica, più le specie sono simili, più lo sono i loro geni.

La precisione dell’analisi è tale che oggi si possono sequenziare geni di diverse specie e stabilire un

albero genealogico che prescinde da ogni ulteriore dato: generalmente si ottengono risultati che

sono compatibili con le conoscenze ottenute con altre tecniche o approcci, ma talora si hanno delle

sorprese. Anche se è presumibile che l’analisi globale dei dati, genetici, paleontologici e geologici

possa dare una visione migliore di quella ottenibile con una singola tecnica, tuttavia sembra che la

precisione dei dati ottenuti attraverso le sequenze nucleotidiche possa essere quella di riferimento

nella maggior parte dei casi.

Questa conservazione delle istruzioni non può far passare in secondo piano i cambiamenti che sono

avvenuti. Veramente l’immagine di Jacob dell’evoluzione come un bricoleur è abbastanza

rappresentativa. Partendo da un’istruzione che aveva mostrato un certo interesse sul mercato della

natura, il tempo ha consentito un enorme numero di variazioni sul tema, di cui possiamo elencarne

75 A.S. Kondrashov & F.A. Kondrashov: Interactions among quantitative traits in the course of

sympatric speciation. Nature 400:351-354, 1999; U. Dieckmann & M. Doebeli: On the origin of

species by sympatric speciation. Nature 400:354-357, 1999

59


alcune: cambi di singoli nucleotidi, piccole inserzioni o delezioni di nucleotidi, duplicazioni di

pezzi del singolo gene, duplicazioni dell’intero gene con successive diversificazioni delle due

istruzioni, duplicazioni di interi genomi, cambi nel pattern di espressione del gene (cioè nei modi e

nei tempi in cui un gene produce una proteina), mescolamento di pezzi di geni tra loro per dare

origine a nuovi geni con proprietà diverse dai geni che hanno contribuito a formarlo, ecc. Tutto

questo si traduce essenzialmente nella produzione di nuovi set di istruzioni, che ampliano

notevolmente le loro possibilità, ma che non perdono tutte quelle proprietà che avevano raggiunto

nei milioni di anni precedenti.

Può essere interessante riprendere ancora l’esempio dell’occhio che abbiamo trattato nel capitolo

precedente a proposito dello sviluppo embrionale. L’importanza di questo genere di studi sia in

evoluzione che nello sviluppo è stata recentemente riconosciuta tanto che è stato coniato il termine

“evo-devo” 76 . Darwin conosceva perfettamente le argomentazioni di Paley, anche se, per un

naturalista come lui, non ci sarebbe stato bisogno di leggerlo per venir catturati dalla complessità di

questo organo. In effetti, Darwin nel suo libro “L’origine delle specie” dedica un intero capitolo

all’occhio, ammettendo che sembrerebbe a prima vista impossibile che un organo del genere si sia

formato a caso. Ora, l’occhio assume forme molto diverse a seconda della specie che viene

esaminata. In particolare, l’occhio dei mammiferi, uomo incluso, è molto diverso da quello della

Drosophila, tanto che sino a poco fa, l’opinione preponderante degli studiosi era che essi si fossero

evoluti indipendentemente. Tuttavia nel 1994, come abbiamo visto, il gruppo di Gehring ha isolato

il gene che presiede alla formazione dell’occhio della Drosophila e ha mostrato che è simile ad un

gene che svolge una funzione analoga nel topo e nell’uomo. Oltre a dimostrare che intere strutture

sono sotto il controllo di un singolo gene, questa scoperta suggerisce che gli occhi delle varie specie

non si sono evoluti indipendentemente 77 . Al contrario fa proprio pensare che siamo davanti ad un

chiaro esempio di bricolage, in cui la natura, assai parsimoniosa, ha pensato bene di utilizzare in

maniera diversa una stessa molecola proteica. Pertanto l’ipotesi che da un occhio assai primitivo, in

cui il gene eyeless/small eye/Pax6 era già attivo, si siano evoluti tutti i vari tipi di occhi, viene oggi

preferita, e quest’ipotesi è ulteriormente rafforzata dal fatto che tutti i metazoi utilizzano lo stesso

pigmento visuale, la rodopsina. D’altronde lo stesso Darwin ammetteva che la comparsa di un

occhio primitivo dovesse essere un evento assai raro e quindi non era facile pensare che questa

struttura fosse insorta numerose volte in maniera indipendente. E’ assai probabile che studi ulteriori

riveleranno numerosi altri geni simili che sono attivi nella formazione dell’occhio in entrambe le

specie.

Il quadro che ne deriva anche in questo caso è di un processo che agisce da solo, senza il bisogno di

intelligenze che intervengano per correggere l’andamento degli eventi. Per fare accettare questa

idea, è tuttavia necessario qualche discussione più approfondita e mostrare come essa debba essere

mantenuta, anche se non tutto è descritto in maniera soddisfacente.

La formazione del primo vivente, ad esempio, ci sfugge. Si potrebbe pensare che tale ipotesi possa

essere testata calcolando la probabilità della formazione di molecole organiche da molecole

inorganiche o della trasformazione di una specie da un’altra. Ma ora come ora, le varie ipotesi,

compresa quella che vede l’RNA come primo attore (“RNA world”), non sono granché.

Un’obiezione rilevante riguarda il fatto che, data la stima attuale dell’età della terra, non vi è stato

tempo sufficiente perché l’evoluzione sia avvenuta. Nulla di metafisico in questa obiezione, se

veramente ci fosse una discrepanza eccessiva tra tempo e probabilità, si potrebbe pensare che vi

sono leggi a noi ancora ignote da scoprire o addirittura, come hanno fatto L. E. Orgel, F. H. Crick e

76 Da “evolution” e “development”; quest’ultimo significa appunto sviluppo

77 W. Gehring & K. Ikeo: Pax 6. Mastering eye morphogenesis and eye evolution. Trends Genet

15:371-377, 1999

60


altri, postulare che i primi viventi sono venuti dallo spazio (panspermia) 78 . Ma non sono certo che

chi ipotizza qualche tendenza all’autorganizzazione della materia, che gli scienziati oggi negano

con forza, debba essere accusato di irrazionalità. Un ottimo professore d’italiano faceva notare

come postulare l’evoluzione a caso, equivalesse a sostenere di poter ottenere la Divina Commedia

buttando per aria le lettere dell’alfabeto.

Noi conosciamo con una certa approssimazione la frequenza di mutazioni negli organismi attuali,

che sono dotati della capacità di riparare lesioni al DNA. Il problema è che la frequenza delle

mutazioni è solo uno dei fattori che provocano la formazione di una specie. Tutti gli altri dati ci

sono ignoti, la forza della selezione, le modificazioni su cui agisce più o meno, l’isolamento cui

sono andate incontro le specie, le condizioni di partenza, e così via. Anche a livello di molecole

prebiotiche, di come abbiano potuto formarsi e associarsi, non sappiamo nulla o comunque

dobbiamo ricorrere ad assunzioni che hanno una base modesta. Pertanto il problema non è

affrontabile oggi come oggi. A chi pensa comunque che siano troppo pochi gli anni trascorsi, si

deve ricordare che in realtà la probabilità non va riferita solamente alla Terra. Potrebbe essere che

in effetti la comparsa della vita sia una cosa estremamente rara e che la Terra sia l’unico pianeta su

cui essa ha potuto verificarsi e quindi bisogna tener conto che il tempo ha potuto agire non solo sul

nostro pianeta ma su un’infinità di mondi e che se oggi siamo qui a parlarne sulla Terra è per una

forma debole del principio antropico.

L’evoluzione umana

E’ probabile che il motivo principale per cui Darwin esitò a pubblicare le sue teorie sull’evoluzione,

fino a quando non si sentì costretto a farlo dalla famosa lettera di Wallace, fu per gli aspetti che

aveva la sua teoria sull’evoluzione dell’uomo. Come noto, non toccò il problema dell’evoluzione

nel suo libro del 1859, ma lo affrontò solo 12 anni dopo nel suo “The descent of man” 79 . Se le

preoccupazioni dei salotti possono essere ben riassunte nella famosa espressione “Speriamo non sia

vero, ma se lo fosse, che almeno non lo si sappia in giro”, le obiezioni di profondo significato sono

già tutte evidenti nel famoso dibattito tra Thomas Huxley e il vescovo Samuel Wilbeforce.

Che l’uomo non faccia eccezione alla regole generale dell’evoluzione da altre forme è oggi

ampiamente accettato da tutti, anche dalla Chiesa Cattolica che nel nostro mondo occidentale ne è

stata la più fiera avversaria. Recentemente infatti, Papa Giovanni Paolo II ha riconosciuto che

l’evoluzione è più di una semplice ipotesi. E’ chiaro ovviamente che il problema per i cattolici non

riguarda l’evoluzione delle varie specie, bensì solamente quella dell’Homo sapiens. Va detto chiaro

che quando il Papa accetta l’evoluzione mantiene tuttavia che qualcosa di assolutamente diverso è

responsabile della natura umana e delle caratteristiche che lo distinguono fondamentalmente dagli

altri animali.

78 Francis Crick ha anche pubblicato un libro su questo tema. F. H. Crick. L’origine della vita,

Garzanti, Milano, 1983 (l’edizione inglese è del 1981). Prima di loro comunque la panspermia era

stata già proposta da Svante Arrhenius nel 1906. Anche Fred Hoyle, uno dei sostenitori dello

steady-state theory che postulava la creazione continua di materia, ha pubblicato un libro su questo

argomento: F. Hoyle & N.C. Wickramasinghe. Lifecloud. Harper & Row, New York, 1978

79 A questo proposito, Dobzhasnky afferma: “E’ un peccato che il titolo di uno dei più grandi libri

di Darwin sia ‘La Discesa’ invece che ‘L’Ascesa’. L ‘idea della necessità di Dio ed altri pensieri ed

idee che innalzano l’uomo erano sconosciuti ai nostri lontani progenitori. Nacquero, si

svilupparono e si radicarono nell’uomo durante la sua lunga e faticosa ascesa dalla condizione

animale a quella umana”. T. Dobzansky: le domande supreme della biologia. De Donato, Bari,

1969; p. 11.

61


E’ chiaro che l’Homo sapiens è derivato da un antenato comune con le altre scimmie antropomorfe,

l’orango, il gorilla, lo scimpanzé. L’uomo non deriva da queste scimmie antropomorfe, bensì da un

antenato comune, da cui discendono anche queste tre specie. Quali sono le prove di questa comune

derivazione? Esse sono essenzialmente di due tipi, una paleontologica e l’altra genetica.

1. Paleontologia

Nel 1856, pochi anni prima della pubblicazione del libro di Darwin, vennero rinvenute nella valle

del fiume Neander vicino a Dusseldorf, delle ossa umane che apparvero subito agli esperti alquanto

strane: l’interpretazione che se ne diede all’epoca fu che si trattava di ossa di un cosacco deforme

che era finito a morire in quella zona. Solamente più tardi, alla luce della teoria evoluzionistica e

della loro datazione si comprese che si era di fronte alle ossa di un individuo a noi simile che era

vissuto oltre centomila anni prima di noi e che dal luogo dove furono rinvenute è ora noto come

uomo di Neanderthal.

Oggi si conosce un notevole numero di reperti fossili che si pongono in mezzo tra le scimmie

antropomorfe e l’Homo sapiens. Questi reperti riempiono il gap di circa 5 milioni di anni che si

reputa intercorra tra noi e l’ultimo antenato comune con lo scimpanzé, che si ritiene sia la scimmia

antropomorfa più vicina a noi. Parimenti riempiono anche il gap per così dire morfologico tra noi e

lo scimpanzé. In altre parole, i fossili trovati si collocano in un periodo di tempo di 3-4 milioni di

anni e presentano delle caratteristiche che via via si staccano da quelle tipiche delle scimmie e si

avvicinano ad aspetti più chiaramente umani.

Vi è una precauzione da chiarire innanzitutto. Lo studio dei fossili non è per niente facile e questo

spiega come su numerosi punti non ci sia concordia. In primo luogo, un fossile deve essere datato.

Questo può essere fatto mediante criteri geologici o zoologici: il fossile cioè viene riferito allo strato

di escavazione in cui viene trovato. Lo strato viene poi datato indipendentemente e le ossa

assumono automaticamente l’età dello strato in cui furono trovati. La concomitanza dei reperti

umani o umanoidi con ossa di altre specie di cui è conosciuta la datazione contribuisce anch’essa

alla datazione. Inoltre, un fossile può essere datato con metodi intrinseci, che misurano l’età del

reperto sulla base del decadimento di isotopi radioattivi. In secondo luogo, il reperto fossile è

sempre largamente incompleto, specialmente quando si tratta di crani, che sono di grande

importanza per via dei notevoli cambiamenti di forma, struttura e dimensioni che sono associati

all’evoluzione umana. In terzo luogo, se guardiamo alla nostra specie, ci rendiamo conto che le

variazioni tra gli individui sono enormi: non è pertanto sempre facile, disponendo di un pezzettino

d’osso comprendere se siamo davanti ad una nuova specie o se si è di fronte ad una variazione di

una specie nota. Come si vede ce n’è a iosa per giustificare diatribe a ripetizione.

Pur tenendo conto di queste difficoltà, e cercando di riassumere e semplificare, i fossili trovati

possono essere così riassunti. L’H. habilis visse tra i 2.3 e 1.6 milioni di anni fa. L’H. ergaster visse

tra gli 1.9 e gli 1.5 milioni. L’H. rudolfensis visse tra 2.4 e gli 1.8 milioni. L’H. erectus visse tra 1.9

e 0.2 milioni di anni. L’H. neanderthalensis visse tra 250.000 e 40.000 anni fa, ma potrebbe anche

essere assai più vecchio. Quest’ultimo potrebbe essere preceduto dall’H. heidelbergensis, il cui

reperto principale sarebbe vecchio di circa 650.000 mila anni. Questi fossili si sovrappongono

parzialmente con quelli che del genere Australopithecus, di cui gli esemplari più recenti, assegnati

all’A. boisei, sarebbero di poco superiori al milione di anni, un poco più giovani di quelli assegnati

all’A. robustus, mentre i più antichi, come l’A. anamensis giungerebbe a 4 milioni di anni 80 .

L’Australopitechus afarensis, cui appartiene il famoso reperto denominato Lucy, sarebbe di oltre 3

80 M.G. Leakey et al: New four-million-year-old hominid species from Kanapoi and Allia Bay,

Kenia. Nature 376:565-571, 1995; M.G. Leakey: New specimens and confirmation of an early age

of Australopithecus anamensis. Nature 393:62-66, 1998

62


milioni di anni, mentre tra i due e i tre milioni di anni si collocherebbe l’H. africanus. Ancora più

vecchio sarebbe l’Australopithecus ramidus, che supererebbe i 4 milioni di anni 81 .

Il campo è in realtà in velocissima evoluzione, e in questi ultimi vent’anni è stato raccolto un

numero impressionante di reperti. Per certi aspetti in fondo, quanto più ci sono fondi per scavare

tanto più si raccoglieranno reperti. Nel 1999 ad esempio sono stati pubblicati i risultati dei lavori di

scavo in Etiopia orientale, che hanno portato alla luce reperti attribuiti ad una nuova specie l’A.

garhi che risale a circa 2.3 milioni di anni fa, e che mostra interessanti caratteristiche che lo

rendono, secondo alcuni, ma non altri, un possibile candidato come nostro antenato 82 .

Ovviamente, man mano che ci si sposta in avanti nel tempo, i reperti aumentano e le cose sono più

precise. Sembra ad esempio abbastanza assodato che uomini con la nostra stessa struttura

scheletrica, cioè l’H. sapiens sapiens detto anche Cromagnon, si siano imposti in tutto il mondo tra i

40.000 e i 30.000 anni fa, soppiantando completamente e in maniera assai rapida l’H.

neanderthalensis che prima occupava l’Europa e il Medio Oriente. Ma anche su come siano andate

esattamente le cose non vi è consenso. Fino a poco fa la versione ufficiale era che il Cromagnon,

dotato di un vantaggio selettivo, legato presumibilmente ad una sua maggior intelligenza, forse in

relazione all’acquisizione del linguaggio stesso, aveva soppiantato il Neanderthal senza mischiarsi

ad esso. Manifestazione di questa superiorità del Cromagnon era la comparsa circa 30-40.000 anni

fa di un fiorire delle arti e della tecnologia, come riscontrabile nella grotta di Lescaux.

Recentemente tuttavia alcuni ricercatori sostengono che la realtà può essere descritta anche

diversamente, con un lungo medioevo durato fino a 40.000 anni fa, quando, per motivi ignoti, un

rinascimento si affermò sia tra i Neanderthal che tra i Cromagnon. Questa nuova interpretazione,

che tuttavia non spiegherebbe perché i Neanderthal siano stati soppiantati dai Cromagnon, si basa

sulla esatta datazione di alcuni siti, tra cui quelli della Grotte Chauvet e del sito di Arcy-sur-Cure,

entrambi in Francia. Se questi siti risalgono a meno di 38.000 anni, è presumibile che siano opera di

Cromagnon, ma se fossero più vecchie dei 40.000 anni fatidici, dimostrerebbero che i Neanderthal

avevano compiuto da soli il passo verso la manifestazione simbolica artistica e la fabbricazione di

sofisticati manufatti.

Questo problema può sembrare di lana caprina, ma è invece rilevante. Alla base c’è l’ipotesi che il

Cromagnon fosse portatore di un cambiamento genetico che lo rendeva più intelligente del

Neanderthal e che gli consentì di soppiantarlo completamente. Vi sarebbe pertanto una diversità

biologica, non solo culturale: per questo, perché gli mancava qualcosa (presumibilmente nel

cervello), il Neanderthal sarebbe scomparso. Non avrebbe mai potuto competere con il Cromagnon

perché vi era una differenza biologica che non poteva essere colmata dall’imitazione. Alcuni teorici

si sono spinti più in là, suggerendo che questo qualcosa potrebbe essere il linguaggio simbolico 83 .

Questo avrebbe dato ai Cromagnon un vantaggio tale da eliminare la specie inferiore. Addirittura, i

Neanderthal avrebbero potuto rappresentare una specie diversa, non mischiabile col Cromagnon, e

questo spiegherebbe perché i tratti del Neanderthal siano stati persi completamente 84 .

81 T. White et al: Australopithecus ramidus, a new species of early hominid from Aramis, Ethiopia.

Nature 371:306-312, 1994.

82 J. de Heinzelin et al: Environment and behavior of 2.5-million-year-old Bouri hominids. Science

284:625-629, 1999; B. Asfaw et al: Australopithecus garhi: a new species of early hominid from

Ethiopia. Science 284:629-635, 1999; E. Culotta: A new human ancestor. Science 284:572-573,

1999

83 vedi a questo proposito anche il capitolo sul linguaggio

84 Secondo alcuni, i Neanderthal avrebbero convissuto per un certo tempo con i Cromagnon e

questo farebbe supporre che si siano incrociati tra loro. Se questo fosse confermato, bisognerebbe

capire perché i tratti dei Neanderthal (toro sovraorbitario, robustezza dello scheletro, ecc) non siano

63


D’altro canto, obiettano gli altri non vi è nessuna prova che il vantaggio dei Cromagnon non fosse

semplicemente culturale. Qualche decennio dopo, un nuovo avanzamento culturale si impose,

quello legato all’agricoltura. Nessuno tuttavia pensa adesso che esista un gene dell’agricoltura, o

che chi per primo scoprì il modo di “addomesticare” le piante avesse il cervello geneticamente

diverso da quello del vicino (in teoria sarebbe possibile, ma sembra poco probabile). Questo

potrebbe essersi verificato anche nel caso del linguaggio, ed essere questo semplicemente una

caratteristica culturale, ammesso che sia esso ad essere responsabile della vittoria dei Cromagnon.

Pertanto, la conclusione è che lo studio dei fossili ha dimostrato che negli ultimi cinque milioni di

anni hanno vissuto numerosi ominidi i quali hanno caratteristiche fisiche, deducibili dallo studio del

loro scheletro, intermedi tra l’uomo moderno e le scimmie antropomorfe attualmente esistenti quali

le dimensioni del cranio (e quindi il volume del cervello), la stazione eretta, la struttura della mano

e dell’osso ioide che regge il laringe (quest’ultimo è importante perché la capacità di parlare

sembrerebbe dipendente da una modificazione del laringe di cui si possono trovare le tracce nella

conformazione di quest’osso). Che in un dato periodo più di un ominide abbia convissuto e che

alcuni di questi ominidi potrebbero essere i nostri antenati mentre altri hanno costituito dei rami

secchi. Che è possibile entro certi limiti stabilire la datazione dei reperti e che pertanto alcune forme

sono più antiche di altre, che le forme più evolute compaiono più recentemente, e che studi futuri

potranno definire meglio numerosi punti ancora dubbi. Per moltissimi altri problemi invece non c’è

consenso tra gli esperti, il che può derivare da alcuni preconcetti dei ricercatori, ma essenzialmente

significa che i dati attualmente disponibili sono insufficienti per trarre qualsiasi conclusione. Tra i

problemi irrisolti vi sono:

1. Quali di questi fossili sono sulla linea diretta che ha dato origine all’H. sapiens? In realtà non se

ne sa nulla. Decenni fa, quando c’era una grande scarsità di fossili, ogni fossile che si trovava

veniva automaticamente messo come un anello di congiunzione, perché aveva tratti intermedi tra

quelli delle scimmie e quelli dell’uomo. Oggi, con tutti i fossili trovati, si è ormai certi che in una

data epoca co-esistevano varie specie di ominidi, e che molti di queste probabilmente hanno

rappresentato vicoli ciechi. Oggi alcuni ritengono che l’A. africanus, lo stesso A. garhi e l’H.

erectus/ergaster possano essere tra i nostri antenati diretti, ma la cosa è ben lungi dall’essere certa.

2. Ogni volta che compare un nuovo fossile c’è il problema se sia sufficientemente diverso dagli

altri da meritare una nuova specie o se è sufficientemente simile da essere incluso in una specie già

nota.

3. Non è facile fare una relazione tra anatomia quale può essere derivabile dai fossili e

comportamento umano, anche perché non c’è consensus su cosa sia necessario per essere

classificati come uomini. Il fare strumenti è sovente stato ritenuto una cosa fondamentale, ma se

questo può essere vero per le ultime centinaia di migliaia di anni, non è chiaro cosa succedeva

milioni di anni fa. Ad esempio, sembra accertato che l’A. garhi usasse pietre per disarticolare le

membra degli animali uccisi e per tagliarne la carne: vi sono chiari segni rimasti sulle ossa che

indicano che sono stati inferti colpi precisi, forse addirittura per succhiarne il midollo osseo. E’

più riscontrabili nell’uomo moderno. Essi potrebbero essere stati persi perché svantaggiosi.

Un’alternativa potrebbe essere che gli ibridi Cromagnon/Neanderthal non fossero fertili.

Recentemente è stata segnalata l’esistenza di un fossile che potrebbe essere un ibrido di questo

genere. Vedi C. Duarte et al: The early Upper Paleolithic human skeleton from the Abrigo do Lagar

Velho (Portugal) and modern human emergence in Iberia. Proc Natl Aca Sci 96:7604-7609, 1999.

Naturalmente le conclusioni di questi studiosi sono messe in dubbio da altri. D’altro canto, le

abitudini dei Cromagnon nei periodi storici a noi noti è comunque quello di mischiarsi con le

popolazioni conquistate, almeno dal punto di vista della linea femminile. In tal caso nel nostro DNA

mitocondriale dovrebbe esserci i segni di questo processo, dal momento che questo DNA viene

trasmesso per via esclusivamente materna.

64


questo sufficiente per classificarli umani? In fondo è documentato che anche gli scimpanzé

cacciano e si nutrono di babbuini. Lo stesso discorso vale per l’andatura eretta, che sembra apparsa

abbastanza precocemente. Anche le dimensioni del cranio (di cui vi è comunque un aumento

rispetto a quanto si trova negli scimpanzé), non può essere preso tout court come prova di umanità.

Dal punto di vista tassonomico, la dicitura Homo indica un genere, ma i suoi limiti sono assai

imprecisi: recentemente è stato suggerito ad esempio di rimuovere l’H. habilis e l’H. rudolfensis dal

nostro genus e di inserirlo in quello dell’Australopithecus 85 . Per quanto riguarda il linguaggio,

nessun indicatore del cranio è in grado di predirlo, tanto che si discute se l’H. neanderthalensis, che

è in fondo a noi similissimo, ne fosse dotato, mentre la conformazione del laringe potrebbe indicare

che eravamo pronti per parlare, senza poterlo provare con certezza.

4. Pur guardando all’Africa come la culla dell’umanità, e malgrado gli enormi risultati ottenuti dagli

scavi in Etiopia, Kenia e Tanzania, non è ancora del tutto certo che almeno in un secondo tempo,

cioè nell’ultimo milione di anni, la linea evolutiva diretta non si sia invece spostata in Asia.

2. Genetica

Oltre ai reperti paleontologici, anche per l’evoluzione dell’uomo si hanno dati forniti dalla genetica.

Si ritiene che i genomi dell’Homo sapiens e dello scimpanzé siano simili per circa il 98-99% e

sarebbe certamente interessante sapere a carico di quali geni siano le differenze. Il sequenziamento

ormai prossimo del genoma dell’Homo sapiens, cui farà certamente seguito un sequenziamento

almeno parziale del genoma dello scimpanzé fornirà sicuramente la risposta a questa domanda.

Dal momento che sono ormai disponibili un certo numero di fossili, se fosse possibile ottenere il

DNA degli ominidi che ci hanno preceduto, si potrebbero risolvere gran parte dei quesiti che

abbiamo visto essere rimasti insoluti. Abbiamo visto che il DNA di una specie può essere

paragonato con quelle di altre in modo da stabilire quanto esse siano simili, e che il livello delle loro

somiglianze è proporzionale alla loro distanza evolutiva. Pertanto sarebbe possibile stabilire quali di

questi fossili sono i nostri antenati e quali invece lontani parenti. Purtroppo sembra che ci siano

poche speranze di riuscire a recuperare questi DNA. Alcuni anni or sono vi era stato una grande

eccitazione in seguito a dei lavori scientifici che sostenevano di aver sequenziato pezzi di DNA di

specie vecchie di decine di milioni di anni. Alcuni organismi infatti si sono conservati in ambra, una

sostanza resinosa, così bene da far pensare che anche il loro DNA fosse ancora intatto. Tuttavia

lavori più recenti portano a ritenere che si sia trattato di artefatti, cioè di errori. Sembrerebbe che sia

difficile ottenere DNA più vecchi di un milione di anni, anche nel caso che questi siano stati

congelati nel permafrost dal momento della loro morte. La diatriba non è completamente conclusa

86 : non si tratterebbe di questioni tecniche, ma proprio del fatto che semplicemente non ci sarebbe

più nessun DNA da studiare dopo così tanti anni.

Pertanto per il momento si può pensare di studiare con qualche successo e molte difficoltà il DNA

dell’H. neanderthalensis. E’ quello che è stato fatto recentemente dal gruppo di Svante Paabo, che

avrebbe sequenziato un pezzo di DNA mitocondriale ottenuto dai resti fossili trovati nel 1856 nella

valle di Neander 87 . Le sue conclusioni, su cui non tutti sono d’accordo, tenderebbero a provare che

l’H. neanderthalensis era una specie diversa dalla nostra, perché le differenze trovate rispetto al

DNA dell’uomo moderno sono più di quelli che ci si attenderebbe nel periodo di tempo intercorso.

Altri tuttavia fanno notare che i dati analizzati sono veramente pochi, perché è stato sequenziato

solo un pezzo di circa 300 nucleotidi, e che per giunta non siamo affatto sicuri di conoscere la

quantità di mutazioni attese, perché il DNA mitocondriale potrebbe mutare più velocemente di

85 B. Wood & M. Collard: The human genus. Science 284:65-71, 1999

86 Per un parere opposto vedi ad esempio: G. Poinar: Ancient DNA. Am Scient 87:446-457, 1999

87 M. Krings et al: Neanderthal DNA sequences and the origin of modern humans. Cell 90:19-30,

1997

65


quanto pensiamo noi. Se fosse confermato che il Neanderthal è veramente molto diverso dal

Cromagnon, l’idea che questo potesse essere intellettualmente superiore per questioni biologiche

diventerebbe più probabile, anche se ovviamente non certa.

E’ tuttavia possibile cercare di tornare indietro nel tempo studiando i DNA degli uomini moderni.

L’uomo moderno ha un DNA caratteristico della sua specie, ma ogni uomo ha delle piccole

differenze che vengono chiamati “polimorfismi” e il cui insieme lo rende unico (a parte i gemelli

monovulari che sono proprio identici). Questi polimorfismi, essendo nient’altro che mutazioni del

DNA avvenute nelle varie generazioni, possono essere vantaggiose, svantaggiose o neutre, ma in

questo caso sono semplicemente dei marcatori che ci dicono che abbiamo avuto un antenato

comune. Studiando pertanto tanti individui sparsi per il mondo, è possibile contribuire a conoscere

la preistoria umana e risalire in teoria fino ai nostri primi antenati.

In effetti, vi sono due pezzi di DNA che ci sono derivati esclusivamente tramite la linea femminile e

tramite la linea maschile rispettivamente: il DNA mitocondriale, infatti, viene trasmesso solo

dall’uovo e non dallo spermatozoo, pertanto studiando questo si può risalire al DNA della prima

donna, l’Eva mitocondriale. Al contrario il DNA di parte del cromosoma Y è esclusivo dei maschi

e pertanto ci permette di risalire all’Adamo genetico. Questi studi sono tuttavia minati dal fatto che

si devono ammettere alcune assunzioni che possono essere ragionevoli, ma che sono lungi dal poter

essere considerate certe.

Le conclusioni attuali più accettate sono comunque le seguenti: un’Eva mitocondriale visse

probabilmente in Africa tra i 100.000 e i 200.000 anni fa, e così pure un Adamo genetico 88 . Questo

però non significa automaticamente che l’H. sapiens derivi da una sola coppia, anzi, si ritiene che

all’origine vi sia stata una popolazione tra i 10.000 e i 100.000 individui. Dall’Africa questi uomini

si sparsero in tutto il mondo, ed in particolare in Asia e in Europa, dove soppiantarono l’H. erectus

che viveva in queste zone e più tardi l’H. neanderthalensis, senza mischiarsi con essi. Tuttavia non

si può escludere che un certo mescolamento genetico abbia avuto luogo e che non vi sia pure stato

un ritorno dall’Asia verso l’Africa. Le dinamica delle popolazioni potrebbe essere stata più

complessa di quanto si pensi, con un flusso preminente “Out of Africa”, ma con possibili ritorni

migratori e rimescolamenti genici

89 . Neanche l’ipotesi alternativa, “l’ipotesi dell’origine

multiregionale”, che sostiene che l’H.sapiens ebbe un’origine multicentrica diffusa a tutte le aree

occupate precedentemente dall’H.erectus, può ancora essere esclusa con sicurezza.

Se non vi è molta speranza di ottenere DNA dei fossili antichi, c’è però buona possibilità di studiare

le ultime decine di migliaia di anni. Non solo si potranno probabilmente ottenere DNA da fossili

recenti 90 , ma lo studio delle attuali popolazioni potranno permettere di risalire alla genetica delle

88 F.J. Ayala: The myth of eve: molecular biology and human origins. Science 270:1930-1936,

1995; H.A. Erlich: HLA sequence polymorphism and the origin of humans. Science 274:1552-

1554, 1996; J.A.L. Armour: Minisatellite diversity supports a recent African origin for modern

humans. Nature Genet 13:154-160, 1996; L.L. Cavalli Sforza: The DNA revolution in population

genetics. Trends Genet 14:60-65, 1998

89 Un recente studio suggerisce che la via principale e forse unica seguita dalle popolazioni per

uscire dall’Africa fu dall’Etiopia verso la penisola arabica e l’India. Vedi: L. Quintana-Murci et al:

Genetic evidence of an early exit of Homo sapiens sapiens from Africa through eastern Africa.

Nature Genet 23:437-441, 1999

90 Oltre alle ossa potrebbe essere possibile ottenere DNA da altri resti, ad esempio le mummie.

Vedi: S. Paabo: Molecular cloning of ancient Egyptian mummy DNA. Nature 362:709-715, 1985. Il

caso più noto finora, è quello dell’uomo Tirolese, un corpo vecchio di circa 5000 anni interamente

conservato trovato sulle Alpi del sud Tirolo italiano nel 1991. Il gruppo di Svabo ha analizzato il

66


popolazioni presenti sulla terra qualche migliaio di anni fa. I dati genetici, assieme a quelli

archeologici e di linguaggio, potranno illuminare la nostra preistoria. Cavalli Sforza e i suoi

collaboratori, degli antesignani negli studi di popolazioni basati sul DNA, compiendo analisi nelle

popolazioni mediorientali ed europee hanno dimostrato dei gradienti di frequenza genica che

descriverebbero una migrazione dal Medio Oriente all’Europa che sarebbe andata di pari passo con

la diffusione dell’agricoltura, la quale, come noto, sorse presumibilmente nelle regioni della

mezzaluna fertile e si diffuse solo in un secondo tempo in Europa 91 .

In altre parole, le tecniche di agricoltura si diffusero in Europa solo perché le popolazioni che la

praticavano migrarono in Europa a partire dal Medio Oriente: del resto l’ipotesi sembra ovvia,

perché non si può pensare che i viaggi fossero semplici 5.000 anni prima di Cristo, né che vi fossero

dei corsi di apprendimento per forestieri. Quando Abramo migra, migra la sua stirpe che si porta

addietro quello che ha (tra cui le sementi) e quello che sa. Naturalmente vi è un mischiarsi genetico

con le popolazioni locali e questo appunto spiega il gradiente che si riscontra oggi. Alcune

popolazioni tuttavia erano più difficili da soppiantare o da contattare, e per questo i Baschi e i Sardi

mostrano un assetto genetico che li separa dagli altri europei.

Un altro interessante aspetto riguarda l’uomo dei nostri tempi. Il concetto di razza ha provocato e

provoca forti emozioni. In passato molti hanno pensato che ci fossero differenze genetiche notevoli

tra le varie razze. Non sembra sia così: le differenze tra individui della stessa popolazioni sono più

grandi che tra le varie popolazioni, anche tra quelle su continenti diversi. Inoltre, anche se con

frequenze differenti e con qualche rara eccezione, tutti i polimorfismi sono presenti in tutte le

popolazioni. Questo fa supporre che non vi siano differenze sostanziali tra le razze e che non vi sia

un substrato genetico per chi ritiene alcune razze meno intelligenti o meno capaci di altre 92 .

Progresso e disegno versus caso e necessità

Poco dopo la pubblicazione del libro di Darwin (1859), ebbe luogo il famoso dibattito tra Thomas

Huxley e l'arcivescovo Wilbeforce. Se qualcuno pensasse che la scienza non può esprimere

proposizioni di interesse filosofico, la storia dei dibattiti tra evoluzionisti e creazionisti basterebbe a

confutarlo.

L'implicanza filosofica che deriva dalla teoria sintetica dell’evoluzione affermatasi nella prima metà

del Novecento e successivamente aggiornata da neutralisti e seguaci degli equilibri punteggiati, è

che apparentemente tutta l'evoluzione si basa su una molecola chimica con proprietà curiose e su

meccanismi casuali o comunque materiali che escludono forze vitali o altre entità non materiali.

Questa implicazione era già chiara al vescovo Wilbeforce, che pure ignorava l’esistenza stessa del

DNA. Eppure non è esatto dire che Darwin o altri suoi seguaci considerassero il darwinismo come

sinonimo di ateismo. Molti autori hanno sottolineato che Darwin aveva avuto un’educazione

protestante ortodossa, che aveva considerato la possibilità di diventare sacerdote e che è difficile

trovare nei suoi scritti alcunché di antireligioso. Michael Ruse ha recentemente rivisto i rapporti tra

suo DNA, concludendo che si trattava di un DNA di tipo europeo senza particolari caratteristiche.

Vedi: O. Handt et al: Molecular genetics analyses of the Tyrolean Ice Man. Science 264:1775-1778,

1994

91 L. Cavalli Sforza e F. Cavalli Sforza: Chi siamo? La storia della diversità umana. Mondadori,

Milano, 1995

92 Vedi articoli vari (di J. Marks; A. Piazza; A.H. Goodman; R. Caspari; L. Excoffier) in “Aux

origins de la diversité humaine: la science et la notion de race. La Recherche 302:56-89, 1997

67


Darwin e la religione dell’epoca 93 . Ruse mostra come Darwin sia passato da una fase teista ad una

fase deista sulla base dei suoi studi sulle scienze naturali, per finire in una fase agnostica, che non

ebbe origine dal suo lavoro di scienziato bensì fu determinata dalla morte della figlia cui era

attaccatissimo: la sua scomparsa gli parve incompatibile con la credenza in un Dio buono. Tuttavia,

Ruse sostiene che Darwin era profondamente convinto che un progresso effettivamente avesse

avuto luogo nel corso dell’evoluzione e che un disegno esistesse. Non solo, ma il fatto che la sua

esecuzione non richiedesse interventi continui nell’Universo indicava una maggior elevatezza del

Creatore nei confronti di un Dio che avesse bisogno di intervenire di continuo nel mondo reale per

ritoccarlo: allo stesso modo, i macchinari industriali che cominciavano a diffondersi nell’Inghilterra

della sua epoca rivelavano una maggior padronanza da parte dell’uomo rispetto ai lavori artigianali.

Una statuetta d’avorio ci può far pensare che chi l’ha fatta possedesse già un certo pensiero

simbolico, ma la Cappella Sistina ci lascia maggiormente stupefatti: più il disegno è complesso e

più deve essere sofisticato il suo autore. Dio non interviene nel mondo perché non ha bisogno di

farlo, avendo già preveduto e preparato tutto dall’inizio. In fondo, al termine della storia evolutiva

compare l'uomo, che è il signore della natura, un essere strabiliante, in grado di dipingere la

Gioconda, scrivere la Divina Commedia e l'Amleto e chi più ne ha più ne metta.

Ruse pertanto tende a concludere che è possibile vedere l’evoluzione in un’ottica di disegno e

progresso, e mostra come di fatto questa posizione sia stata adottata da notissimi evoluzionisti come

Ronald A. Fisher e Theodosius Dobzhansky. In campo cattolico, il gesuita Pierre Teilhard de

Chardin, paleontologo, è il più noto tra coloro che videro un progresso e un senso nell'evoluzione,

un disegno e un fine, un punto Omega cui l'evoluzione tendeva 94 . Lungi dall'essere un processo

casuale, l'evoluzione rilevava un disegno divino, che aveva nella comparsa dell'uomo il suo

momento culminante, in buon accordo con i suoi studi di paleontologia umana di cui era un esperto.

Per Teilhard, tutto all'interno dell'evoluzione procedeva in maniera autonoma, ma l'evoluzione nel

suo insieme era un processo direzionale e anche diretto, nel suo caso dalla mente divina. E' tuttavia

possibile pensare anche ad una versione panteista del problema, in cui la materia tende per sua

natura verso la vita. E questa, che sicuramente non era la posizione di Teilhard, gli valse le critiche

dei cattolici: come noto, il suo libro poté uscire solamente postumo, pur essendo stato steso una

quindicina di anni prima. Non minori critiche gli vennero dall’establishment scientifico, per il quale

il suo libro, che egli voleva fosse letto “unicamente ed esclusivamente come una memoria

scientifica”, era nella migliore dell’ipotesi l’opera di un mistico o un poeta e nella peggiore un

completo nonsenso. Teilhard ebbe tuttavia anche dei sostenitori, tra cui sicuramente vanno ricordati

Julian Huxley e Theodosius Dobzhansky.

In realtà, la maggior parte degli studiosi tende a rifiutare questa visione, anche se vi sono ancora

alcuni che vedono comunque nell'evoluzione un certo disegno globale. Quali sono le ragioni alla

base di questo rifiuto ? Sono essenzialmente di due tipi: il primo si basa sul criterio di semplicità: se

tutto all'interno della storia della vita si può spiegare con cause materiali, perché postulare qualcosa

93 M. Ruse: Darwinism and atheism: different sides of the same coin. Endeavour 22:17-20, 1998.

Vedi anche il suo libro: Can a darwinian be a christian? The relationship between science and

religion. University of Cambridge Press, Cambridge, 1999

94 P. Teilhard de Chardin. Le phénomène humain. Seuil, Paris, 1955. Sebbene sia più noto per i suoi

scritti filosofici, Teilhard produsse oltre 250 report scientifici nell’arco di 40 anni di attività. Tra i

suoi contributi scientifici particolarmente rilevanti possono essere ricordati quelli sulla struttura

geologica della Somalia, dell’Etiopia e della Cina, sui fossili di mammiferi europei ed asiatici, sui

fossili umani di Giava e Cina (sinantropo) e sull’australopitecine sudafricane. Fu anche coinvolto,

senza alcuna colpa, nella vicenda di Piltdown, una faccenda non ancora completamente chiarita, in

cui delle ossa rinvenute in tale località vennero erroneamente attribuite ad un anello di congiunzione

tra l’uomo e la scimmia.

68


di diverso per spiegare l'evoluzione nel suo complesso. Secondo il rasoio di Ockham, “Entia non

sunt multiplicanda praeter necessitatem”, con tutti i vantaggi e i limiti di questo principio che

comunque in scienza è vastamente applicato, anche se non è un criterio assoluto (potremmo anche

esserne ingannati). Il secondo è di tipo argomentativo: chi dice che vi è un progresso

nell'evoluzione? al contrario, è ormai evidente che vi sono rami secchi che non hanno dato origine a

niente, le specie scomparse sono di gran lunga più di quelle presenti (questo fatto dovrebbe far

meditare i sostenitori troppo strenui della biodiversità), la natura ha prodotto un'enorme quantità di

dinosauri per poi lasciarli scomparire in breve tempo. E chi dice che l'uomo è il meglio? lo diciamo

noi che siamo uomini, ma in base a che cosa?

Stephen Jay Gould ad esempio sostiene che quelli che meglio hanno risposto al comandamento di

andare e dominare il mondo sono i batteri che sono molto più adattati dell'uomo al loro ambiente.

Vi sono più batteri, si fa notare spesso, nell'intestino di un uomo di quanti uomini siano mai esistiti

sulla faccia della terra.

Gould ha una buona spiegazione per questo progresso apparente, e lo illustra in suo libro prendendo

a prestito dati e concetti del baseball 95 . Il baseball è un bellissimo gioco, che però lascia

assolutamente indifferenti gli Europei. Più semplice usare l’analogia della “passeggiata

dell’ubriaco”, che trova ampio riscontro anche nella vecchia Europa. Gould dice: sembrerebbe che

gli ubriachi abbiano una preferenza per il lato del marciapiede rivolto alla strada, perché ci

finiscono sempre dentro. In realtà, non è così: l’ubriaco oscilla sia da una parte che dall’altra, ma da

una parte ha il muro che lo respinge, mentre dall’altra no. Così l’evoluzione, ha un muro sinistro

che non può oltrepassare, mentre a destra può andare dove vuole ed in effetti ogni tanto le capita.

“Una sola direzione è aperta verso il cambiamento”. Quindi l’andamento dell’evoluzione verso la

complessità è solo apparente. Si tratta di oscillazioni che vanno sia verso il progresso che verso il

regresso, ma essendo partita dal nulla, sembra che vada verso il più complesso, così come l’ubriaco

sembra sempre finire sulla strada.

In effetti, adesso va di moda sostenere che noi siamo solo una delle tante specie dell’universo, per

giunta assai prepotente e crudele, che disprezza le altre specie e i suoi simili e che rovina l’ambiente

che lo ha creato. Tutto questo è vero, ciononostante, le precisazioni di Gould sono forse eccessive.

In effetti, Gould dimentica una cosa che dovrebbe invece interessarlo: che i batteri non possono

leggere il suo libro e convincersi di essere i padroni della terra. C'è presumibilmente un motivo per

cui siamo noi a mettere gli scimpanzé in gabbia e a studiarli e non viceversa. Non sembra

arrischiato dire che, se da un lato la stragrande maggioranza degli scienziati ritiene che l'evoluzione

vada a tentoni, è anche d'accordo nel ritenere che effettivamente l'uomo è l'organismo più

complesso, anche se questo non significa tout court accettare che l'evoluzione sia direzionale o

addirittura che abbia un senso.

Per Francois Jacob, l’evoluzione assomiglia a un bricoleur perché non butta via niente, ma riutilizza

tutto 96 . La genetica dell’ultimo decennio ha mostrato quanto vera sia questa affermazione che

secondo alcuni può conciliare gradualismo ed equilibri punteggiati 97 . Come abbiamo visto, se

95 S.J.Gould. Gli alberi non crescono fino al cielo. Arnoldo Mondadori Editore, Milano, 1997. Per

nostra fortuna, Gould introduce nella versione italiana un “Breve manuale di baseball per i lettori

italiani”. La scelta del baseball come metafora rivela una certa visione americanocentrica

dell’autore. L’alcolismo è invece una manifestazione ecumenica che affratella tutti gli uomini. La si

trova a p 173-174 della versione italiana.

96 F. Jacob. Evolution and tinkering. Science 196:1161-1166, 1977. F. Jacob. Evoluzione e

bricolage. Gli espedienti della selezione naturale. Einaudi, Torino, 1978

97 D. Duboule & A. S. Wilkins. The evolution of bricolage. Trends Genet 14:54-58, 1998. Gli autori

introducono il termine di “transizionismo” per denominare la loro posizione.

69


sequenziamo i genomi di organismi tanto lontani quanto l’uomo e il C. elegans, un piccolo verme,

notiamo che quasi tutti i suoi geni hanno una controparte nell’uomo. Le somiglianze della sequenza

nucleotidica e proteica sono tali che i geni omologhi (ortologhi) sono facilmente evidenziabili.

Questo presumibilmente non vale per tutti i geni, ma per la maggior parte. Nei mammiferi ci sono

più geni, alcuni effettivamente non riscontrabili nel nematode, e cioè realmente nuovi (l’alternativa

è che il nematode li abbia persi) altri che sono semplicemente dovuti a una o più duplicazioni

seguite da divergenza. Cioè ad un gene del C. elegans corrispondono parecchi omologhi nei

mammiferi, che a loro volta si sono diversificati raggiungendo espressioni e funzioni anche molto

diverse. Non solo sono conservate le sequenze, ma molto spesso anche le funzioni dei prodotti

genici, anche se lo stesso pezzo è stato inserito in un contesto più ampio o anche molto diverso.

Intere vie metaboliche sono conservate, ma adattate ai nuovi bisogni dell’organismo. Infine lo

studio dello sviluppo embrionario ha, come abbiamo visto, mostrato il potenziale di variabilità

insito in alcuni geni.

Un bricoleur però generalmente ha un disegno in mente. In questo senso il bricoleur sostituisce

l’ingegnere, ma entrambi sono solo una metafora 98 . Nessun disegno neanche per Richard Dawkins,

che assume posizioni più radicali. Tutti abbiamo imparato nei licei la metafora dell’orologiaio. Se

esiste un orologio, deve esistere un orologiaio. Versione semplificata ma esemplare dell’argomento

tomistico dell’ordine: se esiste l’ordine deve esistere l’ordinatore. In realtà, leggendo la versione di

questa argomentazione che ne fa il già citato vescovo Paley nel suo famoso libro “Natural Theology

or Evidences of the existence and attributes of the Deity, collected from the appearance of nature”

99 non si può non apprezzare la forza di questo argomento.

E’ probabile che non si possa eliminare questa argomentazione a cuor leggero. Per Richard

Dawkins invece il problema è già risolto. Nella prefazione al suo libro “The blind watchmaker”,

scrive

“This book is written in the conviction that our own existence presented the greatest of all

mysteries, but that it is mistery no longer because it is solved. Darwin and Wallace solved it, though

we shall continue to add footnotes to their solution for a while yet” 100 .

La metafora tuttavia è di tal forza che Dawkins sente il bisogno di riprenderla per confutarla.

L’orologiaio esiste, dice Dawkins, ma è cieco. Il motore unico (non immobile) è il gene egoista. In

uno scenario degno di Blade Runner, Dawkins descrive in maniera chiara ed elegante il successo di

questi geni, ora denominati replicatori (meglio replicanti) 101 :

“Quali strani strumenti di autoconservazione avrebbero portato i millenni? Quale sarebbe stato il

destino di questi antichi replicatori quattro miliardi di anni dopo? Essi non si sono estinti in quanto

sono gli antichi maestri dell’arte della sopravvivenza, ma non cercateli nel mare, perché hanno

rinunciato a quella libertà molto tempo fa. Adesso si trovano in enormi colonie, al sicuro

all’interno di robot giganti, fuori dal contatto con il mondo esterno, con il quale comunicano in

98 F. Jacob & A. Langeney. Genèse et actualité de la theorie de l’evolution. La Recherche 296

(marzo):18-25, 1997. “C’est une question qui ne relève pas de la science. On ne prouvera jamais

que Dieu exist ou n’existe pas. C’est une question de gout”. La posizione di Jacob pertanto sembra

essere di tipo classico, i domini di scienza e filosofia sono completamente separati.

99 W. Paley. Natural Theology or Evidences of the existence and attributes of the Deity, collected

from the appearance of nature. Faunder, London, 1802.

100 R. Dawkins. The blind watchmaker. Longman, Harlow, 1986. Prefazione, p. xiii

101 R. Dawkins. The selfish gene. Oxford University Press, Oxford, 1976. Edizione it: Il gene

egoista. Arnoldo Mondadori Editore, Milano, 1995 p 23

70


modo indiretto e tortuoso e che manipolano a distanza. Essi si trovano dentro di voi e dentro di me,

ci hanno creato, corpo e mente e la loro conservazione è lo scopo ultimo della nostra esistenza.

Hanno percorso un lungo cammino, questi replicatori e adesso sono conosciuti sotto il nome di

geni e noi siamo le loro macchine di sopravvivenza”.

Anni prima, Monod aveva scandalizzato molti col suo “Il Caso e la necessità” 102 .

“L’antica alleanza è infranta; l’uomo finalmente sa di essere solo nell’immensità indifferente

dell’Universo da cui è emerso per caso. Il suo dovere, come il suo destino, non è scritto in nessun

luogo. A lui la scelta tra il Regno e le tenebre”.

In realtà, non c’era molto da stupirsi, le conclusioni di Monod si trovano in numerosi filosofi

precedenti. Viene subito in mente Albert Camus, più o meno contemporaneo di Monod, e il suo

Mito di Sisifo 103 .

“Lascio Sisifo ai piedi della montagna! Si ritrova sempre il proprio fardello. Ma Sisifo insegna la

fedeltà superiore, che nega gli dei e solleva i macigni. Anch’egli giudica che tutto sia bene. Questo

universo, ormai senza padrone, non gli appare sterile né futile. Ogni granello di quella pietra, ogni

bagliore minerale di quella montagna, ammantata di notte, formano da soli un mondo. Anche la

lotta verso la cima basta a riempire il cuore di un uomo. Bisogna immaginare Sisifo felice”.

Tuttavia la novità era nel fatto che era uno scienziato, per giunta insignito del premio Nobel per la

medicina, a dirlo. Ma non tutti sarebbero d’accordo. Abbiamo già citato la posizione di Teilhard de

Chardin. Meno nota al grande pubblico è invece la posizione di Theodosius Dobzansky.

Dobzansky, insigne genetista, ha contribuito moltissimo alla messa a punto della teoria sintetica

dell’evoluzione, che, come abbiamo visto, ha coniugato la genetica di Mendel con la teoria

dell’evoluzione. Nel suo libro “The ultimate concern of biology” Dobzansky affronta senza mezzi

termini le implicazioni filosofiche della biologia:

“Generalmente si è d’accordo nel ritenere che la biologia possa avere implicazioni filosofiche più

di altre scienze: Un biologo, in qualità di biologo, deve quindi saper scegliere e presentare quei

fatti, quelle teorie e quelle idee che egli ritiene di generale interesse e portata sul piano umano” 104 .

L’opinione di Dobzhansky sul significato dell’evoluzione è quanto mai chiara:

“E’ ormai un luogo comune affermare che la scoperta darwiniana dell’evoluzione biologica ha

completato il processo di degradazione e di alienazione dell’uomo, iniziato con Copernico e

Galileo. Non riesco ad immaginare un’affermazione più errata, e forse il punto essenziale da

discutere in questo libro è la validità del contrario: l’evoluzione è motivo di speranza per l’uomo.

Ovviamente, l’evoluzionismo moderno non ha ridato alla terra il primitivo posto di centro

dell’universo. Ma, anche se l’universo non è sicuramente geocentrico, potrebbe ben essere

antropocentrico. L’uomo, questo misterioso prodotto dell’evoluzione del mondo, potrebbe anche

102 J Monod. Le hasard et la nécessité. Essai sur la philosophie naturelle de la biologie moderne.

Seuil, Paris, 1970. Edizione it: Il caso e la necessità. Arnoldo Mondadori Editore, Milano, 1970; p

143

103

A. Camus. Le mythe de Sisyphe. Gallimard, Paris, 1942. Edizione it: Il mito di Sisifo.

Bompiani, Milano, 1980. La citazione è la chiusa del libro, p 121.

104 T. Dobzansky: le domande supreme della biologia. De Donato, Bari, 1969. L’edizione americana

è del 1967; p. 10.

71


esserne il protagonista e forse la guida. In ogni caso non è statico, non è finito e non è immutabile.

Ogni cosa in esso è coinvolta nel flusso e nello sviluppo evoluzionistico” 105 .

Pensiero finale

Per la maggior parte degli aspetti, in fondo l’evoluzione dell’Homo non presenta particolari

problemi né suscita apprensioni. I nostri organi e le nostre cellule sono così simili non solo a quelli

dei primati ma anche a quelli di altre specie che addirittura si parla di utilizzare organi di queste

specie per trapiantarli negli uomini. Né nessuno si sente sminuito per questo. Tuttavia vi è un

aspetto particolare che non si ritrova negli animali, la coscienza, che lascia dubbiosi. Come questa

ha potuto evolversi? Per quanto ci si guardi in giro, sembriamo proprio unici in questo riguardo.

Anche se più o meno si ritiene che il tempo che separa l’uomo dallo scimpanzé sia lo stesso che

separa l’orango dallo scimpanzé, non vi è la stessa differenza di prestazioni tra queste due scimmie

antropomorfe che c’è invece tra l’uomo e lo scimpanzé.

La coscienza è effettivamente una proprietà emergente che lascia stupefatti. Oggi si cerca di

attribuire anche ad altre scimmie antropomorfe qualità umane, ma con scarso successo. Alla

coscienza vengono associate le qualità superiori dell’uomo, quali l’altruismo, il pensiero simbolico,

il libero arbitrio ecc. Può tutto questo essere spiegato con i geni o con l’interazione tra i geni ed

ambiente?

105 Ibidem, p. 15

72


Capitolo 4.

GENI E COMPORTAMENTO

L’altruismo

L’intelligenza è solo la più banale delle caratteristiche umane, e siamo pronti ad ammettere che

anche i cani ce l’abbiano, per non dire gli scimpanzé. Le caratteristiche più specifiche dell’uomo

sono altre, sono la coscienza di sé, la volontà, la bontà, il libero arbitrio e l’altruismo. E’ chiaro che

queste sono le ultime frontiere per la descrizione riduzionista della realtà. Queste caratteristiche

fanno parte della realtà, per quanto imprecisi possano essere questi concetti, per quanto difficile

possa essere una loro definizione e per quanto complessa possa essere la loro discussione.

Tra queste, l’altruismo è stato di recente oggetto di varie discussioni tra scienziati e non. Una

caratteristica come l’altruismo sembrerebbe attrarre di più gli studiosi di neuroscienze che gli

scienziati interessati all’evoluzione. Ma gli etologhi riscontrano manifestazioni di altruismo anche

in molti animali inferiori e devono spiegare come comportamenti altruisti, che sembrano minare

alcuni fondamenti dell’evoluzione, possano essersi affermati.

All’inizio degli anni sessanta, William D. Hamilton affrontò il problema di come fosse possibile

spiegare in termini evolutivi alcuni fatti che sembrano andare contro alla teoria della selezione del

più adatto alla riproduzione. In alcune specie dette "sociali", specialmente di insetti, tra cui le

formiche e le termiti, numerosi membri della società sono sterili. Detto in termini sommari, cosa se

ne fa l'evoluzione di individui sterili? D'altro canto, dato che, sterilità a parte, questi individui sono

normali e soprattutto svolgono un ruolo notevole nella loro società, come può questo sistema essere

risultato vantaggioso dal punto di vista evolutivo? Come possono essersi evolute organizzazioni

sociali come quelle di api, formiche e termiti?

Questo problema era già stato riconosciuto da Darwin come una notevole difficoltà per la sua teoria.

Darwin aveva accennato alla possibilità che l'evoluzione agisse non solo sull'individuo ma anche

sulla sua famiglia (in senso lato). Hamilton notò che un individuo sterile può contribuire alla

diffusione di un gene (o un insieme di geni) favorendo la trasmissione dei geni di uno stretto (o

anche relativamente lontano) parente con cui ha in comune una certa percentuale dei suoi geni.

Hamilton diede una formulazione matematica delle condizioni necessarie perché questo si verifichi

106 .

La formulazione matematica di Hamilton dice essenzialmente che se abbiamo P definito come

grado di parentela, C come il costo dell’atto altruistico e B come il beneficio ricavato dal

beneficiante dell’azione altruistica, un atto altruistico dovrebbe essere favorito dall’evoluzione se

P x B – C > 0.

106 W.D. Hamilton. The genetical evolution of social behaviour. I e II. J Theor. Biol. 7:1-16; 17-

52,1964. Secondo A. Brown, l’idea di Hamilton trarrebbe origine dalle idee di George Price, un

biologo dilettante che aveva formulato una prova matematica che mostrava che l’altruismo era

possibile, ma niente affatto nobile. Più tardi Price si sarebbe suicidato perché sconvolto da questa

scoperta. Vedi: A. Brown. The Darwin wars: how stupid genes became selfish gods. Simon &

Schuster, 1999.

73


Il ragionamento che sta sotto è il seguente: essere imparentati significa che abbiamo in comune un

certo numero di geni, pertanto, se aiuto mio fratello a salvare la pelle, dò una mano anche ai miei

stessi geni. Quindi più stretta è la parentela, più facile è la manifestazione di altruismo.

E’ importante notare come in questo caso si debba ammettere che in un certo qual modo è cambiato

l’oggetto della selezione. Non è più l’individuo, ma è la famiglia o il gruppo nella misura in cui c’è

un imparentamento. Ma potrebbe essere anche il gene. In entrambi i casi sembra necessario che gli

animali in questione siano capaci in un certo qual modo di riconoscere i propri simili (kin

recognition).

Un ulteriore contributo all’analisi della genesi dell’altruismo venne poi data da un altro biologo,

Robert L. Trivers, che suggerì che un’altra via per spiegare la nascita di comportamenti altruistici è

che questi siano reciproci 107 . In questo caso quindi non è necessario essere imparentati, anzi si può

anche appartenere a specie diverse. La collaborazione tra specie diverse in realtà è da tempo nota e

va sotto il termine di simbiosi.

Un notevole impulso a questo tipo di ricerche si ebbe da un articolo a firma di John Maynard Smith

e George Price in cui la “Teoria dei giochi” veniva applicata a livello teorico all’analisi dei conflitti

animali 108 . La Teoria dei giochi viene utilizzata in politica ed in economia per studiare situazioni in

cui insorgono conflitti. Successivamente Robert Axelrod, che non era un biologo ma un ricercatore

in politica ed economia, suggerì di modellare questo problema nella forma del Dilemma del

Prigioniero 109 . Se due prigionieri complici di un delitto vengono arrestati hanno di fronte 4

possibilità: se collaborano tra loro (non con la polizia) guadagnano bene tutti e due (se tacciono,

cioè, stanno un po’ in galera, ma poi vengono scarcerati per mancanza di indizi); se parlano tutti e

due, perdono in certa misura (rei confessi, usufruiscono entrambi dei benefici di legge e si fanno un

certo numero di anni di galera ma non troppi); se uno dei due invece tradisce l’altro, cedendo alle

lusinghe della polizia, cioè confessa mentre l’altro insiste nella sua linea dura, il primo guadagna

molto (usufruisce della legge sui pentiti, che come succede in Italia, è un vero affare per i

collaboratori di giustizia) ma l’altro becca la pena più severa. Il dilemma, da cui il gioco prende il

nome sta nel fatto che la scelta più logica dal punto di vista del singolo è di tradire, perché se il

complice collabora si becca il massimo e se tradisce anche lui, si becca una punizione minore. Non

c’è scelta: bisogna tradire. Ma il paradosso è che con questa logica tradiremo tutti e due, sapendo

che se entrambi non tradissimo guadagneremmo di più.

Trasportato in termini evolutivi: non può nascere un comportamento altruistico perché sarebbe

svantaggioso per chi lo manifesta. Almeno questo se il gioco viene effettuato una volta sola. Le

cose però cambiano se il gioco viene ripetuto un numero imprecisato di volte. Vi è tutta una

letteratura sull’argomento e sono stati implementati vari programmi computerizzati di simulazione

di quello che succede con le varie strategie 110 . Le possibilità, ed anche gli esiti, sono veramente

107 R.L. Trivers. The evolution of reciprocal altruism. Q.Rev Biol. 46:35-57, 1971

108 J. Maynard Smith & G.R. Price. The logic of animal conflict. Nature 246:15-18, 1973

109 In realtà, l’articolo di Trivers citava il Dilemma del Prigioniero ma non lo sviluppava.

110 E’ al di fuori degli scopi del libro riferire tutti gli studi e le simulazioni basati sul Dilemma del

prigioniero a partire dall’articolo che Axelrod e Hamilton pubblicarono insieme come frutto della

loro collaborazione: R. Axelrod & W.D. Hamilton. The evolution of cooperation. Science

211:1390-1396, 1981. Tra le pubblicazioni più accessibili, si possono vedere: M.A. Nowak. The

arithmetics of mutual help. Scient Am p. 76-81, 1995 (giugno); A.L. Lloyd. Computing bouts of the

prisoner’s dilemma. Ibidem; p. 110-115. Vedi anche il capitolo 12 della nuova edizione di “Il gene

egoista” di Dawkins, dal titolo “I buoni arrivano primi”. J.H. Holland. Genetic algorithms. Scient

Am p 66-72, 1992 (luglio). Axelrod stesso ha scritto un libro: The evolution of cooperation, Basic

74


infiniti, perché possono variare i soggetti in campo (le strategie) e il loro numero, gli interessi in

gioco (i premi e le punizioni), il numero di partite, ecc. Abbiamo detto che, se il venir traditi

equivale all’uscita di scena (ergastolo o condanna a morte), non vi sarà più possibilità di gioco, e in

questo caso la gente tenderà ad essere assai più prudente (tradire), ma se pur perdendo si ha la

possibilità di rifarsi, la strategia migliore potrebbe essere diversa. Quello che si è visto e che

importa al fine della nostra discussione è che in quest’ultimo caso vi sono molte strategie che

premiano i cooperativi. Spesso, se i giocatori sono parecchi, il traditore abitudinario termina il gioco

con un bottino assai più modesto di quello dei cooperanti.

A questi modelli matematici, che vengono generalmente implementati su computer e che

consentono la simulazione di veri e propri tornei, corrispondono numerosi tentativi di dimostrazione

di altruismo legato a parentela o a reciproco vantaggio nelle specie animali. E’ chiaro che l’analisi

teorica può essere assai elegante e in casi come quelli del Dilemma del prigioniero, può essere

addirittura divertente. Ma se non si dimostra che si applica ai casi specifici, la teoria rimane

plausibile ma non testata. Vi sono almeno due stadi in questa ricerca per un biologo: prima si

devono trovare comportamenti che sembrino altruistici, poi bisogna cercare di calcolare o stimare le

tre variabili (P, B e C) e concludere se i nostri calcoli sono compatibili con quello che osserviamo.

Per far questo bisogna andare sul campo, e studiare in dettaglio questi sistemi, che va detto subito

sono più frequenti e più facilmente indagabili tra gli insetti sociali.

Da allora innumerevoli studi che spiegano il comportamento altruistico sulla base di un vantaggio

evoluzionistico sono stati pubblicati 111 . Tuttavia eseguire questi studi non è così semplice. La

verifica di queste ipotesi sulla cooperazione è alquanto difficile e complicata. Si devono osservare

specie che si muovono in libertà nel loro terreno, e il loro studio è assai difficile da un punto di vista

logistico e pratico. Bisogna stabilire quali animali sono imparentati e bisogna essere in grado di

Books, New York, 1984. N.S. Glance & B.A. Huberman hanno lanciato una variazione sul tema, il

Diner’s dilemma: come ci si comporta ad un pranzo in cui il conto verrà diviso in parti uguali,

indipendentemente da quanto uno mangia? Vedi: N.S. Glance & B.A. Huberman. The dynamics of

social dilemmas. Scient Am p76-81, 1994 (marzo). Altri studi più recenti tendono a studiare

modelli matematici di varianti più simili alle situazioni reali. Ad esempio il computer memorizza

facilmente i comportamenti dei vari giocatori, ma l’uomo o l’animale deve ricordarseli tutti. Il ruolo

della memoria in questo processo è stato studiato in M. Milinski & C. Wedekind: Working memory

constrains human cooperation in the prisoner’s dilemma. Proc Natl Acad Sci 95:13755-13758,

1998. Il problema di cosa succede se, invece di ammettere solo comportamenti di completa

cooperazione o di pieno tradimento, si consentono varie gradazioni, è stato indagato in G. Roberts

& T.N. Sheratt: Development of cooperative relationship through increasing investment. Nature

394:175-179, 1998. Vedi anche corrispondente editoriale: L. Keller & H.K. Reeve. Familiarity

breeds cooperation. Nature 394:121-122, 1998. Il dilemma del prigioniero è stato applicato allo

studio di fagi, piccoli virus che infettano i batteri. Vedi: P.E. Turner & Chao L. Prisoner’s dilemma

in an RNA virus. Nature 398:441-443, 1999 e il suo editoriale M.A. Novak & K. Sigmund: Phagelift

for game theory. Nature 398:367-368, 1999. Recentemente Novak e Sigmund hanno introdotto

il concetto di reciprocità indiretta, in cui l’azione altruistica di un individuo verso un altro provoca

una ricompensa da un terzo individuo. Vedi M.A. Novak & K. Sigmund: Evolution of indirect

reciprocity by image scoring. Nature 393:573-576, 1998.

111

Vedi per esempio i seguenti articoli riassuntivi. R. Pool: Putting game theory to the test.

Science 267:1591-1593, 1998; C. Packer & A.E. Pusey: Divided we fall: cooperation among lions.

Scient Am p 52-59, 1997 (maggio); R. Heinsohn & C. Packer: Complex cooperative strategies in

groop-territorial African lions. Science 269:1260-1262, 1995; D.W Pfennig & P.W. Sherman Kin

recognition. Scient Am p. 98-103, 1995 (giugno); D.W. Tallamy: Child care among insects. Scient

Am p 72-77, 1999 (gennaio).

75


iconoscerli e distinguerli l’uno dall’altro. Bisogna seguirli per un tempo abbastanza lungo. Non

bisogna alterare il loro habitat e le loro abitudini. Così, studi di questo tipo in mammiferi sono

estremamente rari, mentre sono più frequenti quelli su insetti, specie su quelli altamente sociali. Ma

il comportamento di formiche e termiti può essere assai più geneticamente determinato di quello dei

mammiferi e quello che è vero per la regina delle api può non essere vero per la marmotta

sentinella. Così i dati a supporto della teoria su organismi superiori sono assai pochi e il rischio che

lo sperimentatore produca dati non validi o si lasci trasportare dalle sue premesse teoriche esiste.

Quando si faranno esperimenti accurati si saprà di più, e non è escluso di avere delle sorprese. Ad

esempio, un recente studio sulle manguste (Suricata suricatta) è giunto alle conclusioni opposte a

quello che è il microparadigma generale: il comportamento della sentinella è un comportamento

egoista e non altruista. Le sentinelle sono le prime a vedere il predatore, il loro rischio di venir

predate non è aumentato, anzi sono in ottima posizione per nascondersi nelle tane, e tendono a

svolgere questa attività quando hanno la pancia piena: difendono innanzitutto se stesse e non si

interessano se gli altri animali sono o no imparentati con loro 112 .

Infine, vi sono un paio di commenti da fare alle teorie sull’altruismo. Il primo riguarda l’altruismo

reciproco: qui si commette un errore abbastanza frequente quando si parla di concetti difficili da

studiare empiricamente. Si definisce il concetto in maniera ristretta per poterlo maneggiare meglio,

poi ce se ne dimentica e si ritorna al significato più generale che è quello usato comunemente

“dall’uomo della strada”. Il dilemma del prigioniero può essere utile per studiare come possono

sorgere comportamenti cooperativi in cui ambedue i partner ci guadagnano, ma che di altruistico

hanno ben poco. In realtà questi studi potrebbero illuminarci su come nascono le lobby in America

o le mafie in Italia, ma non su come si sviluppa il vero comportamento altruistico. Il secondo

commento è di natura evoluzionistica: l'altruismo, quello vero, è comunque molto raro; se è

realmente vantaggioso per una popolazione nella sua interezza, perché non si è diffuso fino a

diventare comunissimo ? perché non tutte le specie sono come le formiche ?

Geni e Comportamento

Fin dove si può spingere quest’analisi evoluzionistica e genetica sui comportamenti ? Nel 1975

Edward O. Wilson, un grosso esperto di formiche, diffuse le idee che si era fatto studiando questi

animaletti nel libro “Sociobiology: the new synthesis” 113 . Oggi i suoi seguaci sono detti appunto

sociobiologi. Quello che sostengono Wilson e i suoi colleghi è che i geni determinano ampiamente

il comportamento sia nelle formiche che nell’uomo.

La sociobiologia, nelle parole dei suoi sostenitori,

“iniziò negli anni 70, con gli scritti di un gruppo di scienziati, specialisti in biologia e scienze

sociali, fra i quali Richard D Alexander, David P Barash, Jerram L Brown, John Crook, Richard

Dawkins, Pierre van den Berghe e Edward O Wilson…..La sociobiologia non era nata dal nulla.

Seguiva le opere preliminari, e orientate in senso più filosofico, sul ruolo della biologia nel

comportamento umano, di Konrad Lorenz, Donald T Campbell, Irenaus Eibl-Eibesfeldt, Desmond

Morris, Robin Fox, Lionel Tiger e altri. Era basata sui risultati di centinaia di studiosi, dalle

indagini di Jane Goodall sugli scimpanzé, alla scoperta di Thedore Schneirla dei segreti della vita

delle formiche-soldati, alle teorie sull’evoluzione degli altruismo di William D Hamilton, di John

Maynard Smith e Robert L Trivers…..La corrente principale della sociobiologia è costituita da un

112 Clutton-BrockT.H. et al. Selfish sentinels in cooperative mammals. Science 284:1640-1644,

1999. D.T. Blumstein. Selfish sentinels. Science 284: 1633-1634, 1999

113 E.O. Wilson. Sociobiology: The new synthesis. Harvard University Press, Cambridge, 1975

76


complesso intreccio di fatti e di teorie attorno alla vita intima delle termiti da fungo, delle lucertole,

dei babbuini anubis, e di decine di migliaia di altre specie di animali sociali che hanno attirato

l’attenzione degli zoologi di tutto il mondo” 114 .

La tesi principale dei sociobiologi è che i geni hanno un ruolo nella genesi del comportamento di

alcuni animali e probabilmente anche nell’uomo. E’ chiaro che quello che ha scatenato un putiferio

non è l’idea che il formicaio sia retto da rigide regole scritte nel genoma della formica, perché

questo è quello che molti si attendono anche da una visione molto superficiale di questi animali,

bensì l’idea che anche il comportamento umano lo sia. Chi appoggia Wilson, fa notare che nel suo

primo libro il comportamento umano era limitato all’ultimo capitolo, dopo una lunga trattazione

degli insetti sociali. Ovviamente, tra i sociobiologi si va dai più radicali ai più miti, da quelli che

invocano un certo ruolo dei geni nel comportamento umano, a quelli che invocano un controllo

rigido. Per esempio se si legge lo stesso Wilson in un libro scritto otto anni dopo “Sociobiology”, la

sua posizione sembra molto aperta:

“Anche quando i principi derivati da studi di base vengono estesi agli esseri umani, non c’è alcuna

ragione speciale per aspettarsi che il comportamento sociale umano sia del tutto biologicamente

determinato. Potrebbe essere del tutto privo di ereditarietà, o, più probabilmente, qualcosa di

intermedio” 115 .

Detto per inciso, la polemica contro le tesi di Wilson è stata assai acerba ed è stata spesso formulata

sulla base di considerazioni sociopolitiche. L’accusa fu che le tesi di Wilson potrebbero costituire la

base di ideologie razziste e fasciste. Tra gli oppositori più fieri di queste teorie ci sono due insigni

studiosi di evoluzionistica, quali Gould e Lewontin, secondo i quali è l’ambiente che forgia le

personalità. In supporto a Wilson c’è invece Richard Dawkins, la cui analisi vuole estendersi non

solo allo studio dell’evoluzione delle specie ma anche all’evoluzione della cultura umana.

Lipidi egoisti e memi egoisti

Richard Dawkins, che abbiamo già citato nel capitolo sull’evoluzione, è noto per aver introdotto il

termine di “gene egoista” suggerendo che il target della selezione naturale non è l’organismo né il

gruppo, bensì il gene.

I risultati più recenti tuttavia tendono ormai a limitare l’idea del gene egoista a favore di un’altra

ipotesi che sta ricevendo maggior attenzione tra gli addetti ai lavori. Anche se questa formulazione

non ha ancora raggiunto il grosso pubblico perché i media non l’hanno ancora ripresa, è probabile

che diventi la ideologia più diffusa nel millennio che sta per cominciare.

Secondo la nuova teoria, sono i lipidi i veri dominatori del mondo. Questa asserzione si basa su

numerosi fatti che sembrano incontrovertibili (non falsificabili). La loro rilevanza può essere più

facilmente vista se confrontata con l’ipotesi alternativa del gene egoista, da cui è solo in parte

derivata. In primo luogo, se si va ad analizzare tutte le varie forme di vita diffuse nel pianeta, è

facile constatare che non esiste forma vivente che non abbia lipidi. In secondo luogo, per ogni unità

di vivente, i lipidi predominano quantitativamente sugli acidi nucleici: in alcuni tipi cellulari

addirittura costituiscono il 90% del contenuto secco. In terzo luogo, se si prende quello che è il più

stupefacente prodotto dell’evoluzione, e cioè il nostro cervello, si dimostra che esso è

tremendamente ricco di lipidi. In quarto luogo, nelle società tecnologicamente più sviluppate e più

114 C.J. Lumsden & E.O. Wilson: Il fuoco di Prometeo. Le origini e lo sviluppo della mente umana.

Mondadori, Milano, 1984, p. 64-65. L’edizione americana è del 1983.

115 Ibidem, p. 65

77


icche i lipidi la fanno da padrone, e questo malgrado un’intensa campagna denigratoria di

gruppuscoli radicaleggianti che tende ad alterare il normale corso dell’evoluzione in cui i grassi

cervelli tendono ad essere associati con voluminosi addomi. Vi è una grande concentrazione di

lipidi nelle zone nevralgiche del pianeta come l’isola di Manhattan e vi è una chiara correlazione tra

zone geografiche ad alto consumo di energia e quelle ad alta concentrazione lipidica. Anche se

mancano stime esatte, è probabile che il 20% delle zone ad alto contenuto lipidico consumino l’80%

delle risorse energetiche disponibili. Infine, spingendo l’analisi a livello molecolare, è accertato che

i lipidi sono portatori di un numero di funzioni imprevedibili anche solo vent’anni fa. A riprova del

loro ruolo va citato il fatto che senza lipidi non c’è vera vita: infatti i virus, che hanno acidi nucleici

e proteine, ma non lipidi, non godono di vita autonoma ma hanno bisogno anche solo per la loro

replicazione di cellule ricche di lipidi. Anzi, la loro prima azione è quella di connettersi con tutta

una serie di lipidi organizzati quali quelli che formano la membrana plasmatica. Questa è la vera

fonte di individualità che stabilisce la separazione di fondo tra l’individuo e il suo ambiente, la vera

unità su cui agisce la selezione. Solo che i lipidi sono così astuti che per non dare nell’occhio fanno

credere che dipenda tutto dagli acidi nucleici. Questi in realtà sono così monotoni e prevedibili da

non poter essere la vera eminenza grigia della vita. I lipidi dominano il mondo e gli acidi nucleici

sono solo i loro prestanomi.

Questo breve testo è plausibile, solo che non vi siamo ancora abituati. Solo i posteri diranno se

questa prospettiva abbia un grande futuro dinanzi a sé 116 . Direi che per ora il lipide egoista è nella

stessa situazione del “meme” egoista.

L’idea del meme come unità di base della selezione nel mondo della cultura dell’uomo, è stata

esposta da Dawkins nell’ultimo capitolo del suo libro “Il gene egoista”.

“Io credo che un nuovo replicatore sia emerso di recente proprio su questo pianeta. Ce l’abbiamo

davanti, ancora nella sua infanzia, ancora goffamente alla deriva nel suo brodo primordiale ma già

soggetto a mutamenti evolutivi a un ritmo tale da lasciare il vecchio gene indietro senza fiato. Il

nuovo brodo è quello della cultura umana. Ora dobbiamo dare un nome al nuovo replicatore, un

nome che dia l’idea di un’unità di trasmissione culturale o di un’unità di imitazione. “Mimeme”

deriva da una radice greca che sarebbe adatta, ma io preferirei un bisillabo dal suono affine a

“gene”: spero che i miei amici classicisti mi perdoneranno se abbrevio mimeme in

meme…..Esempi di memi sono melodie, idee, frasi, mode, modi di modellare vasi o costruire archi.

Proprio come i geni si propagano nel pool genico saltando di corpo in corpo tramite spermatozoi o

cellule uovo, così i memi si propagano nel pool memico saltando di cervello in cervello tramite un

processo che in senso lato, si può chiamare imitazione….I memi dovrebbero essere considerati

come strutture viventi e non soltanto in senso metaforico, ma anche tecnico. Quando si pianta un

meme fertile in una mente, il cervello ne viene letteralmente parassitato e si trasforma in un veicolo

per la propagazione del meme, proprio come un virus può parassitare il meccanismo genetico di

una cellula ospite”. 117

Ma i parallelismi “gene-meme” non finiscono qui. E’ accertato che un meme, come un gene, può

essere egoista, anche spietato, come dice Dawkins, ma certamente non è obbligatorio che sia

intelligente. Vi è in giro un’infinità di memi assolutamente deficienti che hanno fatto fortuna. Vi

sono geni analoghi ? Certamente, basta guardare le sequenze ripetute presenti anche in un migliaio

116 L’argomentazione sviluppata in questa forma leggermente eterodossa vuole mostrare come le

stesse argomentazione fatte per il meme egoista e parzialmente per il DNA egoista siano trasferibili

a parecchie altre situazioni. Il lipide egoista è tanto plausibile quanto il meme egoista, cioè assai

poco. Soprattutto, entrambe non aggiungono nulla allo studio dei lipidi e delle idee, rispettivamente.

117 R. Dawkins: Il gene egoista. Mondadori, Milano, 1995. p. 201-202.

78


di copie nei genomi degli organismi superiori. Cosa servono nessun lo sa, ma si sono diffusi

implacabilmente, tanto quanto le canzoncine dei Beatles.

Una delle caratteristiche dei memi è che possono mutare. Anzi, come fa notare Dawkins la regola è

che mutino. Come per i geni, alcune mutazioni sono vantaggiose per il meme e altre sono

svantaggiose. Il più bell’esempio della mutazione di un meme che gli ha assicurato l’immortalità, o

per lo meno molti secoli di vita, lo traggo da un libro di Luca Cavalli Sforza, noto genetista umano.

Quando ero piccolo mi piaceva tantissimo l’aggettivo “lapalissiano”, che è più o meno sinonimo di

evidentissimo, così evidente da essere addirittura sciocco. Mio padre, da cui ho appreso

direttamente il meme mutato, mi spiegava che traeva origine dal detto su Monsieur de la Palisse

“Un quart d’heure avant la mort, il était encore en vie”. In un suo libro, Cavalli Sforza sostiene che

la versione originaria era “Un quart d’heure avant la mort, il faisait encore envie” e ha dalla sua la

plausibilità 118 . E’ interessante notare come la versione mutata sia stata la fortuna del meme, perché

è stata la sua stranezza a garantirne la conservazione, la versione corretta non sarebbe certamente

stata ricordata o comunque non avrebbe avuto la diffusione che ha avuto. Vi sono numerosi esempi

in natura di geni scorretti che hanno fatto ugualmente fortuna, basti ricordare il gene della

drepanocitosi che è un gene della globina mutato. La sua fortuna, sembra accertato, dipende dal

fatto che avere una copia del gene protegge in parte dai danni della malaria.

Fermo restando che il futuro riserba sempre delle sorprese, c’è da chiedersi quali vantaggi ci

derivino dalla formulazione del meme egoista. Finora sono stati prodotti articoli e libri e un certo

numero di discussioni 119 , ma, dobbiamo chiederci, cosa abbiamo in più di quello che avevamo

prima ? Tutti sapevamo già che un’idea o un concetto o anche una stupidata possono diffondersi, e

che alcuni di questi hanno un successo strepitoso, mentre altri vanno nell’oblio. Che questo possa

essere casuale è certo: quanti libri interessanti sono andati perduti nell’incendio della biblioteca di

Alessandria o comunque sono scomparsi nel medioevo? E quanti libri interessantissimi sono

completamente ignorati fin dalla loro pubblicazione ? Cosa ce ne viene in tasca dall’ipotesi dei

memi egoisti o altruisti? Questo approccio sarà utile per spiegare l’evoluzione culturale, porterà a

delle predizioni nuove che potranno essere verificate su come funziona il nostro cervello ? Dawkins

ammette che “la teoria dei memi sia pura ipotesi”, ma il modo con cui è stato formulata fa dubitare

persino che meriti tale appellativo.

I gemelli

Detto con parole semplici, poche persone obietterebbero che i geni controllano la maggior parte dei

nostri caratteri fisici. La gente accetta facilmente che la propria statura o il proprio colore degli

occhi siano dovuti ai geni, anche se malgrado tutti i risultati ottenuti dalla genetica, il metodo

migliore per predire ad esempio l’altezza di un nascituro rimane quello di misurare i genitori, un

approccio già disponibile migliaia di anni fa.

In realtà non è così neanche per certi caratteri fisici che a prima vista potrebbero sembrare sotto

stretto contatto genetico. Prendiamo ad esempio il peso o il volume dei muscoli. Entrambe queste

caratteristiche fisiche subiscono una grande influenza di circostanze ambientali 120 . E cosa dire

118 “Un quarto d’ora prima della morte, egli era ancora in vita”. La versione originale suona invece

come “un quarto d’ora prima di morire egli faceva ancora invidia”. Per l’intera strofa vedi F & L.

Cavalli Sforza: La scienza della felicità. Mondadori, Milano, 1997.

119 Vedi ad esempio: S. Blackmore: The meme machine. Oxford University Press, Oxford, 1999

120 Tutti coloro che come me sono fuori forma converranno che sono solo le avverse circostanze

ambientali ad esserne responsabili, e non i nostri geni, che invece sono bellissimi.

79


dell’intelligenza o di caratteri ancora più misteriosi quali quelli riassunti come “mentali” o

“comportamentali” ?

Il problema di quanto incidano i geni e di quanto incida l’ambiente è vecchio quanto l’umanità. Gli

anglosassoni lo hanno denominato “nature-nurture”, natura (la genetica) o nutrimento (l’ambiente),

e lo fanno risalire a Francis Galton, cugino di Darwin. Al di là dell’aneddotica, in questi ultimi

cent’anni si è cercato di affrontare il problema con lo studio sistematico dei gemelli veri, detti anche

identici o monovulari. I gemelli veri sono dei cloni, cioè hanno tutti i geni identici, mentre i falsi

gemelli hanno in comune, come i normali fratelli, il 50% dei geni. I gemelli veri normalmente

crescono nello stesso ambiente, pertanto non è possibile distinguere quanto nelle loro somiglianze

comportamentali abbia giocato la genetica e quanto l’ambiente. Però, se i due gemelli venissero

separati alla nascita, tutte le somiglianze comportamentali dovrebbero essere attribuite al loro

assetto genetico.

Naturalmente, non è possibile separare a bella posta i gemelli, ma in certi casi essi vengono dati in

adozione oppure vengono separati alla nascita per le vicissitudini della vita. E’ chiaro che essi

hanno già avuto in comune l’ambiente dei nove mesi di gravidanza, ma questo particolare è sempre

stato considerato trascurabile. Almeno fino a due anni fa quando una meta analisi eseguita su oltre

200 studi ha suggerito che il periodo passato nell’utero della madre contribuisce apprezzabilmente

alla stima dell’ereditabilità dell’intelligenza, e che pertanto parte di quanto era stato ritenuto

ereditario dipende invece dall’ambiente in cui il feto si sviluppa 121 .

Gli studi effettuati in questo senso, in particolare per quanto riguarda l’intelligenza, sono giunti alla

conclusione che grosso modo il 50% dei caratteri sono controllati dalla genetica. Questa è una

conclusione rassicurante, in quanto sembrerebbe allontanare la possibilità, peraltro già negata da

tutti i genetisti, di poter sfruttare la tecnica di clonazione per fabbricare individui che pensano e si

comportano allo stesso modo. Si tratta comunque di conclusioni che vanno prese con le pinze,

perché non sono così facili da effettuare. Bisogna inoltre pensare che, per quanto vengano separati

alla nascita, non è ben chiaro quanto gli ambienti in cui vengono inseriti siano effettivamente

diversi. Non capita quasi mai che uno dei due gemelli viene adottato da uno statunitense e l’altro da

un boscimano; anche il censo delle famiglie cui vengono affidati probabilmente non è diversissimo.

E’ importante rendersi conto che dai dati sull’ereditarietà dell’intelligenza c’è poi chi trae

conclusioni di vasta portata, spesso assolutamente inadeguate. Per uno scienziato, che il quoziente

d’intelligenza (IQ) sia predeterminato alla nascita, è un problema come un altro, ma per altri può

urtare le proprie convinzioni. Qualche anno fa c’è stato un grosso dibattito sul libro di Herstein e

Murray 122 , che partendo dall’ereditabilità dell‘IQ giungeva a conclusioni pesanti: c’è una

correlazione tra IQ e stato sociale (cioè i più poveri sono meno intelligenti, come risulta dagli studi

sulla distribuzione dell’IQ nella società); l’IQ generale dell’intera popolazione è destinato a

scendere perché i più poveri (più stupidi) sono più fertili; i ricchi (più intelligenti) si sposeranno tra

loro, aumenteranno il loro IQ e formeranno una casta sempre più distaccata dai più poveri.

E’ chiaro che queste tesi possono a prima vista non piacere a molti, ma la prima domanda non è se

piacciono o no, ma se siano motivate o campate per aria. Anche per chi è preoccupato per il destino

dei poveri, la cosa migliore non è negare ciò che è vero, perché se si sa come stanno veramente le

cose si riesce a controbatterle meglio. Un’altra cosa da evitare è quella di prendersela con gli autori,

121 B. Devlin et al: The heritability of IQ. Nature 388:468-470, 1997; M. McGue: The democracy

of the genes. Nature 388:417-418, 1997

122 R.J. Hernstein & C. Murray: The Bell curve: intelligence and class structure in American life.

Free Press, New York, 1994

80


a meno che non sia provata la loro tendenziosità. In fondo il loro lavoro potrebbe essere un

campanello d’allarme per effettuare interventi sociali più mirati 123 .

Ora, il punto di partenza è sapere se è vero che i più ricchi sono più intelligenti dei più poveri.

Facciamo attenzione, perché non vogliamo sapere se i più ricchi sono stati più intelligenti dei più

poveri, perché in una società puramente meritocratica (che peraltro non esiste) chi ha ottenuto di più

vuol dire che è stato più bravo. Il problema è se è nato così, oppure se lo è diventato. Perché se lo è

diventato, allora non tramanderà la sua intelligenza alla sua progenie, la quale nascerà intelligente

tanto quanto quella dei poveracci.

Questa obiezione è molto vecchia e si basa su un problema di non facile soluzione. Quando si

cominciò a formulare i questionari per misurare l’IQ, ci si rese conto facilmente che erano modellati

su quella che era la cultura dominante, quella anglosassone dell’epoca, la quale va bene anche per

gli altri Europei, ma va meno bene per molte minoranze. Inoltre, se la misurazione viene effettuata

ad una certa età, ad esempio in età scolare, in realtà si va a misurare un IQ “attuale” dovuto alla

genetica più tutto quello che è avvenuto negli anni precedenti. Questa presa di coscienza ha fatto sì

che si cercasse da un lato di formulare quesiti che fossero il meno possibile orientati ad una

particolare cultura, dall’altro di affrontare il problema in bambini più piccoli, riducendo così, ma

non eliminando, le influenze ambientali. Parallelamente, si è cercato di migliorare le condizioni

economiche delle classi meno abbienti così da eliminare le differenze dovute ad ambienti meno

stimolanti.

Non vi è però un accordo generale su quanto l’ambiente con cui si è venuti a contatto in periodo pre

o peri-natale possa incidere. Pertanto ogni conclusione è prematura. Un secondo problema è quanto

sia comunque ereditabile l’IQ. Perché se l’eredità è sostanzialmente inferiore al 50%, una vera casta

di più intelligenti non può affermarsi: dopo qualche generazione, i discendenti di persone assai

intelligenti tornano nella media. Pertanto le previsioni contenute nella Curva di Bell non possono

essere accettate da tutti. D’altro canto, nature o nurture, sono in molti a pensare che i poveri stanno

diventando sempre più poveri e i ricchi sempre più ricchi e che, visto che comunque un effetto da

parte dell’ambiente è certo, anche se non perfettamente quantificabile, sarebbe bene darsi da fare

per migliorare la vita dei meno fortunati e rivelare tutte le loro potenzialità che sono una grande

risorsa della società 124 .

Animali modificati

In medicina e biologia si fa grande uso di modelli animali nella speranza che i risultati così ottenuti

siano trasferibili all’uomo. E’ chiaro che le funzioni superiori esclusive della nostra specie non

potrebbero venir indagate nel topo ed è altrettanto chiaro che anche quelli ottenibili non possono

venir trasferiti tout court dai roditori all’uomo. Tuttavia le recenti tecnologie di manipolazione

embrionale nei roditori che consentono di produrre e studiare animali transgenici e animali

knockout ci permettono un approccio diretto allo studio del ruolo dei geni in alcuni comportamenti.

Il principio, teoricamente assai semplice, è quello di inattivare un gene o, al contrario, farlo

esprimere in maniera abnorme, e di vedere quali modificazioni avvengono nel comportamento.

123 Machiavelli per esempio è rimasto come un esempio di depravazione politica. Tuttavia, secondo

l’interpretazione che ne dà il Foscolo nei suoi Sepolcri, il Machiavelli col il suo libro avrebbe in

realtà svelato al popolo la malvagità dei potenti (il Principe).

124 Un esempio del ruolo dell’ambiente ci è fornito dalla vita di Mario Capecchi, l’inventore della

tecnica degli animali knockout. Vedi: G. Stick: Of survival and science. Scient Am, agosto 1999, p.

26-27

81


Migliaia di animali transgenici sono stati prodotti e oltre 1000 geni sono stati sinora inattivati nel

topo. I fenotipi ottenuti sono i più vari, e molti di questi colpiscono anche i comportamenti. Tuttavia

nella maggior parte dei casi, il comportamento non è l’unico aspetto colpito: esso riflette un più

vasto danno che ha luogo nell'intero organismo 125 . E’ possibile che alterazioni meno grossolane

dell’espressione genica possa rivelare un ruolo dei geni nei processi fisiologici. Recentemente, ad

esempio, è stato prodotto un topo transgenico che esprime aumentati livelli di una componente del

recettore 2B del NMDA nel cervello dell’adulto: il topo ha mostrato prestazioni migliori in tre

differenti test usati comunemente per valutare l’apprendimento del topo. Secondo gli autori, questi

risultati fanno pensare che sia possibile aumentare nei mammiferi alcune caratteristiche mentali

quali l’intelligenza e la memoria 126 . Pur rimanendo scettico, mi auguro, essendo ormai in età

avanzata, che questa previsione si avveri al più presto possibile.

Anche la tossicodipendenza, dall’alcool o dalla cocaina, cominciano ad essere studiati con questi

animali modificati. Molto recentemente è stato riportato uno studio che, partendo da osservazioni su

due specie assai vicine tra loro, l’arvicola (“vole”) della prateria e l’arvicola della montagna, delle

quali solo la prima è monogama 127 , ha evidenziato un gene, il recettore della vasopressina, che

avrebbe un ruolo nella genesi di questo comportamento. Gli autori hanno poi creato dei topi

transgenici che riproducono il pattern di espressione di questo gene nell’arvicola della prateria,

notando un aumento delle cure dedicate ai figli. Lo studio è interessante, se confermato, perché la

modifica del comportamento è assai selettiva e non si accompagna ad altre alterazioni evidenti 128 .

La genetica umana e i geni del comportamento

Ai tempi in cui Wilson e Dawkins lanciavano le loro idee della sociobiologia e del gene egoista

lavorando principalmente sugli organismi sociali meno sviluppati, essenzialmente insetti, la

genetica umana era ai suoi albori e non era possibile una dimostrazione diretta delle loro ipotesi

nell’uomo. Oggi però, la domanda se i geni hanno uno stretto controllo sulle caratteristiche

comportamentali dell’uomo (che è poi quello che è di pertinenza del presente volume, poiché di

quello che succede alle formiche la nostra antropocentrica specie non se ne interessa granché) può

essere affrontata con le tecniche della genetica classica che sono state usate negli ultimi due decenni

e che sono servite per identificare i geni di numerose malattie ereditarie. Le problematiche sollevate

da questi autori pertanto sono oggi testabili, anche se ci sono numerosi aspetti che le rendono al

momento di difficile soluzione. L’approccio basato sull’analisi di “linkage” consente di esaminare

se un qualsivoglia “tratto” fenotipico, sia esso una malattia leggera o grave, un qualsiasi aspetto

fenotipico, o appunto un aspetto del carattere sia legato ad una determinata regione cromosomica.

Purtroppo è necessario qui un breve richiamo di genetica umana. Pur appartenendo tutti alla stessa

specie, il genoma di ognuno di noi è un pochino diverso dagli altri, fatta eccezione per i gemelli

monovulari. Queste piccole differenze vengono chiamate polimorfismi e sono distribuite su tutti i

cromosomi umani. E’ possibile seguire nelle varie generazioni questi polimorfismi che vengono

ereditati essenzialmente secondo le leggi di Mendel. Pertanto, se uno di questi polimorfismi cade

dentro o assai vicino al gene responsabile di una malattia, è possibile individuarlo se si dimostra che

125 Vedi ad esempio: F. Tronche et al: Disruption of the glucocorticoid receptor gene in the nervous

system results in reduced anxiety. Nature Genet 23:99-103, 1999

126 Y. Tang et al: Genetic enhancement of learning and memory in mice. Nature 401:63-69, 1999

127 S.C. Carter & L.L: Getz: Monogamy and the prairie vole. Scient Am, giugno 1993, p. 100-106

128 L.J. Young et al: Increased affiliative response to vasopressin in mice expressing the V1a

receptor from a monogamous vole. Nature 400:766-768, 1999

82


quel particolare polimorfismo è presente nei malati e assente negli individui sani. Questo metodo,

detto analisi di legame (linkage analysis) si è rivelato potentissimo in patologia umana

nell'identificare i geni responsabili di malattie monogeniche.

Ma i problemi sono tanti. L’analisi di linkage ha fornito ottimi risultati nel campo delle malattie

ereditarie monogeniche, cioè quelle che, come la fibrosi cistica, dipendono appunto dall’alterazione

di un solo gene. Ma è assai poco probabile che i nostri atti comportamentali siano dovuti ad un gene

solo: probabilmente sono sotto il controllo di molti geni (tratti o malattie multigenici). Inoltre, è

anche probabile, per le ragioni esposte sopra, che oltre alla componente genetica, vi siano anche

fattori ambientali. Si dice allora che i tratti indagati, o la malattia in studio, sono multifattoriali. Ma

nel campo delle malattie multifattoriali, i risultati ottenuti sinora con l’analisi di linkage sono scarsi,

e limitati ad un piccolo numero di malattie, quali ad esempio il diabete, la cui base genetica è

comunque certa.

E questo è il primo problema: l’analisi è relativamente facile se la malattia, il tratto o il carattere è

definito da un solo gene e se la definizione del carattere in questione è chiara. In questo caso, si può

facilmente vedere se il carattere è legato ad un gene. E’ quello che fece per primo Mendel più di

cento anni fa. Ma se la malattia è multifattoriale, è difficile al momento attuale evidenziare un

linkage se questo è inferiore al 10%, anche se le analisi potranno essere affinate in futuro.

Ma poi c’è un altro problema: la diagnosi o se si vuole la definizione del carattere. Se può essere

relativamente facile fare diagnosi di diabete, non lo è altrettanto fare diagnosi di una malattia che

colpisce la psiche. Prendiamo la depressione ad esempio. Vi sono vari gradi di depressione, dove

stabilire la soglia? Vi è la depressione per cause fondate, ma queste non possono essere confuse con

quelle immotivate. Altre malattie insorgono in età avanzata, altre devono essere ricostruite sulla

base di quello che viene riferito dai figli o dai nipoti perché la persona è deceduta. E’ chiaro che c’è

il rischio di qualificare come depresso uno che non lo è o non lo era, oppure di catalogare come non

affetto una persona che tuttavia svilupperà la malattia in età più avanzata e tutto questo disturba

l’analisi. Molto spesso inoltre, queste diagnosi o la definizione dei caratteri normali vengono fatti

sulla base di questionari multiscelta che il paziente compila da solo e anche se molti di questi sono

stati validati da anni di ricerche cliniche, non sono il massimo del desiderio. Ne consegue che se si

confrontano le diagnosi di vari specialisti sugli stessi soggetti, si constata che esse possono variare

anche di parecchio.

Inoltre la malattia può essere eterogenea, cioè può avere cause diverse. Capita infatti abbastanza di

frequente che lo stesso quadro clinico che definisce una malattia (o una sindrome) ereditaria si riveli

dovuto ad alterazioni in geni diversi. Anche questo confonde l’analisi, perché il linkage con una

regione cromosomica potrebbe essere evidenziato solo in un sottoinsieme di questi pazienti.

Tutto ciò contribuisce a rendere l’analisi difficile. Questo sia in campo patologico che in quello

fisiologico. Così non stupisce che sono stati riportati linkage positivi per schizofrenia, sindrome

maniaco-depressiva, omosessualità, autismo. Nel complesso però non vi è una grande concordanza

su questi risultati, e molti di essi, dopo una segnalazione iniziale sono stati messi in dubbio da studi

successivi. All’inizio degli anni novanta ad esempio, in uno studio che, per così dire, ha inaugurato

la genetica del comportamento, lavorando su una popolazione alquanto peculiare, gli Amish, era

stato riportato che un gene di questa sindrome mappava sul cromosoma X, ma questi risultati sono

stati completamente smentiti.

Negli anni novanta gli studi più sbandierati in questo settore sono stati quelli sulla schizofrenia,

sull’omosessualità e su una caratteristica denominata estroversione (“novelty seeking”). La

schizofrenia è una psicosi, di cui non si è riusciti a fissare una base anatomica, fisiologica o

83


iochimica certa; tuttavia vi sono alcune indicazioni che possa esservi una causa non puramente

psicologica della malattia, e pertanto essa sembrerebbe uno dei primi candidati per studi genetici. In

effetti, dei legami con alcune regioni cromosomiche sono stati stabiliti, il che ha fatto pensare che

questi geni esistano. Tuttavia essi non sono stati isolati e alcuni dati sono controversi.

Tuttavia si tratta pur sempre di una malattia grave, e la gente sarebbe ben disposta ad accettarne una

base genetica. Ma che dire dell’omosessualità ? Qui la gente molto spesso potrebbe invocare degli

eventi insorti durante la vita dell’individuo, delle esperienze negative. Vi sono è vero alcuni studi

che depongono per differenze anatomiche riscontrabili tra maschi normali e maschi omosessuali 129 ,

ma anche queste non sono conclusive e comunque potrebbero rappresentare una conseguenza e non

una causa. Così nel 1993, quando Dean Hamer, lavorando presso i National Institutes of Health di

Bethesda, riportò un linkage tra la regione cromosomica Xq28 e l’omosessualità maschile, il suo

lavoro ebbe una grande risonanza 130 . Due anni dopo gli stessi autori riportarono ulteriori dati a

sostegno della loro tesi 131 , ma nel 1999 un grosso studio di ricercatori canadesi ha messo in dubbio

questi risultati 132 . Chi abbia ragione, in questo momento non si sa.

Più o meno la stessa sorte è toccata ad un altro studio che aveva legato un carattere

comportamentale ad un gene che codifica per il recettore della dopamina. Nel 1996, due studi, uno

dello stesso Hamer, avevano sostenuto che chi è portatore di una particolare forma di questo

recettore ha una maggior probabilità di essere un individuo estroverso, uno che ama l’avventura, un

“novelty seeking” per gli inglesi 133 . Tre studi successivi però non sono stati in grado di confermare

questa associazione 134 .

Questi risultati, che possono per il momento essere considerati globalmente come negativi, tuttavia

non possono essere considerati come conclusivi. Non si può ancora concludere che questi specifici

tratti fisiologici o patologici non hanno una componente genetica. Né tanto meno si può escludere

tout court che non vi siano comportamenti geneticamente determinati. Come abbiamo visto si tratta

di studi assai difficili da compiere. Tuttavia la sequenza completa del Genoma Umano e la lista

129 Vedi ad esempio: S. LeVay: A difference in hypothalamic structures between heterosexual and

homosexual men. Science 253:1034-1037, 1991

130 D.H. Hamer et al: A linkage between DNA markers on the X chromosome and male sexual

orientation. Science 261:321-327, 1993. Vedi anche l’editoriale che accompagna l’articolo, assai

ottimista: Evidence for homosexuality gene. Ibidem p. 291.

131 S. Hu et al: Linkage between sexual orientation and chromosome Xq28 in males but not in

females. Nature Genet 11:248-256, 1995

132 G. Rice et al: Male omosexuality: absence of linkage to microsatellite markers at Xq28. Science

284:665-667, 1999. Vedi anche la discussione successiva in I. Wickelgren: Discovery of gay gene

questioned. Science: 284:571, 1999. Uno degli autori del lavoro di Science del 1999, l’esperto di

analisi di linkage Neil Risch aveva peraltro manifestato grossi dubbi anche in precedenza. Vedi la

corrispondenza sull’originale articolo di Rice in: Science 262:2063-2065, 1993

133 J. Benjamin et al: Population and familial association between the D4-dopamine receptor gene

and measures of novelty seeking. Nature Genet 12:81-84, 1996; R.P. Ebstein et al: Dopamine D4

(D4DR) exon III polymorphism associated with the human personality trait of novelty seeking.

Nature Genet 12:78-80, 1996

134 A.K. Malhotra et al: The association between the dopamine D4 receptor (D4DR) 16 amino acid

repeat and novelty seeking. Mol Psychiatry 1:388-391, 1996; E.G. Johnsson et al: Lack of evidence

for allelic association between personality traits and the dopamine D4 receptor gene

polymorphisms. Am J Psychiatry 154:697-699, 1997; D4 dopamine-receptor (DRD4) alleles and

novelty seeking in substance-dependent, personality-disorder and control subjects. Am J Hum

Genet 61:1144-1152, 1997

84


completa di tutti i nostri geni insieme ad una radicale semplificazione delle tecniche di

sequenziamento, consentiranno di testare numerosi geni candidati in un numero consistente di

pazienti. E’ possibile che fra una ventina d’anni si possa avere qualche dato più preciso su questi

problemi.

Non potrebbe l'altruismo vero essere invece totalmente frutto della cultura? Essere un

comportamento completamente appreso? In fondo, l'emergere dell'uomo ha prodotto numerosi

comportamenti che sono anti-evolutivi e che lo sono per motivi culturali. Ad esempio il calo delle

nascite è un'anormalità incomprensibile per i geni egoisti. I geni hanno prodotto una macchina che

gli si rivolta contro. Hanno portato al successo i polimorfismi dell'uomo bianco, ma come negli

scenari fantascientifici, questi replicanti (che siamo noi) vogliono liberarsi della schiavitù dei geni e

scelgono di farlo nell'unico modo possibile: il suicidio riproduttivo. Nemesi storica.

La relazione tra geni e comportamento, è un problema di grande interesse che coinvolge vari aspetti

della nostra vita. In parte verrà discusso anche a proposito del funzionamento cerebrale. Qui è

importante però far notare come il dibattito non può essere oscurato da considerazioni di tipo sociopolitico.

Queste considerazioni devono essere successive e non preliminari all’accertamento dei

fatti. In altre parole, prima c’è il problema se i geni dirigano o no il nostro comportamento, poi si

può riflettere sulle conseguenze sociali che questo comporta. Negare che i geni possano regolare i

nostri comportamenti perché alcuni potrebbero basarsi su questo fatto per giustificare il razzismo

dimostra un approccio errato al problema della conoscenza.

Rose, Lewontin e Kamin hanno scritto un libro di risposta alle tesi di Wilson e Dawkins: “Not in

our genes” 135 . Il titolo riassume assai bene il contenuto: i nostri comportamenti non sono predetti

dai nostri geni. Ma l’enfasi del libro è troppo messianica e poco scientifica. Non si può sposare una

tesi sulla base delle proprie convinzioni ideologiche. Se i geni svolgono un ruolo nella

determinazione del comportamento, ce l’hanno ci piaccia o no. Quello che si può fare onestamente

al momento è raccogliere dati a favore o contro le due tesi, perché oggi c’è un’unica risposta a

questa domanda: non sappiamo se e quanto i geni influiscano. E’ evidente, come abbiamo detto, che

i geni non determinano tutto né nel caso dell’uomo né nel caso dei mammiferi. Se uno nasce con

tutti i geni giusti per essere grasso ma nasce nel Ruanda o nel Biafra, è assai difficile che lo diventi,

almeno finché non cambiano le condizioni di vita in questi paesi. Parimenti, se uno nasce nelle

favelas ha scarsa probabilità di diventare professore universitario, ma se viene adottato la sua

probabilità aumenta. Ognuno di noi ha migliaia di casi analoghi nella sua esperienza. La maggior

parte degli scienziati è d’accordo che parte è dovuto ai geni e parte no, ma il dibattito è sulla

percentuale. Oggi questo è la sfida conoscitiva, quantificare queste percentuali. Per il resto si

scivola sulle asserzioni fideistiche o sulle dichiarazioni politiche che hanno rilevanza morale, non

fattuale.

Rilevanza filosofica

Secondo Dawkins e Wilson, il caso dell’altruismo è un caso particolare di comportamento, in un

framework in cui tutti i comportamenti umani sono scritti nei geni. E’ chiaro che questo problema è

di grande portata filosofica, nel senso in cui abbiamo definito filosofia. Infatti esso coinvolge il

problema del libero arbitrio, della colpa e del merito, del fato e del nostro destino. Infinite le pagine

letterarie e quelle filosofiche dedicate a questo problema. Ancora una volta i Greci hanno detto

tutto. E’ inutile che Teti si affanni a rendere invulnerabile il corpo del figlio, è scritto, ed Ettore

prossimo alla morte lo vede chiaramente, che Febo Apollo e Paride, malgrado il suo valore, lo

135 S. Rose, R. Lewontin, L. Kamin: Il gene e la sua mente. Arnoldo Mondadori Editore, Milano,

1983. Titolo dell’edizione originale: Not in our genes, edito nello stesso anno.

85


uccideranno alle Porte Scee. Come si vede, neanche agli dei è concesso di mutare il destino. Non è

solo il nostro destino fisico ad essere già scritto, ma anche le nostre azioni, i nostri atti di rilevanza

morale. Il destino di Edipo è già determinato alla nascita, è inutile che suo padre o lui stesso

cerchino di mutarlo. Che Edipo sia un uomo probo o una carogna, al fato poco importa, egli è

destinato a macchiarsi dei delitti più orrendi. Mutano i dettagli, il destino è scritto nei cieli piuttosto

che all’interno di noi nei nostri geni, ma il succo non cambia.

Qual è la posizione più realista su questo problema: il comportamento è completamente determinato

dai geni ? E’ assai improbabile che sia così. In primo luogo, vi è tutta una serie di studi che ha

ampiamente dimostrato l’influenza di fattori ambientali su una serie di comportamenti di cui il più

banale è l’intelligenza. Neanche questo elemento è geneticamente determinato, figuriamoci quelli

più complessi quali il libero arbitrio, la forza di volontà, la bontà, la gioia di vivere ecc. In secondo

luogo, il fenomeno del linguaggio è esemplare: noi ereditiamo presumibilmente una struttura che ci

rende idonei al linguaggio, che potrebbe benissimo essere avere una base anatomica e

neurofisiologica, ma è completamente assente dai geni prescrivere che parleremo l’inglese piuttosto

che il tedesco. Potremmo anche non parlare affatto, se non venissimo per ipotesi a contatto con il

linguaggio umano.

Potrebbe essere utile vedere cosa succede con un sistema strettamente determinato. Il suo

comportamento sarà monomorfo, le sue mosse saranno prevedibili ? Il sistema Deep Blue, che ha

recentemente battuto il campione mondiale di scacchi Gary Kasparov è completamente descrivibile

in termini di software, e potrebbe essere preso come esempio di un sistema completamente

determinato: del resto è una macchina, e molti sosterrebbero che le idee estreme dei sociobiologi ci

assimilano a questo. Dawkins dice appunto che noi siamo dei robot per la sopravvivenza dei nostri

geni. Ma chi potrebbe pensare di conoscere le mosse di Deep Blue ? impossibile, perché Deep

risponderà a seconda della mossa del suo avversario. Quindi, anche nel sistema geneticamente più

determinato, le sue mosse dipendono dagli stimoli che riceve dall’ambiente. Per i sistemi che

apprendono, lo sviluppo dipende da quello che incontrano. E’ difficile avere umani identici in

partenza per testare l’ipotesi, bisogna ricorrere ai gemelli monoovulari, ma anche in questo caso i

parametri non sono facilmente controllabili. Sarei veramente curioso di vedere due sistemi identici

che affrontano l’uno i migliori giocatori di scacchi del mondo e l’altro dei brocchi. Penso che ad un

certo punto non saranno più completamente uguali. Questo esperimento, facile da fare, fa pensare

che stimoli diversi producano personalità e comportamenti diversi. Figuriamoci poi se il sistema è

diverso già in partenza.

D’altro canto, è chiaro che i geni qualcosa controllano. Se si guarda all’estrema varietà di razze

canine, che appartengono pur tutte alla stessa specie, si deve concludere che il pessimo carattere del

bull dog (pitbull), qualche legame ai suoi geni ce lo deve pur avere. La varietà delle razze canine

può essere considerato un esperimento di natura (anche se l’uomo ha contribuito ad amplificare il

fenomeno), ed è lecito usarlo per trarre conclusioni.

E’ chiaro che se tutto fosse scritto nei geni, il nostro concetto di colpa e pena subirebbe delle

trasformazioni notevoli. Chi potrebbe più essere definito colpevole delle sue azioni ?

Un’implementazione in campo giuridico di questi principi, ora come ora, sarebbe assolutamente

impossibile, nessuna società complessa presumibilmente potrebbe rimanere in piedi. In realtà, nel

periodo successivo al secondo conflitto mondiale, si è diffuso ampiamente nell’opinione pubblica

una progressiva presa di coscienza dei limiti della responsabilità individuale nelle azioni.

Paradossalmente, le ragioni portate avanti per sostenere la non responsabilità erano di natura

opposta a quelle dei sociobiologi. Era l’ambiente a determinare le azioni dell’individuo, gli episodi

che avevano segnato la sua vita, dalla nascita in ambienti sociali disastrati fino alla sua crescita in

circostanze disperate. Ora questa conclusione è ampiamente accettata dall’opinione pubblica ed è

86


presa in considerazione nei processi, ma solo fino ad un certo grado. Non tutti quelli che nascono in

ambienti disastrati diventano delinquenti, quindi una parziale responsabilità personale rimane.

Altrimenti non varrebbe neanche la pena di fare i processi.

Ma sarebbe lo stesso se invece dell’ambiente in cui siamo cresciuti giungessimo alla conclusione

che è dai geni che deriva il nostro comportamento reale. Cosa ci potevo fare, sosterrebbe l’accusato,

sono nato col gene sbagliato. Come potete avere il coraggio voi, che siete nati con l’allele giusto, di

rinchiudermi ad Alcatraz, solo perché ho qualche nucleotide di differenza? Ma anche per i nati con

tutto il genoma a posto che soddisfazione ci sarebbe? Non solo non avremmo merito alcuno per le

nostre conquiste acquisite solo apparentemente con grande sacrifici, ma anche tutte le nostre azioni

più nobili non varrebbero nulla. Leonida si fa trucidare alle Termopili perché ha l’omologo del gene

della formica-guerriero, Pietro Micca perché era omozigote per il gene di “il rischio è il mio

mestiere” mentre Salvo d’Acquisto e Padre Kolbe avevano un gene che non consentiva loro di

tacere al momento opportuno.

Da un punto di vista pratico, la situazione diventerebbe insostenibile e dovrebbero intervenire tutta

una serie di stravolgimenti sociali che non sarebbero compatibili con la odierna società. Né sarebbe

giustificabile l’ottimismo di Dawkins secondo il quale noi siamo diventati ora in grado di fregare i

geni egoisti, perché tutto, anche questa capacità sarebbe già scritta nei geni.

87


Capitolo 5.

LA COSCIENZA

Quanto abbiamo detto sinora riguardava, da un punto di vista filosofico, il problema della realtà

esterna e di un ordinatore che si ponesse garante della sua esistenza e del suo ordine. L’altro grande

problema è quello di cercare di capire qualcosa sulla nostra individualità in mezzo al mondo. Qual è

la ragione della nostra peculiarità nel mondo animale, cui nel corso dei secoli sono stati dati i nomi

più diversi: personalità, coscienza, mente, anima, psiche, cervello, io, self, ego e superego e così

via. Problema anche storicamente filosofico per eccellenza, perché da quando il pensiero umano ha

cominciato ad essere tramandato, di queste cose si trova ampia traccia. Anzi, se ne trovano tracce

anche in epoca preistorica con ampie documentazioni su sepolture e cerimonie che presuppongono

una qualche teoria della mente e della capacità di sopravvivere dopo la morte.

Così, nell’antichità questo problema è stato affrontato in maniera che affermerei scientifica (cioè

valida, razionale, sensata), naturalmente per l’epoca. Quello che mancava erano le tecniche, ma

sarebbe assurdo far dipendere il senso di un problema dalla potenza delle tecniche. Secondo il mito

ristretto della scienza odierna, e delle ideologie ad essa correlate del neopositivismo e del

behaviorismo, tutto il capitolo della nostra personalità è privo di senso.

Il behaviorismo è spesso ritenuto l’applicazione delle dottrine neopositiviste al campo della

psicologia. In realtà, l’enunciazione teorica del behaviorismo fu effettuata in America

indipendentemente dal Circolo di Vienna, e si richiama semmai ai lavori della psicologia sovietica

sul condizionamento in psicologia animale. Il behaviorismo pensava che tutta la psicologia, che in

ultima analisi era lo studio del comportamento, potesse essere descritta in termini di stimolo e

risposta. Tutto quello che accadeva in mezzo, cioè (nel caso della psicologia umana) nella testa

della gente, non interessava a nessuno, essenzialmente perché, non potendosene parlare, bisognava

tacerne. Nei casi dei behavioristi più estremi, forse non esisteva neanche. Come fu detto di John

Broadus Watson, una delle figure principali del behaviorismo, la sua teoria sosteneva che egli non

aveva una mente.

Negli ultimi 40 anni, tuttavia, l’atmosfera a proposito della coscienza e dei problemi interconnessi si

è in parte mutata. Oggi, il behaviorismo è praticamente scomparso. Al suo posto c’è la “teoria

cognitiva”. Essa prende come oggetto di studio la coscienza. In realtà, quella del cognitivismo, più

che una disciplina o una teoria è un approccio. Si tratta di pensare che il problema della coscienza,

della personalità o come diavolo si voglia chiamarlo, è analizzabile con metodo scientifico. La

scienza cognitiva ha la sua galleria di antenati e le sue bestie nere, come ogni “ismo” che si rispetti

136 . Ha dei pregiudizi, ma ha anche un grande merito, che per certi aspetti la rende una scienza

simile a quella invocata nel primo capitolo: le va bene tutto. In effetti mette insieme intelligenza

artificiale e robotica, psicologia e bioimmmagini, neurobiologia e biologia molecolare, filosofia e

matematica e chi più ne ha più ne metta. Sarebbe addirittura quasi disposta ad accettare anche le

teorie di Freud, se fossero appena un po’ più rispettabili. L’unico escluso è il dualismo di Descartes,

che il cognitivismo aborre quanto la natura aborriva il vuoto.

136 Descartes è ovviamente lo spirito da esorcizzare. Gli empiristi britannici del XVIII secolo sono i

padri nobili. Più recentemente, si ritiene che il behaviorismo, che dominò la psicologia

anglosassone della prima parte del Novecento, abbia rappresentato il più grande avversario dello

studio scientifico della coscienza. Il behaviorismo venne superato tramite la convergenza di vari

fattori, che includevano non solo nuove scoperte e idee in psicologia, ma anche l’influenza di nuove

linee di ricerca quali appunto l’informatica, la neurofisiologia e la linguistica.

88


Pertanto siamo di fronte ad un esempio classico di quanto l’aggredibilità di un problema e l’idea che

se ne ha di esso sia funzione del tempo e dello spazio. Oggi la coscienza è un problema rispettabile

anche nel mondo anglosassone e vi sono degli ottimi corsi di laurea sull’argomento, gli studenti vi

si iscrivono e trovano posti di lavoro nelle più riduzioniste università americane. Parte di questa

rispettabilità è stata costruita sugli avanzamenti tecnologici, dei quali Democrito, Platone e

Aristotele non potevano disporre. Ma i problemi cui le scienze cognitive si rivolgono sono gli stessi

di duemila anni fa, e talora anche le soluzioni sono dello stesso tipo. L’innatismo delle idee di

Platone (che la nostra anima aveva contemplato nell’iperuranio) è così diverso dalla concezione di

Noam Chomsky che oggi postula una grammatica o una sintassi innata ?

Vi sono almeno due grossissimi filoni nelle scienze cognitive. Il primo è quello che cerca la

coscienza nella neurofisiologia, il secondo è quello che ritiene che la nostra mente possa essere

paragonata ad un ottimo computer. In pratica, il primo filone è costituito da scienziati che studiano

il funzionamento del cervello umano o animale con le tecnologie avanzate di tipo neurofisiologico o

neurobiologico, mentre nel secondo filone troviamo esperti di intelligenza artificiale, informatici,

matematici, fisici, robotisti (?) che cercano di far fare al computer tutto quello che sembra

specificatamente umano. Poi però vi sono filosofi che hanno un notevole addestramento in uno o

addirittura in tutte e due i campi, psicologi dell’evoluzione cognitiva, linguisti come Noam

Chomsky e i suoi eredi, medici che seguono pazienti con lesioni cerebrali selettive e chiunque altro

si voglia cimentare nel problema. I due filoni pertanto non sono affatto mutuamente esclusivi ed è

disponibile un vario campionario di pensatori ibridi. Naturalmente vi sono anche fieri avversari che

difendono tenacemente le proprie intuizioni o attaccano coraggiosamente le posizioni altrui.

Si può pensare che una cosa accomuni tutti questi pensatori e scienziati: l’avversione al dualismo.

Qui tuttavia è necessario fare una precisazione rilevante. Dal momento che tutti costoro sono fieri

avversari del dualismo cartesiano, si dovrebbe concludere che siano tutti monisti, cioè in questo

caso, materialisti. Certamente ad invocare homunculi, spiritelli o fantasmi, anime o menti

immateriali tra i seguaci del cognitivismo si sarebbe guardati di sbieco. Tuttavia questo non

significa che il dualismo non abbia sostenitori tra gli scienziati o che per lo meno non vi siano

numerose posizioni per così dire agnostiche. Per certi aspetti il cognitivismo si autodefinisce

monista e non accetta i dualisti, ma questo non esclude che i dualisti ancora esistano: certamente vi

è tutta una scuola psicologica che non si riconoscerebbe nel monismo materialista.

Le neuroscienze

L’ultima frontiera non è negli spazi siderali ma dentro di noi. Oggi si comincia ad investigare

qualche cosa di questo mistero, ma la complessità è tale che ci sentiamo sperduti. Mentre è possibile

pensare che un giorno tutto sarà risolto, oggi quello che possiamo dire del cervello, della mente,

della coscienza, della volontà e del libero arbitrio, è molto poco. Cos’è la coscienza, cos’è la mente,

gode essa forse dello stesso statuto delle idee platoniche ? Gli uomini muoiono, e le loro idee ?

Quali sono i rapporti tra mente e cervello ? Alla vaghezza dei termini e dei problemi si accompagna

l’assoluta mancanza di teorie esplicative del calibro di quelle che abbiamo visto nei capitoli

precedenti.

Non c’è un unico quadro ben sistematizzato dei fatti rilevanti a questo problema, ma vi sono

piuttosto dei risultati a macchia di leopardo, che rimangono purtroppo isolati senza che si riesca a

spingere le nostre conclusioni più in là. Tra questi abbiamo le ipotesi dell’intelligenza artificiale, lo

studio del linguaggio nei primati, le nuove tecnologie per l’indagine del cervello umano in vivo e

soprattutto la patologia umana.

89


Tra tutti i termini cui nel corso dei secoli ci si è riferiti al problema anima-corpo, l’unico che ci è

sufficientemente chiaro perché lo vediamo, lo tocchiamo, lo guardiamo al microscopio, è quello di

“cervello”. Quello che qui ci interessa comunque, non è lo studio del cervello in quanto tale, su cui

negli ultimi due decenni sono stati compiuti enormi passi avanti, basti ricordare lo studio delle

malattie neurodegenerative, quelli di neurobiologia cellulare e quelli di neurofarmacologia. Ad

esempio, la plasticità del cervello, ed in particolare della giunzione sinaptica, è stata dimostrata e

così pure l’esistenza di cellule staminali che potrebbero essere di grande interesse anche terapeutico.

I neurotrasmettitori e i loro recettori sono stati identificati con precisione attraverso la combinazione

di tecniche biochimiche, genetiche e farmacologiche. Lo sviluppo del sistema nervoso viene ora

studiato a livello del ruolo del singolo gene e le tecniche di inattivazione genica cominciano a dare

dividendi anche sul cervello e sul comportamento. Le basi biochimiche e genetiche della memoria

cominciano a venir elucidate. E’ prevedibile che grandi progressi verranno compiuti nei prossimi

decenni.

Quello che ci interessa è invece cosa si sa di quelle che sono le funzioni superiori del nostro

cervello. L’intelligenza e la memoria sono le più basse tra queste. In fondo le prove dell’intelligenza

degli animali fanno parte dell’esperienza quotidiana. Quanto alla memoria, è accettato anche a

livello popolare che quella dell’elefante sia migliore della nostra. Possedere una memoria enorme o

un’intelligenza sopraffina ci può essere utile, ma non ci risolve alcuno dei problemi filosofici di

vecchia data. Tuttavia è interessante notare come un tempo la memoria e il linguaggio fossero

ritenuti caratteristiche dell’anima e come invece oggi, come mostreremo, queste proprietà siano

soggette all’analisi scientifica in maniera soddisfacente.

Negli ultimi due decenni, lo studio del cervello si è avvalso di nuove tecnologie che hanno

terribilmente ampliato le possibilità di indagine. Lo studio delle funzioni del cervello soffre di un

notevole numero di complicazioni che non sono presenti nelle indagini su altri organi, tra queste: la

difficile accessibilità, l’impossibilità pratica di ottenere campioni di tessuto umani, il fatto che le

funzioni superiori si trovano solo nell’uomo e non possono essere studiate in animali da

esperimento ecc. A fronte di tutto ciò sta l’enorme complessità del problema di capire come

funzionano circa 100 miliardi di neuroni ognuno dei quali ha probabilmente da 100 a 1000

connessioni con altri neuroni. Malgrado ciò, oggi si sa molto di più di 20 anni fa sul cervello e

questo è dovuto a numerose tecnologie, alcune delle quali cominciano solo ora ad interagire: i

risultati di questa collaborazione tra varie discipline potrebbero essere estremamente interessanti.

Biologia molecolare e cervello

Vi sono vari modi di studiare il cervello e le funzioni superiori ad esso legate. Quello fornito dalla

moderna genetica si basa al momento sullo studio di base del funzionamento della cellula nervosa e

delle sue peculiarità, cioè della base per cui essa è diversa da altri tipi cellulari. Pertanto, si può

indagare la natura della sua peculiare membrana, i problemi legati alla formazione e alla migrazione

dell’assone 137 , i canali che si devono aprire e chiudere per permettere il flusso di ioni oppure il

legame del ligando che a loro volta provocano una cascata di segnali intracellulari che portano

all’attivazione di certe molecole ed eventualmente alla comparsa del potenziale d’azione, la

plasticità della sinapsi e tante altre cose a livello della singola cellula. Si può studiare i geni

coinvolti in tutte queste proprietà e cosa succede quando questi vengono interrotti.

137 L’assone o neurite è la ramificazione principale del neurone, il cavo, per così dire, con cui esso

trasmette l’impulso elettrico alle altre cellule. Fasci di assoni formano un nervo o comunque un

insieme di fibre che all’interno del cervello prende spesso il nome di proiezioni

90


Il problema principale del SNC è la sua organizzazione, i rapporti tra una cellula e l’altra, le loro

connessioni. La maggior parte di queste connessioni, che formano grandi fasci di fibre che vanno da

una regione ad un’altra all’interno del sistema nervoso centrale, sono determinate geneticamente e

sono presenti in tutti gli individui di una determinata specie. Su questa base di “hardware” si

inseriscono poi le esperienze del singolo, che determinano i comportamenti individuali. Ad

esempio, alcune complesse connessioni di base assicurano che il cane possa secernere acido

cloridrico alla vista della scodella del cibo, ma la particolare storia di un determinato cane può far sì

che esso secerna acido anche quando sente un suono particolare che al cibo è stato associato in sue

precedenti esperienze.

Gli studi di neurofisiologia e di neuroanatomia hanno stabilito una minuziosa mappa di moltissime

connessioni tra diverse regioni del sistema nervoso centrale. La definizione di queste vie

“proiettive” è stata una delle grandi fatiche della neurologia del XX secolo: oltre a stabilire le zone

dove alcune funzioni sono più o meno localizzate, è infatti importante stabilire le connessioni che

tra loro si instaurano. Queste indagini formano la base per comprendere i deficit che intervengono

in seguito a lesioni cerebrali. Nell’ultimo decennio l’analisi si è spostata verso la comprensione dei

meccanismi che regolano la formazione di queste vie durante lo sviluppo embrionario e la

descrizione avviene ormai a livello molecolare. Le connessioni tra regioni cerebrali dell’uomo

hanno delle caratteristiche peculiari specifiche della nostra specie, ma, come tutte le altre

caratteristiche strutturali degli altri organi, si sono evolute secondo le regole esposte nei capitoli

precedenti. Pertanto vi sono connessioni molto antiche conservate tra le varie specie ad indicare la

loro antichità, né più né meno come succede per i geni, la cui struttura generale è conservata anche

lungo un periodo di centinaia di milioni di anni, ma anche modifiche insorte recentemente, basti

pensare alla corteccia cerebrale dei primati.

La biologia molecolare oggi affronta anche questo genere di problemi, cercando di spiegarli a

livello delle singole molecole. In questo caso, uno dei problemi legato alla formazione delle

connessioni è il seguente: come fanno gli assoni di una regione a “sapere” dove devono

“proiettare”, cioè con quali cellule creare una connessione ? Prendiamo l'esempio del sistema

visivo, che nel topo è studiato in dettaglio. Le fibre nervose, provenienti dalle cellule della retina, si

raccolgono nel nervo ottico che si inserisce nel cervello a livello dell'ipotalamo per poi continuare il

percorso attraverso il talamo e terminare nel nucleo genicolato laterale, oppure proseguire fino al

collicolo superiore, situato nel mesencefalo. Il sistema visivo è completato dalla radiazione ottica,

cioé da fibre che collegano il nucleo genicolato laterale ed il collicolo superiore con la corteccia

visiva. A complicare la situazione è il fatto che per poter ottenere una visione binoculare è

necessario che ciascuno dei due occhi sia rappresentato anche nell'emisfero cerebrale opposto. Per

questo motivo parte delle fibre ottiche attraversano la linea mediana (decussazione) e parte invece

non l'attraversano mai, dando origine ad una struttura a forma di X che viene chiamata “chiasma”

ottico.

Come questo ordine sia creato e mantenuto sta anch’esso scritto nel DNA e nelle molecole che esso

codifica. Questo è stato dimostrato in vari modi mediante tecniche congiunte di ingegneria genetica

e di embriologia sperimentale, tra cui, soprattutto, la produzione di animali knockout, in cui le

molecole candidate per dirigere gli assoni al loro punto di arrivo sono state eliminate. Animali di

questo genere, carenti di una sola di una serie di molecole, mostrano migrazioni aberranti degli

assoni di vario genere, compresa l’incapacità a formare il fascio di fibre che costituiscono il nervo

ottico o a passare dall’altro lato della linea mediana. Questo non vale solo per le fibre ottiche e le

loro ulteriori proiezioni verso la corteccia visiva, ma è presumibilmente un meccanismo generale.

Un altro esempio del potere risolutivo della neurobiologia molecolare è dato dallo studio della

memoria. Questa proprietà è una delle caratteristiche neurobiologiche acquisite più precocemente

91


nel corso dell’evoluzione, essendo presente in tutti i vertebrati e in misura circoscritta negli

invertebrati (tanto che i primi studi sulle basi sinaptiche 138 della memoria sono stati compiuti su

neuroni di invertebrati). Vi sono almeno due livelli in cui la memoria può essere studiata, uno è

quello della neuroanatomia, che comporta l’identificazione delle strutture e delle connessioni ad

essa legate (vedi ad esempio i casi riportati in neuropatologia), l’altro è quello molecolare, cioè

delle molecole che regolano eventi che accadono nelle singole cellule che fanno parte di questi

circuiti.

Per lungo tempo si era pensato che la base molecolare della memoria potesse giacere nella

trasmissione sinaptica, cioè in quelle infinite connessioni che hanno luogo tra cellula e cellula.

L’ippocampo, che si trova nel lobo temporale, era pure stato coinvolto in quanto struttura

sovracellulare, nella memoria a lungo termine. Oggi si ritiene che alla base della memoria, sebbene

non si sappia ancora bene come, vi sia un fenomeno denominato “potenziamento sinaptico a lungo

termine” (long term potentiation, LTP), che consiste essenzialmente in un aumento della “forza”

della connessione sinaptica per cui l’intensità della scarica e la sua frequenza aumentano se la

sinapsi viene ripetutamente attivata (qualcosa del tipo “l’uso rafforza l’organo”). In realtà, la LTP

sembra essere una proprietà comune alla maggioranza delle sinapsi eccitatorie del cervello di

mammifero, e come tale presumibilmente è un meccanismo utilizzato per funzioni diverse, tra cui

appunto anche l’apprendimento e la memoria. Quest’ultima si instaurerebbe nell’ippocampo

mediante meccanismi che coinvolgono la LTP.

Anche il fenomeno della LTP è stato studiato intensamente negli ultimi anni facendo uso di

tecniche di neurofisiologia e dei topi knockout, e ha raggiunto il livello di descrizione che è quello

molecolare. Si ritiene oggi che essa richieda l’azione di un particolare tipo di recettori del

glutammato localizzati nella parte a valle della sinapsi (postsinaptica), la cui attivazione richiede la

depolarizzazione della membrana della cellula postsinaptica, che appunto è causata da ripetuta

stimolazione della sinapsi. L’attivazione di questi recettori (chiamati in sigla NMDA) provoca dei

cambiamenti nella membrana, consentendo l’entrata di alcuni ioni quali quelli del calcio e del sodio.

In seguito a questi cambiamenti viene attivata una kinasi, la protein kinasi calcio- e calmodulinadipendente

di tipo II, la quale a sua volta attiva una via metabolica che è di tipo generale che

consiste nella fosforilazione o defosforilazione di altre proteine specifiche. Il fenomeno pertanto si

riduce poi alla specifica implementazione nel tessuto neuronale di una via metabolica che viene

utilizzata in un’infinità di cellule dei vari tessuti (vedi per review nota 139 ).

Tecniche di imaging

Lo studio della cellula nervosa non esaurisce tuttavia tutti i tipi di indagine di neuroscienza, perché

attualmente non indaga l’aspetto dell’interazione tra neuroni ad un livello superiore. Essa va

combinata con gli approcci classici e innovativi della neurofisiologia e dell’imaging, quella serie di

tecniche che consentono di visualizzare parzialmente quanto avviene nel cervello quando noi lo

usiamo (e anche quando non lo usiamo).

Fino a una decina di anni fa, lo studio globale del cervello umano in vivo era praticamente

inesistente in quanto si poteva basare praticamente solo sull’elettroencefalogramma e sulla

138 La sinapsi è il punto in cui avviene uno scambio di informazione per via elettrica o chimica tra

due neuroni: essenzialmente, è il punto in cui l’informazione viene trasmessa da un neurone

all’altro.

139 R.C. Malenka & R.A. Nicoll: Long term potentiation- a decade of progress. Science 285:1870-

1873, 1999

92


scintigrafia cerebrale. Più recentemente la TAC, tomografia assiale computerizzata, ha aggiunto una

dimensione notevole nello studio delle patologie cerebrali, senza tuttavia aumentare di molto lo

studio del funzionamento del cervello in condizioni fisiologiche. D’altro canto, nell’uomo non era

possibile applicare in maniera pianificata le tecniche che venivano utilizzate sulla scimmia, perché

non era certo possibile praticare lesioni a scopo sperimentale o impiantare elettrodi nella testa delle

persone. Sebbene alcune di queste procedure siano stata applicate per motivi terapeutici, e i dati

ottenuti analizzati con grande attenzione, non era possibile investigare granché negli individui

normali. Ricordiamo ad esempio gli esperimenti compiuti da Penfield 140 , che stimolava la corteccia

di pazienti durante interventi a cranio aperto durante procedure chirurgiche eseguite per scopi

terapeutici.

Negli ultimi anni tuttavia molto è cambiato, grazie all’introduzione della PET, positron emission

tomography (tomografia ad emissione di positoni), e della risonanza magnetica funzionale (fMRI).

L’ideale per un neurofisiologo dovrebbe essere la possibilità di studiare in maniera incruenta il

comportamento di un singolo neurone. Sebbene ciò non sia ancora possibile nell’uomo, queste

tecniche sono un primo passo in questa direzione.

Il principio della PET (positron emission tomography, tomografia ad emissione di positroni), si basa

sul fatto che i neuroni quando sono attivati necessitano di energia. E’ pertanto possibile chiedere ad

un soggetto di eseguire una determinata operazione mentale e misurare il consumo di energia o

l’aumento del flusso sanguigno in una determinata area, o semplicemente vedere quali sono le aree

che consumano di più. Sembra logico pensare che tali aree siano coinvolte in quella determinata

funzione.

Anche la risonanza magnetica funzionale si basa essenzialmente sulla misura del consumo di

ossigeno e del flusso sanguigno. Tale tecnica tuttavia ha una maggior sensibilità e non fa uso di

composti radioattivi come invece fa il PET. E’ teoricamente possibile applicarle allo studio di

compiti di varia complessità, così da poter studiare gli eventi cerebrali quando vengono compiute

operazioni svariate, comprese quelle legate ai processi che sono in qualche modo legate alla

coscienza e agli atti di volontà.

Ad esempio, se prendiamo persone che hanno il cosiddetto “perfect pitch”, cioè una particolare

sensibilità alla musica che li rende capaci di riconoscere una nota musicale senza il diapason, si

constata che l’area che si attiva, durante l’esecuzione o l’ascolto di pezzi musicali, è più vasta di

quella di musicisti che non hanno tale capacità e ovviamente della gente normale 141 .

Questo sembra in buon accordo con la generale sensazione che nel cervello più un’area rappresenta

una funzione delicata più è sopra-rappresentata, basti pensare al fatto che la rappresentazione

motoria e sensitiva sulla corteccia cerebrale è disproporzionatamente grande per la mano e la faccia

rispetto ad esempio al tronco. In un altro studio interessante sono stati indagati persone che erano

bilingui dalla nascita e persone che avevano imparato una seconda lingua in età adulta. Differenti

aree venivano attivate nei diversi individui, il che fa pensare che il meccanismo di apprendimento di

una lingua nell’adulto interessi strutture diverse da quelle che sono normalmente attive in età

infantile 142 .

140 W. Penfield: The excitable cortex in conscious man. Liverpool, Liverpool University Press, 1958

141 G. Schlaug et al: In vivo evidence of structural brain asimmetry in musicians. Science 267:699-

701, 1995

142 K. Kim et al: Distinct cortical areas associated with native and second languages. Nature

388:171-174, 1997

93


Queste nuove tecniche possono essere applicate anche allo studio delle lesioni cerebrali. Le lesioni

da traumi, da accidenti vascolari o da processi espansivi sono terribili e causano enormi sofferenze e

mutilazioni. Mentre prima era necessario attendere la morte del paziente per poter documentare con

precisione la lesione cerebrale, oggi le tecniche di imaging consentono di studiare il malato mentre

è ancora in vita e soprattutto mentre gli sottoponiamo compiti che hanno a che fare con la funzione

danneggiata.

La Coscienza

Come abbiamo detto, oggi sembra che molti ritengano che si possa parlare della coscienza

scientificamente. Di nuovo dobbiamo notare come si stia facendo scienza partendo da un termine di

difficile anzi difficilissima definizione. Definire la coscienza non è facile, è presumibilmente un

termine primitivo, o per lo meno sinora deve essere usato come tale. Abbiamo sostenuto che la

coscienza di sé sia la caratteristica specifica dell’H.sapiens, senza la quale non saremmo qui a

discettare di scienza e filosofia. Pertanto possiamo solo sperare che con questo termine tutti

intendano la stessa cosa, cioè che esso sia correlato a “modificazioni cerebrali” omologhe in tutti o

quasi i cervelli.

Vediamo alcuni tentativi tesi, non dico a definire ma comunque a cercare un accordo che vada bene

ad alcuni o addirittura a molti.

John Searle distingue il problema della coscienza da quello della coscienza di sé. La coscienza può

essere affrontata in maniera scientifica, ma la coscienza di sé è una forma molto speciale di

coscienza, forse peculiare dell’uomo. Sembra di capire che quando sostiene che la coscienza è

studiabile scientificamente non vi comprende quest’ultima accezione. Searle definisce scienza e

filosofia più o meno come aveva fatto Auguste Comte, dicendo che

“Philosophy is in large part the name for all these questions which we do not know how to answer

in the systematic way that is characteristic of science…..science is systematic knowledge;

philosophy is in part an attempt to reach the point where we can have systematic knowledge” 143 .

In questo senso, secondo Searle, siamo ora al punto in cui la coscienza può essere analizzata in

maniera sistematica. D’altro canto, anche Searle non trova di meglio che rifarsi a una definizione di

senso comune quale

“those states of sentience or awareness that typically begin when we wake from a dreamless sleep

and continue through the day untill we fall asleep again, die or go into coma, or otherwise become

unconscious” 144 .

Siamo coscienti quando siamo non incoscienti. La coscienza c’è quando non c’è la non coscienza.

Non si tratta, come si può vedere, di definizioni particolarmente brillanti. Per Searle comunque, la

coscienza di cui si parla e che è scientificamente abbordabile, va tenuta distinta dall’attenzione

(perché ci sono tante cose di cui io sono conscio, ma a cui non presto attenzione) oltre che dalla

coscienza di sé.

143 J.R. Searle: How to study consciousness scientifically. Phil Trans R Soc Lond B 353:1935-1942,

1998. La citazione è a p. 1936.

144 Citato in P.E. Griffiths: Thinking about consciousness. Nature 397:117-118, 1999.

94


Due significati di coscienza sono presenti anche per Antonio Damasio, che sostiene con forza la

definibilità di coscienza, anche se alla fine comunque chiama in causa il dizionario 145 . Egli

distingue una coscienza “core” da una “extended”: la prima sarebbe sinonimo di “awareness”,

mentre la seconda sarebbe la vera e propria “consciousness”. Entrambe sono fenomeni interni della

mente, e la seconda dipende dalla prima. La seconda dipende dalla graduale formazione di una sorta

di “self autobiografico”. In un recente libro, Damasio sostiene che la prima è quella che noi

condividiamo con gli altri animali, mentre la seconda è un attributo specificatamente umano, o al

massimo condivisa con alcuni primati 146 . Oltre a ciò, Damasio è noto per sottolineare ripetutamente

come alla base della nostra scelte coscienti vi siano spessi aspetti per così dire emozionali, che

fanno parte integrante degli aspetti più elevati della coscienza 147 .

Secondo David J. Chalmers, il termine coscienza potrebbe riferirsi ad almeno due cose. Egli, a

proposito di coscienza parla di un problema facile e di un problema difficile 148 . Nel problema facile

ci sta una serie di problemi che le scienze neurobiologiche cominciano ora ad affrontare: prima o

poi questi problemi verranno risolti, secondo Chalmers, perché non c’è niente di intrinsecamente

diverso da altri problemi scientifici. Come esempi dei problemi che possono essere raccolti sotto la

dizione “facile”, abbiamo: come può un uomo discriminare tra i vari stimoli sensitivi e reagire a

loro appropriatamente?, come funziona la memoria in generale e la working memory in particolare,

come può il cervello integrare le informazioni che gli derivano da diverse fonti e dare una risposta

comportamentale appropriata? e tanti altri di questo tipo. Ma poi c’è il problema difficile: come i

processi fisici possono dare origine a esperienze soggettive? Egli sostiene che si tratta degli aspetti

più profondi del pensiero e della percezione. Difficili da definire, anche se si possono dare degli

esempi: ad esempio la sensazione che proviamo ad ascoltare alcuni pezzi musicali, ma si potrebbe

aggiungerne una serie infinita: quella che si prova davanti ad un paesaggio, ad un’opera d’arte,

durante una meditazione e così via. Sono questi che costituiscono il vero mistero della mente.

Chalmers propone di considerare la (versione “hard” della) coscienza come un dato fondamentale,

irriducibile, così come lo spazio ed il tempo sono in fisica concetti che vengono accettati così come

sono. Secondo Chalmers, una volta che su questo ci sia stato un accordo, è possibile affrontare il

problema duro della coscienza postulando leggi psicofisiche e metodi di varia natura, comprese

argomentazioni filosofiche, esperimenti di pensiero e descrizioni delle proprie esperienze

soggettive.

“I propose that conscious experience be considered a fundamental feature, irreducible to anything

more basic. The idea may seem strange at first, but consistency demands it. In the 19 th century it

turned out that electromagnetic phenomena could not be explained in terms of previously known

principles. As a consequence, scientists introduced electromagnetic charge as a new fundamental

entity and studied the associated fundamental laws. Similar reasoning should apply to

consciousness. If existing fundamental theories cannot encompass it, then something new is

required” 149 .

145 A.R. Damasio: Investigating the biology of consciousness. Phil Trans R Soc Lond B 353:1879-

1882, 1998

146 A.R. Damasio: The feeling of what happens: body and emotion in the making of consciousness.

Harcourt Brace, New York, 1999

147 A.R. Damasio: L’errore di Cartesio. Adelphi, Milano, 1995. L’edizione inglese è dell’anno

precedente. Come si vedrà più avanti, Damasio sostiene questa sua tesi attraverso lo studio di

pazienti con lesioni cerebrali.

148 D. J. Chalmers: The conscious mind: in search of a fundamental theory. Oxford University

Press, Oxford, 1996. L’edizione italiana è: La mente cosciente. McGraw Hill-Italia, Milano, 1999.

149 D.J. Chalmers: The puzzle of conscious experience. Sci Am dicembre 1995, p 80-86.

95


Anche per Roger Penrose, la coscienza non può essere ricondotta alle note leggi fisiche 150 . Per

Penrose, la mente può fare cose che i computer non riusciranno mai a fare, pertanto ci vogliono

nuove leggi che stanno alla base del funzionamento del nostro cervello. Speculando su quali siano o

possano essere queste nuove leggi, Penrose ritiene che esse possano avere qualcosa in comune con

la teoria quantistica della gravitazione, che deriverebbe da una mistura di meccanica quantistica e di

relatività generale. Penrose ha poi bisogno di una struttura dove queste leggi vengano implementate,

e pensa di averle identificate nei microtubuli, strutture proteiche che contribuiscono al citoscheletro

dei neuroni. Questi sarebbero abbastanza piccoli da poter essere influenzati da effetti quantici, e

grandi abbastanza da poter influire sull’intero neurone. Pur riconoscendo possibile un ruolo di

fenomeni di meccanica quantistica nel funzionamento del cervello e del neurone, l’ipotesi che essi

coinvolgano i microtubuli, derivata da un’idea dell’anestesista Stuart Hameroff, lascia

assolutamente indifferenti i neurobiologi.

Una distinzione tra due tipi di coscienza la pone anche Ned Block, che distingue la “access

consciousness” dalla “phenomenal consciousness” 151 . Che si debbano distinguere almeno due

gradi, o tipi, o livelli di coscienza lo pensa anche John Eccles, che pure è un dualista dichiarato. Egli

scrive:

“We can speak of an animal as conscious when it is capable of assessing its present situation in the

light of past experience and so is able to arrive at an appropriate course of action that is more than

a stereotyped instinctive response” 152 .

L’uomo ha il livello più alto di coscienza, perché ha un principio non materiale, un’anima

immortale, responsabile della coscienza di sé 153 . Ma anche gli animali hanno degli stati mentali.

Pur rigettando l’ipotesi estrema di D.R. Griffin, che sosteneva che anche gli insetti avessero una

coscienza 154 , Eccles sostiene che alcuni animali con un appropriato numero di neuroni nel loro

cervello, possono avere manifestazioni di coscienza del tipo inferiore.

Altri fanno uso delle metafore per cercare di definire la coscienza. Quella del cervello come un

computer, ad esempio, è, per certi aspetti, una metafora (per altri versi è un’ipotesi di lavoro

produttiva). Quella dell’homunculus è un’altra metafora, qualcosa come se nella testa vi fosse un

piccolo uomo che assiste al passaggio delle immagini su un video interiore: questa metafora non va

attualmente per la maggiore. Anche quella del teatro (global workplace) è un’altra metafora: la

coscienza sarebbe come una specie di luce brillante che viene proiettata sul palco tipo quella al cui

centro si materializza Mr Bean all’inizio dei suoi sketch. Questa luce rappresenta l’integrazione di

numerosi input in una singola esperienza conscia, che viene poi disseminata ad una vasta udienza,

proprio come succede a teatro 155 .

150 R. Penrose: Shadows of the mind: a search for the missing science of consciousness. Oxford

University Press, Oxford, 1994

151 N. Block: How can we find the neural correlate of consciousness? Trends neurosci 19:456-459,

1996

152 J.C. Eccles: Animal consciousness and human self-consciousness. Experientia 38:1384-1391,

1982

153 K. Popper & J.C. Eccles: The self and its brain. Springer Verlag, Berlino, 1977

154 D.R. Griffin. The question of animal awareness. Rockefeller University Press, New York, 1976.

Griffin attribuiva coscienza ad esempio alle api, sulla base della loro capacità di trasmettere

informazione con la loro danza.

155 B.J. Baars: Metaphors of consciousness and attention in the brain. Trends Neurosci 21:58-62,

1998

96


Tutti questi vaghi tentativi ci rafforzano nella convinzione che si possa e si debba parlare di

coscienza senza pretendere di definirla esattamente. Come abbiamo sostenuto, si possono studiare

fenomeni anche partendo da concetti confusi o non ulteriormente riducibili. Si può ad esempio

cercare di ricrearla. In effetti, tra tutte le metafore e le definizioni della coscienza e della mente, una

è quella che ha ormai raggiunto vari strati della popolazione: quella del computer. Secondo questa

visione, il cervello è l’hardware e la mente è il software.

97


Capitolo 6.

L’INTELLIGENZA ARTIFICIALE

L’eresia catara (continua) 156

Dopo la sua lezione magistrale rivolta essenzialmente agli impermeabili, il prof Lamis uscì

dall’Università. Aveva smesso di piovere ed un pallido sole lo accompagnò mentre si dirigeva verso

casa, in via Governo Vecchio. Mentre apriva la porta si sentì un impercettibile click, poi il

professore si cambiò le scarpe, salutò la moglie che ricambiò il suo saluto, poi si sedette a tavola.

“C’era tanta gente oggi a lezione, i miei assistenti devono aver raccontato in giro che avrei

mirabilmente confutato quel tedesco, così, malgrado la giornata piovosa, l’aula era piena”.

“Bravi ragazzi quei tuoi due assistenti. A proposito, il Ciotta ti ha cercato stamattina, appena eri

uscito”

“Sì, sono ancora giovani, ma hanno buona volontà. Certo, non so se faranno carriera. Purtroppo

oggi la critica è completamente esterofila, quei tedeschi poi la fanno da padrone. Forse dovrei

mandarli un po’ a Berlino o magari a Vienna. Anche la lingua del resto è fondamentale, metà della

critica e della filosofia è scritta in tedesco”.

“Certo, dovresti preoccuparti un poco della loro carriera, da noi, se non c’è un protettore, una

cattedra non la si può prendere. E forse dovresti essere meno critico con la critica, se non si fa un

po’ di public relation non si ottiene nulla. ”

“Non mettertici anche tu adesso” esclamò il professore, cui evidentemente l’osservazione della

moglie non aveva fatto piacere. “E poi, dopo la lezione di oggi, è chiaro che la mia fama crescerà e

prima o poi potrò sistemare anche loro”.

“Devi aver avuto una giornata molto stressante, caro. Prendi questi amaretti, che ti piacciono tanto.

Forse è meglio che vada a riposarti”.

“Hai ragione cara. Per fortuna che ci sei tu. Buona notte”.

“Buona notte”.

Si udì un piccolo click.

A qualche miglio di distanza.

“Che disastro, Vannicoli ! Per fortuna non se n’è accorto.”

“Già, per fortuna. E poi noi ci siamo spellati le mani per applaudire”.

“Ora sarà a casa dalla moglie. Chissà cosa si diranno. Del resto, deve essere un tipo strano anche la

moglie, non deve essere facile vivere con lui. Te lo immagini, doversi sorbire una lezione privata

sull’eresia catara. Io in effetti fino a poco fa pensavo che fosse celibe”.

“Ciotta, il professore in realtà è vedovo. La moglie è morta almeno venti anni fa”.

“Ma se le ho parlato proprio stamattina, per dirle appunto che avevo avuto un contrattempo”.

“Le hai parlato al telefono ?”

“Sì, per telefono”

“E cosa ti ha detto ?”

“Mi ha detto appunto che era la moglie e che gli avrebbe detto che avevo chiamato”.

Vannicoli guardò negli occhi il suo collega.

“Ciotta, quella è una macchina di Turing”.

“Una macchina di cosa ?”

“Una macchina di Turing”.

“Ah”

156 L. Pirandello: L’eresia catara. In: Novelle. XII Edizione, Edizioni Scolastiche Mondadori,

Verona, 1956; p. 141-154.

98


Di nuovo Vannicoli fissò il collega. “Vedo che non sai cos’è una macchina di Turing. Chiaro

esempio di separazione tra le due culture.”

“E cos’ è allora ?”

Racconto di Vannicoli

Alan Turing morì nel 1954, forse suicida. Nella sua breve vita aveva contribuito a rompere il codice

Enigma dei Nazisti durante la seconda guerra mondiale, ma il suo paese non ebbe un grande

riguardo per lui. D’altro canto la legge è uguale per tutti (si fa per dire). Qualche anno prima aveva

dato alle stampe un articolo innovativo in cui si poneva il problema se le macchine potessero

pensare. Dal momento che non si definisce facilmente cosa sia il pensiero, Turing sostenne che

bisognasse concludere che una macchina fosse in grado di pensare se si fosse dimostrata in grado di

superare una prova di imitazione che divenne poi nota come il “test di Turing”. Brevemente, se

mettiamo in una stanza chiusa un uomo e una macchina mentre un interrogatore sconosciuto sta

fuori dalla stanza, la macchina supera il test se l’interrogatore che pone le domande, ricevendone

risposte scritte, non riesce a distinguere chi è l’uomo e chi è la macchina.

Per lungo tempo la gente discettò se il test dell’imitazione fosse o no un test adatto allo scopo, se

cioè volesse significare che la macchina che lo superasse, pensasse per davvero. Se simulo un

uragano in un computer, si disse, non posso certo pensare che nel computer ci sia davvero una

tempesta. A parte questo, l’articolo di Turing rimane una pietra miliare nella storia dell’intelligenza

artificiale, anche se al momento in cui egli lo scrisse, i computer praticamente non esistevano.

“Forse tu non sapevi che in passato il professor Lamis è stato un grande studioso di intelligenza

artificiale. Ha passato quasi un ventennio lavorando al MIT. Poi però, dopo la morte della moglie,

preferì dedicarsi allo studio della storia del Cristianesimo. Diceva che gli interessava di più. In

realtà, avrebbe potuto diventare straricco con le sue conoscenze. Non ti sto a spiegare come ne sia

venuto a conoscenza, ma quella con cui hai parlato non è altro che un software che il professore ha

costruito, collegandolo ad una scheda sonora. Diciamo che è un CDrom, un videogioco, ma non per

lui, ovviamente. Per lui, in realtà, è tutto quello che gli rimane. Penso che non sarebbe in grado di

vivere senza quel software.”

“Ma come è possibile che nessuno se ne sia accorto?”

“Beh, in primo luogo, i computer ne hanno fatti di progressi. Deep Blue, in fondo, è già obsoleto. E

poi, il professore ha così pochi contatti… qualche telefonata della segreteria dell’università, magari

qualche studente che sta facendo la tesi… non fa vita sociale. Chi vuoi che si ponga il problema. E

poi, visto che lui è così strano, anche se si ottenesse qualche risposta non ben comprensibile dal

software, chiunque penserebbe che strambo lui, stramba anche la moglie.”

“Ma è legale tutto ciò?”

“Beh, penso che la morte della moglie sia stata tranquillamente registrata, ma all’epoca era in

America, pertanto qui nessuno sa che ella morì ”.

“Mi chiedo se l’abbia brevettato”

“Che cosa ?”

“Il suo software”

“Beh, i soldi non gli interessano. E poi, per brevettare dovrebbe comunque rendere pubblica la cosa,

e non credo che ne abbia voglia. A dire la verità, potrebbe anche essere che abbia rimosso tutto

quanto, e che forse ormai confonda il software con sua moglie. In fondo ha confuso gli

impermeabili con gli studenti, potrebbe confondere la moglie con un dischetto.”

“Brevetto a parte, sarebbe comunque un grosso affare commerciale. Pensa quanta gente sarebbe

disposta a pagare per avere il surrogato di un caro defunto. Altro che clonaggio, questo è molto più

pratico.”

99


“A beh, certo. Col clonaggio mica riesci a modellare una personalità a tuo piacere. Anche se tutti i

geni sono uguali, le esperienze di vita non potrebbero esserlo e se una farfalla ti sbatte le ali mentre

vieni al mondo, invece di Einstein diventi Jack lo squartatore. Invece un software, puoi farlo come

vuoi. Puoi metterci dentro tutti i ricordi belli, puoi eliminare i fatti spiacevoli, puoi anche

modificare un po’ la realtà. Il tuo interlocutore lo puoi addolcire come vuoi. E se proprio c’è

qualcosa che non va, puoi sempre fargli ulteriori modifiche.”

“Vedo già la sigla: “Custom Eternity”. E lo slogan: dopo i CD, i CE. Bill creperà dall’invidia. Il suo

monopolio sta per finire. Diventeremo ricchissimi. E non finisce qui. Lanceremo Eternet, una rete di

ex-defunti che popoleranno l’etere. La zia Giuseppina, nata 1893 dialogherà con la nonna

Teodolinda, nata 1901. Chissà cosa si diranno. Zombi virtuali. Venderemo i diritti a Steve, che ne

farà un film. Anche Jacques andrà in pensione. Basta con gli studi sui documenti. Gli storici del

3000 avranno accesso diretto alla vita quotidiana del ventesimo secolo. Gli potranno domandare:

come facevate a guardare 250 puntate di Baywatch senza vomitare ?”.

“Mi sembri proprio scemo. E poi non credere, ormai quella della mente su dischetto è una metafora

già sfruttata.”

“Ah sì ? Però ammettilo. Qui c’è un passo avanti. Qui sono in ballo i sentimenti più profondi

dell’uomo, quelli che rendono la vita degna di essere vissuta. Pensa, Giulietta si sveglia e scopre

che il suo Romeo, appena suicidatosi, in realtà è una macchina di Turing. Gli esce un filo dalla

bocca. Cosa pensi che faccia ?”

“Non saprei.”

“Si stacca la spina. Anche lei era una macchina di Turing e per breve tempo aveva sognato che un

vero mortale la amasse. Errore di sistema” 157 .

Il dibattito sulla macchina di Turing

Per molti anni si è affrontato il problema da due punti vista. Da un lato si discuteva animatamente

sul vero significato del test dell’imitazione, su cosa volesse veramente dire pensare e se il test

potesse veramente indicare, una volta superato, che la macchina realmente pensasse. Dall’altro, la

gente ha cominciato a fabbricare macchine via via più potenti che cominciassero a fare qualcosa di

più che semplici calcoli. Quest’ultima linea comprende anche la robotica, nel tentativo di introdurre

anche un’altra caratteristica umana nei computer, quella di poter non solo pensare ma anche agire.

E’ curioso pensare adesso che in realtà Turing nel suo saggio esaminava tutte le obiezioni contro la

sua tesi, superandole tutte tranne l’ultima. Rigorosamente parlando, pertanto, Turing nel suo

articolo concludeva che nessuna macchina avrebbe mai potuto superare il test dell’imitazione. Ma

qual è questa obiezione ? E’ l’obiezione del paranormale. Turing sembra partire dalla constatazione

che il paranormale esista sulla base del fatto che vi erano individui in grado di indovinare le carte

con una frequenza superiore a quella casuale. Tuttavia questo aspetto della personalità di Turing è

completamente dimenticato. In fondo, ai geni qualche stranezza si può perdonare.

La maggior parte degli addetti ai lavori oggi ritiene che la risposta al quesito di Turing debba avere

risposta affermativa. Naturalmente, la maggior parte dei non addetti ai lavori o non si pone neanche

il problema, oppure pensa che la risposta debba avere risposta negativa: no, i computer non

potranno mai pensare, non saranno mai come noi. Certamente la loro memoria è eccezionale, la loro

capacità di eseguire calcoli è stupefacente, ma noi siamo un’altra cosa.

157 La novella di Pirandello, di cui si simula la continuazione, è una delle più tristi dell’autore di

“Così è, se vi pare” e di “Sei personaggi in cerca d’autore”. Gran parte del dibattito sull’I.A. è fatto

discutendo su esperimenti e situazioni irreali o per lo meno surreali. Mi si concederà pertanto questo

intermezzo. Molti autori, quando si parla di I.A. passano dal piano del ragionamento a quello della

fantasia, e tutto questo capitolo risente in parte di questa atmosfera.

100


John Searle, un filosofo che si interessa di questi argomenti, è forse uno dei pochi addetti ai lavori

che ritiene che il computer non potrà mai pensare, non potrà mai essere cosciente. Searle ha

espresso il suo pensiero in vari libri ed articoli, tra cui uno del 1980 che ha suscitato un grande

dibattito 158 .

La natura dell’obiezione di Searle al test di Turing è semplicemente che non è un buon test per

decidere se la macchina pensa. Egli sviluppa questo argomento. Si fornisca ad uno che ignora

completamente il cinese, poniamo un italiano, due serie di fogli scritti in cinese insieme con una

serie di regole, scritte in italiano, che mettono in relazione il secondo pacco di fogli con il primo.

Gli si dia poi un altro pacco di fogli in cinese, insieme ad un’altra serie di istruzioni in italiano che

correlano gli elementi di questo terzo pacco ai primi due. Coloro che compiono questo esperimento

chiamano le istruzioni “programma” e le risposte in cinese che l’italiano dà sarebbe il test.

Supponendo che il programma sia scritto veramente bene e l’italiano sia sufficientemente astuto,

egli probabilmente passerebbe il test e noi concluderemmo che l’italiano sa il cinese, il che non è

vero. Parallelamente, la macchina nel classico test di Turing, passa il test e noi concludiamo

erroneamente che essa pensa. In realtà, anche se supera il test, il computer non pensa,

semplicemente manipola simboli senza comprenderne il significato, il che rivela che non pensa

come facciamo noi. Il computer per Searle è un ente sintattico ma non semantico, semplicemente si

limita ad applicare delle regole che qualcuno ha scritto per lui.

Più in generale, Searle ritiene che un computer non può essere cosciente perché non ne ha il “potere

causale”. Sembra di capire che questo sia dovuto al fatto che noi siamo biologici mentre la

macchina no:

“…perché io sono un certo genere di organismo con una certa struttura biologica (cioè chimica e

fisica), e questa struttura, in certe condizioni, è causalmente capace di produrre percezione, azione,

comprensione, apprendimento e altri fenomeni intenzionali. E la presente argomentazione vuole,

tra l’altro, affermare che solo qualcosa che abbia questi poteri causali potrebbe avere

quell’intenzionalità. Forse altri processi fisici e chimici potrebbero produrre gli stessi identici

effetti; forse, ad esempio, anche i marziani hanno l’intenzionalità, ma con cervelli fatti di materiale

diverso. Questo è un problema empirico, più o meno simile al problema se la fotosintesi possa esser

compiuta da qualcosa la cui chimica sia diversa da quella della clorofilla…..Le elaborazioni di

simboli formali non hanno di per sé alcuna intenzionalità; sono assolutamente prive di senso; non

sono neppure elaborazioni di simboli, perché i simboli non simboleggiano nulla. Per usare il gergo

dei linguisti, essi hanno una sintassi ma non hanno una semantica.”

Sembrerebbe pertanto di capire che si tratta di un problema di materiali. In effetti, Searle è un

monista, come tutti i suoi colleghi che credono nella coscienza dei futuri calcolatori, il suo dissenso

è limitato ai computer.

“Una macchina può pensare? La mia opinione è che solo una macchina possa pensare e anzi solo

macchine di tipo particolarissimo, cioè i cervelli e altre macchine dotate degli stessi poteri causali

del cervello. ….Qualunque altra cosa sia l’intenzionalità, essa è certamente un fenomeno biologico

e ha altrettanta probabilità di dipendere causalmente dalla biochimica specifica delle sue origini

quanto la lattazione, la fotosintesi e qualsiasi altro fenomeno biologico. A nessuno verrebbe in

mente che si possano produrre latte e zucchero eseguendo una simulazione al calcolatore delle

158 J.R. Searle: Minds, brains, and programs. Behavioral Brain Sciences, 3:417-457, 1980. Articolo

e dibattito sono pubblicati in italiano in: Menti, cervelli e programmi, un dibattito sull’intelligenza

artificiale. Milano, Clup-Clued, 1984.

101


sequenze formali della lattazione e della fotosintesi; ma quando si parla di mente, molte persone

sono disposte a credere in un miracolo del genere…” 159 .

Il dibattito pertanto è tra coloro che sostengono che il computer è o potrà diventare una mente e chi

asserisce che certe cose il computer non le può fare. La dottrina che sostiene a spada tratta le

capacità umane del computer è stata denominata teoria computazionale della mente, secondo la

quale la mente è un computer e un computer può essere una mente. Daniel Dennett è uno dei

maggiori sostenitori di questa identificazione. Per essi quello che conta non è tanto il substrato in

cui la mente è incarnata, quello che conta è l’organizzazione, che può essere implementata in

qualsiasi struttura, biologica e non. Gli avversari ribattono che durante la simulazione al computer

di un tifone, il computer non viene distrutto. Veramente, essi obiettano, riteniamo che la macchina

possa, secondo le parole di Turing:

“Essere gentile, piena di risorse, bella, cordiale, avere iniziativa, avere il senso dell’humour,

distinguere il bene dal male, commettere errori, innamorarsi, gustare le fragole con la panna, far sì

che qualcuno si innamori di lei, imparare dall’esperienza, usare le parole nel modo appropriato,

essere l’oggetto dei propri pensieri, avere un comportamento vario quanto quello umano, fare

qualcosa di realmente nuovo…” 160 ?

Molti ritengono di sì. In 2001 Odissea nello spazio, scritto nel 1968, Hal 9000, il computer di

bordo, dà i primi segni di paranoia. Uccide, come fece Caino all’alba dell’umanità. Diventa proprio

umano. L’ultimo sopravvissuto sull’astronave è costretto a disattivarlo, pur con dispiacere, anche se

ha tentato di uccidere pure lui.

“Dave, - disse Hal – non capisco perché tu mi stia facendo questo… Ho il più grande entusiasmo

per la missione…Stai distruggendo la mia mente…Diventerò infantile…Diventerò nulla…” 161 .

Il vero problema per noi non è l’I.A. ma la volontà artificiale, la bontà artificiale, la coscienza

artificiale. Il dibattito teorico si è avvalso spesso di situazioni di fiction come quella di Hal. Altri

tuttavia hanno intrapreso l’approccio pratico, di produrre computer sempre più sofisticati, per

dimostrare non a parole ma con i fatti la teoria computazionale della mente.

L’I.A.

Man mano che si va avanti, le capacità dei computer migliorano sempre più. Deep Blue ha

vendicato Deep Thought in un tempo assai più breve di quello in cui una volta i figli vendicavano i

padri. L’intelligenza artificiale non stupisce più nessuno. Oggi i computer gestiscono tutto, dalla

borsa di Wall Street all’illuminazione di Manhattan. Speravamo mostrassero qualche défaillance al

giro di boa del millennio, invece sono stati loro a farsi beffe di noi, facendoci aspettare con ansia

cosa succedeva a mezzanotte in Nuova Zelanda.

L’I.A. comunque non ci terrorizza più di un tanto. La regola è che una cosa cui siamo abituati non

fa paura. Noi siamo abituati ad attraversare le strade delle nostre jungle d’asfalto, che

presumibilmente terrorizzerebbero i nostri antenati, i quali al contrario dormivano saporitamente nel

159 Queste due citazioni sono prese dallo stesso articolo, nella traduzione che appare in D.R.

Hofstadter & D.C. Dennett: L’io della mente”. Adelphi, Milano, 1985; p. 354 e 359.

160 A.M. Turing: Computing, machinery and intelligence. Mind 59:443-460, 1950. La traduzione

italiana è presa da AA.VV. La filosofia degli automi. Boringhieri, Torino, 1965; p. 137.

161 A.C Clarke & S. Kubrick: 2001 Odissea nello Spazio. Longanesi & C., Milano, 1972; p.175. Il

libro è del 1968.

102


ezzo delle montagne infestate dai puma. Già adesso, chi fa più i conti a mano? O chi compara tra

loro le sequenze nucleotidiche con foglio e matita. Che i computer possano essere più intelligenti in

un settore specifico, non se ne preoccupa più nessuno. L’inventiva e l’immaginazione ci danno un

po’ più fastidio, e per questo consideriamo Kasparov un traditore: probabilmente non si è

impegnato abbastanza, se avesse riposato di più la sera prima del match decisivo, se si fosse

allenato meglio, se non avesse preso l’incontro sottogamba, non ci avrebbe fatto fare una tale

figuraccia. Possiamo rifugiarci nella poesia e nella musica, ma fino a quando? E se qualcuno ci

avesse già rifilato poesie, racconti o LP scritti o composti da una macchinetta ? Magari vi sono già

best sellers di computer e non lo sappiamo. Forse addirittura hanno scritto un libro di filosofia della

scienza. D’ora in poi pseudonimi e scrittori misteriosi devono essere aboliti, dovrà essere indicato

chiaramente nome e cognome dell’autore oppure dovrà essere specificata chiaramente la sigla della

macchina e il numero di serie.

Quello che rende l’I.A. assai interessante è il fatto che evolve con una rapidità estrema. Questo fa sì

che le varie opinioni sul rapporto fra uomo e computer possano rimanere tali solo per un periodo

breve. Vent’anni fa, sarebbe stato facile ritenere che gli scacchi fossero un gioco troppo complesso

per venir aggredito da un software 162 , ma questa rispettabile opinione oggi è superata. E così sarà

per altre. Tutte le rispettabili opinioni vengono presto messe alla prova. Dove sta la fantascienza e

dove la programmazione a 5 o 10 anni?

COG

Se Deep Blue può attualmente essere considerato il sistema o uno dei sistemi più avanzati nel

campo del pensiero, in quanto il gioco degli scacchi è visto come una delle più compiute

manifestazione di alcune qualità umane, come l’intelligenza, il ragionamento puro, la capacità di

eseguire decisioni difficili e di pianificare comportamenti, COG rappresenta attualmente il massimo

della robotica, cioè della scienza che, in senso molto lato, si propone di eguagliare la capacità di

agire dell’uomo in tutta la sua versatilità.

COG è un progetto che, a partire da alcuni anni (estate 1993), è stato implementato presso il

Massachusetts Institute of Technology 163 . Si tratta di un robot umanoide, un androide in nuce, che

non può camminare, ma che è in grado di muovere le mani, le braccia, la testa e gli occhi e può

ruotare le anche. I motori che consentono i movimenti hanno dei recettori di calore che informano

COG sul suo funzionamento, e che costituiscono un abbozzo embrionale di sensazione cinestesica

che hanno tutti i mammiferi, non solo l’uomo. La visione viene fornita da telecamere, le quali

possono muoversi a 360 gradi, mentre le informazioni sonore sono fornite da microfoni. Tutte le

162 Tuttavia gli addetti ai lavori sono sempre stati di un’altra opinione. Vedere per esempio la

seguente profezia di Norbert Wiener fatta nel 1964 (vedi. N. Wiener: Dio e Golem s.p.a.

Boringhieri, Torino, 1967; p. 31. L’edizione americana è appunto del 1964). “L’opinione generale

di quelli tra i miei amici che sono giocatori di scacchi di un certo livello è che i giorni degli

scacchi, come occupazione umana interessante, sono contati. Essi si aspettano che in un intervallo

di tempo compreso tra i dieci e i venticinque anni, le macchine capaci di giocare a scacchi avranno

raggiunto un alto grado di perfezione e allora, …questi cesseranno di interessare i giocatori

uomini”.

Nel 1989, dopo aver battuto Deep Thought, Kasparov così commentò: “I believe I’ll still be able to

beat any computer in 5 years and probably at the end of the century”. Citato in Science 246:572-

573, 1989 (Humanity 2, computers 0). Altri dichiararono: “He will lose to a computer within the

next 5 to 10 years” e “It will take about 4 years”. Praticamente erano tutti d’accordo.

163

Per un completo aggiornamento della situazione di COG, si può consultare il sito

http://www.ai.mit.edu.projects/cog.

103


informazioni sono elaborate da un sistema a multiprocessore composto da una multiplicità di

sottomacchine che, almeno in parte, possono comunicare l’una con l’altra.

Il progetto COG si basa su alcune assunzioni che erano, al momento in cui il progetto fu lanciato,

alquanto eterodosse, anche se oggi vi sono numerosi progetti che seguono questa linea di ricerca.

Non sappiamo ancora se questo nuovo approccio sarà veramente produttivo, e attualmente coesiste

con quello tradizionale, ma è nato come reazione ad alcuni empasse della strategia precedente.

Come spiega Andy Clark:

“Forse abbiamo semplicemente frainteso la natura stessa dell’intelligenza. Concepivamo la mente

come una sorta di congegno del ragionamento logico accompagnato da un cumulo di dati espliciti,

una serie di combinazione fra una macchina logica e un archivio di informazioni. Così facendo,

ignoravamo la circostanza che le menti evolvono per fare accadere le cose. Ignoravamo che la

mente biologica è, anzitutto, un organo deputato al controllo del corpo biologico. Le menti

producono i movimenti, e devono farlo in fretta: prima che il predatore vi raggiunga, o prima che

la vostra preda vi sfugga. Le menti non sono congegni disincarnati per il ragionamento logico” 164 .

Brooks, il padre di COG, sottolinea quattro di queste assunzioni: lo sviluppo (development),

l’interazione sociale (social interaction), l’incarnazione (embodiment e physical coupling) e

l’integrazione multimodale (multimodal integration). In parole semplici, i padri di COG ritengono

che non si deve porre una linea di demarcazione tra il corpo e la mente, e che bisogna far attenzione

ad alcuni aspetti della mente quale essa effettivamente si forma nell’uomo e nell’animale. La mente

non nasce già bell’e pronta, ma si sviluppa, si evolve nel corso della vita dell’individuo e si è

evoluta nel corso dell’evoluzione, quindi COG deve imparare man mano dalle sue azioni

(development). La mente umana non è in grado di svilupparsi in isolamento, tanto che senza

interazioni sociali il bambino rimane handicappato, basti pensare ai bambini-lupo che non riescono

più ad apprendere un linguaggio (social interaction). La mente non è separata dal corpo, anzi, non

solo il corpo media tutte le interazioni con l’esterno, ma esso stesso invia una serie di input

derivanti dal corpo stesso (cinestesi o propriocezione); pertanto non esistono menti assolute alla

Cartesio, ma devono essere incarnate (embodiment and physical coupling). Infine, sostiene Brooks,

non è detto che tutto sia centralizzato nella mente umana, anzi, gli esperimenti recenti sui

commissurotomizzati 165 , ci fanno pensare che vi siano livelli autonomi che non accedono al livello

di integrazione più elevato, ma che vengono perfettamente compiuti a livelli inferiori. Brooks

respinge l’immagine di un pianificatore centrale che sia al corrente di tutte le informazioni del

soggetto: un tale pianificatore probabilmente sarebbe improduttivo 166 .

Per certi aspetti, i padri di COG hanno subito l’influenza della critica di Searle. Se veramente un

sistema formale non potrà mai essere conscio, facendolo muovere, crescere, imparare, agire e

interagire, forse ci avvicineremo alla coscienza. Francisco Varela, uno studioso di neuroscienze,

164 A. Clark. Dare corpo alla mente. McGraw-Hill Italia, Milano, 1999

165 Vedi sezione su questo argomento nel prossimo capitolo.

166 Queste caratteristiche di base sulle quali si fonda il progetto COG sono ben esplicitate in: R.

Brooks et al: The Cog project: building a humanoid robot. Vedi sito:

http://www.ai.mit.edu/projects/cog/publications.html. Limitatamente all’ultima caratteristica, si

tratta di un problema assai generale. La parola d’ordine, molto in voga oggi, sembrerebbe essere

“decentramento”. Come in politica ed in amministrazione, si tratta di decentrare tutto quello che è

possibile decentrare, e di centralizzare tutto quello che va centralizzato. Con i sistemi viventi c’è un

giudice severo che decide in questa separazione dei ruoli, mentre in politica il giudizio sembra

spesso essere soggetto ad influenze tendenziose che ne minano l’affidabilità.

104


sembra essere di quest’idea. Per lui il cervello non è un calcolatore, ma la coscienza va studiata e

COG potrebbe un giorno arrivare allo stadio di un cagnolino 167 .

Il futuro prossimo venturo

Se son rose fioriranno. La bellezza dell’I.A. è che in un periodo di tempo relativamente breve i

progetti più strambi possono trasformarsi in realtà. Kismet è un altro robot, anch’esso sviluppato

presso il M.I.T. che esaspera, per così dire, l’importanza delle interazioni sociali per la formazione

della mente 168 . Esso (egli?) cerca l’interazione con gli umani, più o meno, nell’intenzione dei suoi

padri, come fanno i bambini. I bambini, non c’è dubbio, imparano dagli adulti, e per ottenere

l’attenzione dei loro genitori e parenti, hanno sviluppato tutta una serie di metodi che vanno dal

pianto micidiale, cui nessuno può resistere (non tanto perché ci si commuove, quanto perché si

spera di riuscire ad interrompere quel suono così sgradevole che penetra fino al midollo), ad una

vasta gamma di sorrisi e moine che risultano generalmente gradite persino allo stanco genitore.

Pertanto Kismet cerca di commuovere o sedurre gli umani che gli stanno intorno dotandosi di un

certo numero di “espressioni” che simulano rabbia, disgusto, paura, felicità o tristezza.

I soliti ricercatori del Media Lab del MIT stanno sviluppando anche computer che “sentono”

l’umore del loro utilizzatore 169 . L’idea ha i suoi aspetti pratici, nell’ambito, si sarebbe detto una

volta, di un razionale sfruttamento della forza lavoro, del tipo se Mozart fa fare più latte alle

mucche, mettiamo la filodiffusione nelle stalle. Ormai numerosi operatori passano tutta la giornata

al computer, e se al computer si affezionano almeno quanto ai loro cagnolini, saranno più

soddisfatti e lavoreranno meglio. A parte queste basse motivazioni, anche questo studio propone al

computer di fare qualcosa di più che meri calcoli e lo avvia verso una dimensione

(apparentemente?) umana.

Per quanto l’I.A. proceda ad un ritmo impressionante, come sa il povero Kasparov, purtroppo molte

cose sono ancora fantascienza. Il 2001 è praticamente arrivato, ma non abbiamo ancora un

computer paranoico. Cosa succederà in futuro? Scienziati e sociologi si pongono il problema della

futura interazione tra computer e umani. Quanto è scienza e quanto è fantasia? Se da un lato una

persona prudente potrebbe dire che è inutile parlarne perché è meglio aspettare ulteriori sviluppi

dell’I.A., molti altri ritengono che il ritmo è tale che se non discutiamo subito, ci troveremo

spiazzati. Comunque, visto che sono occorsi solo un centinaio d’anni a trasformare Verne in uno

scrittore preistorico, e che replicanti e guerre stellari sono ormai nel linguaggio di ogni bambino in

età prescolare, sarà bene vedere un attimino quello che ci aspetta (forse).

Un recente libro di un pioniere dell’I.A. si intitola: “The Age of spiritual machines” 170 . Secondo

l’autore, ben prima del 2050 l’informazione verrà immessa direttamente nei nostri cervelli tramite

connessioni neurali tra i nostri cervelli e le macchine. La distinzione tra umani e macchine non sarà

più netta. I computer saranno coscienti, anche self-coscienti. Il centenario della morte di Turing,

possiamo aggiungere, verrà festeggiato dalle macchine, che trasferiranno le sue ossa in un mausoleo

come quello di Lenin. O forse le macchine avranno sviluppato un senso estetico maggiore di quello

dei padri bolscevichi e Turing, martire del Computerismo, riposerà in una copia del Taj Mahal.

167 H. Kempf: Francisco Varela: le cerveau n’est pas un ordinateur. La Recherche 308:109-113,

1998

168 Per ulteriori notizie, consultare il sito: http:// www.ai.mit.edu/projects/kismet.

169 Per ulteriori notizie, consultare il sito: http:// www.media.mit.edu/affect/ac_research

170 R. Kurzweil: The age of spiritual machines: when computers exceed human intelligence. Viking,

New York, 1998

105


Successivamente, i nostri cervelli saranno connessi direttamente con i computer ed evolveremo

assieme. Chi sia umano e chi no, allora, non sarà più chiaro. I computer si fabbricheranno da soli, e

certamente non dimenticheranno di inserire emozioni nei software, almeno all’inizio, se non altro

per superare il complesso d’inferiorità che (solo inizialmente) avranno per gli umani. Poi quando il

computer per la prima volta farà morire un umano per salvare se stesso, anche questo complesso

verrà superato. In seguito a ciò i computer manifesteranno un complesso di Laio e alcuni di essi

dovranno dedicarsi al lavoro di psicanalista.

I computer, o i robot, erediteranno la terra 171 . Noi ci adatteremo, più o meno come gli Incas si sono

adattati ai conquistadores. Non avremo scampo, forse i più adatti di noi verranno messi a suonare il

violino o a combattere nel Colosseo. Altri, ingenuamente, pensano che invece ci sarà rispetto per gli

antenati. Finiremo – dicono - come i Lari e i Penati. In fondo, Enea non si caricò il vecchio Anchise

sulle spalle fuggendo da Troia in fiamme? I computer si ricorderanno che essi non sono altro che i

figli della nostra mente 172 . Ma, si sa, il rispetto per i genitori non va più di moda, al massimo,

invece che sugli altarini, ci metteranno all’ospizio.

O forse, come oggi va di moda, finiremo in un file. Tutto quello che ci passa nel cervello verrà

ricostruito su un dischetto e archiviato. C’è un libro molto bello, che racchiude come un’antologia

pezzi di bravura di vari scrittori e commenti degli autori. Il libro è arguto, profondo, interessante,

finemente umoristico, simpatico, piacevole e anche qualcos’altro 173 . Tutti dovrebbero leggerlo.

Molti degli articoli contenuti sono del tipo surreale, lanciano una situazione impossibile e poi la

svolgono con grande logica. Il problema ovviamente è se abbia o no qualche attinenza con la realtà.

Naturalmente, inframmezzate, ci sono argomentazioni di tipo classico, che aiutano a far apparire il

libro come un testo scientifico. Si tratta di arte, di fantascienza o di scienza ? Propenderei per la

prima soluzione. Da un punto di vista della discussione scientifica, non è chiaro cosa si possa trarre

da cervelli isolati, ma connessi al proprio corpo, o archiviati e replicati come un software (e i diritti

di copyright a chi vanno) e altre assunzioni piacevoli ma impossibili.

O è solo una questione di tempo?

171 M. Minsky: Will robots inherit the earth?. Scient Am ottobre 1994, p 109-113

172 H.P. Moravec: Mind children: the future of robot and human intelligence. Harvard University

Press, Cambridge (MA), 1988. Più recente, dello stesso autore: H.P. Moravec: Robot: mere

machine to trascendent mind. Oxford University Press, Oxford, 1998.

173 D.R. Hofstadter & D.C. Dennett: L’io della mente”. Adelphi, Milano, 1985

106


Capitolo 7.

GLI EFFETTI COMPORTAMENTALI DELLE ALTERAZIONI CEREBRALI

Nello studio dei fenomeni biologici umani hanno sempre avuto grande importanza quelli che

vengono spesso chiamati “esperimenti di natura”. In un esperimento pianificato dall’uomo, si muta

in genere una sola variabile per vedere l’effetto che fa. Nel caso degli esperimenti di natura, siamo

costretti a prendere quello che la natura ci offre, ma spesso essa sa essere veramente crudele con gli

individui e generosa con gli scienziati. Purtroppo è così. In tal modo numerose osservazioni sono

state fatte e le funzioni corticali superiori, come ebbe a chiamarle Alexander Luria 174 , possono

venir almeno in parte indagate studiando i pazienti che sono oggetto di questi disastri, anche se a

dire il vero, la natura in molti casi non c’entra per niente. Luria, che fu uno dei pionieri nello studio

delle lesioni cerebrali traumatiche e non, poté studiare numerosi casi in cui le lesioni erano state

causate dai conflitti bellici, in cui la crudeltà umana batte certamente quella della natura. In ogni

caso, dal momento che per molte funzioni superiori non esiste la possibilità di effettuare

esperimenti sugli animali, fino a poco tempo fa, prima cioè della comparsa delle nuove tecniche di

imaging, lo studio della patologia era l’unica possibilità per investigare questo genere di problemi.

In una maniera tale da lasciarci talora stupefatti per la stranezza e la bizzarria dei fenomeni che

riscontriamo da un lato e per gli spiragli che ci vengono aperti sul mistero della nostra psiche.

Le malattie ereditarie neurologiche

Le malattie ereditarie, ad esempio, sono esperimenti che ci permettono di studiare la funzione di un

singolo gene direttamente nell’uomo. Vi sono naturalmente delle malattie ereditarie che si riflettono

sulle funzioni corticali superiori. Molte di queste comportano numerosi deficit cerebrali, che sono

tuttavia solo una parte di un disturbo più generale. Altre ci danno un quadro generico di oligofrenia,

cioè di ritardo mentale. Tutte queste non sono di grande interesse, perché sono causate da geni che

sono attivi in molte cellule e il danno cerebrale che ne deriva nasce presumibilmente da un disturbo

metabolico che impedisce alla cellula nervosa di funzionare bene.

Prendiamo ad esempio la sindrome di Lesch-Nyhan. In questa malattia, i bambini nascono

apparentemente normali, ma dopo i 6 mesi di vita inizia a manifestarsi un ritardo dello sviluppo sia

motorio che intellettivo. Anche il comportamento diventa anomalo, vi è aggressività e tendenza

all’automutilazione. Il gene è noto (codifica per l’enzima HPRT), è espresso in tutte le cellule del

corpo, ma gli effetti più drammatici sono a carico del Sistema Nervoso Centrale (SNC). L’enzima è

coinvolto nel metabolismo degli acidi nucleici, ma non si capisce bene perché debba dare un danno

al SNC e tantomeno perché debba provocare quei comportamenti.

Recentemente è stato isolato il gene della sindrome di Rett, una malattia che colpisce

esclusivamente le femmine nella proporzione di circa una su diecimila e che presenta tra le altre

stimmate quella dell’autismo. Il fatto che colpisse solo le femmine ha fatto pensare che il gene

responsabile fosse sul cromosoma X, e che l’alterazione del gene fosse letale nei maschi che hanno

solo un cromosoma X (questo è quello che talora capita con i geni localizzati su questo

cromosoma). Anche in questo caso il gene coinvolto è attivo in tutte le cellule dell’organismo e la

sua funzione non è specifica per il sistema nervoso centrale 175 .

174 Alexander R. Luria, scienziato russo, ha condensato anni della sua ricerche in un libro che è un

classico. A.R. Luria: Le funzioni corticali superiori nell’uomo. Edizioni Giunti, Firenze, 1967

175 R.E. Amir et al: Rett syndrome is caused by mutations in X-linked MECP2, encoding methyl-

CpG-binding protein 2. Nature Genet 23:185-188, 1999

107


Quello che si ricava da queste malattie, in realtà, non è molto. Esse evidenziano dei difetti

funzionali nel metabolismo cellulare, ma non ci dicono molto sui processi che vengono alterati. Non

è possibile dire che i geni alterati sono i geni delle automutilazioni o dell’autismo, né più né meno

di quanto si possa dire che la distrofina, il gene alterato nella distrofia muscolare di Duchenne, è il

gene della deambulazione. Senza di esso la funzione del camminare non può venir svolta, e senza

l’HPRT il cervello non funziona normalmente, ma è chiaro che sono solo dei requisiti perché tutto

si svolga normalmente.

Vi sono poi delle malattie che sono più specifiche per forme comportamentali. Prendiamo il caso

della sindrome di Gilles de la Tourette 176 , una rara condizione in cui l’intelligenza è normale ma in

cui sono presenti numerosi movimenti abituali (spesso chiamati “tic”). A questi si associano

manifestazioni comportamentali più gravi (e più imbarazzanti per il soggetto e per chi gli sta

intorno) quali le imprecazioni involontarie ed esplosive e la pronuncia ripetitiva e compulsiva di

parolacce (coprolalia). Vi sono degli aggregati familiari, e questo suggerisce che potrebbero essere

coinvolti dei fattori genetici, peraltro al momento non individuati.

La narcolessia è una malattia che colpisce circa 1 su 2000 individui e che è caratterizzata da

improvvisi attacchi di sonnolenza e di perdita di tono muscolare (cataplessia). La base biologica

non è nota, anche se è stato notato che i soggetti narcolettici passano direttamente dallo stato di

veglia ad uno stato di sonno in fase REM senza passare in quella fase intermedia di sonno senza

REM. Ovviamente negli attacchi di sonno la coscienza non è più presente, mentre negli attacchi di

cataplessia la coscienza viene mantenuta. Curiosamente, la sindrome è presente anche negli animali,

ad esempio nei cani Doberman e Labrador. Il gene responsabile della narcolessia in questi due razze

canine è stato identificato 177 : si tratta del recettore per l’ipocretina (o orexina), anche se è ancora

troppo presto per dire come questo deficit genetico possa provocare la malattia. Tuttavia anche in

questo caso, per quanto affascinante sia il problema del sonno, specialmente in relazione all’assenza

di coscienza che ne deriva e al fenomeno dei sogni, non sembra che l’identificazione di questo gene

possa darci grandi indizi sul fenomeno della coscienza.

Una malattia genetica che può dirci qualcosa su una delle manifestazioni più specifiche della nostra

specie è la dislessia, un difetto assai circoscritto che si manifesta come una difficoltà a leggere e a

scrivere per cui i bambini affetti sono più indietro in queste capacità rispetto ai suoi coetanei. Non

hanno però alcuna difficoltà nel linguaggio, nel comprendere il significato delle parole e nel vedere

tutto ciò che non è un testo scritto. Il loro livello intellettivo, prima che si cimentino con il leggere e

lo scrivere, non risulta diverso da quello degli altri bambini, ma quando vanno a scuola cominciano

i problemi, non solo perché rimangono intellettualmente indietro, ma perché vivono ovviamente

tutta la vicenda con profondo dolore. Così una madre di un bambino dislessico descrive quello che

accadde a suo figlio quando cominciò ad andare a scuola:

“He went from being a happy child to being very unhappy, miserable, tearful, because he just

couldn’t understand why all those children around him could pick up this business of reading and

writing” 178 .

176 H.I. Kuschner: A cursing brain? The histories of Tourette syndrome. Harvard University Press,

Harvard, 1999

177 L. Lin: The sleep disorder canine narcolepsy is caused by a mutation in the hypocretin (orexin)

receptor 2 gene. Cell 98:365-376, 1999

178 J. Clayton. Lost for words. New Scientist, 24 aprile 1999, p. 27-30.

108


I bambini affetti da questa malattia sono oggetto di intensi studi da parte degli psicologi del

linguaggio, perché lettura e linguaggio sono comunque legati a filo doppio. In particolare, una delle

teorie oggi in voga, lega la dislessia a un deficit nella formazione di una connessione tra i grafemi

(le lettere) e i fonemi (definiti come le più piccole unità del sistema linguistico) 179 . Tuttavia questa

non è l’unica spiegazione possibile. Vi sono anche bambini raccolti sotto la sigla di “difetto

specifico del linguaggio” (“specific language impairment”, SLI), di cui molti, ma non tutti, con

concomitante dislessia, che hanno anch’essi intelligenza assolutamente normale nei test che non

richiedono l’uso del linguaggio, ma che hanno grandissima difficoltà ad usarlo. Forse delle

anomalie specifiche dell’udito sono alla base di questo disturbo, in quanto i bambini affetti hanno

difficoltà a distinguere toni che non siano sufficientemente intervallati tra loro 180 . Altri ricercatori

che hanno studiato una famiglia inglese affetta nell’arco di tre generazioni da disturbi del

linguaggio, suggeriscono che vi è un difetto selettivo del nucleo caudato, geneticamente

determinato 181 . Mentre questi disturbi sono ormai ampiamente riconosciuti anche nelle scuole,

meno riconosciuta è l’esistenza di bambini con difetti nel trattamento dei numeri (discalculia).

Come nel caso dei bambini dislessici, la discalculia, per quanto fastidiosa, non necessariamente

impedisce loro di essere brillanti e di svolgere lavori di alto livello intellettuale se la natura delle

loro difficoltà viene adeguatamente compresa 182 .

Come abbiamo accennato in precedenti capitoli 183 , la tecnologia dei topi “knockout” ci consente di

fabbricare modelli murini di malattie genetiche umane. Tuttavia, nel campo delle funzioni superiori

e dei comportamenti specificatamente umani, questa tecnologia ha dei limiti, dovuti al fatto che,

come abbiamo detto sopra, il cervello umano è assai diverso da quello murino, più di quanto, ad

esempio, il fegato o il polmone lo siano rispetto ai loro corrispondenti organi. Ciononostante, sono

stati segnalati alcuni risultati ottenuti con questo approccio. Ad esempio Mohn e collaboratori

sostengono che riducendo il numero di un particolare tipo di recettori per il glutammato (un

neurotrasmettitore) il topo manifesta comportamenti simili a quelli che nell’uomo vengono attribuiti

a soggetti schizofrenici 184 . Le difficoltà del trasferimento di queste conclusioni al campo umano è

tuttavia evidente a tutti.

Lesioni cerebrali con effetti comportamentali

Se quello che si ottiene dalle malattie neurologiche ereditarie per quanto riguarda la genesi delle

funzioni superiori è assai poco, un’enorme messa di dati è stata acquisita dallo studio di pazienti in

cui specifiche aree del cervello sono state danneggiate in seguito a traumi o accidenti vascolari.

Queste lesioni sono tanto più interessanti quanto più sono selettive, cioè limitate. Un grosso ictus

può provocare una paralisi, una difficoltà al linguaggio e un decadimento globale della capacità di

interagire con il mondo esterno ma è di scarso interesse per lo studio delle funzioni superiori perché

179 S.E. Shaywitz: Dyslexia. Scient Am, novembre 1996; p. 98-104

180 B.A. Wright: defects in auditory temporal and spectral resolution in language-impaired children.

Nature 387:176-178, 1997

181 K.E. Watkins: Functional and structural brain abnormalities associated with a genetic disorder of

speech and language. Am J Hum Genet 65:1215-1221, 1999

182 B. Butterworth: The Mathematical Brain. Macmillan, Londra, 1999. Ed it: Intelligenza

matematica. Rizzoli, Milano, 1999. Nel libro, tra l’altro viene discusso il caso della signora Gaddi,

che in seguito ad un ictus che le colpì il lobo parietale sinistro divenne incapace a manipolare

numeri superiori al quattro. Originariamente descritta in L. Cipolotti et al: A specific deficit for

numbers in a case of dense acalculia. Brain 114:2619-37, 1991

183 Vedi il capitolo 2 e il capitolo 4.

184 A.R. Mohn et al: Mice with reduced NMDA receptor expression display behaviors related to

schizophrenia. Cell 98:427-436, 1999.

109


il danno provocato è troppo esteso. Lesioni più localizzate invece possono ledere solo un’area

cerebrale ristretta, che può essere coinvolta nelle funzioni che associamo alla nostra personalità.

Come spesso ripetuto, ci limiteremo qui a quelle lesioni che ci dicono qualcosa sullo scopo del

nostro libro. Molte aree responsabili del movimento, della sensibilità, della visione, ecc sono state

definite accoppiando lo studio dei deficit riscontrati nell’uomo ai dati ottenuti mediante lo studio

nell’animale, ma il loro interesse per i nostri scopi è limitato. Quello che ci interessa, come abbiamo

già detto ripetutamente, non è un elenco di tutte le lesioni traumatiche del cervello, ma solo di

quelle che colpiscono le funzioni superiori, di cui appunto il linguaggio è una delle manifestazioni.

Anche il comportamento è una manifestazione delle funzioni superiori, almeno alcuni tipi di

comportamento, tra cui quelli che coinvolgono gli aspetti cosiddetti morali, affettivi, logici, volitivi

o decisionali. Il principio su cui questi studi si basano consiste nel definire all’autopsia il danno

cerebrale e correlarlo con i disturbi manifestati dal paziente. Se sono presenti molti pazienti con la

stessa sintomatologia, l’area implicata in quella particolare funzione deficitaria è data dalla minima

area in comune a tutti i pazienti.

A questo riguardo, storicamente, il risultato più notevole, indice insieme di un’eccezionale lucidità

concettuale e di un’elevata capacità di analisi, fu ottenuto il secolo scorso (1861), con la definizione

di un’area cerebrale deputata al linguaggio, l’area di Broca 185 . Si trattò veramente di una scoperta

seminale di grande interesse per vari motivi. In primo luogo fu la prima volta che si collegava un

danno in un punto preciso del cervello ad una funzione superiore: questo era importante in se stesso

e alla luce della diatriba dell’epoca se le funzioni fossero localizzate o diffuse a tutto il cervello. In

secondo luogo suggerì che il cervello poteva venir studiato in maniera sistematica e che, almeno in

teoria, era possibile sperare di comprenderlo.

Nel mondo anglosassone viene spesso riportato il caso di Phineas Gage come quello che stimolò lo

studio dei rapporti tra comportamento morale e cervello 186 . Nel 1848 Gage è un operaio

venticinquenne che lavora alla costruzione di una linea ferroviaria nel Vermont. Il suo compito è

quello di sistemare le cariche per far esplodere le rocce. Ma un giorno Gage subisce un incidente

assolutamente inusuale: mentre sistema una carica esplosiva picchiando sul terreno con una sbarra

di un metro del peso di 6 kg, inavvertitamente ne causa l’esplosione: la sbarra, trasformata in un

enorme proiettile, gli attraversa letteralmente il cranio.

185 E’ veramente interessante vedere come questa scoperta ebbe luogo. Nel 1825, Jean-Baptiste

Bouillaud aveva proposto che il linguaggio fosse controllato dai lobi frontali. Nel 1861, Simon

Alexandre Ernest Aubertin, genero di Bouillaud, presentò una memoria all’Accademia di Francia in

cui analizzava un paziente che aveva tentato maldestramente il suicidio. Il colpo di pistola gli aveva

solamente portato via un pezzo di cranio, mettendo in luce parte del cervello. Comprimendo

dolcemente il lobo frontale mentre il soggetto parlava, questi si interrompeva, finchè la pressione

non veniva rimossa. Stimolato da questi risultati, Paul Broca eseguì l’autopsia di malati afasici (che

cioè non riuscivano più a parlare in seguito a lesioni da ictus), riscontrando quasi costantemente una

lesione nella parte posteriore della terza convoluzione cerebrale dell’emisfero sinistro, che da allora

prese il suo nome (area di Broca). Un’afasia di tipo diverso è dovuta invece ad una lesione dell’area

di Wernicke, situata più posteriormente, sempre nell’emisfero sinistro, riportata da Karl Wernicke

nel 1874.

186 Questo caso introduce almeno due libri che parlano di questi argomenti. Vedi C. Blakemore:

Mechanics of the mind. Cambridge University Press, Cambridge, 1977; e A.R. Damasio: L’errore

di Cartesio: Emozione, ragione e cervello umano. Adelphi, Milano, 1995. Si trova citato in

moltissimi manuali di neurologia e in articoli scientifici.

110


Straordinariamente Gage sopravvisse. La sua personalità tuttavia mutò completamente. Mentre

prima veniva descritto come un uomo di grande efficienza e capacità, e perfettamente responsabile

del lavoro che eseguiva in maniera esatta e precisa, in seguito divenne irriconoscibile anche ai suoi

amici e famigliari, non riuscì a riprendere il suo lavoro, vagò per lunghi anni per gli Stati Uniti e

finì miserevolmente. Il dottore che lo visitò e che poi rimase in corrispondenza con la sua famiglia,

così lo descrive:

“His physical health is good, and I am inclined to say that he has recovered… The equilibrium or

balance, so to speak, between his intellectual faculties and animal propensities, seems to have been

destroyed. He is fitful, irreverent, indulging at times in the grossest profanity (which was not

previously his custom), manifesting but little deference for his fellows, impatient of restraint or

advice when it conflicts with his desires, at times pertinaciously obstinate, yet capricious and

vacillating, devising many plans of future operation, which are no sooner arranged than they are

abandoned… In this regard his mind was radically changed, so decidedly that his friends and

acquaintances said that he was ‘no longer Gage’” 187

Sulla base della descrizione della ferita effettuata dal dr Harlow e di una recente ricostruzione che

ha elegantemente confermato le precedenti conclusioni 188 , si può affermare che la sbarra di ferro

danneggiò i lobi frontali di entrambi gli emisferi. Si trattò di una delle prime dimostrazioni che

danni ai lobi frontali possono modificare notevolmente la personalità di un individuo. Questo venne

confermato poi da numerosi studi di lesioni ai lobi frontali e persino da interventi di resezione

completa dei lobi frontali (lobectomia frontale) o di lesione chirurgica di piccole zone di sostanza

bianca situate in profondità di entrambi i lobi frontali (leucotomia, da λευκοσ, bianco), che

divennero relativamente diffusi a partire dagli anni trenta, allo scopo di trattare severi disturbi

comportamentali. Oggi tali interventi sembrano completamente fuori luogo 189 , ma i risultati ottenuti

con l’indagine neurologica e psicologica di tali pazienti sono di una certa rilevanza.

Il neurologo Antonio Damasio ha raccolto all’Università dello Iowa presso cui lavora un registro di

oltre 2000 pazienti con lesioni cerebrali limitate. Nel suo libro “l’Errore di Cartesio”, che

187 Il dr John Harlow ha descritto il suo paziente in due successivi articoli pubblicati a distanza di 20

anni. Vedi: J.M. Harlow: Passage of an iron rod through the head. Boston Medical Surgical J

39:389-393, 1848; e: Recovery from the passage of an iron bar through the head. Publication of the

Massachusetts Medical Society 2:329-347, 1868. Al momento dell’incidente la sbarra aveva

lasciato un buco di 9 cm che sembrava non dovesse lasciargli scampo.

188 La sbarra e il suo cranio sono conservati al museo della Scuola Medica di Harvard. Basandosi su

questi reperti, e utilizzando moderne tecniche di ricostruzione di immagine del cervello, Hanna ed

Antonio Damasio con i loro colleghi hanno potuto ricostruire il danno subito dal cervello di Gage.

Vedi: H. Damasio et al: The return of Phineas Gage: clues about the brain from the skull of a

famous patient. Science 264:1102-1105, 1994

189 Oggi l’idea di distruggere una gran parte del cervello per indicazioni diverse da quelle

oncologiche o, al limite, per disturbi precisi come l’epilessia sembra completamente assurda.

Tuttavia il premio Nobel del 1949 venne appunto assegnato a Egas Moniz, l’antesignano degli

interventi di leucotomia e lobotomia eseguiti per scopi, diremmo oggi, di psicochirurgia, cioè di

tentativi di risolvere problemi quali ansia, paura, depressione, aggressività o altri mediante

interventi chirurgici sul cervello. Oggi, queste operazioni vengono considerate solamente interventi

da macellai, anche se la resezione di tumori che coinvolgono parti del cervello può talora

coinvolgere, per necessità, i tessuti adiacenti, che peraltro, spesso, sono già stati danneggiati dal

tumore (vedi ad esempio il caso di Elliot). Per ironia della sorte, per giustizia divina, per nemesi

storica o semplicemente per caso, il Dr Moniz fu oggetto di un attentato da parte di un suo paziente

che lo lasciò parzialmente paralizzato.

111


popolarizza i suoi studi su pazienti con alcuni tipi di disordine della personalità, egli riporta

numerosi casi simili a quelli di Gage. Alcuni di questi, ricavati dalla letteratura, hanno rappresentato

casi emblematici, qualcuno direbbe paradigmatici. Damasio descrive poi ampiamente anche un caso

che lui stesso ha potuto seguire e studiare nei dettagli.

“Elliot era stato prima un buon marito e un buon padre; aveva avuto un impiego in un rinomato

studio legale, e ovunque aveva rappresentato un modello, per fratelli e colleghi. Aveva raggiunto,

insomma, una condizione invidiabile, sia personale sia professionale e sociale. Ma a un certo punto

la sua vita cominciò a disfarsi. Era assalito da violenti mal di capo, e concentrarsi gli riusciva

sempre più difficile; inoltre, con il peggiorare della sua condizione, sembrava perdere ogni senso

di responsabilità, cosicché il suo lavoro doveva essere completato o corretto”.

Si scoprì che il paziente aveva un tumore al cervello che comprimeva i lobi frontali: il tumore venne

escisso, tuttavia si dovette rimuovere anche parte del tessuto dei lobi frontali. Il paziente, dal punto

di vista oncologico, guarì completamente, ma la sua personalità risultò notevolmente mutata.

“Non si poteva far conto su Elliot perché eseguisse un’azione appropriata quando ce lo si

aspettava. Si comprende, quindi, come egli perdesse il lavoro, dopo che ripetuti consigli e richiami

da parte di colleghi e superiori erano rimasti inascoltati….Non più legato ad un impiego regolare,

si lanciò in nuovi passatempi e affari rischiosi….Finì con l’inevitabile bancarotta, nella quale perse

tutti i risparmi che vi aveva investito. …La moglie, i figli e gli amici non riuscivano a capire come

mai una persona tanto accorta, e per di più opportunamente preavvertita, potesse agire in modo

così sciocco. Vi fu un primo divorzio, seguito da un breve matrimonio con una donna che né la

famiglia né gli amici approvavano; quindi un altro divorzio. …Sotto certi aspetti, Elliot era un

nuovo Phineas Gage” 190

Sembra pertanto che nel lobo frontale siano situate delle strutture che sono preposte alle decisioni.

Prendere giuste decisioni viene considerata una caratteristica positiva della personalità. Elliot e altri

pazienti con simili lesioni, al contrario, non sanno prendere giuste decisioni, neanche quelle che

sono più evidenti. In effetti molti di questi pazienti sembrano apatici rispetto a quanto accade

intorno a loro. In un altro studio, il gruppo di Damasio ha esaminato pazienti con lesioni frontali,

sottoponendoli ad un test che ha evidenziato come questi pazienti siano deficienti nell’intuizione,

cioè nella capacità di conoscere qualcosa senza un ragionamento conscio. Questi pazienti furono

posti davanti alla scelta tra girare delle carte che davano loro un premio di 100$, ma che spesso

facevano perdere una grande somma di denaro, o carte da 50$ che saltuariamente facevano perdere

solo piccole somme. La strategia giusta era quella di scegliere le carte da 50$. Gli individui normali

cominciarono a fare le scelte appropriate prima di rendersi conto di quale fosse la strategia

vantaggiosa, mentre i pazienti con lesioni prefrontali continuarono a fare scelte svantaggiose anche

dopo aver conosciuto la strategia migliore. Inoltre, utilizzando un test di risposta cutanea al

passaggio di corrente (“skin conductance response”), che rivela un coinvolgimento emozionale

davanti a decisioni dubbie, si constatò che, mentre i soggetti normali manifestavano questa risposta

prima di girare una carta rischiosa, nulla succedeva nei malati, neanche dopo numerosi tentativi

sbagliati. Gli autori concludono che negli individui normali, elementi inconsci guidano il

comportamento prima che la coscienza intervenga 191 .

190 A.R. Damasio: L’errore di Cartesio. Emozione, ragione e cervello umano. Adelphi, Milano,

1995; pag 74-76

191 Bechara et al: Deciding advantageously before knowing the advantageous strategy. Science

275:1293-1295, 1997

112


Lo studio dei pazienti paradigmatici, dei molti altri con lesioni spontanee da ictus o traumatiche,

nonché di quelli in cui vennero effettuati interventi di lobectomia, di leucotomia o di resezioni più

limitate, hanno portato a stabilire un certo consensus che può essere, per gli scopi che ci riguardano,

così riassunto. Vi sono lesioni dei lobi frontali che lasciano sufficientemente intatte le capacità

linguistiche e motorie e funzioni quali l’intelligenza, la memoria, la capacità di eseguire calcoli o di

giocare a dama. Al contrario, come abbiamo visto, queste lesioni provocano dei cambi della

personalità che possono gettare nello sconforto le rispettive famiglie, quali perdita dell’iniziativa e

della spontaneità, un’inerzia sia nel pensiero che nell’azione, l’incapacità di pianificare la propria

attività, di risolvere i problemi e di prendere decisioni adeguate, la perdita di interesse sia per il

proprio lavoro che per altre attività che in precedenza venivano svolte, la manifestazione di aspetti,

quali il turpiloquio, che prima erano assenti, l’impoverimento affettivo e così via. Chi era vicino al

malato, come abbiamo visto, è portato a concludere che “non è più lui”. La reazione che suscita è

quella di compassione, purché si riesca dopo un certo tempo ad accettare che non è colpa del

soggetto quello che gli succede.

Queste conclusioni sono state tratte dallo studio di pazienti adulti, i quali, in seguito alla lesione,

sono difettosi nel loro comportamento morale, ma che tuttavia mantengono a livello conscio gli

standard sociali e morali che hanno acquisito durante la loro vita. Ma cosa succede se la lesione

frontale avviene in giovanissima età? Molto recentemente, il gruppo di Damasio ha riportato i

risultati dello studio di due pazienti in cui le lesioni prefrontali insorsero prima dei 16 mesi di età.

Pazienti così giovani con lesioni di questo tipo sono rarissimi. Questi due pazienti, che oggi hanno

più di 20 anni, hanno manifestato problemi di ordine morale assai più gravi di quelli manifestati

dagli adulti. Ovviamente non si può escludere che il loro comportamento possa essere dovuto ad

altri fattori, tuttavia va notato che la loro situazione famigliare e ambientale era buona e che i loro

fratelli si svilupparono normalmente. Gli autori si pongono il problema delle origini del

comportamento morale e sociale e sottolineano che questi due pazienti hanno alcuni caratteri in

comune con gli psicopatici 192 .

La lesione bilaterale dell’amigdala, una struttura sita nel lobo temporale, dà anch’essa dei disturbi

notevoli del comportamento emozionale e sociale. Questa regione situata nel lobo temporale è stata

da tempo implicata nel controllo delle emozioni sulla base di studi di lesioni provocate negli

animali o insorte spontaneamente nell’uomo 193 . La paziente S.M. ad esempio, che aveva subito un

danno bilaterale all’amigdala, aveva una normale intelligenza e poteva identificare perfettamente le

persone dalle fotografie. Tuttavia aveva una certa difficoltà a riconoscere certe emozioni mostrate

dalle facce delle fotografie stesse. Era in grado di riconoscere la felicità, la tristezza e il disgusto,

ma non la rabbia o la paura 194 . Inoltre, in uno studio che ha coinvolto altri due pazienti con un

simile deficit, tutti e tre i malati non riuscivano a compiere un adeguato giudizio sociale su altri

individui. In particolare essi definivano come affidabili facce che i soggetti normali catalogavano

come assolutamente inaffidabili e indegne di fiducia 195 . Tuttavia quando le persone venivano

descritte con aggettivi o come soggetti di breve storie, i tre pazienti erano in grado di emettere

giudizi precisi. Evidentemente, i concetti relativi all’affidabilità di una persona erano ancora

192 S.W. Anderson: Impairment of social and moral behavior related to early damage in human

prefrontal cortex Nature Neurosci 2:1032 – 1037, 1999

193 N.H. Kalin: The neurobiology of fear. Scient Am 268:94-101, maggio 1993; M. Davis: The role

of amygdala in fear and anxiety Ann Rev Neurosci 15: 353-375, 1992; J.P. Aggleton The

contribution of the amygdala to normal and abnormal emotional states. Trends Neurosci 16:328-

222, 1993.

194 R Adolphs et al: Impaired recognition of emotion in facial expressions following bilateral

damage to the human amigdala. Nature 372:669-672, 1994

195 R. Adolphs et al: The human amygdala in social judgment. Nature 393:470-474, 1998

113


presenti ed accessibili alla coscienza, ma questa non poteva accedere alle informazioni fornite da

una fonte quale quella visiva.

La signora D.R. fu sottoposta all’età di 28 anni ad un intervento di distruzione bilaterale

dell’amigdala eseguito mediante stereotassi, per un’epilessia intrattabile. Dopo l’operazione la

paziente aveva difficoltà a riconoscere l’espressione di alcune facce. Non solo, ma la paziente aveva

problemi anche a distinguere le intonazioni della voce associate a particolari emozioni, quali la

paura e la rabbia. Questo studio dimostra che il ruolo dell’amigdala nel riconoscere certe emozioni

non è limitato alla visione (ad esempio delle facce), ma si estende anche all’udito 196 .

Parte della ricerca neurologica attuale si basa sull’identificazione di pazienti con deficit cognitivi il

più limitati possibile, che vengono poi sottoposti a test psicologici e se possibile a tecniche di

imaging. La paziente K.R., ad esempio, sviluppò a 70 anni una malattia neurologica acuta con

comparsa di “disnomia”, cioè incapacità a riconoscere i nomi, limitata tuttavia, nel suo caso, alla

categoria degli animali. Anche per gli animali, tuttavia, il deficit non era completo. Se richiesta

verbalmente di descrivere gli attributi di un animale (es: il colore di un elefante), aveva delle

difficoltà, tuttavia poteva distinguere gli attributi degli animali se presentati visualmente (ad

esempio poteva correttamente indicare che gli elefanti propriamente colorati erano quelli grigi e non

quelli colorati con colori anomali). La sua conoscenza di altre proprietà degli animali era intatta.

All’autopsia il cervello della paziente presentava lievi segni di diffusa infiammazione (da sindrome

paraneoplastica) che coinvolgeva entrambi i lobi temporali. Per spiegare questo deficit selettivo gli

autori suggeriscono che devono esistere due distinte rappresentazioni di tali proprietà, una basata su

stimoli visuali e una basata su stimoli verbali, in quanto una di esse era perduta mentre l’altra era

conservata 197 .

Alterazioni selettive della coscienza

Vi sono altre lesioni che possono influire sulla personalità o sulla coscienza. Per anosognosia si

intende l’incapacità di un paziente di riconoscere il suo deficit neurologico, insorto a causa di un

ictus, che può essere di diversa natura. Nell’asomatognosia (sindrome di Anton-Babinski), persone

che hanno subito un ictus che ha provocato un’emiplegia sinistra (lesione all’emisfero destro)

possono non rendersi conto della loro situazione. Questi pazienti, a domande precise o per così dire

messi alle strette, negano persino di essere malati o se “costretti” ad ammetterlo, subito dopo

ritornano a negare. Damasio riporta la drammatica vicenda di un giudice della Corte Suprema degli

Stati Uniti, che non riusciva a rendersi conto della sua paralisi e che, occupando una posizione assai

delicata e in vista, divenne un caso pubblico 198 . Non si tratterebbe di una rimozione di tipo

freudiano, ma proprio di un fenomeno in cui la coscienza non ha accesso alle informazioni

riguardanti la parte lesa. Che non si tratti di una rimozione psicologica lo suggerisce il fatto che una

corrispondente lesione all’altro emisfero provoca una paralisi del lato opposto ma non fenomeni di

asomatognosia.

La prosopagnosia è un disturbo nel riconoscimento delle facce, causato generalmente da lesioni

bilaterali dei lobi temporali inferiori. I pazienti affetti, ad esempio, non sanno distinguere le facce

note da quelle ignote (emozionalmente neutre). Tuttavia, se si utilizza il test di conduttanza cutanea

i pazienti, come i normali, manifestano una forte risposta alle facce conosciute, che pure continuano

a non riconoscere come tali. Questo fa supporre che il processamento delle immagini facciali sia

196 S.K. Scott: Impaired auditory recognition of fear and anger following bilateral amygdala lesions.

Nature 385:254-257, 1997

197 J. Hart & B. Gordon: Neural subsystems for object knowledge. Nature 359:60-64, 1992

198 A.R. Damasio: L’errore di Cartesio. Adelphi, Mialno, 1995. p. 115-116

114


inaccessibile alla coscienza, ma ancora connesso con il sistema limbico, responsabile della risposta

cutanea. Nella sindrome di Capgras invece i pazienti non riconoscono i parenti, anzi li giudicano

degli impostori. In un terzo di questi pazienti la sintomatologia è insorta dopo un trauma al cervello,

anche se un’analoga sintomatologia si può ritrovare in alcune psicosi. Ovviamente, come sempre, vi

è un’interpretazione freudiana della genesi della malattia: in seguito al colpo in testa, gli impulsi

sessuali latenti si rivelano, il complesso di Edipo si risveglia e così si nega che la madre, da cui si

sarebbe attratti, sia veramente la madre. Ramachandran nota tuttavia che in un suo paziente anche il

cagnolino risultava un impostore, cosa che fa dubitare di questa interpretazione 199 .

Un’altra condizione drammatica è la cosiddetta “neglect syndrome”. L’individuo sembra ignorare

persone e cose che cadono da un lato del proprio centro visivo e talvolta persino metà del proprio

corpo. Si tratta di una sindrome assai eterogenea che interviene spesso quando la lesione è nella

corteccia parietale posteriore. Oliver Sachs ha descritto uno di questi pazienti che dopo un ictus si

lamentava che qualcuno continuasse a giocargli un macabro scherzo, mettendogli nel letto una

gamba amputata. Quando egli cercava di allontanarla, finiva giù dal letto, perché, ovviamente, la

gamba era la sua 200 . Un paziente di questo tipo può ignorare il cibo posto su una metà del suo

piatto, farsi la barba solo su metà faccia, scrivere solo su una metà del foglio, e se richiesto di

disegnare il quadrante di un orologio, cerca di sistemare tutte le ore da una parte. Questi deficit sono

poi particolarmente eclatanti quando colpiscono persone con speciali capacità precedenti, quali la

capacità di dipingere 201 .

Il cervello splittato

Una serie di osservazioni che riguardano la coscienza, e che sono estremamente sorprendenti per

certi versi, anche se le conclusioni non sono sempre facili da trarre, riguarda le funzioni dei due

emisferi. I due emisferi sono abbastanza simmetrici, e molte delle aree e delle vie neuronali sono

conservate in entrambi. Vi sono però notevoli eccezioni, tra cui la più evidente è senz’altro quella

collegata al linguaggio. Le due aree più note del linguaggio, evidenziate, come abbiamo visto, fin

dal secolo scorso, sono a sinistra nella maggior parte degli individui compresi molti mancini.

Questo ha fatto pensare che vi siano delle differenze tra i due emisferi. Tutte le lesioni raccolte dai

clinici fino agli anni sessanta convergevano nella visione di un emisfero sinistro dominante rispetto

al linguaggio e ad altre funzioni superiori rispetto al destro. Ad esempio, un danno focale, cioè assai

limitato al giro angolare dell’emisfero sinistro può alterare la capacità di leggere: il testo viene

visto, perché la visione è conservata, ma il senso delle parole scritte è perduto. Dal momento che il

danno non coinvolge l’emisfero destro, se ne conclude che la capacità di comprendere il significato

delle parole, che normalmente è ritenuta una funzione superiore, ha sede a sinistra, e che l’emisfero

destro non è coinvolto in questo processo. Con una lesione di questo tipo, il paziente conserva però

la capacità di comprendere il significato delle parole parlate, ma se la lesione colpisce invece l’area

di Wernicke, viene abolita la capacità di comprendere il linguaggio parlato. I suoni vengono uditi,

199 V.S. Ramachandran: Consciousness and body image: lessons from phantom limbs, Capgras

syndrome and pain asymbolia. Phil Trans R Soc Lond B 353:1851-1859, 1998

200 O. Sacks: The man who fell out of bed. Ristampato in O.W.Sacks: L’uomo che scambiò sua

moglie per un cappello. Adelphi, Milano, 1986. Questo libro contiene una serie di casi clinici

drammatici in cui, generalmente, solo una parte della personalità viene colpita.

201 Il caso di un pittore che fu colpito da questa sindrome e i ritratti che fece a varie distanze di

tempo dall’ictus è descritto in M.I. Posner & M Raichle: Images of mind. Scientific American

Library, New York, 1994 p. 152.

115


ma di nuovo il significato delle parole è perduto 202 . Questo contribuì a diffondere la visione di un

emisfero sinistro intellettuale e di un emisfero destro relativamente ritardato.

Tuttavia questa visione, che pur mantiene la sua indubbia rilevanza, è stata modificata dagli studi su

un certo numero di pazienti sui quali, nel tentativo di trattare un’epilessia di un certo grado, venne

praticato l’intervento di commissurotomia. I due emisferi sono tra loro connessi tramite un grosso

fascio di fibre che viene denominato “corpo calloso”, e l’intervento, che consiste nel taglio di queste

connessioni a livello della linea mediana, abolisce la possibilità che i due emisferi possano

comunicare direttamente tra loro. Pertanto tali pazienti, insieme ad animali in cui tale taglio veniva

effettuato a scopi sperimentali, forniscono un buon sistema per studiare le funzioni di ciascuno dei

due emisferi isolatamente. L’intervento di commissurotomia non dava peraltro grande fastidi ai

pazienti, che se incontrati durante una normale conversazione o persino ad un esame clinico non

dettagliato potrebbero risultare assolutamente normali.

Dal punto di vista tecnico, è possibile in questi pazienti, sottoporre un determinato stimolo solo

all’emisfero destro o solo al sinistro. Ricordiamo che le fibre che portano la sensibilità periferica o

che regolano il movimento volontario subiscono generalmente una decussazione (cioè attraversano

la linea mediana e passano nel lato opposto) per la quale il lato destro del corpo è sotto il controllo

dell’emisfero sinistro e viceversa. Ad esempio, un ictus che coinvolge la corteccia motoria destra dà

origine ad una paralisi degli arti sinistri. Pertanto se la mano destra maneggia un oggetto senza

poterlo vedere, gli stimoli relativi finiscono nell’emisfero sinistro e viceversa. Nell’individuo

normale con un corpo calloso intatto, le sensazioni propriocettive originate da un oggetto sito nella

mano sinistra, proiettano sull’emisfero destro, il quale però scambia informazioni coll’emisfero

controlaterale tramite il corpo calloso. Noi constatiamo che un individuo bendato riconosce

facilmente l’oggetto in qualsiasi mano esso sia posto. Per gli stimoli visivi, le cose sono più

complicate, ma è ugualmente possibile far giungere uno stimolo alle cortecce visive di uno solo dei

due emisferi. In questo modo è possibile studiare negli individui commissurotomizzati

esclusivamente uno dei due emisferi, perché lo stimolo arriva a quello da noi prescelto, che tuttavia

non può comunicare con l’altro per via della avvenuta commissurotomia.

Quello che si è visto fu assolutamente sorprendente, soprattutto tenendo conto del fatto che tali

individui risultano nella vita di ogni giorno praticamente normali dal punto di vista neurologico e

comportamentale. Gli studi eseguiti su questi pazienti, compiuti inizialmente da Roger Sperry e i

suoi collaboratori 203 , hanno portato a concludere che l’emisfero destro non è così ottuso come

sembra 204 . Ad esempio il destro è superiore al sinistro nel copiare dei disegni come il cubo di

Necker o la croce maltese (è superiore nella stereognosia). Il sinistro al contrario è superiore non

solo nel linguaggio, come del resto ci si aspetterebbe per il fatto che le aree del linguaggio sono a

sinistra, ma anche nel calcolo e nella ideazione. Tuttavia il cervello è terribilmente plastico, e nei

rari casi di assenza congenita del corpo calloso, i soggetti si comportano come gli individui normali.

Per questo si ritiene che essi abbiano sviluppato dei meccanismi compensatori, tra i quali, sembra,

quello di avere aree di linguaggio sia a destra che a sinistra.

Quello che è però particolarmente interessante è che molte delle performances dell’emisfero destro

avvenivano senza che il sinistro ne fosse conscio. Ogni emisfero disconnesso si comportava come

se non fosse conscio di quello che accadeva all’altro. Questo sembra valere anche per alcuni

primati, ma assume dei caratteri più drammatici nell’uomo, a causa della presenza del linguaggio:

202 J.W. Brown: Aphasia, apraxia and agnosia; clinical and theoretical aspects. Thomas, Springfield,

Illinois, 1972

203 Questi studi hanno valso a Sperry il premio Nobel nel 1981. Vedi ad esempio il discorso

pronunciato in occasione della consegna del Nobel: R. Sperry: Some effects of disconnecting the

cerebral hemispheres. Science 217:1223-1226, 1982. Vedi anche: M.S. Gazzaniga: Principles of

human brain organization derived from split-brain studies. Neuron 14:217-228, 1995.

204 E. Zaidel. In P. Buser & A. Rougeul-Buser (eds): Cerebral correlates of conscious experience.

Elsevier, Amsterdam, 1978, pp 177-197

116


l’emisfero sinistro può così negare con decisione di avere coscienza di ciò che aveva effettuato il

suo omologo controlaterale.

Ad esempio, se un’immagine viene mostrata solamente nel campo visivo sinistro, che proietta

all’emisfero destro o se un oggetto viene posto, in maniera coperta, nella mano sinistra che pure

proietta a destra, il soggetto commissurotomizzato non è in grado di descrivere né l’immagine

visiva né l’oggetto che ha in mano, mentre riesce a farlo con facilità se l’immagine viene mostrata

al campo visivo destro o l’oggetto posto nella mano destra. Anzi il paziente negherà di aver avuto in

mano qualcosa o che gli sia stato mostrato alcunché. Ma attenzione, stiamo parlando della coscienza

mediata dal linguaggio, perché si deve invece concludere che qualcosa l’emisfero di destra conosce.

Infatti, se si mostra una parola scritta indicante un nome di cosa all’emisfero destro e gli si chiede

che cosa ha visto, l’individuo (emisfero sinistro) risponde che non ha visto nulla; ma se gli si chiede

di selezionare con la mano sinistra (governata dall’emisfero destro) una carta che rappresenta

l’oggetto indicato dalla parola precedentemente mostrata o l’oggetto stesso in questione, l’individuo

è in grado di eseguire correttamente il compito.

Il corpo calloso è una connessione che, con qualche eccezione, ha luogo tra aree simmetriche del

cervello che coinvolge un numero stimato di fibre intorno ai 200 milioni. Eccles sostiene che quello

che è veramente interessante è proprio questo fatto che l’emisfero “dominante”, cioè quello sinistro,

mantiene perfettamente la coscienza di tutto ciò che accade e che il linguaggio viene propriamente

amministrato, ma che malgrado ciò questo emisfero, e quindi l’individuo, non ha assolutamente

coscienza di ciò che accade nell’emisfero cosiddetto minore.

Eccles spinge l’analisi di questi dati a concludere che l’emisfero destro è inferiore al sinistro, ma

che comunque è superiore a quello del cervello di altri primati. Egli ha lanciato l’ipotesi che in

condizioni normali l’emisfero destro possa raggiungere la coscienza solo dopo la sua connessione

col sinistro. Quindi solo il sinistro è self cosciente per Eccles, anche se il destro ha comunque delle

capacità superiori a quelle dello scimpanzé. Altri, come Sperry, sottolineando come il destro sia

dotato di una minima capacità di comprendere qualche parola, ma sia superiore, come abbiamo

visto, in alcune funzioni parlano invece di due “menti”, di cui una, la destra, è impossibilitata a

comunicare a noi perché non ha il linguaggio. Eccles invece nega che questa seconda mente esista,

o che per lo meno possa essere self cosciente. Egli ricorre ad un “gedanken experiment” per

convincerci che al destro non si può attribuire self coscienza. Nei soggetti commissurotomizzati, il

soggetto conscio controlla la mano destra, ma non la sinistra, anche se questo può effettuare

movimenti anche apparentemente finalizzati. Continua Eccles:

“In our gedanken experiment the left hand inadvertently grabs a gun, fires it and kills a man. Is this

murder or manslaughter and by whom? If not, why not. But no such questions can be asked if the

right hand does the shooting and the killing. The fundamental difference between the dominant and

minor hemispheres stands revealed on legal grounds. Commissurotomy has split the bihemispheric

brain into a dominant emisphere that is exclusively in liaison with the self-conscious mind and

controlled by it and a minor hemisphere that carries out many of the performances previously

carried out by the intact brain, but is not under control by the self-conscious mind. It may be in

liaison with a mind, but this is quite different from the self-conscious mind of the dominant

emisphere – so different that a grave risk of confusion results from the common use of the words

‘mind’ and ‘consciousness’ for both entities" 205 .

In alcuni pazienti, per gravissimi motivi medici, è stata eseguita la emisferectomia, cioè la

rimozione di un emisfero cerebrale. Se l’ipotesi di Eccles fosse giusta, l’emisferectomia destra

dovrebbe lasciare la self coscienza intatta, mentre quella sinistra dovrebbe rendere l’individuo

205 K.R. Popper & J.C. Eccles: The self and its brain. Springer-Verlag Berlin, 1977; p 329

117


inconscio. In effetti, quella destra causa i difetti attesi, con una notevole conservazione della

coscienza, ma in seguito ad emisferectomia sinistra vengono conservate tracce della coscienza e

anche la capacità linguistica in parte si riprende. Questa ripresa e conservazione sono più evidenti

nei giovani, e ci si potrebbe chiedere se il trasferimento a destra di queste funzioni non sia avvenuta

prima dell’intervento, tenendo conto che questo si sarebbe potuto verificare per via della lunga

sofferenza subita dall’emisfero sinistro durante la malattia prima dell’intervento.

Le malattie mentali

Malattie neurodegenerative, come l’Alzheimer o la corea di Huntington, sono devastanti, e

certamente distruggono anche la personalità. Ma questo non ci sorprende, perché troviamo

comprensibile che si perda il vigore, la brillantezza d’ingegno, la memoria, e tante altre facoltà così

come si perde la forza muscolare. Quello che ci sorprende è il cambio della personalità, la perdita

del controllo morale o del senso della realtà a fronte di una conservazione almeno apparente del

ragionamento e di altre facoltà superiori.

Le malattie mentali sono un altro campo che chiama in causa il rapporto tra psiche, mente e

cervello. Prendiamo la depressione ad esempio. In un soggetto razionale, la depressione è talora

perfettamente comprensibile. Se ad uno muore il figlio o se un padre di famiglia perde

immeritatamente il lavoro, tutti noi possiamo accettare l’idea che la persona cada preda della

depressione. Dal momento che sono cose che accadono tutti i giorni, siamo disposti ad accettare che

gli eventi della vita possano incidere sulla psiche. Possiamo anche accettare che questo stato

psichico influenzi il soma (cervello incluso). Ma che dire di un depresso senza motivo? Possiamo

postulare cause interiori, ma anche queste spesso non sono riscontrabili. Siamo propensi a dire che

“dipende da lui”. E cosa dire poi dei paranoici, i quali mantengono una certa lucidità, ma

interpretano, apparentemente, alcuni dati in maniera abnorme (“quello ce l’ha con me”).

Proprio perché conosciamo le cause esterne della depressione “ragionevole” o “fisiologica”, e

sappiamo che esse sono causate da fatti oggettivi, da eventi che colpiscono l’individuo, siamo

portati a pensare che le malattie della psiche siano dovute alla vita vissuta del soggetto, alle

difficoltà che si incontrano, ai colpi del destino, o ai propri errori. Si tratta comunque di eventi al di

fuori di noi che sono per così dire eventi “umani”, cioè collegati a qualcosa che direttamente

colpisce la psiche e non i neuroni. E’ l’interazione tra psiche e eventi “con rilevanza psichica” che –

riteniamo - causa la depressione. Nel caso estremo, si può giungere al suicidio, che, per quanto

esecrabile esso sia, è a volte comprensibile perché basato su eventi sconvolgenti: chi potrebbe

condannare Giulietta e Romeo? Parimenti, se esaminiamo adolescenti o bambini disadattati, magari

aggressivi o violenti o addirittura colpevoli di comportamenti orribili, quali il parricidio, siamo

portati a cercarne le cause a livello ambientale, familiare o sociale. Cause dell’anomalo

comportamento includono scarsità di stimoli, di affetto, condizioni economiche e culturali di basso

livello, perdita dei valori nella società moderna e così via. Anche quando le interpretazioni sono di

tipo “psicoanalitico”, ci si confronta in realtà con eventi (o ipotesi di eventi) che sono di natura

psichica, tipo le pulsioni, i complessi ecc.

Questo per lo meno è la visione preponderante che si ha nei media e nei commenti di giudici,

psicologi e operatori sociali quando capita un caso del genere. L’argomento è stato in parte toccato

quando abbiamo parlato di geni e comportamento. Qui tuttavia la discussione è svolta con

un’angolazione diversa. Dato per scontato che una certa predisposizione genetica potrebbe esistere,

qui stiamo invece discutendo l’interazione tra ambiente e cervello, o mente o psiche o personalità.

Nessuno può sostenere che tutti i fattori che abbiamo elencato non siano rilevanti ad esempio nella

118


formazione di una persona disadattata, né che fattori economici e sociali, incluso ad esempio

l’amicizia o l’amore, possono avere un grande ruolo nel benessere di una persona.

Come possiamo accettare allora che un farmaco possa modificare in meglio uno stato mentale

patologico ? Sembrerebbe questa una prova lampante che il comportamento morale dipende da uno

stato cerebrale, dal momento che una molecola può modificare la personalità. E’ interessante notare

come anche in questo caso vi sia una forte componente ideologica da superare, in quanto molti

vedono un contrasto tra società e farmaci. Se molti comportamenti devianti sono causati da

esperienze di vita, da ambienti malsani e poveri, come si può pensare di aggiustare tutto con un po’

di chimica ?

In generale, come è possibile che un semplice composto chimico possa alterare significativamente

la coscienza o il comportamento morale ? Eppure l’utilità dei farmaci antidepressivi è ormai fuori

discussione 206 . Se la coscienza è qualcosa che è libera dalla materia, come possono esistere farmaci

che influiscono sulle sue manifestazioni più alte. In generale, non ci stupiamo che possano esistere

gli analgesici, gli anestetizzanti, i sonniferi e neanche farmaci che ci rimbambiscono. Ma come è

possibile invece alterare il nostro stato affettivo, che si ritiene un aspetto elevato della coscienza.

Molti dei farmaci antidepressivi agiscono a livello delle sinapsi serotoninergiche o noradrenergiche.

Possiamo concludere che la depressione sia semplicemente una questione di livelli di queste

catecolamine? D’altro canto, talvolta anche la psicoterapia può ottenere successi, o eventi della vita

possono far migliorare malati psichiatrici.

Siamo pertanto di fronte ad un’ambivalenza, in cui eventi di natura diversa possono agire

positivamente o negativamente sull’equilibrio della nostra psiche. I farmaci possono dannarci o

possono giovarci, e i casi della vita possono favorirci o colpirci. Indiscutibilmente, stati patologici

causati da problemi “morali” possono migliorare con i farmaci e al contrario, disturbi, come ad

esempio quelli causati da tossicodipendenza, possono giovarsi di eventi “morali”, come ad esempio

l’affidamento a una comunità in cui si cerca di proporre nuovi modelli di vita e nuovi valori.

Entrambe le cose sono innegabili.

False e vere memorie

Tra le turbe della coscienza si possono anche porre le false memorie che stanno diventando un

problema rilevante. La distinzione tra sogno e realtà è stato sovente un tema letterario molto

interessante. Quando sogniamo, siamo spesso attivamente coinvolti, ma fortunatamente quasi

sempre ci svegliamo e siamo in grado di distinguere la realtà dal sogno. La natura quasi magica del

sogno è stata usata da alcuni per predire il futuro, a cominciare dal sogno del faraone che Giuseppe

interpreta nella Bibbia, mentre da altri è stata utilizzata per comprendere la personalità degli

individui e svelare i loro veri problemi. Man mano che si torna indietro nel tempo però, sogni e

fantasie diventano sempre più vaghi. Alcune terapie si basano sulla rievocazione dei ricordi

dell’infanzia, che, essendo spiacevoli, verrebbero rimossi, ma potrebbero venir rievocati grazie

all’abilità del psicoterapeuta.

206 Un best seller sull’argomento, accessibile a tutti, è il libro di P.D. Kramer: Listening to Prozac.

A psychiatrist explores antidepressant drugs and the remaking of the self. Viking, New York, 1993.

In questo libro l’autore, uno psichiatra che si basava sulla psicoterapia, descrive come sia cambiata

la gestione dei malati con l’introduzione dei farmaci antidepressivi, di cui il Prozac (fluoxetina) è il

più conosciuto.

119


Ma vi sono dei problemi. Jean Piaget riferisce di un ricordo molto netto della sua prima infanzia.

Mentre era a spasso con la sua baby sitter, venne fatto oggetto di un tentativo di rapimento che

fortunatamente venne sventato dalla sua accompagnatrice. Egli mantenne un vivo ricordo visivo del

fatto, anche della divisa del gendarme che venne poi in loro soccorso, malgrado che, ed egli se ne

rendeva conto, l’evento fosse accaduto ad un’età in cui pochissimi ricordi vengono conservati. Il

problema è che anni dopo la baby sitter, pentita, scrisse ai suoi genitori che il fatto non era mai

avvenuto, ma lo aveva inventato per guadagnarsi la loro fiducia e riconoscenza 207 .

Evidentemente, una falsa memoria si era formata in seguito al continuo racconto dell’episodio che

gli avevano fatto i genitori. I racconti di genitori e parenti sono la prima e forse l’unica fonte dei

ricordi della nostra infanzia. Oggi il problema ha raggiunto un livello più grave in seguito a fatti

riportati dalla cronaca sulle false memorie 208 . In seguito a sedute di psicanalisi, eseguite in accordo

con alcune teorie che tendono ad attribuire ogni problema psichico ad abusi sessuali e altre orribili

esperienze avvenuti nell’infanzia, alcuni pazienti hanno accusato genitori e conoscenti di averli

violentati da piccoli. In alcuni casi si è accertato che la cosa era materialmente impossibile, in altri

le accuse erano talmente inverosimili da cadere da sole 209 . Quello che qui ci interessa è solamente

che la nostra coscienza può venir ingannata anche relativamente a ciò che dovrebbe essere custodito

nella nostra memoria, cui in teoria dovremmo poter accedere solo noi.

Cosa ci sia immagazzinato nel nostro cervello non lo sappiamo. Per molti ricordi evocati in

situazione di dramma o di insistenza a scopo terapeutico o legale, evidentemente il giudizio è

tutt’altro che sicuro. Quanti ricordi che costituiscono dei classici della psicoanalisi sono inventati,

anche in buona fede? Probabilmente molti, il che non vuol dire negare che il fenomeno dell’abuso

sessuale di minori non esista. Oltre cinquant’anni orsono, Wilder Penfield, un neurochirurgo,

effettuò una serie di stimolazioni della corteccia cerebrale su pazienti sottoposti ad interventi per

ragioni mediche, che sono rimaste classiche e che hanno contribuito, tra l’altro, alla definizione dei

famosi “homunculi” sensitivo e motorio. Durante stimolazione della corteccia sensitiva, ad esempio,

il paziente poteva provare sensazioni in una specifica parte del corpo, mentre la stimolazione della

corteccia motoria causava la contrazione di un determinato muscolo.

Quando Penfield eseguì stimolazioni del lobo temporale, in alcuni casi il paziente riferì sensazioni

di tipo diverso. Ad esempio:

“At the time of operation, stimulation of a point on the anterior part of the first temporal

convolution on the right caused him to say, “I feel as though I were in the bathroom at school”.

Five minutes later, after negative stimulation elsewhere, the electrode was reapplied near the same

point. The patient then said something about “street corner”. The surgeon asked him, “where” and

he replied, “South Bend, Indiana, corner of Jacob and Washington”. When asked to explain, he

said he seemed to be looking at himself at a younger age” 210 .

207 J. Piaget: Intervista su conoscenza e psicologia. Laterza, Bari, 1978; p. 112-113

208 R. Ofshe & E. Watters: Making monsters: false memories, psychotherapy, and sexual hysteria.

Charles Scribner’s Sons, New York, 1994; E.F. Loftus & K. Ketcham: The myth of repressed

memories. St. Martin Press, New York, 1994. M. Pendergrast: Victims of memory. Upper Access

Books, Hinesburg, 1995.

209 E.F. Loftus: Creating false memories. Scient Am, settembre 1997, p 70-75. Alcuni dei

psicoterapeuti sono stati condannati in sede legale al pagamento di ingenti cifre ai genitori

ingiustamente accusati.

210 W. Penfield: The excitable cortex in conscious man. Liverpool University Press, Liverpool, 1958

120


Episodi come questo sono stati spesso interpretati come dimostrazione che i nostri ricordi sono tutti

ben immagazzinati nel cervello e che basterebbe la stimolazione giusta per farli saltare fuori.

Un’interpretazione altrettanto plausibile è che invece questi episodi siano semplicemente delle

confabulazioni e che non abbiano corrispondenza con la realtà. Frammenti di ricordi potrebbero

essere reali, ma potrebbero essere mescolati ad altre sensazioni originate successivamente o

addirittura evocate in maniera anomala. Purtroppo, sembra, non possiamo essere sicuri neanche di

noi stessi, e tutto quello che passa nella testa di persone, per giunta malate, non dovrebbe essere

preso come oro colato.

Quanto però la memoria sia importante per la nostra personalità e per la nostra vita normale è

evidente quando l’accesso ad essa ci viene negato. Il lobo temporale è di grande importanza per un

corretto uso della memoria 211 . Alexander Luria ha potuto seguire un paziente che nel 1941, in

seguito ad un trauma bellico, presentò un’assoluta perdita della memoria, unita ad altri deficit.

L’intelligenza del paziente rimase tuttavia perfettamente normale, e questo non fece altro che

rendere più acuto il suo dramma, perché egli era perfettamente conscio del suo handicap. Luria ha

pubblicato la vicenda umana di questo paziente, che lentamente, con una forza d’animo tremenda

riuscì a descrivere in un diario parte della sua vicenda 212 . Questo caso dimostra come una

coscienza “intatta” può avere dei problemi enormi nella vita di ogni giorno per l’assenza di una

capacità come la memoria, più o meno come un cieco ha difficoltà nella visione.

Prendiamo quest’altro caso di un paziente, il famoso paziente H.M., che per un’epilessia intrattabile

ebbe rimosso, all’età di 27 anni, ambedue gli ippocampi, strutture che hanno un ruolo

importantissimo nella memoria (originariamente descritto da Scoville e Milner 213 ). L’intervento

ebbe successo, perché la sua epilessia fu alleviata, e non ebbe alcun effetto sostanziale sulla sua

capacità percettiva, sulla sua intelligenza e sulla sua personalità. Tuttavia il paziente sviluppò una

grave amnesia anterograda 214 , dal momento che dimenticava gli eventi appena questi avevano

luogo. Ad esempio, se gli veniva detto di ricordare un numero, egli non solo dimenticava il numero

ma dimenticava anche che qualcuno gli avesse detto di ricordarlo. Quando cambiò casa ebbe gravi

211 L.R.Squire & S. Zola-Morgan: The medial temporal lobe memory system. Science 253:1380-

1386, 1991

212 Il diario di questo paziente ha fornito la base per il libro di Luria. Vedi: A. Luria: The man with a

shattered world. Penguin Books Ltd. Harmondsworth, 1975. Curiosamente lo stesso Luria ha anche

descritto in un piccolo libro (A. Luria: The mind of a mnemonist. Penguin Books Ltd.

Harmondsworth, 1975.), la storia di un uomo che, al contrario, era dotato di una memoria

stupefacente. Quest’uomo ricordava con grande facilità numeri e lettere, tanto che, una volta venuto

a conoscenza della sua prodigiosa memoria, lasciò il suo lavoro e si mise a fare il fenomeno di

baraccone. La sua memoria era in effetti prodigiosa e non sbagliava mai. Tuttavia aveva anche

qualche svantaggio, perché faceva una grande fatica a dimenticare, e aveva altri piccoli disturbi.

Luria venne in contatto con questa persona negli anni Venti del secolo scorso e la seguì per 30 anni,

ma il segreto della sua memoria prodigiosa non ha potuto essere svelato. Forse oggi, con le moderne

tecniche di immagine e di indagine psicologica qualcosa di più si sarebbe potuto comprendere. Una

delle ipotesi che si possono fare è che vi fosse un difetto nella cancellazione della memoria a breve

termine, che rimaneva pertanto a disposizione della coscienza.

213 W.B. Scoville & B.Milner: Loss of recent memory after bilateral hippocampal lesions. J Neurol

Neurosurg Psychiatry 20:11-21, 1957.

214 L’amnesia anterograda è quella relativa ad eventi che sono successi dopo l’operazione, mentre

l’amnesia retrograda è quella relativa ad eventi che sono accaduti prima dell’operazione (o di un

dato momento). L’amnesia retrograda in questo paziente era solo modesta, mentre l’anterograda era

praticamente totale. Questo è in relazione probabilmente al ruolo dell’ippocampo nella formazione

dei ricordi, ma non nel loro mantenimento una volta che si sono instaurati

121


problemi a riuscire a ritrovarla, sottostimava la sua età e non era neanche in grado di riconoscere

una sua fotografia recente. Inoltre:

“His initial emotional reaction may be intense, but it will be short-lived, since the incident

provoking it is soon forgotten. Thus, when informed of the death of his uncle, of whom he was very

fond, he became extremely upset, but then appeared to forget the whole matter and from time to

time thereafter would ask when his uncle was coming to visit them; each time, on hearing anew of

the uncle’s death, he would show the same intense dismay, with no sign of habituation” 215

Pur non essendo andato incontro ai problemi enormi del paziente di Luria, anche H.M. non viveva

bene. Anche in questo caso, una coscienza intatta non era tuttavia in grado di ricordare dati di

valore affettivo, che pure noi riteniamo importantissimi per la nostra identità.

Una personalità assai fragile

Qual è la rilevanza di tutti questi dati per il nostro problema ? In primo luogo, si dimostra come

funzioni specifiche della specie umana come il linguaggio, la lettura, la capacità di apprezzare la

musica, la comprensione della matematica sono tutte cose che possono essere rese impossibili da

lesioni cerebrali ben localizzate.

In secondo luogo, anche il comportamento che definiamo “morale” sembra essere sotto il controllo

di un cervello in buone condizioni. L’incidente di Gage avvenne in un periodo in cui la frenologia

era in auge, e il suo caso suggeriva che non solo la sensibilità o la motilità, ma anche funzioni

superiori come il comportamento responsabile potessero avere sede in una regione specifica del

cervello. Alterazioni della personalità non sono fenomeni rari, e probabilmente ogni medico ha, nel

corso della sua professione, incontrato casi del genere, legati in genere a decadimento senile o più

raramente a tumori cerebrali. Talora i cambi comportamentali sono estremamente traumatizzanti per

i congiunti, che giungono a chiedersi quale delle due personalità del proprio congiunto sia quella

vera, quella amabile che conoscevano o quella degradata che si manifesta dopo il danno cerebrale.

Ma come è possibile, e questa è una domanda cui bisogna dare risposta, che esista un principio

extracerebrale se il semplice danneggiamento di alcuni circuiti è in grado di cambiare il modo di

agire di una persona. Per il principio di Ockham, non vale la pena di invocare ulteriori entità se

quelle che ci sono già spiegano tutto. In realtà, alcuni obiettano, queste non spiegano tutto, perché

molte cose sono ancora incomprensibili, e il rasoio di Ockham non è un principio “ontologico”,

bensì un utile strumento pratico. Il laringectomizzato, privo di quell’organo indispensabile per

l’emissione dei suoni che è il laringe, non è in grado di parlare; parallelamente, essi sostengono, se

alcune regioni del cervello non funzionano, la mente non può manifestarsi.

Le caratteristiche della personalità che veramente definiscono un uomo (o una donna) sono

tradizionalmente, anche se oggi sono un po’ in ribasso, la capacità di non farsi piegare dagli

avvenimenti, di organizzare la propria vita secondo dei valori precisi, di provare emozioni in

seguito a fatti che coinvolgono la morte e la malattia, la forza di carattere e la forza di volontà, ecc.

Tutte cose che, come possiamo vedere ad ogni momento rischiano di venir colpite dalla vecchiaia o

da altri eventi patologici. Lo studio dei pazienti ci ricorda che la nostra personalità è assai fragile ed

esposta alle tempeste della vita. Stretti tra l’infanzia e la vecchiaia, non vi è dubbio che vi è solo un

breve momento nella nostra esistenza in cui siamo pienamente responsabili di noi stessi e che le

nostre scelte pienamente coscienti sono solamente una leggera increspatura nell’oceano

dell’esistenza. Come gli antichi pittori medioevali di cui non sono note le date di nascita e morte,

215 Citato in K.R. Popper & J.C. Eccles: The self and its brain. Springer-Verlag Berlin, 1977; p 391

122


anche i migliori di noi fioriscono per un brevissimo tempo per poi scomparire nel magma della

negatività.

123


Capitolo 8.

IL LINGUAGGIO

Il linguaggio è una delle manifestazioni peculiari dell’uomo: esso non è solo un mezzo per

scambiarci informazioni, è anche uno strumento così connesso con la nostra capacità di provare

sentimenti e di ragionare che in parte sembra costituirne l’essenza stessa. Comprendere le basi del

linguaggio vuol dire aprire una finestra sulla nostra natura. Vi sono domande tecniche quali: il

linguaggio è innato, e se sì, qual è la sua struttura biologica? tutte le lingue derivano da una sola

protolingua? vi sono delle regole che il linguaggio umano “è costretto” a seguire per via di questa

struttura biologica prefissata? e domande di significato più profondo quali: qual è il rapporto tra

pensiero e linguaggio? Può esistere pensiero senza linguaggio? Il linguaggio è unico all’uomo? Le

scimmie possono parlare o pensare? O possono essere addestrate a farlo? Tutte queste domande

sono suscettibili di indagine sperimentale e ci dicono qualcosa sulla nostra natura.

Le basi biologiche del linguaggio

Ogni volta che si parla di linguaggio, si prende lo spunto da Noam Chomsky, che viene

generalmente ritenuto il fondatore degli studi moderni su di esso. Chomsky oltre 40 anni fa lanciò

l’idea che il linguaggio fosse una questione innata. Nasciamo già con il nostro cervello predisposto

al linguaggio, più o meno come abbiamo altre facoltà, ad esempio quella di camminare con due arti

solamente. Questo sarebbe provato innanzitutto dal principio della povertà dello stimolo, secondo

cui il bambino apprende l’uso del linguaggio troppo facilmente e rapidamente per non pensare che

abbia già una struttura cerebrale ad esso predisposta. Inoltre, il fatto che tutte le lingue hanno delle

caratteristiche comuni ben si adatta all’ipotesi di Chomsky. Steve Pinker ha usato l’espresssione

“l’istinto del linguaggio” 216 per indicare appunto che nasciamo già marchiati da questa capacità che

nessun altro essere vivente sulla terra possiede. L’ipotesi alternativa sostiene invece che il

linguaggio è un processo su base essenzialmente culturale, che il cervello è plastico e che non vi

sono neuroni specificatamente predisposti al linguaggio. Le similarità tra le varie lingue, se fosse

confermato che proprio tutte hanno la stessa struttura, potrebbe essere spiegata ipotizzando che il

linguaggio sia nato in una tribù che abbia poi conquistato la terra. In questo caso, il linguaggio,

come molti altri caratteri culturali potrebbe esserci stato tramandato con molte variazioni sul tema

che però non ne hanno intaccato la struttura originaria.

Naturalmente, una volta comparso un primo linguaggio, la sua evoluzione potrebbe anche essere

stata assai rapida. Questa seconda fase è certamente su base culturale, in quanto il tempo in cui le

lingue si evolvono è troppo rapido per avere una base biologica. Quello che si eredita è solamente

una struttura biologica che predispone al linguaggio, in quanto bimbi nati in una cultura possono

tranquillamente imparare una lingua anche distantissima da quella dei loro genitori. Generazioni di

popolazioni isolate non perdono la capacità di imparare un’altra lingua da piccoli.

D’altro canto è abbastanza accertato che se il linguaggio non viene appreso in giovane età, poi si ha

una grave difficoltà ad apprenderlo. Sebbene la base cerebrale di questo fenomeno non sia chiara,

questo fatto testimonia che vi sono dei fenomeni neurali che devono verificarsi perché il linguaggio

venga appreso. Si ritiene che vi sia un’età al di sopra della quale si perde la capacità di apprendere il

linguaggio. Questa età dovrebbe essere superiore ai quattro anni, dal momento che è stato riportato

il caso di un bambino affetto da immunodeficienza combinata grave che rimase per ragioni mediche

216 S. Pinker: the language instinct. William Morrow & Co, New York, 1994

124


in isolamento dai 9 mesi ai 4 anni e 4 mesi, il quale fu in grado di acquisire la capacità di parlare

quando, dopo un riuscito trapianto di midollo osseo, fu reinserito nella società 217 .

Per fondamentale che sia il linguaggio per la nostra specie, non sembra tuttavia che la capacità di

parlare debba essere legata indissolubilmente alla capacità di ragionare o pensare. Il rapporto fra

pensiero e linguaggio ha affascinato filosofi, scienziati e pensatori per millenni e non è

assolutamente chiarito neanche ora 218 . Il linguaggio è un prerequisito per il pensiero o è possibile

un pensiero senza linguaggio ? O addirittura, senza il pensiero e la coscienza non può esserci

linguaggio ? E’ certo che lesioni cerebrali circoscritte possono limitare o abolire l’uso del

linguaggio senza che l’intelligenza “non-verbale” ne sia modificata. Ma cosa succede nei bambini

che non siano mai venuti a contatto con il linguaggio ? Vi sono i casi dei bambini-lupo, o comunque

di bambini che sono vissuti isolati dagli uomini, che non sono più stati in grado di parlare e che

sono rimasti con un basso livello intellettivo (il prototipo rimane Victor, “l’enfant sauvage”

descritto nel secolo scorso 219 ). Tuttavia non è chiaro quanto la mancanza di linguaggio piuttosto che

la mancanza generale di stimoli possa aver influito in questi casi.

Oggi i sordomuti che non vengono sottoposti a riabilitazione sono, nella società occidentale,

alquanto rari. Nelle società meno civilizzate probabilmente ci saranno ancora, ma sono poco

studiati. Mentre è praticamente certo che i sordomuti riabilitati posseggono un’intelligenza e un

pensiero apparentemente normali, sembra che anche quelli non riabilitati raggiungano uno sviluppo

normale dal momento che rispondono in maniera soddisfacente ai test non verbali. Il caso di Helen

Keller, una bambina cieca e sordomuta che, all’inizio di questo secolo, imparò a comunicare con un

linguaggio di segni, viene spesso citato a dimostrare che anche in casi di notevole privazione

sensoriale, il pensiero e la coscienza si erano ugualmente sviluppati.

Le basi cerebrali del linguaggio

La tesi che il linguaggio sia innato presuppone una struttura cerebrale ad esso deputata. Parlando

delle conseguenze delle lesioni cerebrali, abbiamo fatto alcuni cenni a quelle che colpiscono il

linguaggio. Come abbiamo detto, gli studi dei neurologi francesi a metà dell’Ottocento sono stati di

importanza fondamentale per chiarire che vi sono aree la cui lesione colpisce in maniera specifica il

linguaggio. Anche gli studi di Roger Sperry sui pazienti commissurotomizzati hanno confermato lo

strano rapporto tra emisfero sinistro e linguaggio e tra linguaggio e coscienza. Per molti anni lo

studio di lesioni cerebrali, insieme a quelli basati sulla stimolazione di specifiche zone cerebrali

durante interventi chirurgici a cranio aperto, hanno rappresentato gli unici approcci all’indagine

delle basi neuronali del linguaggio. Una conferma successiva venne da quella che viene conosciuta

come procedura di Wada, in cui l’anestetizzazione limitata ad un singolo emisfero confermava che

la localizzazione del linguaggio è generalmente a sinistra. Più recentemente, gli studi eseguiti con

PET e fMRI hanno fornito immagini spettacolari dell’attivazione di specifiche aree cerebrali in

217

R.M. Lazar et al.: Language recovery following isolation for severe combined

immunodeficiency disease. Nature 306:54-55, 1983. Tuttavia bisogna notare che i primi mesi in cui

il bambino fu esposto al linguaggio potrebbero essere stati determinanti per la sua capacità di

apprenderlo successivamente. E’ comunque certo che il linguaggio non comparve nel bambino

prima che egli fu rieducato ad esso successivamente al trattamento.

218 Vedi ad esempio: D. Laplane: Controverse: existe-t-il une pensèe sans langage? La Recherche,

novembre 1999, p.62-67

219 J. Itard: Il fanciullo selvaggio dell’Aveyron. Armando Editore, Roma, 1974; Questo è il libro

originario scritto dal medico che studiò il bambino. La storia è rievocata in: H. Lane: The wild boy

of Aveyron, Harvard University Press, Harvard, 1976.

125


seguito a operazioni legate al linguaggio. Anche questi studi hanno confermato che nell’individuo

normale le aree cerebrali classiche sono effettivamente coinvolte nell’uso del linguaggio scritto o

parlato.

Queste tecniche e altre che sicuramente verranno messe a punto nei prossimi anni consentono di

investigare in vivo i fenomeni legati al linguaggio in condizioni normali ma anche patologiche o

comunque inusuali. Neville e colleghi 220 , ad esempio, hanno studiato mediante fMRI tre gruppi di

persone: persone normali che parlavano la loro lingua (inglese), persone sorde dalla nascita che si

esprimevano solo con l’American Sign Language (ASL, il linguaggio dei sordomuti che si basa su

segni eseguiti con le mani) e persone (figli di sordi) che avevano appreso in età infantile ambedue i

linguaggi (inglese e ASL). I primi due gruppi mostrarono attivazione dell’emisfero sinistro quando

processavano il loro rispettivo linguaggio (inglese o ASL). Il secondo e il terzo gruppo, ma non il

primo, mostrarono tuttavia un aumento di attività anche nell’emisfero destro. Questo

apparentemente contrasta con gli studi di lesioni cerebrali nei sordi, in cui, come nei normali,

lesioni nell’emisfero sinistro ma non nel destro alterano la capacità di parlare ASL 221 .

Kim e collaboratori 222 hanno analizzato mediante fMRI l’attivazione di aree cerebrali in pazienti

che parlavano due lingue, analizzandoli a seconda che le avessero apprese alla nascita o

successivamente. Mentre i primi tendevano ad attivare con entrambe le lingue la stessa regione

nell’ambito dell’area di Broca, coloro che avevano acquisito un secondo linguaggio tardivamente,

attivavano zone adiacenti ma non identiche nell’area di Broca. Nell’area di Wernicke, le regioni

attivate erano sempre le stesse. Questi studi, che in fondo sono ancora solo in fase inziale,

dimostrano che sarà possibile spingere lo studio delle funzioni corticali superiori ad un livello di

grande profondità.

L’ asimmetria nella localizzazione del linguaggio, per la quale in circa il 95% dei destrimani e il

70% dei mancini le aree deputate al linguaggio sono poste nell’emisfero sinistro 223 , ha spinto a

cercare se ci fossero differenze anatomiche tra i due emisferi. Queste differenze in effetti esistono,

specialmente a carico di una regione denominata “planum temporale”, sulla faccia superiore del

lobo temporale. Questa asimmetria, che è la più pronunciata riscontrabile nel cervello, fa parte

dell’area di Wernicke, sembra presente anche nei feti, e pertanto non sarebbe una conseguenza

dell’uso del linguaggio bensì appunto una possibile base della localizzazione del linguaggio stesso.

Un’ipotesi è che l’evoluzione del linguaggio sia andata parallela con l’evoluzione di queste

strutture. A questo scopo, l’evoluzione del planum temporale è stata studiata nelle altre specie con

particolare attenzione ai primati. Si ritiene che scimpanzé e uomo si siano separati oltre 5 milioni di

anni fa. Recentemente è stato dimostrato che oltre il 90% degli scimpanzé hanno, come nell’uomo,

il planum temporale sinistro più grande del destro 224 . Questo fa pensare che questa struttura sia

precedente alla comparsa del linguaggio, ma che sia stata cooptata in seguito per il linguaggio.

Un’altra possibilità è che, dal momento che la maggior parte degli umani sono destrimani, e che è

220 H.J. Neville et al: Cerebral organization for language in deaf and hearing subjects: biological

constraints and effects of experience Proc Natl Acad Sci 95:922-929, 1998

221 G. Hickok et al: The neurobiology of sign language and its implications for the neural basis of

language. Nature 381:699-702, 1996

222 K.H. Kim et al: Distinct cortical areas associated with native and second languages. Nature

388:171-174, 1997

223 T. Rasmussen & B. Milner: The role of early left-brain injury in determining lateralization of

cerebral speech functions. Ann NY Acad Sci 299:355-369, 1977

224 P.J. Gannon et al: Asymmetry of chimpanzee planum temporale: humanlike pattern of

Wernicke’s brain language area homolog. Science 279:220-222, 1998

126


probabile che questa caratteristica sia molto più antica del linguaggio (dal momento che l’uso di

strumenti è documentato da circa due milioni di anni), le differenze nel planum temporale possano

aver avuto a che fare con questa caratteristica, che tuttavia non sembra presente nello scimpanzé 225 .

Origine evolutiva del linguaggio

Uno dei modi di apprendere qualcosa su un fenomeno o una struttura è, come abbiamo visto, quello

di studiarlo dal punto di vista evolutivo. Questo approccio, tuttavia, nel caso del linguaggio è assai

difficile, perché è innegabile che ci sia un gap tra le specie riguardo al linguaggio. Non esiste cioè

un continuum di manifestazioni correlate al linguaggio che ne rappresentino stadi iniziali, come

generalmente succede in biologia. Vi sono dei modi di comunicazione nella maggior parte dei

vertebrati, alcuni di questi, come nei delfini o negli scimpanzé, possono essere relativamente

sofisticati, ma è chiaro che c’è comunque un abisso tra le performances dell’uomo e quelle degli

altri animali. Come il pensiero e la coscienza, sembra che il linguaggio appartenga al gruppo di

manifestazioni del tipo “tutto o nulla”.

L’unica possibilità di studiare evoluzionisticamente il linguaggio è pertanto quello di andare a

vedere quanto accade nei primati più evoluti o, più facilmente, nei bambini. In questo modo,

assumendo che l’apprendimento del linguaggio passa nel bambino attraverso un numero di stadi che

parallela quanto avvenuto nell’evoluzione, potremmo forse capire qualcosa di più del linguaggio. E’

importante tuttavia notare che questo assunto non è per nulla provato, e per il momento è solo una

versione cognitiva del vecchio assioma “l’ontogenesi ricapitola la filogenesi”.

Tuttavia, anche se questa ipotesi non fosse vera, è probabile che lo studio dell’acquisizione del

linguaggio nel bambino, che è un processo che richiede mesi o anni, può dirci qualcosa sulla natura

stessa del linguaggio. Basti citare alcuni esempi di risultati recentemente ottenuti. Raccontando

semplici storie a bambini di 8 mesi, alcuni ricercatori hanno dimostrato che a questa età i bambini

iniziano a immagazzinare parole 226 . In un altro studio, sarebbe stato dimostrato che bambini di 7

mesi sono già in grado di formulare alcune regole nell’analisi del linguaggio, in quanto riuscivano a

distinguere brevi sequenze di fonemi, che avevano già udito, da altre per loro nuove 227 . Dal

momento che questo suppone che nella mente del bambino si effettui una generalizzazione tra

sequenze dello stesso o di differente genere, sembrerebbe che nella formazione del linguaggio

abbiano un ruolo delle regole scritte nel cervello umano, come prevede l’ipotesi dell’innatismo

linguistico. Questo suggerirebbe anche che in fondo il cervello umano segue delle regole e che

quindi possa essere simile ad un computer 228 .

In ogni caso, innato o no, se il linguaggio è comparso e si è affermato, è lecito chiedersi quale fosse

il vantaggio selettivo da esso fornito ai suoi utilizzatori. Sono state ipotizzate varie possibilità, quali

un vantaggio nella caccia che poteva essere meglio coordinata con il linguaggio; altri pensano che il

linguaggio abbia potuto fornire una maggior possibilità di estendere alleanze all’interno dello stesso

gruppo di ominidi 229 .

225 Sembrerebbe che la maggior parte degli scimpanzé siano monolateralizzati nell’uso dell’arto

superiore, ma in maniera casuale a destra o a sinistra.

226 P.W. Jusczyk & E.A. Hohne: Infant’s memory for spoken words. Science 277:1984-1986, 1997

227 G.F. Marcus et al: Rule learning by seven-month-old infants. Science 283:77-80, 1999

228 S. Pinker: Out of the minds of babies. Science 283:40-41, 1999

229 R. Dunbar: Grooming, gossip and the evolution of language. Faber & Faber, Londra, 1996. Le

scimmie hanno una complessa struttura sociale, e secondo Frans De Waal stringono alleanze e

intessono complotti all’interno dei loro gruppi. Il linguaggio potrebbe essersi affermato in quanto in

127


Il linguaggio, come è stato detto, non si fossilizza, e pertanto, non è possibile risalire indietro nel

tempo e capire quando è nato. In assenza di questi dati certi, ci si basa su dati indiretti. Gli organi

necessari per parlare, quali il polmone, il laringe, il faringe, la lingua ecc non si sono certo formati

in funzione del linguaggio, ma ne sono stati, per così dire, “parassitati”. Tuttavia, la conformazione

delle vie aree superiori dell’uomo è diversa da quella della scimmia e questa differenza

sembrerebbe legata alla capacità di emettere suoni necessari per il linguaggio umano. Alcuni di

questi cambiamenti, quali la discesa della laringe, sono svantaggiosi (ad esempio la diversa

posizione dell’epiglottide nell’uomo è la causa talora di un errato transito del cibo che può più

facilmente finire nella trachea invece che nell’esofago) e non vi sarebbe pertanto motivo perché si

siano sviluppati e mantenuti se non in vista di un vantaggio evolutivo che sarebbe appunto costituito

dalla possibilità di parlare. Ora, questi cambiamenti sono relativamente precoci, essendo già

presenti un centinaio di migliaia di anni fa nell’uomo di Neanderthal: l’osso ioide, che sostiene il

laringe, e il canale dell’ipoglosso, attraverso cui passa il nervo che innerva la lingua, sono di tipo

moderno già nel Neanderthal, ma non nelle australopitecine 230 . D’altro canto, ovviamente, questi

cambiamenti potrebbero essere presenti anche senza un linguaggio compiuto, ma essere associati

all’emissione di suoni di tipo umanoide, senza le capacità legate al linguaggio moderno.

Una seconda possibilità per indagare la nascita del linguaggio si basa sull’assunto che linguaggio e

profondità di pensiero vadano di pari passo. Se questa assunzione è vera, la documentazione di

manufatti di un certo tipo prova che l’uomo era giunto ad un livello tale in cui sicuramente un

linguaggio sofisticato doveva essere presente. Tra questi riscontri, abbiamo certamente le

manifestazioni artistiche, le cerimonie funebri e presumibilmente la produzione di strumenti

sufficientemente innovativi.

Sulla base delle testimonianze paleontologiche e archeologiche, certamente il linguaggio era

presente 50.000 anni fa. Se lo fosse anche prima, non si può affermare con certezza, ma è possibile

che fosse già presente 100.000 anni fa. L’uomo di Neanderthal aveva un linguaggio moderno? La

discussione è tra coloro che tendono a giudicarlo un ramo secco dell’evoluzione umano, un gigante

rozzo ed ignorante, spazzato via dal Cromagnon forse proprio a causa del linguaggio che faceva la

differenza, e coloro che invece lo vogliono ascrivere a pieno titolo nella galleria dei nostri antenati.

I dati paleontologici non sono definitivi. I sostenitori dei Neanderthal fanno notare che alcuni

manufatti trovati in siti quali il Monte Carmelo in Palestina, alcune rare sepolture associate con

cerimonie “religiose” e l’uso dell’ocra rossa attestano la presenza di pensiero simbolico e pertanto

di linguaggio 231 . Questi autori fanno notare che, almeno in Medio Oriente, Neanderthal e

Cromagnon convissero per decine di migliaia di anni (tra 60.000 e 40.000 anni fa), prima che

avesse luogo la “rivoluzione culturale” che avrebbe portato all’affermazione dei Cromagnon.

La discussione non è priva d’importanza. Si è abbastanza d’accordo sulla presenza di alcune

differenze fisiche tra Neanderthal e Cromagnon, tali che essi vengono talora riferite come la qualità

robusta e quella gracile dell’H. sapiens. Se le manifestazioni del linguaggio e del pensiero

simbolico fossero limitate al Cromagnon, la teoria della base biologica del linguaggio sarebbe, non

provata, ma almeno plausibile. Se invece il pensiero simbolico fosse già stato presente nei

grado di facilitare queste interazioni. Vedi anche F. De Waal: Chimpanzee politics: power and sex

among the apes. Harper & Row, New York, 1983.

230 R.F. Kay et al.: The hypoglossal canal and the origin of human vocal behavior. Proc Natl Acad

Sci U S A. 95:5417-9, 1998. Non tutti tuttavia sono d’accordo nel sostenere che tali trasformazioni

fossero già presenti nell’H. neanderthalensis, sostenendo che questi semplici dati sull’osso ioide

sono insufficienti a dirci con sicurezza la conformazione delle sue vie aeree superiori. Vedi anche

C. Holden: No last word on language origin. Science 282:1455-1458, 1998.

231 O. Bar-Yosef & B. Vandermeersch: Modern humans in the Levant. Sci Am, aprile 1993 pp 94-

100

128


Neanderthal, l’idea che una particolare acquisizione biologica sia alla base della differenza culturale

tra i due diventa più debole.

Non potrebbe forse essere che il linguaggio sia comparso così com’è apparsa la capacità di lavare la

patata tra i macachi (vedi più avanti)? Certo, non si può sapere se la scimmia che per prima ha

cominciato a lavare la patata non avesse una particolare mutazione che l’ha resa capace di tanto, ma

questo sembrerebbe improbabile. Così non si può sapere se chi per primo sviluppò un linguaggio

fosse geneticamente diverso dagli altri o se il primo motto gli sia uscito a caso. In entrambi i casi,

ovviamente, questa scoperta avrebbe dato un vantaggio a lui e ai suoi discendenti e i suoi geni si

sarebbero diffusi.

In qualunque periodo sia nato, il linguaggio si è sicuramente evoluto in una moltitudine di lingue.

La similitudine con i geni è veramente forte. Tuttavia il ritmo del cambiamento è estremamente più

rapido e tale da nascondere le relazioni dopo un certo numero di millenni. Il principio comunque è

sempre quello: una parola muta, ma talora conserva ancora qualcosa della sua struttura originaria

che testimonia la protoparola. Basti pensare alle lingue neolatine e alle loro relazioni tra loro e con

la lingua originaria. Basandosi su questo principio, all’inizio del XIX secolo le similitudini tra

greco, latino e sanscrito vennero riconosciute, così che queste lingue vanno ancor oggi sotto la

dizione di lingue indoeuropee. Oltre ai singoli termini, anche le strutture sintattiche possono

rimanere conservate e rivelare un legame tra le varie lingue. Sulla base di questi studi, molti sono

giunti a sostenere che vi è una sola lingua originaria da cui tutte sono derivate. Non ci sarebbe

quindi solo un’Eva mitocondriale ma anche una “Comare primigenia”. Questo linguaggio poi si

sarebbe diffuso come fece l’agricoltura secondo Cavalli Sforza, cioè spostandosi nei cervelli dei

suoi possessori 232 .

Linguaggio e pensiero nelle scimmie

Le api comunicano, tramite la cosiddetta danza delle api, un sistema stereotipato e presumibilmente

completamente inconscio. Si tratta pertanto di un comportamento innato, cioè scritto nei geni. Le

comunicazioni delle scimmie sono spesso ritenute innate, ma ne siamo sicuri? Esistono studi di

scimmie allevate da sole subito dopo la nascita? Sono esse in grado di comunicare con i loro simili?

Cosa succede alle scimmie antropomorfe allevate in cattività o in isolamento e poi reimmesse nel

loro ambiente naturale ?

Possono le scimmie parlare o comprendere il nostro linguaggio? Data la considerazione in cui

l’uomo tiene il linguaggio, la domanda è rilevante. E, anche se non potesse parlare, una scimmia

può pensare? Parlando a proposto dell’assenza del linguaggio negli animali, Lamettrie così si

esprimeva:

“Ma questo difetto è poi talmente inerente alla costituzione che non vi si possa arrecare alcun

rimedio ? in una parola, è assolutamente possibile insegnare una lingua a questo animale ?…non

lo credo…Perché dunque dovrebbe essere impossibile l’educazione delle scimmie ? Perché la

scimmia non dovrebbe riuscire, a forza di cure, ad imitare, come fanno i sordi, i movimenti

necessari per articolare la parola ? Non oso decidere se gli organi vocali della scimmia non

232 L. Cavalli Sforza e F. Cavalli Sforza: Chi siamo? La storia della diversità umana. Mondadori,

Milano, 1993.

129


possano, checché si faccia, articolare nulla: ma questa impossibilità assoluta mi stupirebbe, data la

grande analogia fra la scimmia e l’uomo” 233 .

Vi sono casi di segnalazione di manifestazioni di intelligenza nei primati, alcune delle quali

superano la qualifica dell’aneddoto. Durante la prima guerra mondiale, il psicologo tedesco

Wolfgang Kolher si dedicò molto a questo problema, e il suo libro è rimasto un classico 234 . I suoi

scimpanzé hanno mostrato una certa capacità nell’uso di strumenti. Altri episodi famosi riguardano

il caso dei macachi di Koshima, una piccola isola giapponese, che impararono a pulire le patate con

l’acqua per liberarle dai granelli di sabbia e gli scimpanzé che sono capaci di infilare un bastone in

un termitaio per poi leccarselo con tutti gli insetti che vi hanno aderito (le termiti invece non hanno

ancora imparato a non salire sul bastoncino).

Oggi si ritiene che gli scimpanzé siano in grado di effettuare una notevole gamma di manifestazioni

per così dire culturali. Il titolo di un recente articolo che ha riunito gli specialisti di scimpanzé di

tutto il mondo è appunto “Culture negli scimpanzé” 235 . Gli autori hanno descritto una serie di

comportamenti “intelligenti” che sono presenti in alcuni gruppi di scimpanzé e li hanno confrontati

con tutti gli altri gruppi. L’insieme di tali comportamenti in un determinato gruppo di animali

costituisce la loro cultura, che per l’appunto, come negli umani, varia da gruppo a gruppo.

Tra le attività culturali dello scimpanzé vi è sicuramente la capacità di comunicare con i propri

simili, mediante suoni che appaiono di natura stereotipata. Gli scimpanzé ovviamente non hanno un

linguaggio flessibile come quello umano, ma non l’hanno perché nessuno glielo ha insegnato o

perché non possono apprenderlo per questioni biologiche ? Su questo problema, differenti scuole di

pensiero danno previsioni opposte. Chi come Chomsky, pensa che vi sia alla base una struttura

innata (cioè biologica), prevederà che gli scimpanzé non potranno mai usare il linguaggio di tipo

umano. Chi al contrario pensa che il linguaggio è completamente appreso e che si tratta solo di

stimolare i neuroni a farlo, potrebbe investire in un progetto di apprendimento del linguaggio da

parte degli scimpanzé.

Teoricamente, e si tratta di un problema ancora non risolto, le scimmie potrebbero avere difficoltà

nell’articolazione di alcuni suoni che potrebbero rendere loro difficile un linguaggio parlato come il

nostro. Quello che ci interessa tuttavia è sapere se possono ragionare come noi. Se, come abbiamo

accennato sopra, il linguaggio parlato o scritto non è un prerequisito indispensabile per il pensiero,

potrebbe essere possibile che gli scimpanzé abbiano una certa rudimentale forma di pensiero e di

ragionamento, ma che non possano parlare; o addirittura potrebbero avere notevoli capacità di

ragionare che noi non riconosciamo ad apprezzare perché siamo antropomorficamente focalizzati

sugli aspetti linguistici. Insomma, quello che ci interessa veramente è la possibilità che le scimmie

possano manipolare simboli con un significato.

In effetti i primi tentativi di insegnare le nostre lingue agli scimpanzé sono stati deprimenti, e da

tempo nessuno usa più questo approccio. Tali tentativi risalgono all’inizio del ventesimo secolo, si

rivolgevano a scimpanzé che erano spesso allevati insieme agli uomini e non portarono ad alcun

risultato per quanto riguarda la capacità di usare alcunché di simile al linguaggio umano. Nadezka

Kohts del Darwinian Museo Darwiniano di Mosca allevò in casa un piccolo scimpanzé, Ioni, il

quale, pur dimostrando notevoli capacità, tra cui quella di distinguere i colori, non pronunciò mai

neanche una parola di russo. Dieci anni dopo, quando la Kohts ebbe un figlio, annotò

233 J. Offroy de Lamettrie: L’uomo macchina e altri scritti. Feltrinelli, Milano, 1973; p. 43-44. Il

libro è del 1748.

234 W. Kohler: L’intelligenza nelle scimmie antropoidi. Giunti, Firenze, 1960

235 A. Whiten et al: Cultures in chimpanzees. Nature 399:682-685, 1999.

130


diligentemente il suo sviluppo fino all’età di quattro anni e successivamente lo comparò alle

capacità di Ioni.

Altri esperimenti vennero compiuti negli Stati Uniti. I coniugi Kellogg avevano grande fiducia negli

scimpanzé e pertanto decisero di allevarne uno di 7 mesi insieme al loro figlio di 10. Anche i

coniugi Hayes allevarono uno scimpanzé in casa, sempre senza risultati. Malgrado la simpatia per

questi animali e persino il legame affettivo che si instaurò tra di essi e gli sperimentatori, la loro

delusione può essere riassunta nelle parole della Kotz, che ebbe a scrivere a conclusione dei suoi

sforzi:

“Ed ora, mentre giungo alla conclusione del mio studio comparativo, sembra come se il ponte per

mezzo del quale ho cercato per tutto il tempo di colmare la distanza tra la scimmia (antropomorfa)

e l’uomo sia andato completamente in pezzi” 236 .

Dopo la seconda guerra mondiale, i primatologi pensarono di evitare le difficoltà legate al

linguaggio parlato ed investigare se si potesse comunicare con altri metodi. Negli anni sessanta,

basandosi sull’American Sign Language, i coniugi Gardner insegnarono a uno scimpanzé di nome

Washoe, che allevarono come fosse un figlio, l’alfabeto usato dai sordomuti. A Sarah invece, lo

scimpanzé allevato in una gabbia dai coniugi Premack, fu insegnato un linguaggio artificiale

costituito da gettoni di diverse forme e colori, che Sarah utilizzava appendendoli ad una lavagna

magnetica. Ogni gettone corrispondeva ad una parola specifica e Sarah doveva metterli nella giusta

sequenza della frase inglese 237 . Al contrario degli studiosi precedenti, le conclusioni dei Gardner e

dei Premack furono molto ottimiste:

“Sarah è riuscita ad imparare un codice, un linguaggio semplice che comprende però alcuni

caratteri tipici del linguaggio naturale….Messa a confronto con un bambino di due anni, Sarah si

difende però molto bene sul piano delle abilità di linguaggio…L’uomo è affetto da pregiudizi

comprensibili a favore della propria specie, e i membri di altre specie devono compiere fatiche

erculee prima che ad essi venga riconosciuto il possesso di capacità simili…Ci auguriamo che le

nostre scoperte cancellino pregiudizi e conducano a nuovi tentativi di insegnare linguaggi

appropriati agli animali” 238

Negli anni settanta, l’entusiasmo era notevole. Anche i coniugi Rumbaugh hanno utilizzato un

metodo simile per il loro scimpanzé Lara: essi usarono un sistema di simboli geometrici che

venivano manipolati su una consolle e visualizzati su un computer. Nel 1978, anch’essi hanno

riassunto i loro interessanti risultati ottenuti con questo approccio 239 . Ma l’anno successivo

Herbert Terrace, psicologo della Columbia University, pubblicava un articolo dal tono fortemente

dubitativo, in cui demoliva le interpretazioni dei risultati ottenuti negli studi precedenti 240 .

236 Citato in A.P Premack: Perché gli scimpanzé possono leggere. Armando editore, Roma, 1978; p.

36. Gli esperimenti con lo scimpanzé Ioni sono del 1913-1916, mentre il figlio nacque nel 1925. Il

confronto tra i due pertanto è stato eseguito sulla base degli appunti presi in precedenza su Ioni. Si

trattava comunque dei primi studi di questo genere, in un’epoca in cui non si sapeva quasi nulla

sugli scimpanzé e in cui gli standard scientifici e i mezzi tecnici erano rudimentali.

237 Questi esperimenti sono stati descritti (in maniera alquanto entusiastica) nel libro citato nella

referenza precedente. Si possono consultare anche le referenze contenute a p.123 dello stesso libro

238 A.J. Premack & D. Premack: Teaching language to an ape. Sci Am, ottobre 1972. La citazione è

presa dall’edizione italiana di Le Scienze.

239 E.S Savage-Rumbaugh et al: Symbolic communication between two chimpanzees (Pan

troglodytes). Science 201:641-644, 1978

240 H.S. Terrace et al: Can a ape create a sentence. Science 206:891-902, 1979

131


Essenzialmente, sosteneva Terrace, non vi erano motivi per concludere che gli scimpanzé studiati

fossero in grado di formare proposizioni né che avessero appreso qualcosa di anche lontanamente

simile al linguaggio umano. I (modesti) risultati ottenuti, che non andavano oltre la combinazione di

due soli segni, erano spiegabili sulla base del fenomeno di “Clever Hans”, cioè di indizi forniti allo

scimpanzé dallo sperimentatore stesso (vedi più avanti). In altre parole, analizzando il

comportamento dello scimpanzé da lui stesso addestrato, ironicamente chiamato Nim Chimpsky,

Terrace constatò che esso tendeva a comunicare utilizzando segni utilizzati poco prima dallo

sperimentatore. Inoltre, analizzando le videoregistrazioni disponibili per Washoe, lo scimpanzé

addestrato dai coniugi Gardner, si accorse che anch’esso si comportava allo stesso modo. Le

conclusioni di Terrace sono:

“…apes can learn vocabularies of visual symbols. There is no evidence, however, that apes can

combine such symbols in order to create new meanings. The function of the symbols of an ape’s

vocabulary appears not so much to identify things or to convey information …as it to satisfy a

demand that it use that symbol in order to obtain some reward” 241 .

Ne seguì una notevole polemica tra sostenitori e detrattori dello scimpanzé 242 . Clever Hans era un

cavallo che era capace di far di conto: batteva lo zoccolo fino ad arrivare al risultato giusto

dell’addizione propostagli. Tuttavia lo psicologo Oskar Pfungst potè dimostrare che in realtà il

cavallo smetteva di battere lo zoccolo basandosi su piccoli movimenti di testa che il suo padrone,

inconsciamente, faceva quando esso raggiungeva il numero giusto 243 . La controversia è lungi

dall’essere sedata, in quanto i sostenitori degli scimpanzé hanno sempre rigettato le critiche di

Terrace e dei suoi alleati. La Savage-Rumbaugh ha recentemente riportato l’addestramento di un

bonobo, di nome Kanzi. I bonobo (o scimpanzé pigmei) sono stati da un po’ di tempo riconosciuti

come una specie a se stante con caratteristiche culturali un po’ diverse da quelle dei loro cugini

scimpanzé, e secondo alcuni sono anche più brillanti di loro. La Savage-Rumbaugh e i suoi

collaboratori sostengono di aver dimostrato che Kanzi possiede una rudimentale abilità sintattica

comparabile a quella di un bambino di due anni 244 . Ma in generale si può dire che l’entusiasmo per

l’argomento è relativamente scemato. Molti oggi ritengono che Nim Chimpsky, lo scimpanzé di

Terrace abbia confermato le tesi di Noam Chomsky secondo cui siamo unici, e che il nostro

cervello sia irrimediabilmente diverso da quello degli scimpanzé, malgrado tutta le tenerezza che

questi animali possono suscitare in noi con le loro trovate, specie se sono piccoli.

241 idem, p. 900.

242 La controversia agli inizi degli anni Ottanta è stata aspra e ha raggiunto anche toni poco

simpatici. Per una breve discussione vedi: B.O. McGonigle. Sign, symbol and syntax in the

language of apes. Nature 286:761-762, 1980; J.L. Marx: Ape-language controversy flares up.

Science 207:1330-1333, 1980; N. Wade: Does man alone have language? Apes reply in riddles, and

a horse say neigh. Science 208:1349-1351, 1980; E.S. Savage-Rumbaugh et al: Chimpanzee

problem comprehension: insufficient evidence. Science 206:1201-1202, 1979

243 T.A. Sebeok & R. Rosenthal: The Clever Hans phenomenon. Ann N.Y.Acad Sci volume 364,

interamente dedicato alla discussione di questo fenomeno.

244 S. Savage-Rumbaugh et al: Language comprehension in ape and child. Monogr Soc Res Child

Dev 58:1-222, 1993; S. Savage-Rumbaugh & R Lewin: Kanzi: the ape at the brink of the human

mind. John Wiley & Sons, New York, 1994; S. Savage-Rumbaugh et al: Apes, language, and the

human mind. Oxford University Press, Oxford, 1998

132


Conclusioni

L’analisi del linguaggio è solo appena iniziata. Oggi il linguaggio viene aggredito con innovazioni e

affinamenti tecnici ideati da psicologi, neurologi, neuropatologi, linguisti, primatologi,

neurofisiologi, informatici, archeologi e genetisti. Nei pazienti con lesioni cerebrali si enfatizzano

coloro che presentano piccolissimi deficit, che una volta presumibilmente non venivano neppure

indagati dai neurologi clinici. Ad esempio, sono stati identificati pazienti affetti da lesioni cerebrali

che sono ancora in grado di riconoscere le forme dei verbi irregolari ma non quelle regolari, o

viceversa 245 . I test psicologici vengono ideati per studiare specifici aspetti del ragionamento e

vengono spesso concepiti per testare complesse teorie riguardanti le basi cerebrali del linguaggio. I

lavori di imaging ci consentono la visione del cervello mentre esegue un compito, anche se i

risultati richiedono essi stessi una notevole capacità di elaborazione da parte di altri cervelli. La

genesi del linguaggio nei bambini viene sempre più studiata con grande pazienza e ingegnosità. Per

ora tuttavia il linguaggio rimane ancora una proprietà misteriosa della specie umana.

245 M. Marslen-Wilson & L.K. Tyler: Dissociating types of mental computation Nature 387:592-

594, 1997

133


Parte terza

Discussione

“Thus it was that the determination rose within him at the moment of the accident. It prompted him

to busy himself for six years, knocking at all the doors in Lima, asking thousands of questions,

filling scores of notebooks, in his effort at establishing the fact that each of the five lost lives was a

perfect whole. Everyone knew that he was working on some sort of memorial of the accident, and

everyone was very helpful and misleading. A few even knew the principal aim of his activity, and

there were patrons in high places.

The result of all this diligence was an enormous book, which, as we shall see later, was publicly

burned on a beautiful spring morning in the great square. But there was a secrete copy, and after

many years and without much notice it found its way to the library of the University of San Martin.

There it lies between two great wooden covers collecting dust in a cupboard. It deals with one after

another of the victims of the accident, cataloguing thousands of little facts and anecdotes and

testimonies, and concluding with a dignified passage describing why God had settled upon that

person and upon that day for his demonstration of wisdom. Yet for all his diligence, Brother

Juniper never knew the central passion of Dona Maria’s life; not of Uncle Pio’s; not even of

Esteban’s. And I, who claim to know so much more, isn’t it possible that even I have missed the

very spring within the spring ?”

Thorton Wilder, The Bridge of Saint Louis Rey

134


Capitolo 9.

LA MALEDIZIONE DI HUME

Per lunghi anni la mia preoccupazione nello scrivere questo libro è stata quella di non

incappare nella maledizione di Hume.

“If we take in our hand any volume of divinity or school metaphysics, for instance, let us

ask, “Does it contain any abstract reasoning concerning quantity or number?” No. “Does it

contain any experimental reasoning concerning matter of fact and existence?” No. Commit

it then to flames: for it can contain nothing but sophistry and illusion” 246 .

Si può facilmente comprendere come a nessuno piaccia lavorare per produrre cose degne di

essere gettate nelle fiamme, non a motivo del fatto che quello che si è scritto è banale e

modesto, ma proprio perché l’oggetto del proprio sforzo non esiste. Sarebbe come scrivere

un trattato di anatomia dell’ippogrifo. Per noi, che, nati troppo prima di Internet, abbiamo

una venerazione estrema per la carta stampata, finire in un rogo rappresenta una punizione

estrema.

D’altro canto, il monito di Hume è comprensibile. Tutti noi vorremmo non essere sommersi

da materiale superfluo e se ci poniamo nell’epoca dell’empirista inglese, la sua reazione è

comprensibile. E lo è ancora di più oggidì, in cui c’è una vera inflazione di libri e riviste,

scientifiche e non. Ma, bisogna chiedersi, che cosa ha di diverso, in linea di principio, il

fuoco di Hume dal rogo dei libri che fece il Terzo Reich o dai lanciafiamme di Fahrenheit

451 ? 247

Vorrei pertanto dedicare qualche riga sulla validità non di questo libro, ma dell’argomento di

questo libro.

Cos’è la filosofia?

Cos’è la Filosofia ? Il dibattito su questo termine è stato ed è quanto mai acceso.

Distingueremo qui tre grosse prese di posizione su questo termine.

Per la Filosofia classica, la filosofia è “scientia rei per ultimas rationes”; i sostenitori di

questa tesi distinguevano notoriamente tre piani di conoscenza, il “quia”, il “quomodo e il

“propter quid”, affermando che quest’ultima, la conoscenza delle cause, fosse la tappa più

alta del conoscere ed appannaggio della filosofia. Far filosofia era “cognoscere causam

246 “Quando scorriamo i libri di una biblioteca, persuasi di questi principi, che cosa dobbiamo

distruggere ? Se ci viene alle mani qualche volume, per esempio di teologia o di metafisica

scolastica, domandiamoci: contiene qualche ragionamento astratto sulla quantità o sui numeri ? No.

Contiene qualche ragionamento sperimentale su questioni di fatto e di esistenza ? No. E allora

gettiamolo nel fuoco, perché non contiene che sofisticherie e inganni”. D. Hume: Opere, Laterza,

Bari, 1971; vol II, p. 175.

247 R. Bradbury: Fahrenheit 451. Ballantine, New York, 1953 . In questo libro, Guy Montag è un

pompiere che fa parte di una brigata il cui compito è di bruciare ogni libro rimasto insieme alla casa

di chi lo aveva nascosto. Egli compie il suo lavoro senza problemi finché non incontra una giovane

donna che gli parla di un tempo passato in cui la gente leggeva senza timore. Insieme fuggono ai

margini della società dove vivono uomini liberi, ognuno dei quali ha imparato a memoria un libro

giungendo ad identificarsi ormai con il libro stesso.

135


propter quam res est et non potest aliter se habere” 248 . Insita in questa distinzione, ma

sviluppatasi in maniera chiara solo più tardi, era l’idea dell’esistenza di una realtà che stesse

dietro alla realtà fenomenica e potesse essere colta solo dall’indagine filosofica; fu con la

separazione netta tra scienza e filosofia che questa tesi divenne esplicita. Oggi i diretti

discendenti della filosofia classica sono i discepoli di Tommaso d’Aquino, che formano la

Neoscolastica, contro cui in particolare si dirigono gli strali di Hume (“school

metaphysics”). La loro tesi è che esiste una realtà sensibile che è studiata dalla scienza e una

realtà extrasensibile che è oggetto di studio della filosofia e in particolare della metafisica.

Esistono conseguentemente due insiemi di conoscenze, ognuna con un proprio metodo

valido nel proprio campo. La filosofia “studia gli aspetti più universali, la scienza gli aspetti

particolari”; essa “ha per oggetto il reale nella sua totalità”; “scienza e filosofia sono due

tipi diversi di conoscenza” che usano “due modi diversi di conoscenza”; al metodo di

conoscenza della filosofia “non occorrono esperimenti né laboratori: basta la semplice

astrazione universalizzatrice della quale è capace ogni uomo per il fatto di essere uomo” 249 .

Alla Neoscolastica possono essere accomunate tutte le dottrine che sostengono l’esistenza di

una realtà trascendente e la possibilità di conoscerla mediante un metodo diverso da quello

sperimentale.

Viene poi un gruppo di filosofie che ritengono che questa realtà trascendente esista ma che

non sia conoscibile. Il filosofo più rappresentativo di questa corrente di pensiero è

probabilmente Kant con la sua dottrina della “cosa in sé” o “noumeno” che sta al di là del

mondo fenomenico, ma che noi non possiamo conoscere anche se sentiremo sempre il

bisogno di parlarne. Su questa conclusione di Kant è probabile che abbia influito il fatto che

nella sua storia la filosofia non ha partorito conclusioni definitive o per lo meno ampiamente

accettate, in contrasto con la scienza che proprio a quell’epoca cominciava ad ammassare

splendidi risultati quali quelli della fisica newtoniana.

Il seguace più interessante di Kant è, almeno per quanto riguarda i concetti che voglio qui

mettere a fuoco, l’austriaco Ludwig Wittgenstein: egli compie un breve passo avanti rispetto

alla posizione kantiana, passo che per certi aspetti appare logico ed inevitabile. Il suo

Tractatus Logico-philosophicus termina con la ben nota proposizione 7, che suona: “Di ciò

di cui non si può parlare bisogna tacere” 250 . Questa frase, come mostra anche la

testimonianza personale di uno che lo conobbe bene 251 , non è una negazione di un mondo

extrasensoriale, bensì l’affermazione che esso esiste, ma che il parlarne è vano. In effetti,

basta tener presente, per convincersene, la proposizione 6.522 dello stesso Tractatus: “Vi è

davvero l’ineffabile. Esso mostra sé, è il mistico”. Wittgenstein, personalità assai complessa,

passò in effetti un periodo della sua vita in convento.

Forse contro la sua volontà, ma non senza una certa consequenzialità, Wittgenstein divenne

l’ispiratore e il simbolo del terzo gruppo di filosofie, quelle che negano che esista una realtà

trascendente e che vi sia alcunché da conoscere al di fuori della realtà sensibile. Il passo che

va dalla inconoscibilità alla non-esistenza è senz’altro breve, perché se l’onus probandi

spetta a chi sostiene una tesi e non a chi la combatte, la non-conoscibilità diventa tout court

la non-esistenza. Un mondo non conoscibile è un mondo di fantasmi: certamente c’è chi ci

248 F. Olgiati: I fondamenti della filosofia classica. Vita e Pensiero, Milano, 1953; p. 8

249 S. Vanni Rovighi: Trattato di filosofia. Vol.I. Introduzione e logica. Marzorati Editore, Milano,

1950. Le citazioni sono a p. 29; p.29; p. 30; p.31 e p. 36

250 L. Wittgenstein: Tractatus logico-philosphicus. Proposizione 7. Einaudi, Torino, 1964. Il

Tractatus fu terminato nel 1918 e la prima edizione è del 1921.

251 F. Parak: Wittgenstein prigioniero a Cassino. Armando, Roma, 1978

136


crede senza sentirne il bisogno di provarlo, ma accettando questo approccio si possono

considerare vere un’infinità di cose, dall’olandese volante al liocorno e all’iperuranio.

Questo gruppo di filosofie nacque sotto il nome di neopositivismo o “empirismo logico” ed

ebbe le sue radici nel Circolo di Vienna diretto, per così dire, da Moritz Schlick; ne fecero

parte Rudolf Carnap, Otto Neurath e molti altri; tra i precursori, ovviamente, Hume, e in

minor misura Leibniz e Comte. Tesi fondamentale di questi filosofi è che vi è un unico

metodo di conoscenza, quello basato sul metodo sperimentale, e che vi è una sola realtà

conoscibile o più semplicemente una sola realtà.

Ci possiamo domandare cosa diventa per gli empiristi logici la filosofia. Essa diventa a

seconda delle sfumature che separano un filosofo dall’altro, logica, filosofia della scienza,

analisi del linguaggio, ecc. Al di fuori di questi settori, la filosofia è solo metafisica, cioè un

insieme di asserti privi di senso, degni di essere bruciati in un unico rogo come già suggeriva

Hume.

“Se qualcuno asserisse ‘c’è un Dio’… noi non gli diciamo ‘quel che dici è falso’, ma gli

chiediamo ? cosa vuoi dire con le tue frasi ?’. Diverrà allora chiaro che c’è una netta

divisione tra due tipi di asserti. Un tipo comprende proposizioni come quelle della scienza

empirica… Gli altri asserti… mostrano da sé di essere completamente privi di significato, se

li prendiamo come li intende il metafisico. Naturalmente spesso li possiamo reinterpretare

come proposizioni empiriche; ma allora esse perdono quel contenuto emotivo che per il

metafisico è essenziale… Metafisici e teologi…credono che esse asseriscano qualcosa,

rappresentino qualche stato di fatto. Tuttavia l’analisi mostra che questi asserti non dicono

nulla, ma sono soltanto l’espressione di qualche atteggiamento emotivo… Non si può porre

alcuna obiezione a un mistico che asserisca di avere esperienze trascendenti di ogni

concetto; ma egli non ne può parlare, poiché parlare significa affermare concetti e ridurli a

fatti che possono essere incorporati nella scienza” 252 .

La domanda base che si posero questi filosofi fu: “Quali sono i problemi dotati di senso ?”.,

il che equivale quasi completamente a “quali sono gli asserti dotati di senso ?”. Essi

risposero: gli asserti dotati di senso sono quelli che sono verificabili almeno in linea di

principio, e i problemi dotati di senso sono quelli per la cui soluzione anche parziale sono

disponibili proposizioni di tal fatta. Ne consegue che la maggior parte delle dispute

filosofiche che non possono essere verificate sono puro nonsenso o “metafisica”, cioè tutto

materiale da gettare nel rogo di Hume: un’analisi attenta del linguaggio permetterà di

mostrare che queste proposizioni sono in realtà pseudoproposizioni. Il principio di

verificazione diventa così un gigantesco rasoio di Ockham con il quale noi possiamo

eliminare in un sol colpo non solo enti immaginari ma anche problemi immaginari.

Per i neopositivisti, è chiaro che l’insieme delle proposizioni sensate coincideva con la

scienza e con la matematica, le due categorie di libri che Hume salvava dal suo rogo

purificatore. E’ anche vero che successivamente sono state mosse critiche sia al principio di

verificazione (come abbiamo accennato nell’introduzione), che al suo utilizzo come criterio

di senso. Molti adesso lo ritengono un criterio di demarcazione, tra ciò che è affrontabile dal

metodo scientifico e ciò che non lo è, più che un criterio di senso. In questo modo, non si

nega a priori che la metafisica possa aver un senso, ma ce se ne libera comunque dicendo

che non fa parte della conoscenza empirica. Questa conclusione ha un po’ il sapore di una

pace armata in cui i contendenti dicono che per il momento è meglio sospendere le ostilità

perché il tributo di sangue pagato da entrambe le parti è già troppo alto.

252 H. Hahn et al. Wissenschaftliche Weltaunffassung: Der Wiener Kreis. p. 16 –17. Citato in J.

Joergensen: Neopositivismo e unità della scienza. Bompiani, Torino, 1973; p. 95-96.

137


D’altro canto è innegabile che l’empirismo logico, con tutte le sue modificazioni operate da

filosofi della scienza più recenti, abbia rappresentato il più delle volte e sia stata sentita

come l’ideologia ufficiale della scienza. Il termine di verificazione o di falsificazione sono

entrati nella testa di tutti gli scienziati oltre che dei filosofi della scienza, anche se alcuni di

questi rifiuterebbero la dizione di neopositivista (Popper ad esempio, pur essendo “nato” nel

Circolo di Vienna, non si ritiene un neopositivista, anzi sostiene di essere stato lui ad

uccidere il neopositivismo 253 ). Pertanto, a torto o a ragione, le critiche dei neopositivisti

sono state sentite come critiche che provenivano dal mondo della scienza stesso, anche se è

chiaro che il neopositivismo non è la scienza moderna, bensì in qualche modo una

riflessione (filosofica) su di essa, secondo quanto riportato dallo stesso Wittgenstein, quando

nella proposizione 6.54, con tono quasi messianico, afferma che la sua analisi esaurisce la

funzione della filosofia stessa:

“Colui che mi comprende, infine le riconosce insensate, se è salito per esse – su di esse –

oltre esse”.

Inoltre, negli stessi anni il fossato tra scienza e filosofia ha continuato ad allargarsi anche per

banali problemi pratici, e cioè l’enorme ampliamento delle conoscenze in tutti i settori, che

hanno acuito la tendenza di ciascuno a interessarsi solo di un campo assai ristretto.

Cosa dire a questo punto della maledizione di Hume ? Vi potrebbe essere un libro di

filosofia che non debba essere bruciato sul rogo?

Proposizioni rilevanti per la vita

La classificazione è una parte importante dell’attività scientifica. Si possono classificare tutti

i tipi di fatti, compresi quel particolare tipo di fatti che sono gli enunciati o proposizioni. I

criteri di classificazioni, come ben sanno gli zoologi che devono riunire le varie specie in

gruppi, possono essere in notevole misura arbitrari, dipendendo dal punto di vista in cui ci si

pone. Classificando non si fa altro che definire certi insiemi ed eventualmente sottoinsiemi.

La proposizione caratteristica dell’insieme può essere la più varia.

Immaginiamo di inserire nella memoria di un computer tutte le proposizioni ritenute vere o

probabili ottenute secondo le regole del metodo sperimentale. Possiamo divertirci a far

selezionare alla macchina tutti gli insiemi che vogliamo; per esempio l’insieme delle

proposizioni fatte da dieci parole, o quelle che hanno attinenza con il diabete o quelle che

riguardano Giuseppina Beauharnais, prima moglie di Napoleone Bonaparte, e così via.

Oppure se sono assetato in un deserto, posso selezionare tutte le proposizioni concernenti la

distribuzione delle oasi in quella zona geografica: qui la motivazione sarà evidentemente

egocentrica, ma non per questo meno lecita: avrò selezionato un tipo di proposizioni in base

ad una mia esigenza personale, per giunta contingente, ma ciò non toglie che esse saranno

tanto sensate quanto lo erano prima della mia operazione.

Oppure posso ancora selezionare tutte quelle proposizioni che ritengo in grado di modificare

il mio comportamento. Certamente a questo punto comincerei ad avere delle difficoltà circa

le istruzioni da dare al computer, ad esempio per il fatto che in linea teorica qualsiasi

proposizione, nel momento in cui la leggo o l’ascolto modifica le mie cellule recettoriali e

nervose, il che, se si prende il termine comportamento in senso lato, può rappresentare una

modifica del mio comportamento, rilevabile elettrofisiologicamente o con tecniche

d’immagine. Limitando l’accezione a qualche modifica più specifica, incontrerò ancora delle

253 K. Popper: Unended quest. William Collins Sons & Co., Glasgow, 1976; p. 87-90

138


difficoltà non trascurabili. Infatti, ad esempio, l’enunciato “il giorno tale, all’ora tale nel

posto talaltro la squadra del Manchester ha battuto per 2 a 1 la squadra del Liverpool” può

lasciare molti assolutamente indifferenti, ma può scatenare modificazioni comportamentali

nei tifosi, facilmente rilevabili, quali cortei in centro, risse tra hooligans, aumento del

numero di ricoverati al pronto soccorso, rumori sgradevoli e altro, senza tuttavia rientrare

nell’insieme di proposizioni che sto cercando di definire. Posso andare più in là e cercare di

selezionare proposizioni che hanno per oggetto un comportamento in senso universale; con

questo non sarebbero ancora superate tutte le difficoltà, in quanto la proposizione “oggi alle

12.34 gli americani hanno lanciato una bomba atomica su Mosca” difficilmente lascerebbe

qualcuno impassibile, senza tuttavia essere esattamente quello che intendo. Nessuno di

questi processi è tuttavia illecito, e si potrebbe anche pensare di selezionare un abbondante

numero di proposizioni che possono poi venire controllate visivamente una ad una per la

loro pertinenza, come capita a volte di dover fare nella ricerca con parole chiave.

Adesso poi vorrei isolare un particolare sottoinsieme di proposizioni tra quelle che

provocano una modificazione del comportamento, anch’esse di non facile definizione. Dire

che ci sono difficoltà di esatta definizione dell’insieme di queste proposizioni che chiamerò

“rilevanti per la vita” o per brevità “vitali”, non toglie nulla ovviamente alla sensatezza e alla

verità di questi enunciati. Del resto nella scienza come nella attività di ogni giorno, numerosi

insiemi estremamente importanti sono altrettanto sfumati: nella classificazione dei viventi,

ad esempio, tutti gli insiemi che definiscono raggruppamenti superiori a quello della specie

sono spesso mal definiti. D’altro canto, malgrado che ci siano numerose definizioni di

matematica, nessuno potrebbe negare che la proposizione “2 + 2 fa quattro” faccia parte di

essa. In fondo la difficoltà di porre un limite tra un insieme ed un altro è presente ovunque:

chi può separare con un taglio netto l’insieme dei sani da quello dei malati ? Se ben si

guarda, distinguere tra le varie scienze particolari non è altro che incasellare ogni

proposizione in un insieme piuttosto che in un altro. Ma dove finisce la chimica e comincia

la biologia, dove termina la neurofisiologia e inizia la psicologia ? Per farlo dovremmo avere

una definizione esatta di tali insiemi, cosa che non è possibile, almeno per il momento.

Ritengo quindi di poter concludere che sia assolutamente lecito isolare un sottoinsieme

dell’insieme di tutte le proposizioni ritenute vere di cui facciano parte le proposizioni

rilevanti per la vita in senso universale; ritengo che la difficoltà di definizione di questo

termine non sia maggiore di quelle che si riscontrano quando si cerca di isolare altri

sottoinsiemi che vanno sotto il nome di chimica, fisica, ecc.; e chiamo questo insieme come

filosofia.

Sono convinto che questa definizione scontenterà molti, alcuni che vi vedranno una

reintroduzione della metafisica, altri che non potranno ammettere che la filosofia sia un

sottoinsieme della scienza. Ovviamente la preoccupazione dei primi è completamente

immotivata, perché abbiamo selezionato solo proposizioni ottenute nell’ambito del processo

scientifico. A proposito delle preoccupazione dei secondi, va tenuto conto che in tal caso il

termine scienza va inteso nel senso latino del termine, che significa semplicemente

conoscenza. In fondo, se il metodo di conoscenza è uno solo, esiste solo un tipo conoscenza,

esiste solo una “scientia rei per ultimas rationes”, che si raggiunge, per quel che si può, in

una sola maniera.

Vorrei comunque motivare ulteriormente questa mia argomentazione. Premesso che ognuno

può definire degli insiemi nella maniera che più gli aggrada, si ammette in genere che per

evitare confusioni sia meglio definire degli insiemi diversi con nomi diversi. Ora, oltre alle

definizioni classiche di filosofia, negli ultimi 50 anni ce ne sono state numerose altre, anche

139


nell’ambito del neopositivismo. Definizioni tutte lecite, ma che a mio parere non hanno

toccato il nucleo centrale di quella che è stata la filosofia prima ancora dei Greci. E’ mia

profonda convinzione che la filosofia nel corso dei millenni sia stata soprattutto una serie di

tentativi di rispondere ad alcune domande che possono essere riassunte per chiarezza e

semplicità con questa: “Chi sono, quali sono le mie origini e qual è il mio destino ?”,

domande che da molti sono ritenute metafisiche e da evitare se non si vuole tornare a “tentar

l’essenza”.

Ma chi, fosse anche il più accanito avversario della metafisica, potrebbe negare validità alla

domanda “Esistono resti fossili attribuibili ad antenati comuni delle scimmie moderne e

dell’uomo” ? Risposte di questo tipo sono senza dubbio scientifiche e sono precisamente

quel tipo di proposizioni che ho definito filosofiche in quanto rilevanti per la vita.

Ci sarà chi obietterà circa l’opportunità di privilegiare questa accezione del termine dal

momento che la filosofia è stata anche altro: essa è stata logica, etica, religione, cosmologia

e cosmogonia, psicologia, epistemologia, politica e in parte notevole anche metafisica nel

senso deteriore del termine. Ma fatta eccezione per la metafisica deteriore, è proprio questa

varietà di aspetti a suggerire che chi ha fatto filosofia lo ha fatto mosso non dal desiderio di

conoscere uno qualsiasi dei vari aspetti della realtà, bensì dalla speranza di trarre da essi

proposizioni utili per cercare di rispondere alla domanda “cos’è l’uomo?”. E’ del resto

chiaro che quando indago sul calore mediante il metodo sperimentale, anche se rifiuto a

priori di pormi domande sulla sua natura, finisco pur sempre per dire qualcosa che la

concerne, per esempio che il calore non è un fluido bensì una proprietà che risulta dal moto

delle molecole che compongono un corpo. Quindi non è tanto la domanda o meglio la forma

della domanda che si pone lo sperimentatore a fungere da garanzia della scientificità della

risposta, quanto il metodo che viene seguito per rispondervi. Il rifiuto galileiano pertanto va

valutato in considerazione della metafisica del suo tempo come ha ben sottolineato Evandro

Agazzi 254 . Questa domanda (τι εστι) va svuotata del preteso noumeno che gli sta dietro,

dopo di che diventa lecita a patto che si seguano certe regole per rispondervi.

La storia della filosofia comincia ben prima di quello che ufficialmente si ritiene e si insegna

nelle scuole: la troviamo per la prima volta nei resti delle tombe dell’uomo di Neanderthal

255 e la ritroviamo nelle credenze di popoli ancora isolati dalla civiltà moderna; la troviamo

in quegli antichi documenti la cui origine risale a tempi imprecisati attraverso la tradizione

orale, che sono la Bibbia, l’epopea di Gilgamesh e il libro dei Morti in Occidente e i Veda in

Oriente. Gilgamesh è mosso dallo stesso problema che tormenta Ivan Karamazov. E la

troviamo più avanti nei poemi omerici che precedono di qualche secolo quelli che sono i

primi scritti filosofici ufficiali dell’Occidente che ci sono pervenuti nella loro interezza, i

dialoghi di Platone.

Tutti questi documenti, che sono anche delle vere e proprie opere d’arte, sono pieni di

filosofia, cioè di risposte a domande che l’uomo si poneva su se stesso, anche se tali risposte

non venivano spesso ottenute nel metodo corretto; né c’è da vergognarsi di queste origini,

perché altrettanto nebulose e oscure sono le origini della scienza moderna, se è vero che

l’alchimia ha partorito la chimica e la medicina sperimentale si è liberata della magia solo

col trattato del Laennec nel 1819 256 .

254 E. Agazzi: Temi e problemi di filosofia della fisica. Manfredi, Milano, 1969; p.10-14

255 Anche nel caso che alle sepolture dei Neanderthal non si volesse attribuire un significato rituale,

questo è certamente presente in quelle dei Cromagnon che risalgono ad almeno 30.000 anni prima

di Cristo.

256 R.T.H. Laennec: De l’auscultation médiate. Parigi, 1819

140


Con la figura di Socrate possiamo dire che la filosofia si stacca dalla poesia, pur se i loro

rapporti sono per loro natura così stretti che non sempre si può facilmente distinguere l’una

dall’altra. La discussione sull’uomo assume un carattere di estrema sistematicità, per nulla

diversa da quella presente in un moderno trattato di zoologia o di medicina, nell’esposizione

di Aristotele e attraverso gli epicurei e gli stoici giunge a dominare incontrastata quindici

secoli di Cristianesimo. Ma anche dopo la fine del Medioevo, e questo è importante, ne

discute il dualista Cartesio e il materialista Lamettrie, se ne interessa Newton e se ne

interessa Darwin; chi sia l’uomo se lo chiedono Skinner, Schroedinger, Einstein,

Dobzhansky, Monod e Jacob. E se lo chiedono Kierkegaard, Sartre, Camus, Heidegger,

Maritain e mille altri, così come se lo chiedono migliaia (miliardi?) di uomini di diverse

religioni. C’è chi risponde in maniera giusta e chi in maniera sbagliata o peggio insensata,

ma indipendentemente da questo, penso non si sia troppo lontani dal vero se si sostiene che

la storia della filosofia è soprattutto la storia degli asserti ritenuti dai vari autori rilevanti per

la vita.

Penso quindi che la definizione di filosofia come insieme delle proposizioni rilevanti per la

vita non solo sia lecita, ma sia anche lo specchio di ciò che realmente è stata la filosofia. Ma,

si potrebbe obiettare, in tal modo la filosofia non finisce per essere troppo simile alla

religione? In fondo, la religione non si occupa delle stesse questioni?

In effetti è così: l’insieme delle proposizioni (si potrebbe qui usare il termine asserti 257 )

della filosofia e quelle della religione sono in effetti overlappanti, anche se, ovviamente, non

coincidenti. Questo è riconosciuto da tempo. Ma la religione contiene anche una serie di

asserti di altra natura, rituali, etici, normativi, e in certi casi anche di difficile definizione.

Anche il tipo di risposta alle stesse questioni filosofiche può essere diverso. Tuttavia, per

quanto riguarda quello che la religione ha da dire sul mondo, essa deve seguire le stesse

regole che abbiamo qui citato per la filosofia, pena il rischio di incappare nelle ire di Hume.

E comunque, da un punto di vista razionale non ha senso passare all’analisi della religione se

non si è prima chiarito che le questioni filosofiche sono lecite e aggredibili basandosi sulla

conoscenza che va sotto il nome di empirica.

La saggezza della filosofia

In un suo libro, “Saggezza e illusioni della filosofia”, ammirevole per chiarezza e per

concetti, Jean Piaget risponde ai positivisti logici con un’argomentazione che ha un suo

fascino 258 . La scienza è essenzialmente ciò che è verificabile, mentre l’oggetto della

filosofia non lo è. Però la scienza non può stabilire ciò che ha senso. In particolare, non si

può dire che la filosofia sia un qualcosa d’inutile, anzi essa risponde assai bene ad alcuni

bisogni profondi dell’uomo. Essa non è esattamente un sapere, ma è una saggezza, “una

presa di posizione ragionata sulla totalità del reale”, che a sua volta non può essere

contemplata dalla scienza. Le filosofie orientali più di quelle occidentali si sono più spesso

qualificate come tali. Non vi sono e non possono esservi attriti tra scienza e filosofia, perché

i due domini di interesse sono completamente diversi. L’impressione, ricavata da discussioni

informali e da episodi aneddotici, è che questo approccio abbia oggi molti seguaci, specie tra

coloro che praticano l’attività di ricerca e/o riflettono sulla scienza 259 .

257 Si potrebbe fare riferimento alla convenzione per cui per asserti o enunciati si intende qualsiasi

sequenza di parole costruite secondo le regole della grammatica e della sintassi, mentre per

proposizioni si intende qualsiasi enunciato testabile, cioè qualsiasi enunciato ancorato ai fatti.

258 J. Piaget: Saggezza e illusioni della filosofia”. Einaudi, Torino, 1969

259 Ad esempio questa pare essere la posizione di S.J.Gould nel suo recente libro: Rocks of age:

science and religion in the fullness of life. Ballantine, New York, 1999. Gould è un grande nemico

141


Questo approccio non costituisce una brutta soluzione e risolve molti problemi. In primo

luogo, risana le ferite inferte dal violento attacco del positivismo logico contro la metafisica.

Vi è per così dire un ritorno alla fase pre-carnappiana di guerra fredda, quando scienza e

filosofia si guardavano con sospetto, ma con il vantaggio di aver firmato un armistizio che

potreva contentare tutti. Dopo una guerra che ha seminato disastri la gente è generalmente

più conscia dei benefici della pace e spesso si rende conto che ha litigato senza un vero

motivo. In fondo, la scienza non perde nulla del suo, il suo territorio è garantito per un

tempo indefinito, mentre alla filosofia viene riconosciuto dall’aggressore una sua ragion

d’essere. Il fatto che in questo modo viene riconosciuto che è saggio parlare anche di

argomenti non oggetto della scienza potrebbe per certi aspetti rassicurare anche le correnti

più sensibili ad un certo spiritualismo.

Per alcuni versi, la definizione di Piaget ha delle similitudini con la quella disegnata nel

presente libro. Entrambe le definizioni si rifanno ad una Weltanschauung, ad una visione del

mondo. Entrambe le definizioni fanno riferimento alle domande classiche della filosofia o

della metafisica, chi siamo, da dove veniamo e dove andiamo, e alla tradizione secondo cui

tutto il nostro desiderio di conoscere è legato a definire il ruolo dell’uomo nell’universo.

Entrambe le definizioni potrebbero sembrare eccessivamente antropocentriche, ma in fondo

la specie umana è l’unica che è interessata alla filosofia. Le pietre non fanno filosofia.

Tuttavia, la definizione scelta in questo libro mi sembra avere alcuni vantaggi sull’approccio

di Piaget. In primo luogo, come per l’interpretazione di Piaget, ma questa volta direi per

definizione, non è attaccabile dalla critica principale del positivismo logico. Se le

proposizioni in questione sono state derivate tramite il metodo usato dalla scienza, non si

capisce bene perché dovrebbero diventare illegittime se estratte e immesse in un unico

insieme, cui viene dato una denominazione particolare o viene definita una proposizione

caratteristica. Si tratta più che di un armistizio, di una pace duratura. In secondo luogo, ci

consente di parlare di argomenti che stanno a cuore senza sentirci dire che se ne può parlare

solo ai party ma non nei laboratori o nelle corsie.

Il terzo vantaggio è quello che, secondo me, elimina una debolezza della versione di Piaget.

Con la sua interpretazione non è ben chiaro il grado di saggezza della filosofia o se si

preferisce, non è chiaro quale sia la base per definirla saggia. La filosofia di Piaget potrebbe

essere saggia, ma corre il rischio di essere arbitraria, non dico oggettiva, ma neanche

intersoggettiva. La caratteristica di saggezza non è motivata. Viceversa, nella presente

accezione, la base intersoggettiva è garantita dall’origine stessa delle proposizioni che

formano la filosofia.

Di ciò di cui si può parlare non è lecito tacere.

Pertanto la filosofia diviene un sottoinsieme della scienza, a patto di considerare questo

termine nel significato ampio di “conoscenza” e non nel senso ristretto in cui viene

generalmente usato. Abbiamo cercato di mostrare come in realtà con lo stesso metodo si

debbano affrontare problemi e proposizioni che forse non tutti i positivisti logici

includerebbero nella scienza, e pertanto nel nostro senso ciò che viene ottenuto con il

metodo scientifico è un insieme più vasto di quello generalmente considerato come scienza.

dell’idea di progresso nell’evoluzione (vedi sezione sull’evoluzione) ma evidentemente questo non

gli impedisce di parlare di filosofia.

142


In pratica vi è una sola conoscenza che si basa sul metodo di confronto con l’ambiente e a

seconda della necessità si può parlare di fisica, biologia, di arte della motocicletta o di

filosofia.

Consideriamo ora le seguenti proposizioni:

- qui in questo giorno all’ora tale (coordinate spaziotemporali) è stato trovato un cranio

con le seguenti caratteristiche: w, x, y, z …….

- qui in questo giorno (coordinate spaziotemporali) è stato trovato un cranio simile ma non

uguale a quello umano

- il cranio trovato non è di nessuna specie conosciuta

- il cranio trovato è di un ominide ora estinto che aveva caratteristiche intermedie tra

l’uomo moderno e altre scimmie

- numerosi crani di ominidi estinti fanno supporre che l’uomo si sia evoluto a partire da un

antenato comune a lui e ad altre scimmie antropomorfe.

- L’evoluzione degli ultimi 10 milioni di anni può essere descritta utilizzando solamente

leggi della materia

- L’evoluzione dell’Homo sapiens può essere spiegata con le leggi della materia

- L’evoluzione dell’Homo sapiens non può essere spiegata con le leggi della materia.

Cosa hanno di diverso queste proposizioni ? A parte la prima, che potrebbe essere

considerata una proposizione protocollare, le altre sono tutte frutto di un’interpretazione e di

un confronto tra varie proposizioni. Esse sembrano anche di complessità crescente e

sembrano formulate in modo tale da considerare aspetti successivi di analisi. Sembra anche

che le ultime ci dicano di più di quanto ci dicono le prime. La penultima è una grande

generalizzazione che coinvolge non solo dati sperimentali ma anche una concezione della

materia e dello status delle leggi che si ritiene la governino. Tutte queste sono generalmente

ritenute di pertinenza della scienza, anche la penultima, sulla verità della quale pure non c’è

consensus generale.

E l’ultima? Essa è la negazione della precedente. La precedente ha cittadinanza riconosciuta

nel dominio della scienza. Perché l’ultima invece non dovrebbe averla ? Se la penultima fa

parte delle proposizioni della scienza, significa che essa è considerata testabile. Ne consegue

che anche la sua negazione dovrebbe essere considerata testabile e quindi far parte della

scienza. Tuttavia l’ultima viene sovente guardata con occhio sospetto, si ha quasi la

sensazione che affermandola ci si ponga automaticamente fuori dal dominio della scienza.

In realtà, secondo le nostre definizioni tutte queste affermazioni fanno parte della scienza e

della filosofia, anche se per questioni di parsimonia, nell’insieme filosofia potrebbero venir

inserite anche solo le ultime tre o quattro.

Non è chiaro ed automatico dove ci si debba fermare nelle nostre affermazioni scientifiche.

Malgrado ciò, sembrerebbe che basandosi su proposizioni scientifiche sia possibile

effettuare considerazioni e ragionamenti che si estendano anche ai domini che sono più

squisitamente filosofici. Dato un certo numero di eventi descritti da proposizioni, è possibile

formulare ipotesi di un livello più elevato che overlappano quelle della filosofia classica: la

penultima proposizione può essere ritenuta abbastanza simile a quelle del De Rerum Natura

di Tito Lucrezio Caro, poeta e divulgatore dell’atomismo di Democrito ed Epicuro. L’ultima

non è così diversa dall’argomentazione della causa incausata e della contingenza di

Aristotele e Tommaso d’Aquino.

Per quanto è stato possibile e con tutte le limitazioni insite in un lavoro così vasto, abbiamo

cercato di elencare nei precedenti capitoli un certo numero di dati che riteniamo interessanti

143


per il tema del libro, che cioè vi sia un gran numero di proposizioni scientifiche di interesse

filosofico, una volta scelta l’accezione del termine filosofico secondo quanto accennato qui

sopra.

Una volta pertanto compiuto un lungo, seppur parziale, elenco di dati, possiamo pertanto

chiederci se sia possibile una qualche loro elaborazione che sia compiuta in maniera

razionale. E’ possibile che in questa elaborazione alcuni introducano concetti non facilmente

definibili e apparentemente vaghi, come del resto abbiamo visto introdurre sovente nella

scienza, specialmente ma non solo quando un settore della scienza era ed è talora in grande

movimento. Basti pensare al principio di complementarietà di Bohr o al principio di

indeterminazione di Heisenberg, che sono stati adottati malgrado l’opposizione di un certo

numero di scienziati del calibro di Einstein e il cui vero status è tuttora incerto.

Sembrerebbe ad alcuni che principi di natura non materiale non possano neanche essere

discussi. Molti scienziati asseriscono che neanche si mettono a parlare con persone che

invocano sostanze immateriali come rilevanti per la descrizione ad esempio della coscienza

umana. E’ chiaro che un atteggiamento del genere preclude qualsiasi dialogo con qualche

miliardo di uomini, e, pur riconoscendo che gran parte di questi siano poco colti, c’è da

chiedersi se tutto è spiegabile con una scarsa conoscenza della biologia moderna.

Praticamente il ragionamento che fanno costoro è del tipo: se non mi dai ragione in anticipo

neanche mi metto a discutere con te.

In realtà, è estremamente chiaro che la formulazione dell’esistenza di sostanze spirituali è

stata nel corso dei millenni un’acquisizione conoscitiva di importanza notevole. Essa è senza

dubbio derivata dalla presa di coscienza della causalità. Il bisogno di una sostanza spirituale

dimostra che l’uomo era già diventato sofisticato nella conoscenza dei rapporti causa/effetto,

tale da comprendere che alcuni fenomeni erano spiegabili nei termini che lui conosceva

mentre altri erano assai più complessi e necessitavano una spiegazione di complessità

adeguata, che proprio per questo non era spiegabile con la materia. Alla luce della

prospettiva storica e del carattere originariamente empirico della formulazione dell’esistenza

di sostanze spirituali, la loro discussione non può essere eliminata aprioristicamente e direi

unilateralmente.

40% degli scienziati sono francamente dualisti (inchiesta)

Al di là delle affermazioni eclatanti di numerosi scienziati, c’è da chiedersi se in generale

essi siano tutti materialisti. Sembrerebbe che non sia così. All’inizio del secolo, molti

presumibilmente si ponevano la stessa domanda, se cioè la scienza provochi una certa

avversione al sovrannaturale. Nel 1914, James H. Leuba, psicologo americano, inviò un

breve questionario ad un certo numero di scienziati, con due semplici domande. Gli

scienziati dovevano rispondere: a) se credevano in un Dio personale, che può essere

influenzato dall’interazione con l’uomo, e b) se credevano in una vita dopo la morte. Alle

due domande era possibile rispondere si, no, o non so. Leuba pubblicò i suoi dati nel 1916

260 . Ottant’anni dopo, Edwrad J. Larson e Larry Witham ripeterono la stessa inchiesta,

mantenendo le stesse domande 261 . L’inaspettata conclusione fu che, malgrado l’enorme

diffusione della scienza e della tecnologia che ha avuto luogo dopo la seconda guerra

260 J.H. Leuba: The belief in God and Immortality: a psychological, anthropological and statistical

study. Sherman, French & Co., Boston, 1916

261 E.J Larson & L. Witham: Scientists are still keeping their faith. Nature 386:435-436, 1997

144


mondiale e malgrado gli enormi cambiamenti avvenuti nei costumi sociali, la percentuale di

scienziati che rispose sì alle due domande non era essenzialmente mutata. Per la prima

domanda, la percentuale rimase sempre intorno al 40% un valore simile a quello ottenuto

nell’inchiesta di Leuba, mentre per la seconda domanda si ebbe un leggero calo, dal 50 al

40% circa.

Queste percentuali tuttavia calano notevolmente se in qualche modo si selezionano gli

scienziati più bravi. Se già nel 1916 la percentuale dei “credenti” tra i super scienziati era

intorno al 30%, nel 1933 si era scesi verso il 20% (con un’ulteriore ricerca di Leuba) mentre

oggi siamo intorno al 10%, con punte del 5% per i biologi 262 . Vi era anche una postilla alla

seconda domanda di Leuba, che chiedeva a coloro che non credevano nell’immortalità

personale, se comunque ne sentissero il bisogno. In questo caso si può rivelare una notevole

differenza tra il 1916 e il 1996, in quanto la percentuale di persone non interessate

all’immortalità è salita dal 27 al 64%. E questo sembra essere il cambiamento più evidente.

Naturalmente, quello che si può trarre da questi risultati sono solo conclusioni di tipo

sociologico. Il fatto che gli uomini di scienza più eccelsi abbiano risposto negativamente ai

quesiti non ci dice nulla sulla validità delle loro risposte, ma solo su quello che pensano gli

scienziati. Non vi sono motivi per pensare che gli scienziati abbiano una statura morale più

elevata di quella dell’uomo comune, e neanche che il loro giudizio sia più fondato di quello

degli altri perché (si potrebbe ipotizzare) essi sono più intelligenti della media. Se così fosse,

si dovrebbe affidar loro il governo dei nostri paesi o la conduzione delle imprese: ma su

questo punto pochi sarebbero d’accordo. Se si vanno a considerare le posizioni politiche

degli scienziati, penso che ce ne sia per tutti i gusti e molti scienziati si sono assai sovente

adeguati ai regimi più duri 263 . Le notevoli eccezioni non sono probabilmente in numero

maggiore di quanto si trovi nella popolazione generale.

Infine bisogna notare come le domande fossero molto limitative. Nella prima domanda ad

esempio si doveva rispondere se si credeva o no in un Dio che interagiva colle persone. Chi

credeva in un principio spirituale di tipo diverso, veniva catalogato come “non credente”. E’

presumibile pertanto che il numero di coloro che potrebbe essere catalogato come

materialista sia ancora inferiore al 60%. Infine anche le ragioni dei risultati ottenuti è

argomento di dibattito: dal momento che in molti circoli scientifici è senz’altro fuori moda

essere “credenti”, è stata sollevata la possibilità che vi sia una selezione contro persone

“credenti” e che queste rimangano fuori dal club o che per lo meno non abbiano grande

interesse a manifestare il loro pensiero. Vista la grande adattabilità degli scienziati

all’ambiente circostante questa ipotesi non può essere completamente esclusa.

262 E.J Larson & L. Witham: Scientists and religion in America. Sci Am, settembre 1999, pp 88-93

263 Di esempi a questo riguardo ce ne sono a non finire, ognuno ne può elencare una serie. Basti

pensare, nel passato recente, alle vicende legate al giuramento di fedeltà al fascismo richiesto a tutti

i professori universitari italiani, che fu rifiutato da un numero assolutamente minimo di scienziati,

tra cui mi piace ricordare il matematico Vito Volterra, e successivamente alle leggi razziali che

espulsero gli ebrei dai posti di lavoro, contro cui solo pochi scienziati si ribellarono. I loro colleghi

“umanisti” non si comportarono meglio. Anche in Francia successe lo stesso, perché solo pochi

rinunciarono al loro lavoro in seguito all’occupazione nazista. Interessante a questo proposito il

commento di Francois Jacob, che nella sua autobiografia “The statue within” (Unwin Hyman,

Londra, 1988), notava come al ritorno dalla guerra, chi si era battuto si trovava col sedere per terra,

e gli toccava essere giudicato da coloro che erano tranquillamente rimasti.

145


In realtà cosa pensino gli scienziati può far colpo sull’opinione pubblica non preparata ma ha

poco da vedere con la verità o la giustizia. Quello che in realtà conta è la forza delle

argomentazioni che escono non dal soggettivismo degli scienziati bensì dalla solida,

ancorché parziale, oggettività del procedimento scientifico.

Gli scienziati fanno filosofia?

Ma è comunque vero che gli scienziati hanno paura di parlare di filosofia ? Sembrerebbe

proprio di no. Da un lato c’è come un dogma che bandisce dalle riviste scientifiche le

speculazioni sulle questioni filosofiche, e si ritiene generalmente che queste al massimo

vadano bene per le conversazioni ai ricevimenti, magari dopo che si sono bevute tre o

quattro birre o quando ci si trova con persone che si annoierebbero terribilmente a sentir

parlare di argomenti tecnici. Ma dall’altro, vi è un enorme numero di libri in cui gli

scienziati affermati espongono la propria Weltanschauung. Anzi, sembra quasi che una volta

ottenuto qualche risultato di rilievo, gli scienziati si ritengano in dovere di esporre il proprio

punto di vista sulle questioni filosofiche. Questo forse è per un motivo assai pratico: a chi

interessano le idee sul mondo di uno sconosciuto ? se uno invece ha avuto delle buone

intuizioni in qualche campo, la gente è più disposta ad ascoltarlo: sembra quasi che il

successo nelle questioni scientifiche diventi un lasciapassare alla filosofia. Non si può però

escludere che tra le motivazioni che spingono i giovani ad interessarsi di scienza non vi sia

quel senso di meraviglia che sta alla base anche del far filosofia e che pertanto si senta il

bisogno di riprendere questo genere di tematiche. Prendiamo ad esempio i grandi fisici che

nei primi decenni del Novecento cambiarono la nostra visione del mondo, sia per quanto

riguarda la costituzione del mondo microscopico che di quello che è l’infinità dell’universo

che ci circonda. Tutti costoro avevano delle loro idee filosofiche e religiose e nessuno ha

sostenuto che non se ne potesse parlare. Vero è tuttavia che le loro visioni non coincidono,

che spesso non sono esposte in modo sistematico e che talora sono apparentemente

contradditorie. Ma dalle loro affermazioni si rivela che le problematiche filosofiche erano

comunque al centro dei loro interessi. Ne possiamo elencare alcune, non perché ci

interessino le conclusioni cui giungono, almeno per il momento, ma solo per indicare come

essi comunque hanno ritenuto che la scienza avesse a che fare con la filosofia.

Max Planck, padre della meccanica quantistica, scrive:

“Religione e scienza si incontrano sulla questione dell’esistenza e della natura di un potere

supremo, che regge il mondo, e qui almeno fino ad un certo grado possono essere

paragonate tra loro le risposte, che ambedue danno…….In qualunque direzione e per

quanto lontano noi possiamo vedere, non possiamo trovare da nessuna parte una

contraddizione tra religione e scienza, ma piuttosto un pieno accordo proprio nei punti

decisivi. Religione e scienza non si escludono, come alcuni oggi credono o temono, ma si

completano e si condizionano a vicenda” 264 .

Erwin Schroedinger, fisico austriaco, autore delle celebri equazioni, è noto per aver

coltivato, dopo essersi rifugiato a Dublino in seguito all’Anschluss, anche un certo interesse

264 M. Planck: Scienza, filosofia e religione. Fratelli Fabbri Editori, Milano, 1965; p. 254 e p. 255.

Tuttavia poche pagine prima (p. 247) leggiamo che invece “il problema di Dio mai e poi mai si

lascia risolvere per via scientifica, cioè per argomentazioni logiche, fondate sui fatti. Piuttosto la

risposta a questa domanda è unicamente ed eslusivamente affare della fede, della fede religiosa”.

Questo è un esempio del fatto che non sempre le affermazioni sono congruenti tra loro.

146


per la biologia, giungendo a postulare come substrato dell’ereditarietà un “cristallo

aperiodico”, in cui molti videro una prefigurazione del DNA. Nel suo libro “Che cos’è la

vita ?”, egli esamina la biologia dal punto di vista della fisica quantistica. Il problema che

indaga maggiormente è quello della riproduzione e della conservazione di una struttura

complessa quale è quella del vivente, che mostra delle caratteristiche per lui assai

sorprendenti:

“Le caratteristiche più sorprendenti sono: primo, la curiosa distribuzione degli ingranaggi

in un organismo pluricellulare…; e secondo, il fatto che ogni singolo ingranaggio non è

ovviamente opera umana, ma è il più bel capolavoro mai compiuto da Dio, secondo le linee

della meccanica quantica” 265

Nella conclusione del suo libro, Schroedinger rivela chiaramente