04.06.2013 Views

CLAUDIO PIZZI LEZIONI DI FILOSOFIA DELLA SCIENZA a. a. 2010­2011

CLAUDIO PIZZI LEZIONI DI FILOSOFIA DELLA SCIENZA a. a. 2010­2011

CLAUDIO PIZZI LEZIONI DI FILOSOFIA DELLA SCIENZA a. a. 2010­2011

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>CLAU<strong>DI</strong>O</strong> <strong>PIZZI</strong><br />

<strong>LEZIONI</strong> <strong>DI</strong> <strong>FILOSOFIA</strong> <strong>DELLA</strong> <strong>SCIENZA</strong><br />

a. a. <strong>2010­2011</strong>


I. IL POSITIVISMO LOGICO.<br />

§1. Dell' epistemologia contemporanea, a differenza che di altre discipline, si<br />

può indicare una data di nascita abbastanza precisa, il 1925. In quest’anno un<br />

fisico viennese di grande cultura filosofica, Moritz Schlick (1882­1936),<br />

cominciò a usare il salotto di casa sua per ospitare un gruppo di discussione a<br />

cui partecipavano colleghi della generazione più giovane, di varia estrazione<br />

culturale. Al centro di molte discussioni erano le idee contenute in un testo di<br />

recente pubblicazione, il Tractatus Logico­Philosophicus. L’autore di questo<br />

testo atipico, che si presentava come una serie di aforismi numerati, era un<br />

giovane viennese, rampollo di una ricchissima e blasonata famiglia, Ludwig<br />

Wittgenstein. Partito volontario per la Prima Guerra Mondiale, Wittgenstein era<br />

stato fatto prigioniero dagli italiani a Monte Cassino, riuscendo però a<br />

completare il manoscritto nella forma che sarebbe diventata definitiva.<br />

E' singolare che l’autore del libro che era al centro di tanto interesse non<br />

abbia mai preso parte alle riunioni del circolo pur mantenendo i contatti con<br />

alcuni esponenti come Friedrich Waismann. Questo si può spiegare con la<br />

scontrosità del suo carattere, ma bisogna anche tener conto che Wittgenstein.<br />

riteneva di non aver niente da aggiungere a quanto scritto nel suo libro, con cui<br />

pensava di aver risolto in modo definitivo tutti i problemi principali della<br />

filosofia. Al termine di questa impresa filosofica, come lui stesso dichiarava alla<br />

fine della sua trattazione, non poteva esserci altro che il silenzio.<br />

Le riunioni del circolo – che prese il nome di Ernest Mach Verein – erano


molto animate. I filosofi nel senso tradizionale del termine erano per lo più<br />

assenti ma partecipavano matematici come Hans Hahn e saltuariamente Kurt<br />

Gödel (che era boemo), sociologi come Otto Neurath e Felix Kaufmann, fisici<br />

come Philipp Frank.<br />

Nel 1926 Rudolf Carnap (1891­1970), che era docente a Jena, fu chiamato<br />

all’Università di Vienna. Il contributo di Carnap, che sarebbe diventato in<br />

seguito la figura più importante del movimento, fu importante anche per la sua<br />

capacità di mantenere i contatti con gli ambienti tedeschi. Con qualche anno di<br />

ritardo infatti a Berlino si era costituito un circolo ispirato alle stesse idee, i cui<br />

maggiori esponenti furono Hans Reichenbach (1891­1953), Carl Gustav Hempel<br />

(1903­1992), Richard von Mises (1885­1953), Walter Dusbislav(1895­1937).<br />

Nel giro di pochi anni circoli analoghi vennero aperti in Polonia (circolo di<br />

Leopoli – Varsavia), in Inghilterra, dove aveva lasciato il segno la lezione di<br />

Russell, e in seguito negli Stati Uniti dove emerse rapidamente la figura di<br />

W.V.O. Quine.<br />

§2. La corrente di pensiero che nasceva in questo modo è stata battezzata in vari<br />

modi : positivismo logico, neopositivismo, neoempirismo, empirismo logico,<br />

empirismo scientifico. Comunque lo si voglia chiamare, è unanime il<br />

riconoscimento che le personalità che lo costituivano erano di statura eccezionale<br />

e che altrettanto eccezionale fu la svolta che riuscì a imprimere alla riflessione<br />

sulla scienza. Tanto per cominciare un punto caratterizzante della nuova corrente<br />

di pensiero è che la filosofia non doveva essere concepita come un corpo di<br />

dottrine o di principi ma come un’attività. Scopo di questa attività doveva essere


l’ analisi logica del linguaggio, cioè l’analisi del linguaggio compiuta mediante<br />

lo strumento della logica. Oggetto primario della ricerca erano le nozioni basilari<br />

della scienza (legge, teoria, esperimento, …), che venivano sottoposte ad un<br />

esame che Carnap chiamava di esplicazione. Una nozione vaga e intuitiva<br />

espressa nel linguaggio ordinario,p.es di teoria o di probabilità, doveva essere<br />

esplicata, e cioè rimpiazzata da un suo sostituto rigoroso espresso entro un<br />

linguaggio ideale, esente dalle impurità del linguaggio ordinario. Lo strumento<br />

per condurre questa attività esplicativa era una scienza rigorosa che era stata<br />

fondata pochi decenni addietro da matematici come Boole, Frege e Russell, la<br />

logica matematica. Dunque qui vediamo un altro elemento di novità. Per quanto<br />

fosse una metascienza, essendo un’ attività esercitata mediante metodi scientifici,<br />

la filosofia così intesa si proponeva essa stessa come una scienza.<br />

Non c’è dubbio che l’origine del nocciolo di questa idea sia stato il Tractatus<br />

di Wittgenstein. Vediamo dunque per sommi capi che cosa si trova in questo<br />

classico della filosofia. Apparso negli Annalen der Naturphilosophie di Ostwald<br />

nel 1921 e poi in inglese nel 1922 con introduzione di Bertrand Russell, il<br />

Tractatus consta di una serie di aforismi seguiti da commenti e sottocommenti<br />

numerati secondo il loro grado di importanza. Lo stile della presentazione,<br />

lapidario e a volte criptico, è più simile a quello della filosofia antica e della<br />

filosofia orientale che a quello contemporaneo, caratteristica che contribuì al suo<br />

successo editoriale. Sette aforismi principali sono seguiti da commenti numerati<br />

in ordine di importanza.<br />

1.Il mondo è tutto ciò che accade


2. Ciò che accade, il fatto è il realizzarsi di stati di cose<br />

3. L’immagine logica dei fatti è il pensiero<br />

4. La proposizione è il pensiero dotato di senso<br />

5.La proposizione è una funzione di verità delle proposizioni elementari<br />

6.La forma generale della proposizione è [ ­ , /, ξ]<br />

7.Di ciò di cui non si può parlare bisogna tacere<br />

Il mondo reale viene presentato come la somma degli accadimenti o fatti, e<br />

questi sono la realizzazione di alcuni degli infiniti “stati di cose”<br />

combinatoriamente possibili. Questi fatti possono essere estremamente<br />

complessi, ma per quanto complessi siano essi non sono altro che combinazioni<br />

di fatti atomici o elementari, e cioè fatti che non possono essere scomposti in<br />

altri fatti: p.es. il fatto che piove e che il cielo è coperto è un fatto molecolare ,<br />

che è la composizione del fatto atomico che piove con il fatto atomico che il<br />

cielo è coperto. Poiché tra linguaggio e mondo esiste una specularità fotografica,<br />

il linguaggio nella sua forma ideale consta di enunciati molecolari che sono la<br />

composizione di enunciati atomici. Il modo in cui gli enunciati si compongono<br />

nel linguaggio ideale è offerto da alcuni semplici connettivi logici: negazione,<br />

congiunzione, disgiunzione, condizionale e bicondizionale. L’uso di simboli<br />

appositi (¬, ∧ , v , ⊃ , ≡) sta a sottolineare che questi connettivi non sono<br />

esattamente la traduzione dei loro corrispettivi nel linguaggio ordinario. Le<br />

cosiddette tavole di verità ci danno le condizioni a cui un enunciato molecolare è<br />

vero o falso a seconda della verità o falsità degli enunciati atomici componenti.<br />

Vero e Falso sono detti “valori di verità” degli enunciati.


Queste tavole di verità si possono descrivere sinteticamente in questo modo:<br />

Se A e B sono enunciati qualsiasi,<br />

la congiunzione A ∧ B è Vera se A e B sono ambedue Vere, altrimenti Falsa;<br />

la disgiunzione A v B è Falsa se A e B sono ambedue False, altrimenti Vera;<br />

il condizionale A ⊃ B è Falso se A è Vera e B Falsa, altrimenti Falso;<br />

il bicondizionale A ≡ B è Vero se A e B hanno lo stesso valore di verità,<br />

altrimenti è Falso;<br />

la negazione ¬A è vera se A è Falsa, e Falsa se A è vera.<br />

Quando un enunciato è invariabilmente vero si dice tautologia: le tautologie<br />

sono quelle che tradizionalmente venivano chiamate leggi logiche (p.es. il terzo<br />

escluso). Applicando le tavole di verità si può stabilire in modo meccanico e in<br />

un tempo finito se un enunciato è o non è una tautologia. Come si suol dire,<br />

dunque, le tavole di verità, forniscono una procedura di decisione per la logica<br />

degli enunciati atomici e molecolari. Come si vedrà più avanti, questa logica è<br />

solo una porzione limitata della logica necessaria alla formalizzazione del<br />

linguaggio scientifico, ma Wittgenstein riteneva che a tale frammento fosse<br />

riducibile ogni ramo superiore della logica.<br />

Su questa premessa fondamentale (in effetti una vera e propria metafisica)<br />

Wittgenstein costruisce una teoria del significato che, in forma più sofisticata,<br />

sarebbe stata ereditata dal Circolo di Vienna. L’idea basilare è che una<br />

proposizione è dotata di senso quando si è in grado di definire una procedura per<br />

stabilire se è vera o falsa, dove la verità consiste nel rispecchiamento di un fatto<br />

atomico o molecolare. Nella sua prima formulazione il cosiddetto “criterio<br />

empirico di significanza” prendeva questa forma, noto anche come principio di<br />

verificabilità :<br />

(PV)“Un enunciato è significante se e solo se è verificabile in linea di<br />

principio”.<br />

Altra variante<br />

(PV*)“Il significato di un enunciato è il metodo della sua verifica”<br />

Prendiamo p.es. due coppie di asserti tratti dalla filosofia tradizionale: “Un ente


onnipotente ha creato il mondo” e “l’Essere è in bilico sul Nulla”. Non<br />

essendoci procedure per stabilire se sono veri o falsi, sono privi di senso, e lo<br />

stesso vale per le loro negazioni. La funzione della logica (e della filosofia come<br />

attività di chiarificazione) è quella di parafrasare gli enunciati del linguaggio<br />

ordinario nel linguaggio ideale, in modo tale da chiarire la loro forma logica<br />

perfetta; una volta così tradotte, si stabiliscono le condizioni a cui sono vere o<br />

false, e si stabilisce così la loro sensatezza. La conclusione di questa analisi, o<br />

meglio le conclusioni che si propone di raggiungere questa analisi è che le<br />

proposizioni che costituiscono la metafisica tradizionale sono prive di senso,<br />

mentre solo le proposizioni della scienza sono dotate di senso.<br />

In Wittgenstein questa autolimitazione della filosofia si colora di una vena<br />

mistica che non si trova negli altri filosofi neopositivisti. Le proposizioni<br />

dell’etica e dell’estetica sono a rigore prive di senso, anche se esprimono<br />

sentimenti e passioni che, pur ineffabili, hanno grande valore per gli uomini. Lo<br />

stesso vale per il Trascendente: esso viene percepito come qualcosa che si pone<br />

al di là del limite, che esiste (“si mostra”, dice W), ma è inesprimibile.<br />

La metafisica tradizionale e la sua compagna prossima –la teologia­ dunque<br />

sono il campo di contese inconcludenti e infinite perché constano di<br />

pseudoproposizioni prive di senso e discutono quindi pseudoproblemi.<br />

Ma le discussioni che si aprirono immediatamente, in seno al Circolo, sul<br />

criterio empirico di significanza, danno la misura di come lo stile filosofico del<br />

circolo fosse antidogmatico e, in certo senso, ispirato al metodo sperimentale.<br />

Ogni esplicazione di un concetto che veniva proposta in via tentativa non<br />

pretendeva ad essere definitiva ma perfettibile. La nozione più importante da<br />

esplicare in via preliminare era la nozione di significanza, ma il principio di<br />

verificabilità si dimostrava immediatamente inaccettabile, nella forma sopra<br />

proposta. In primo luogo, anche trascurando che tutte le proposizioni normative e<br />

valutative risultano prive di senso per tale criterio, bisogna chiarire che la<br />

verificabilità “in linea di principio” deve applicarsi anche a proposizioni per cui<br />

non esiste, nel momento in cui sono valutate, la disponibilità tecnica di una


verifica. Quando venne fondato il Circolo di Vienna non c’era la possibilità<br />

tecnica di mandare una sonda sulla Luna, ma nessuno dubitava della sensatezza<br />

dell’enunciato “ci sono montagne dall’altra parte della luna”, per quanto avrebbe<br />

potuto risultare , a sorpresa, falso. La risposta era che esso risulta sensato “in<br />

linea di principio”, e cioè, nei limiti in cui possiamo descrivere senza<br />

contraddizione delle tecniche che consentirebbero la verifica. Ma il problema<br />

più grave, come si vide immediatamente, era un altro.<br />

Prendiamo una legge di natura come “Tutti i corvi sono neri”. è ovvio che la<br />

legge non asserisce qualcosa sui corvi effettivamente osservati, che sono in<br />

numero finito, ma su tutti i corvi presenti, passati e futuri che sono in numero<br />

infinito; anzi, come vedremo meglio, su tutti i possibili corvi, che sono pure<br />

infiniti . Secondo una teoria suggerita dallo stesso Wittgenstein nel Tractatus, un<br />

asserto come questo, che i logici simbolizzano nella forma ∀x (Nx ⊃ Cx)<br />

equivale a una congiunzione infinita di enunciati del tipo “a è un corvo solo se a<br />

è nero”, “b è un corvo solo se b è nero”, “c è un corvo solo se c è nero “ ecc.. In<br />

questa analisi vediamo all’opera il ruolo della logica formale, che ciò porta a<br />

evidenziare ciò che il senso comune e la logica del senso comune non rendono<br />

trasparente. Per verificare la legge dovremmo quindi verificare infiniti enunciati,<br />

e quindi compiere infinite verifiche. Ma questo non è possibile nemmeno in linea<br />

di principio: ammesso e non concesso che si disponga di un nome per tutti gli<br />

oggetti dell'universo, dobbiamof are i conti con il fatto che il tempo disponibile<br />

per le verifiche è un tempo finito. Conclusione: le leggi scientifiche, che sono gli<br />

enunciati che rendono possibile la ricerca scientifica, sono prive di senso.<br />

Gli anni ’30 furono caratterizzati dai tentativi di emendare il criterio empirico<br />

di significanza salvando almeno la significatività delle leggi scientifiche. In<br />

Testability and Meaning Carnap propose di sostituire la verificabilità con la<br />

controllabilità (che presuppone l’ esistenza di strumenti di controllo) e poi con la<br />

confermabilità. Il criterio di significanza liberalizzato asserirà dunque che un<br />

enunciato è significante se e solo se è confermabile.<br />

Che vuol dire confermabile? Per capirlo dobbiamo renderci conto fatto che il<br />

neopositivismo è l’erede dell’empirismo classico, cioè dell’ idea secondo cui<br />

ogni conoscenza non a priori deriva in ultima analisi dall’esperienza. (il<br />

sintetico a priori per un empirista è puramente contraddittorio). Ma l’ esperienza<br />

ci dà solo approssimazioni alla certezza, e cioè gradi probabilità. Il probabilismo<br />

quindi è l’esito naturale dell’empirismo. Assegnare a un enunciato un grado di


conferma sulla base dell’esperienza equivale ad assegnargli un grado di<br />

probabilità. Se a un enunciato (p.es. una legge) siamo in grado assegnare un<br />

grado di probabilità sulla base dell’esperienza questo enunciato è significante,<br />

altrimenti no.<br />

La nuova riformulazione di Carnap poneva su basi più soddisfacenti il criterio<br />

di significanza, ma guadagnava un problema nuovo, che era quello di proporre<br />

un’analisi logica della stessa nozione di probabilità. Come vedremo più avanti,<br />

Carnap produsse uno sforzo matematicamente poderoso per ricostruire il calcolo<br />

delle probabilità come ramo specifico (assiomatico) della logica. Nella sua<br />

prospettiva logica della conferma, logica induttiva e calcolo della probabilità<br />

costituiscono un’unica teoria. Non erano idee completamente nuove, dato che<br />

Keynes le aveva già espresse in “Treatise on Probability”. Ma la differenza<br />

sostanziale è che Carnap usa come strumento di indagine non la matematica ma<br />

la logica simbolica. Per tutti i neopositivisti è la logica, non la matematica, che<br />

diventa strumento per la rigorizzazione del linguaggio scientifico. Secondo<br />

Carnap ­ che da questo punto di vista proseguiva l’insegnamento di Frege e<br />

Russell ­la matematica si può ricostruire come un ramo della logica (logicismo).<br />

Come vedremo, oggi questa posizione è difficilmente sostenibile, ma l' idea<br />

guida del logicismo ha avuto un’ enorme suggestione e ha dato slancio alle<br />

ricerche del Circolo di Vienna.<br />

§3. Torniamo per un momento alle vicende del Circolo, che dopo il 1925 nel giro<br />

di pochi anni si trasformava in un vero e proprio movimento organizzato. Nel<br />

1929 compariva il manifesto del gruppo Wissenschaftliche Weltauffassung: der<br />

Wiener Kreis, un opuscolo di 60 pagine firmato da Hahn, Neurath, Carnap. Nel<br />

1935 Neurath in una breve monografia enucleava quattro caposaldi che erano<br />

condivisi da quanti aderivano al movimento: 1) antimetafisica 2) empirismo di<br />

carattere generale 3) intervento metodico della logica 4) matematizzazione di<br />

tutte le scienze. Tra i precursori delle nuove idee venivano indicati (a parte<br />

Mach, che era il modello di scienziato­filosofo più vicino al circolo) Comte,


Hume, Sesto Empirico, Leibniz. Filosofi come Democrito e Marx erano citati<br />

insieme ad altri per il loro orientamento antimetafisico e antireligioso.<br />

Era molto chiaro che la logica e la matematica agivano non solo come<br />

strumenti di lavoro ma assolvevano una funzione superiore. Infatti, dal momento<br />

che offrivano un linguaggio comune a tutte le scienze avanzate assicuravano la<br />

comunicazione tra queste e quindi diventavano agenti­ chiave di un processo<br />

che la filosofia doveva incoraggiare: quello verso l’unità della scienza. La<br />

promozione dell’unità della scienza diventa quindi un obiettivo cardinale<br />

dell' epistemologia. Nel 1935 si tenne a Parigi un congresso intitolato all’unità<br />

della scienza, a cui Neurath partecipò con una prolusione in cui si richiamava<br />

apertamente al programma degli enciclopedisti del 700. Neurath diventava<br />

animatore di una collana di studi “International Encyclopedia of Unified<br />

Science” di cui vennero pubblicati diversi fascicoli scritti dai migliori specialisti.<br />

Le scienze non solo dovevano tendere all’unità ma di fatto erano avviate verso di<br />

questa nella misura in cui una scienza avanzata, la fisica, tendeva<br />

progressivamente a inglobare altre scienze, a partire dalla chimica, come suoi<br />

rami specifici. A lungo andare le scienze della vita , e poi anche le scienze<br />

umano sociali ­ così si pensava ­ si sarebbero ridotte a rami specializzati della<br />

fisica (fisicalismo).<br />

Mentre le idee del Circolo acquistavano vigore, le vicende umane dei suoi<br />

componenti erano drammaticamente sfortunate. Nel 1936, anno dell’annessione<br />

dell’Austria alla Germania, Schlick venne assassinato da uno studente nazista<br />

sulle scale dell’Università di Vienna. Questo evento segnava la fine del<br />

movimento organizzato in Europa e l’inizio della diaspora dei suoi membri.<br />

Carnap, Reichenbach, Hempel, Weinberg, Feigl e altri trovarono posto in varie<br />

università americane, dove incontrarono un ambiente molto favorevole.<br />

Naturalmente, nonostante la mediazione di brillanti giovani come Quine, la<br />

filosofia dominante negli USA era quella pragmatista, dominata dall’ influenza


di personalità come Dewey e C.I.Lewis, a cui tra l'altro non era estranea neppure<br />

l’influenza dell’idealismo hegeliano importata nell’800 dagli immigrati di lingua<br />

tedesca.<br />

Fino al 1970 (morte di Carnap) il positivismo logico nella versione americana –<br />

talvolta chiamato received view – fu la corrente epistemologica dominante<br />

negli Stati Uniti. Da un lato questa corrente di pensiero, che non solo ammetteva<br />

ma incoraggiava le divergenze interne come fattore di progresso, mostrava una<br />

straordinaria capacità di crescita, dall’altro il successo era garantito dalla<br />

mancanza di alternative credibili.<br />

Negli anni ‘30, grazie soprattutto ad Hempel, il positivismo logico fu in grado<br />

di sviluppare una concezione delle teorie scientifiche e della spiegazione<br />

scientifica che non ha avuto rivali fino agli anni 70. Cominciamo a chiarire che<br />

il pensiero dei neopositivisti poggiava su una serie di presupposti che non<br />

venivano messe in discussione perché erano in un certo senso considerati<br />

autoevidenti. Si trattava di alcune dicotomie concettuali e principalmente: 1)la<br />

distinzione analitico­sintetico 2) la distinzione tra contesto della giustificazione e<br />

contesto della scoperta 3)la distinzione teorico ­ osservativo.<br />

1) La prima distinzione fa parte della tradizione filosofica derivata<br />

dall’empirismo. Gli enunciati veri o sono tali per la loro forma o per il<br />

significato dei termini (ex vi terminorum) oppure in virtù dell’osservazione e<br />

dell’esperimento. Alla prima classe appartengono enunciati come “0=0”,<br />

“2+2=4”, “Nessuno scapolo è sposato”, che vengono detti analitici. Altri<br />

enunciati, come “ alcuni gatti sono neri” sono derivati dall’esperienza e sono<br />

detti sintetici. I primi non possono mai essere falsi per il loro stesso significato,<br />

mentre i secondi possono essere veri o falsi a seconda delle circostanze.<br />

2) La distinzione tra contesto della scoperta e contesto della giustificazione,<br />

sottolineata da Reichenbach, indica che le qualità che rendono giustificato<br />

inserire un enunciato nel corpo della scienza (p.es. coerenza interna, alto grado<br />

di conferma ecc.) non hanno niente a che vedere con il modo in cui questo


enunciato è stato di fatto scoperto dagli scienziati. Che Newton sia arrivato alla<br />

teoria della gravitazione osservando una mela cadere dall’albero è molto<br />

interessante per la psicologia ma irrilevante per la epistemologia. Si osservi che<br />

molte scoperte sono , come si dice oggi, serendipiane, cioè preterintenzionali, il<br />

che nulla toglie alla loro validità.<br />

3) La dicotomia osservativo­teorico è essenziale per capire la concezione<br />

neopositivista delle teorie. Il linguaggio ideale della scienza deve distinguere<br />

rigorosamente due insiemi di termini ; quelli che descrivono qualcosa che cade<br />

sotto il dominio diretto dei sensi (rosso, mela, telescopio…) e quelli che non<br />

hanno questa caratteristica, pur essendo impiegati correntemente nella scienza<br />

(gravità, peso, inflazione, inconscio…). Grosso modo si tratta della vecchia<br />

distinzione tra concreto e astratto che qui, ovviamente, passa attraverso l’ esame<br />

rigoroso della logica. Non si nega che ci possono essere casi di difficile<br />

attribuzione ( per esempio un peso di 90 Kg rilevato da una bilancia è<br />

osservativo o teorico? ) ma si afferma che si può sempre tracciare una distinzione<br />

abbastanza sicura tra ciò che viene rilevato dall’osservazioni e da semplici<br />

operazioni di misura e ciò che non ha questa caratteristica.<br />

Breve parentesi. Negli anni '20 e '30 i neopositivisti dedicarono molte energie a<br />

stabilire la forma e la qualità delle informazioni basilari, derivate dai sensi, su cui<br />

doveva poggiare l’intera costruzione della scienza (protocolli). Alcuni<br />

sostenevano che i protocolli non erano enunciati ma resoconti neutri di<br />

osservazioni del tipo “qui,ora, rosso”, mentre altri come Neurath sostenevano<br />

che ogni enunciato va confrontato con altri enunciati , per cui non ha senso far<br />

poggiare una costruzione linguistica come la scienza su dati extralinguistici.<br />

Qui interessa osservare che, una volta accettata la dicotomia<br />

“osservativo/teorico” per gli enunciati singoli, questa si può estendere alle leggi<br />

scientifiche (che per i neopositivisti sono enunciati di tipo particolare, e non


elementi della realtà) le quali possono essere classificate quindi in osservative<br />

( es.:”tutti i cavalli hanno un cervello”) e teoriche (es::“tutti gli atomi sono<br />

costituiti da elettroni in movimento”).<br />

Qui dobbiamo subito chiederci se gli asserti teorici, non essendo derivati<br />

dall’osservazione, non finiscano per cadere sotto i rigori del criterio empirico di<br />

significanza al pari delle pseudoproposizioni metafisiche (già abbiamo visto che<br />

questo pericolo insidiava le stesse leggi scientifiche). Qui le risposte sono state<br />

diverse. La più semplice, proposta dal fisico americano Bridgman, sta nel dire<br />

che ogni termine teorico è definibile in termini della classe di operazioni e di<br />

calcolo che consentono di precisare il loro valore. Per quanto suggestiva, questa<br />

idea urta contro una difficoltà di fondo: dal momento che le operazioni di misura<br />

e di calcolo di aun stessa grandezza, poniamo della temperatura, sono diverse e<br />

cambiano con gli sviluppi tecnologici, ci sono diversi concetti di temperatura che<br />

cambiano continuamente. Per ovviare a questo problema i neopositivisti<br />

trovarono una soluzione che divenne in un certo senso definitiva:<br />

per ogni termine teorico t esistono delle regole che lo connettono ai dati<br />

osservativi dandone una “interpretazione parziale”, che può arricchirsi<br />

indefinitamente con lo sviluppo della scienza. Una regola di corrispondenza per<br />

esempio è la seguente:<br />

“se la colonnina di mercurio entro il termometro b raggiunge la tacca c, la<br />

temperatura del corpo b è di 35°”.<br />

Il complesso di tali regole (che, si noti, non sono equivalenze ma semplici<br />

implicazioni) è in grado di interpretare, cioè assegnare un significato, in un dato<br />

momento storico, a un termine teorico.<br />

Una teoria scientifica si presenta come una costruzione piramidale di leggi<br />

gerarchizzate secondo la loro generalità e secondo il loro carattere più o meno<br />

teorico . Questo presuppone che si sappia distinguere una legge di natura da altri<br />

enunciati che hanno struttura sintattica analoga (p.es. “Tutti i pianeti hanno il<br />

nome di una divinità greca”), ma i neopositivisti ritenevano, almeno fino<br />

all’inizio degli anni ’40, che tale distinzione non fosse problematica. Al livello<br />

più basso della gerarchia suddetta si trovano leggi che si appoggiano<br />

direttamente all’esperienza osservativa. Per esempio da “tutti i corvi osservati<br />

sono neri” si inferisce la legge osservativa “tutti i corvi sono neri” mediante una


estrapolazione induttiva. Ci sono casi in cui una legge riceve sostegno induttivo<br />

dal basso, ma è anche derivabile da leggi di maggiore generalità e astrazione. In<br />

tal caso questa legge nel corpo della teoria ha una posizione molto solida. Al<br />

vertice della piramide si trovano nella scienza modello (la fisica) leggi teoriche<br />

come F=ma. Esse ricevono un senso mediante le regole di corrispondenza, ma<br />

sono giustificate dalla loro capacità di derivare innumerevoli leggi di inferiore<br />

generalità e minore astrazione che in forma diretta o indiretta poggiano<br />

sull’esperienza.<br />

Veniamo ora al concetto di spiegazione (si noti che la spiegazione non va<br />

confusa con la esplicazione a cui si è già accennato, anche se i termini in italiano<br />

sembrano sinonimi).<br />

Un tema importante dell’espistemologia è stato fin dall’ 800 l’interrogativo:<br />

qual è lo scopo primario della scienza? Le risposte sono state almeno tre : a)<br />

descrivere sinteticamente la natura; b) effettuare previsioni corrette; c) spiegare i<br />

fenomeni sotto indagine.<br />

Scartata come limitativa la prima, la terza risposta è stata quelle che i<br />

neopositivisti hanno sottoscritto, anche perché si è affermata la diffusa<br />

convinzione che fosse coincidente con la seconda. Hempel ha difeso con forza<br />

fino agli anni 60 la cosiddetta “tesi della simmetria”, secondo la quale<br />

spiegazione e previsione sono strutturalmente identiche. Su questo ci sarebbe<br />

molto da discutere. Se è vero che la previsione razionale di un evento (p.es.<br />

un’eclissi di luna, non una vincita al lotto) implica una sua spiegazione, è più<br />

difficile sostenere che la spiegazione di un evento passato (p.es. il crollo di Wall<br />

Street del 1929) implichi una sua previsione (il crollo si è verificato perchè in<br />

quel momento ha colto gli operatori di sorpresa, altrimenti sarebbe stato forse<br />

evitato).<br />

Accettiamo per semplicità la tesi della simmetria. Spiegare significa dare una<br />

risposta alla domanda “Perché E”? E può essere una legge o un fatto singolo. Nel<br />

caso di una legge la nozione neopositivista di teoria racchiude la risposta: Se<br />

una legge si deriva da una legge più generale si considera spiegata da questa.<br />

Naturalmente bisognerebbe caratterizzare la nozione di “più generale”. Se io mi<br />

chiedo perché tutti i cani italiani hanno un cervello e rispondo “ perchè tutti i<br />

cani europei hanno un cervello” questa seconda legge è più generale della<br />

prima, ma darebbe una spiegazione ben misera del fatto su cui ci si interroga.<br />

Viceversa “tutti i quadrupedi hanno un cervello” darebbe una spiegazione molto


migliore perché connette due proprietà strutturali suggerendo anche un nesso<br />

causale tra di esse.<br />

Ciò che è chiaro comunque è che spiegare significa derivare logicamente, e<br />

che ogni spiegazione va presentata come una derivazione logica. Nel caso E sia<br />

un evento singolare effettivamente accaduto la derivazione logica può essere<br />

data da uno o più fatti noti come accaduti mediante una o più leggi di natura.<br />

Seguendo Hempel, l’evento da spiegare E (explanandum) si deriva da un<br />

explanans che consta di una classe di leggi L1 & …& Ln e di condizioni iniziali<br />

C1….Ck.<br />

Questa idea apparentemente banale, nota come teoria delle leggi di copertura o<br />

schema di Hemperl­Oppenheim, in realtà è una fonte di problemi. Ne<br />

distingueremo due tipi: in primis bisogna porre delle restrizioni su questa<br />

definizioni iniziale. Supponiamo per esempio che E e C1 siano identiche o<br />

logicamente equivalenti oppure due descrizioni dello stesso fenomeno. In questo<br />

caso avremmo che Ci è un elemento della spiegazione di E, cioè che E spiega E.<br />

Questo può sembrare assurdo ma nella storia della scienza si è verificato più<br />

spesso di quanto non si pensi. Nella commedia di Molière “Il Borghese<br />

Gentiluomo” si ironizza suglia aristotelici che spiegavano la capacità dell’oppio<br />

di far dormire dicendo che possedeva un virtus dormitiva. Per un neopositivista il<br />

significato di questo enunciato è indistinguibile dall’explanandum (le proceduree<br />

di verifica sono identiche), per cui in questo caso, nonostante le apparenze, si<br />

spiega E mediante E. Altre condizioni restrittive hanno lo scopo di evitare altre<br />

banalizzazioni: per esempio se A spiega E, non bisogna permetter che E spieghi<br />

A, quindi bisogna garantire che questa relazione non sia simmetrica.<br />

Ma la più interessante difficoltà è stata vista da Hempel per il fatto che L1…<br />

Ln possono essere non leggi ineccepibili ma leggi probabilistico­induttive (p.es<br />

il 99% dei fiammiferi sfregati si accende). Questo impone una correzione dello<br />

schema iniziale perché l’explanandum in questo caso non segue con la certezza<br />

del 100% ma con una certezza inferiore. Stando così le cose dobbiamo precisare<br />

il grado di certezza (probabilità) della conclusione specificandolo anche<br />

formalmente. Per Hempel –che distingue questo schema chiamandolo statisticoinduttivo­<br />

la probabilità della conclusione date le premesse deve comunque<br />

essere molto alta (regola dell’alta probabilità) .<br />

Il modello SI (Statistico­Induttivo) ha dei problemi propri che si aggiungono<br />

ai problemi del modello ND (Nomologico­Deduttivo). Ci limitiamo ad accennare


al fatto che un aumento di informazione nelle premesse può far saltare il rapporto<br />

tra premesse e conclusione. Per esempio: chiediamoci perché il Sig. Rossi si è<br />

ristabilito da una recente operazione chirurgica. Rispondiamo con l’explanans<br />

seguente: Rossi è stato operato di appendicectomia e il 99% di questi interventi<br />

è seguito da una rapida guarigione. Ma supponiamo di acquisire nuove<br />

informazioni su Rossi: da queste risulta che Rossi ha 95 anni di età. La<br />

probabilità che a quest’età un’operazione di questo genera si risolva con una<br />

rapida guarigione non è molto alta ma molto bassa. Si dice oggi che l’inferenza è<br />

non­monotòna: è sensibile all’ incremento di informazione nelle premesse. La<br />

risposta di Hempel, che suscitò immediatamente obiezioni e polemiche, fu che<br />

la descrizione dell’explanandum doveva essere massimamente specifica. Non<br />

bisogna occultare le informazioni che si possiedono su E. Questo è un caso<br />

particolare della regola che i positivisti logici chiamano di Evidenza Totale. In<br />

ogni spiegazione bisogna tener conto di tutta l’informazione disponibile. SI tratta<br />

di un ideale difficile da raggiungere, se non altro perché tutta l’informazione<br />

disponibile potrebbe esigere un tempo infinito o comunque illimitatamente<br />

grande.<br />

[Per una Bibliografia essenziale sul neopositivismo si veda L. Geymonat, “Storia<br />

del pensiero scientifico e filosofico”; voll 6 e 7, Garzanti 1972, 1976]


II. LA SVOLTA RELATIVISTICA E IL PROBLEMA DEL REALISMO.<br />

§1. Negli anni ’50 il positivismo logico dominava incontrastato le università di<br />

tutti i paesi di lingua inglese. Allo stesso modo in cui si usa indicare per il<br />

neopositivismo una data di nascita si potrebbe indicare una data di morte: in tal<br />

caso una scelta appropriata sarebbe il 1970 (anno della scomparsa di Carnap). La<br />

verità è che il neopositivismo non è morto perché è stato superato da altre<br />

correnti più agguerrite o perché è”passato di moda”, come accaduto p.es. al<br />

marxismo o all’esistenzialismo. Il fatto è che per svariati motivi i suoi stessi<br />

esponenti hanno smesso di accettare per sé questa etichetta. Ricordiamo che per<br />

i neopositivisti la filosofia non è un sistema di idee ma un’attività, e che tale<br />

attività portava i neopositivisti a rimettere in discussione spregiudicatamente i<br />

presupposti di base. Alla fine le divergenze su questi presupposti erano divenute<br />

troppo ampie perché si potesse parlare di un movimento di pensiero unitario,<br />

anche se estremamente articolato.<br />

Alcuni di questi presupposti condivisi sono già stati indicati in alcune di quelle<br />

opposizioni concettuali a cui si è già accennato e che venivano accettate come, in<br />

un certo senso, autoevidenti: la distinzione analitico­sintetico, la distinzione<br />

osservativo­teorico, la distinzione tra contesto della scoperta e contesto della<br />

giustificazione. Per quanto riguarda la prima va osservato che W.v.O.Quine in<br />

“Due dogmi dell’empirsimo” (1946), pur ponendosi come il collega Nelson<br />

Goodman nel solco del neopositivismo, criticava l’adesione dei positivisti logici<br />

a due “non empirici dogmi dell’empirismo”: questi dogmi erano il riduzionismo<br />

(la tesi per cui ciò che è significante è riconducibile a qualcosa che deriva


dall’esperienza immediata) e la distinzione analitico­ sintetico. Quine si<br />

chiedeva: che significa dire che “ogni maschio adulto non sposato è scapolo” è<br />

“analitico”?. Quando si tenta di esplicare l’analiticità secondo Quine si<br />

chiamano in causa nozioni imparentate come quella di sinonimia, necessità,<br />

regola semantica , che non hanno un significato chiaro (Quine ha sempre<br />

accusato di oscurità nozioni modali come quelle di necessario e possibile) oppure<br />

rimandano circolarmente a quella di analiticità.<br />

Quanto al riduzionismo (che riporta al criterio empirico di significanza) Quine<br />

osserva che in fondo esso riposa sul presupposto per cui si possono falsificare o<br />

verificare degli enunciati atomici in stato di isolamento mediante dati sensoriali,<br />

ciascuno dei quali dovrebbe essere espresso da qualche proposizione elementare.<br />

Di fatto però questo non accade. La tesi di Quine, poi sviluppata da lui negli anni<br />

50 con un impronta molto personale, è che gli enunciati di una teoria non<br />

vengono sottoposti al vaglio dell’esperienza singolarmente ma in modo olistico,<br />

cioè tutti insieme. Per Quine ingenuo pensare che una teoria venga confermata<br />

confermando singolarmente tutti i suoi asserti, o che si abbandoni una teoria<br />

semplicemente perché si trova un controesempio. Quando una teoria “funziona”<br />

ai fini della spiegazione e della previsione non è conveniente eliminarla, anche<br />

se per avventura dovesse essere in conflitto con qualche dato sperimentale. Qui<br />

emerge il pragmatismo della tradizione americana, che preferisce parlare di<br />

utilità o funzionalità delle teorie piuttosto che di verità o falsità delle stesse. Per<br />

usare la sua immagine, una teoria è come un campo di forza che tocca<br />

l’esperienza con uno sei suoi lati. Se entra in conflitto con l’esperienza viene


evisionata in modo da riprendere la sua funzionalità.<br />

Nella prospettiva di Quine ci sono proposizioni più immuni da revisione e altre<br />

meno immuni. Le proposizioni della logica e della matematica sono più immuni<br />

da revisione delle altre, e queste sono quelle che i neopositivisti di solito<br />

classificano come analitiche. Ma esse non sono immuni per loro natura o per<br />

qualche stipulazione che le rende tali, come i neopositivisti erano soliti pensare.<br />

Un esempio per esempio è dato dalla legge del terzo escluso, che per la logica<br />

matematica è una tautologia garantita dalle tavole di verità. A parte il fatto che<br />

c’è una scuola di pensiero matematica, l’intuizionismo, che le nega la validità<br />

del terzo escluso nelle stesse scienze formali, è accaduto che la meccanica<br />

quantistica, cioè una scienza empirica, ha evidenziato una classe di fenomeni<br />

sperimentali che si possono descrivere solo rinunciando ad una logica che<br />

includa il terzo escluso e molte altre delle leggi logiche accettate dalla tradizione.<br />

Dunque quello che è sempre stata citata come un esempio di verità analitica è<br />

stato rimesso in discussione a fronte di dati sperimentali , proprio come<br />

accadrebbe quando la scoperta di cigni neri in Australia ha portato a repingere<br />

“tutti i cigni sono bianchi”.<br />

Negli anni '50 il neopositivismo subiva attacchi anche da parte di una scuola<br />

che per certi versi era agli antipodi di quella pragmatista a cui si ispirava<br />

sostanzialmente Quine. Era la scuola che un filosofo di orgine viennese, Karl<br />

Popper, aveva fondato in Inghilterra presso la London School of Economics, e<br />

che tuttora è attiva (Agassi, Watkins, Fetzer).<br />

Per molti anni , soprattutto in Italia, Popper (viennese della generazione di<br />

Carnap) è stato considerato un neopositivista eretico e un personaggio<br />

secondario nel panorama epistemologico. I punti di contatto con il<br />

neopositivismo ovviamente non mancano: per esempio la concezione della<br />

spiegazione scientifica di Popper anticipava quella di Hempel, al punto che si<br />

parla di teoria di Popper­Hempel. Ma gli sviluppi del pensiero di Popper seguiti<br />

alla sua “Logica della scoperta scientifica” (1936) hanno reso chiaro che la sua<br />

prospettiva era originale e indipendente. Rapidamente, si può osservare che già<br />

negli anni ‘20 il problema centrale di Popper non era quello della significanza<br />

(su cui si tormentavano i neopositivisti) ma quello della demarcazione tra<br />

scienza e pseudoscienza. Che cosa distingue gli asserti della scienza da ciò che<br />

scienza non è, anche quando si autoproclama scienza? Gli enunciati della


scienza hanno una caratteristica comune: sono tutti falsificabili. Anche se non<br />

siamo in grado di dire che sono veri, siamo in grado di dire quale osservazione o<br />

quale esperimento li renderebbe falsi. Si noti che questo risolve in modo diverso<br />

il problema delle leggi di natura. “Tutti i corvi sono neri” fa parte della scienza<br />

non perché è vero ma perché è una ipotesi che ha resistito a vari tentativi di<br />

falsificazione. Noi siamo in grado di enunciare che cosa lo renderebbe falso<br />

(l’osservazione di un corvo non­nero) e l’etica scientifica impone di sottoporlo<br />

a tests severi in grado di falsificarlo. Non ha senso raccogliere all’infinito<br />

esempi di corvi neri per confermare questa presunta legge: essa avrà sempre il<br />

carattere di un’ipotesi, la cui validità dipende dalla sua resistenza ai tentativi di<br />

falsificazione.<br />

La metafisica e le pseudoscienze invece si autoimmunizzano rendendo<br />

impossibile la falsificazione. In un famoso saggio del 1933 Popper cita la<br />

psicoanalisi, il marxismo e l’astrologia come esempi di pseudoscienze formulate<br />

in modo da non essere smentite da nulla. Per esempio le caratterizzazioni dei tipi<br />

umani secondo i segni zodiacali è formulata in modo tale che ci sono sempre<br />

scappatoie per evitare la falsificazione (per esempio il ricorso agli ascendenti,<br />

alle cuspidi ecc.). Questo non accade – e non deve accadere­ per la scienza.<br />

Quando Einstein presentò la relatività in varie occasioni disse che il test decisivo<br />

per la teoria sarebbe stato l’osservazione del pianeta Mercurio nel 1919 in<br />

posizione di massima vicinanza al Sole : “Se non dovesse esistere lo<br />

spostamento verso il rosso delle linee spettrali dovute al potenziale<br />

gravitazionale, la teoria generale della relatività sarebbe insostenibile”.<br />

La scienza per Popper è un sistema di ipotesi che reggono fino a prova<br />

contraria, proprio come l'accusa diimputato che porta alla sua condanna è<br />

accettata da un tribunale fino a che non emergono eventuali elementi che la<br />

falsifichino (si noti che Popper era figlio di un avvocato). L’induzione quindi<br />

non ha alcun ruolo nella scienza. Tutt’al più una teoria che sostiene molti tests<br />

volti a falsificarla si può dire più o meno corroborata. La scienza è un edificio<br />

che non poggia sul terreno roccioso: per usare una fortunata metafora di Popper,<br />

è come una palafitta piantata su un terreno argilloso. Con il tempo una teoria si<br />

consolida, i pali della palafitta vengono spinti più a fondo, ma senza arrivare mai<br />

a un punto fermo. Una teoria T, se falsificata, è sostituita da una teoria T’ che<br />

recupera la parte sana di T. T’ verrà sostituita da una teoria migliore T”. Questo<br />

progresso ci porta a teorie sempre più verosimili, cioè sempre più approssimate


alla verità, verità che resta un ideale a cui la scienza si avvicina<br />

asintoticamente.<br />

Bisogna sottolineare ancora che Popper non si interessa della questione della<br />

significanza. Criticare la metafisica non vuol dire negare la significanza dei suoi<br />

enunciati. Sarebbe sciocco pensare che Aristotele o Cartesio dicessero cose prive<br />

di senso (incidentalmente Popper negli ultimi anni ammise di essere sempre stato<br />

un dualista cartesiano, cioè di aver sempre creduto nel dualismo di spirito e<br />

materia). In realtà non solo buona parte della metafisica è dotata di senso, ma è<br />

accaduto che la metafisica ha preparato il terreno alla scienza o l’ha<br />

accompagnata interferendo positivamente con questa. Il tema della relevant<br />

Metaphysics è stato sviluppato dopo il 60 soprattutto dalla sua scuola, che ne ha<br />

fatto un motivo caratterizzante.<br />

Quine e Popper rappresentano due modi diversi di criticare il positivismo<br />

logico pur restando fedeli , in un certo senso, al suo spirito. Per quanto lontani,<br />

ambedue hanno in comune il rifiuto di considerare la teoria come una<br />

costruzione “estratta” tramite qualche tipo di astrazione dalle esperienze<br />

osservative. Secondo Popper questa idea non fa che perpetuare il mito<br />

baconiano secondo cui i concetti astratti, le teorie , le leggi ecc. sono derivati<br />

dalle osservazioni così come il vino è derivato dalla spremitura dei chicchi di<br />

uva. è stato facile obiettare a Popper che di fatto la sua concezione usa più<br />

induzione di quanto lui miri a far apparire. Quella che Popper chiama “gradi di<br />

corroborazione” – cioè gradi di resistenza ai test falsificanti – assomigliano ai<br />

gradi di conferma carnapiani. Ma, soprattutto, accade che per effettuare un test<br />

falsificante c’è bisogno di usare strumenti sicuri e collaudati ­ p.es. telescopi,<br />

barometri ecc. : e tale sicurezza può solo essere stabilita con ripetute esperienze,<br />

cioè in fin dei ca di tipo induttivo. Detto altrimenti, dobbiamo presupporre la<br />

persistenza di certi oggetti e la stabilità di un certo numero di loro qualità, cioè<br />

ammettere qualche variante del principio che una volta veniva chiamato di<br />

Uniformità della Natura. In ogni caso, i test verificanti o falsificanti vanno<br />

ripetuti un certo numero di volte almeno finchè non danno un risultato che si<br />

giudica sicuro. è accaduto per esempio per l’esperimento di Michelson­Morley<br />

che è stato escogitato per refutare o confermare l’esistenza dell’etere cosmico ed<br />

è stato ripetuto diverse volte con risultati alterni. Qui Popper risponde alla<br />

critica proponendo un tipo speciale di convenzionalismo: sono gli scienziati che,<br />

con un accordo tacito o esplicito, convengono che un certo asserto (asserto­base)


ha la caratteristica di un dato incontrovertibile e si può usare per la falsificazione<br />

di enunciati più complessi.<br />

Un problema di non facile soluzione per Popper è definire le condizioni a cui<br />

sono falsificabili le leggi o le generalizzazioni probabilistiche, p.es. “il 51% dei<br />

bambini è maschio alla nascita”. Quale campione di bambini osservato si<br />

potrebbe considerare falsificante per la generalizzazione in questione?<br />

Su un punto Popper mostrava un indubbio vantaggio sui neopositivisti. Non ha<br />

senso chiedere a un osservatore “che cosa vedi nel microscopio?” perché<br />

nessuno può descrivere in un tempo finito ciò che si vede in un dato momento.<br />

L’idea che esista un osservatore neutro che funziona come una macchina<br />

fotografica perfettamente passiva è un mito empirista. Noi facciamo delle<br />

osservazioni per rispondere a problemi che ci vengono posti (p.es. per sapere se<br />

in una data posizione si trova o no una macchia rossa) e tali domande<br />

dipendono dalla teoria che stiamo sottoponendo a test. L' apprendimento<br />

procede per prove ed errori e non per ripetizione cumulative di esperienze, come<br />

ingenuamente pensavano gli empiristi. La teoria sotto indagine quindi guida ciò<br />

che chiamiamo osservazione, anche se ovviamente potrebbe essere falsificata<br />

dall’ osservazione stessa.<br />

§2. Negli anni cinquanta il rapporto teoria­osservazione – e quindi la dicotomia<br />

teorico­osservativo – diventava un tema di sempre maggiore importanza, anche<br />

perché c’era una disciplina, la psicologia della percezione, che poteva mettere a<br />

disposizione dei filosofi una massa cospicua di risultati di cui era obbligatorio<br />

tenere conto.<br />

Nello stesso tempo si doveva registrare un fatto che sicuramente giocava a<br />

sfavore del neopositivismo. L’autore del Tractatus, dopo un periodo di silenzio<br />

interrottosi con la sua chiamata a Cambridge nel 1928, aveva ripensato<br />

le idee del suo capolavoro e proposto un punto di vista che appariva nuovo.<br />

Questo “secondo Wittgenstein” ha lasciato un solo testo a stampa, le Ricerche<br />

FIlosfiche, apparse postme nel 1952, ma anche un’ impressionante mole di<br />

manoscritti sotto forma di diari e di note, a cui si devono aggiungere gli appunti


presi dai suoi studenti nel corso delle lezioni. Ciò che cambiava rispetto al<br />

Tractatus primariamente era la teoria del significato. Nel Tractatus una<br />

proposizione è significante se e solo se è vera o falsa, e la sua verità consiste<br />

nell’essere rispecchiamento (immagine) di un fatto atomico o molecolare. Ma il<br />

secondo Wittgenstein, influenzato forse dallo studio dell’etnoantropologia<br />

(sappiamo che scrisse una recensione a “Il ramo d'Oro” di Frazer) vede ora che<br />

il significato di un enunciato non è offerto dalla verificabilità di un suo rapporto<br />

proiettivo con il mondo dall’insieme di regole che ne governano l’uso. Allo<br />

stesso modo in cui il significato della torre negli scacchi, poniamo, è dato non<br />

dall’avere la forma di una torre ma dall’insieme di regole che ne governano l’uso<br />

nel gioco degli scacchi, così il senso di una parola come, poniamo, “bellezza”<br />

non è dato dal riferirsi a un oggetto chiamato “bellezza” ma dalle regole che ne<br />

governano l’uso in una lingua come l’italiano (teoria dei giochi linguistici). Il<br />

linguaggio comune, non il linguaggio perfetto della logica, diventa dunque<br />

l’oggetto primario di indagine insieme allo slogan “non chiedete il significato,<br />

chiedete l’uso”. I seguaci di Wittgenstein in Inghilterra (Strawson, Anscombe,<br />

Ryle, Toulmin), che sono tuttora numerosi, trasformarono questa filosofia in una<br />

“filosofia del linguaggio ordinario”, che dal loro punto di vista si riduceva di<br />

fatto all’analisi della lingua inglese.<br />

Wittgenstein aveva familiarità con la cosiddetta “teoria della Gestalt”,<br />

secondo cui non esiste un vedere che non sia percezione strutturata di una forma.<br />

Esempi famosi sono il cubo di Necker e l’immagine del duck­rabbit , una figura<br />

ambigua che può essere “letta” come un papero o un coniglio e che Wittgenstein<br />

riproduce nelle Ricerche Filosofiche. La tesi di Wittgenstein è che la<br />

disponibilità di un certo linguaggio condiziona la percezione stessa. Chi non ha<br />

mai visto la neve, come certi popoli dell’Africa,non possiede nel suo linguaggio<br />

la parola “neve” e non può riconoscere qualcosa come neve. Nello stesso tempo,<br />

come osservava il linguista Benjiamin Lee Whorf, gli esquimesi che hanno venti<br />

termini diversi per indicare tipi di neve, “vedono” diversi tipi di neve che noi<br />

non siamo in grado di riconoscere come tali.<br />

Il secondo Wittgenstein dunque rovescia il rapporto tra linguaggio e<br />

osservazione. Applicata all’epistemologia questa concezione aveva alcune<br />

immediate implicazioni, evidenziate da N.R.Hanson in Patterns of Discovery


(1958). La logica simbolica e la matematica cessavano di fornire il linguaggio<br />

ideale della scienza. Ciò che diventava importante sono gli usi che gli scienziati<br />

fanno dei termini di cui dispongono e che determinano il loro senso. Teorie<br />

diverse comportano giochi linguistici diversi, anche se i segni grafici o acustici<br />

coinvolti possono essere identici. Il termine “terra” usato da Tolomeo non ha lo<br />

stesso senso del termine “terra” usato da Keplero perché il suo senso è<br />

determinato dalle regole che lo connettono ad altri termini come “sole”, “cielo”<br />

ecc. , e tali regole sono diverse da teoria a teoria. Quindi le osservazioni<br />

descritte entro teorie diverse sono osservazioni diverse. Quando Tolomeo e<br />

Keplero guardano il sole “vedono” due cose diverse. Tolomeo “vede” un oggetto<br />

mobile, Keplero “vede “ un oggetto immobile, allo stesso modo in cui qualcuno<br />

può vedere un papero e un altro un coniglio in una figura gestaltica. I dati<br />

empirici, si dirà sempre più frequentemente, sono “carichi di teoria”. La teoria<br />

condiziona lo stesso livello osservativo. Si tratta di idee non completamente<br />

nuove. Basta notare che intorno al 1935 un medico polacco, Ludwig Fleck,<br />

aveva già evidenziato la natura strutturata della percezione in un libro riscoperto<br />

anni dopo, “Genesi e sviluppo di un fatto scientifico”, che ripercorreva la<br />

scoperta della reazione Wasserman.<br />

Questo nuovo modo di intendere l’osservazione scientifica è stato proposto da<br />

M.Polanyi all’inizio degli anni 50, anche se si è diffuso con “Patterns of<br />

Discovery” di N.R.Hanson (1958). Qui Hanson per la prima volta presenta la<br />

scoperta scientifica come un’ impresa volta alla determinazione di “modi di<br />

vedere”. Sono questi “modi di vedere” che hanno la funzione che Hempel<br />

assegnava alle leggi e alle teorie nell spiegazione. Qualcosa è spiegato quando<br />

trova un posto entro una Gestalt, una visione dei fenomeni.<br />

Negli stessi anni Stephen Toulmin introduceva la metafora delle teorie come


mappe, cioè rappresentazioni non­linguistiche della realtà. Si tratta sempre di<br />

un allontanamento dalla concezione neopositivista in quanto le teorie e le leggi<br />

cessano di essere entità linguistiche e la spiegazione cessa di essere un tipo<br />

particolare di ragionamento. L’epistemologo ora non si occupa di ricostruire<br />

razionalmente entro un linguaggio ideale i risultati della scienza, ma si occupa<br />

del modo effettivo in cui gli scienziati giocano il gioco della scienza. è chiaro<br />

allora che anche la dicotomia tra contesto della scoperta e contesto della<br />

giustificazione viene sostanzialmente superata, e parallelamente viene meno la<br />

distinzione (cara soprattutto a Popper) tra metodologia descrittiva e metodologia<br />

normativa. Cade la distinzione netta tra epistemologia, psicologia della scoperta,<br />

storia della scienza e sociologia della scienza.<br />

Questo diverso orientamento, che era minoritario negli anni ‘50, guadagnò<br />

lentamente terreno, fino a diventare dominante negli anni ‘70 e ‘80. In mancanza<br />

di un termine preciso, lo si è chiamato postpositivismo o, meno bene, “nuova<br />

filosofia della scienza”. La popolarità arrivò sull’onda di un fortunato libro,<br />

“La struttura delle rivoluzioni scientifiche”, il cui autore, Thomas Kuhn, era,<br />

significativamente, uno storico della scienza prestato alla filosofia. Kuhn aveva<br />

studiato per anni la rivoluzione copernica e si era convinto che il modo in cui si è<br />

passati dalla concezione tolemaica del mondo a quella copernicana<br />

esemplificava uno schema di sviluppo che si applicava allo sviluppo di tutte le<br />

scienze indistintamente . Lo schema di sviluppo consiste in questo. La comunità<br />

scientifica normalmente condivide in modo più o meno conscio un linguaggio<br />

(inteso come insieme di regole per l’uso dei termini) e un insieme di pregiudizi,<br />

dogmi, opinioni ereditate, che Kuhn non chiama teoria ma paradigma. L’attività<br />

ordinaria degli scienziati consiste nella soluzione di rompicapi (puzzles) che<br />

vengono generati dall’ impiego del paradigma stesso. Questa attività è chiamata<br />

da Kuhn scienza normale.


Ci sono momenti in cui un paradigma entra in crisi perché cessa di proporre<br />

problemi interessanti e presenta anomalie vistose che non si è in grado di<br />

risolvere con gli strumenti interni al paradigma. Dopo un periodo di crisi viene<br />

proposto da qualcuno un modo alternativo di vedere le cose, cioè un nuovo<br />

paradigma. Si entra così in una fase rivoluzionaria, che può essere anche molto<br />

lunga, e che si concluda quando il nuovo paradigma conquista il consenso della<br />

generazione più giocane degli scienziati. Quando questo accade il vecchio<br />

paradigma viene seppellito, si riscrivono i manuali scientifici e si reimposta la<br />

ricerca creando un nuovo periodo di scienza normale.<br />

Dal momento che i paradigmi condizionano il modo di vedere, rendono gli<br />

scienziati ciechi rispetto ai dati empirici che potrebbero falsificarli. Con buona<br />

pace di Popper, gli scienziati nella fase di scienza normale tendono a conservare<br />

il paradigma vigente perché non “vedono”, né possono vedere con le lenti<br />

offerte dal paradigma, i controesempi falsificanti. L’atteggiamento degli<br />

scienziati non è molto diverso da quello degli artisti che seguono una corrente<br />

estetica , degli uomini di fede che aderiscono a una confessione religiosa o dei<br />

seguaci di un partito che seguono un’ideologia. Il cambiamento di paradigma,<br />

che a volte è dovuto alla gemialità di un unico creatore (Galileo, Darwin,<br />

Einstein) è paragonato ad una conversione religiosa, dopo la quale il problema è<br />

solo convertire gli altri, cioè persuaderli a militare a favore del nuovo paradigma.<br />

è da notare che nelle rivoluzioni scientifiche si ha una sostituzione di<br />

paradigmi, il che non vuol dire che nel cambiamento si registra un progresso. Si<br />

può parlare di progresso entro un paradigma, ma non di un progresso nel<br />

passaggio da un paradigma a un altro. Ciò che è giusto o sbagliato è tale rispetto<br />

a un paradigma, ma non possiamo c classificare un paradigma come giusto o<br />

sbagliato rispetto a un altro paradigma: i paradigmi, come dice Kuhn, sono<br />

incommensurabili.<br />

Si attuava così nel campo dell’ epistemologia lo stesso passaggio al<br />

relativismo che gli etno­antropologi avevano già introdotto nel campo delle loro


discipline. è chiara in particolare l’influenza che Kuhn ha ricevuto da B.L.<br />

Whorf, che infatti Kuhn cita nella sua prefazione. Per Whorf gruppi etnici<br />

linguisticamente diversi vivono in realtà diverse perché usano linguaggio<br />

diversi; per esempio gli indiani Hopi vivono in un mondo diverso dal nostro<br />

perché la loro nozione di tempo , registrata in un linguaggio diverso dal nostro e<br />

intraducibile con il nostro, è differente. Chi crede nella intraducibilità dei<br />

linguaggi non fa fatica a passare alla tesi kuhniana della intraducibilità delle<br />

teorie, anche se tanto gli aristotelici che Copernico parlavano la stessa lingua,<br />

cioè il latino.<br />

Allo stesso modo in cui non ha senso chiedersi se la cultura hopi è migliore o<br />

peggiore della nostra, così non ha senso chiedersi se il paradigma tolemaico è<br />

migliore o peggiore del nostro. Passando al nuovo paradigma perdiamo la<br />

capacità di vedere che cosa c’è di buono nel vecchio paradigma. è errato dunque<br />

dire che il vecchio paradigma è “superato” dal nuovo, anche se ovviamente<br />

qualcosa del vecchio viene conservato, mentre altro viene cancellato . Questo<br />

perché cambiare paradigma vuol dire cambiare mondo: Galileo e Tolomeo<br />

vivono in realtà diverse, stante che la realtà è qualcosa che viene percepito<br />

attraverso il filtro del paradigma.<br />

Queste idee, come si può capire, ebbero un enorme risonanza. Facevano cadere<br />

in un solo colpo il mito della superiorità della scienza rispetto ad altre forme di<br />

rapporto con il mondo (letteratura, pittura, storia, ideologia) e mettevano in crisi<br />

la convinzione che la scienza garantisse una conoscenza progressivamente<br />

più profonda del mondo.<br />

§3. Nell’arco di pochi anni idee simili a quelle di Kuhn vennero sviluppate<br />

da studiosi di formazione diversa le cui conseguenze si manifestavano in forme


che apparivano anche più radicali. “Contro il metodo” di Feyerabend (un fisico<br />

passato alla filosofia) apparso nel 1975, porta l’antipositivismo di Kuhn alle<br />

estreme conseguenze. Galileo – l’eroe positivo di questo libro – ottenne i suoi<br />

successi non applicando i metodi codificati dagli epistemologi tradizionali ma<br />

violando sistematicamente le regole di quello che sarebbe stato poi codificato<br />

come un metodo scientifico. Ciò che Galileo poteva vedere nel suo famoso<br />

telescopio era ben poco rispetto a quanto diceva di vedere e soprattutto rispetto a<br />

quanto teorizzava di vedere: ciò che importava era catturare il consenso alle sue<br />

teorie e i dati sperimentali avevano valore propagandistico. Si sa con certezza<br />

che, nonostante gli venga ascritta la paternità del metodo sperimentali, Galileo<br />

non eseguì mai alcuni degli esperimenti di cui si faceva promotore. Gli<br />

esperimenti che Galileo prediligeva ( come quello della nave che doveva<br />

illustrare la relatività del moto) erano esperimenti mentali e in questi si<br />

presupponeva spesso la teoria che gli esperimenti miravano a corroborare.<br />

Lo slogan “tutto è teorico”, che divenne popolare anche in Italia negli anni ‘70,<br />

da Feyerabend veniva integrato con lo slogan dell’anarchismo<br />

metodologico:”tutto va bene”. Le teorie scientifiche entrano in competizione tra<br />

loro come i movimenti politici e, sul libero mercato, dominano per la loro<br />

capacità di catturare il consenso. Non c’è neppure una distinzione netta tra<br />

scienza e pseudoscienza: astrologia e magia nera possono influenzare la scienza<br />

ed entrare in competizione con essa senza che ciò implichi una svalutazione della<br />

scienza stessa.<br />

L’anarchismo metodologico di Feyerabend, che andava di pari passo con la


deregulation che si affermava in quegli anni negli Stati Uniti, convinse<br />

molti, inizialmente sedotti dalle idee di Kuhn, che il nuovo relativismo stava<br />

spingendo in una direzione pericolosa. Veniva messa in crisi non soltanto la<br />

capacità della scienza di descrivere un mondo oggettivo, ma la stessa distinzione<br />

della scienza rispetto ad altre attività che non sono solo estranee alla scienza ma<br />

antiscientifiche. Che cosa distingue più, in un anarchismo coerente, la fisica<br />

dalle scienze occulte o dalla dianetica di Ron Hubbard?<br />

Sulla strada indicata da Feyerabend pochi anni dopo si è sviluppata la<br />

filosofia di Richard Rorty, un filosofo che coerentemente con le proprie idee si è<br />

poi trasferito in un dipartimento di letteratura. In “La scienza e lo specchio della<br />

natura”(1979) Rorty annulla la distinzione tra linguaggio e mondo. L’ipotesi che<br />

esista un mondo speculare al linguaggio (metafisica del Tractatus) o un mondo<br />

indipendente dal linguaggio non è necessaria. La verità non è la corrispondenza<br />

con un mondo “là fuori” ma l’asseribilità garantita dal consenso. “La razionalità<br />

scientifica – scrive Rorty­ è solo questione di essere aperti e curiosi,e di fare<br />

affidamento sulla ragione anziché sulla forza” : con il che si può classificare per<br />

scienza più o meno tutto quello che ottiene il consenso in modo non violento.<br />

Esiste una babele di linguaggi : il linguaggio della fisica, della sociologia, il<br />

linguaggio ordinario, che hanno tra di loro rapporti complessi. Compito del<br />

filosofo è mettere in comunicazione questi linguaggi operando delle traduzioni,<br />

o meglio delle interpretazioni. Il lavoro del filosofo è un lavoro ermeneutico ,<br />

ben lontana dall’analisi logica dei postitivisti : incidentalmente, più simile al<br />

lavoro dello storico che Croce e Gentile proponevano come compito<br />

dell’intellettuale dopo la fine della filosofia.<br />

Può essere interessante osservare che le radici del postpositivismo si trovavano<br />

già all’interno di alcuni orientamenti emersi all’interno del positivismo logico. In<br />

particolare Neurath, in dura polemica con Schlick, negava che la verità di un<br />

enunciato atomico (p.es. il tavolo è rosso) si potesse stabilire confrontando il<br />

linguaggio con un mondo extralinguistico. Gli enunciati si confrontano solo con<br />

altri linguaggi e non con dati sensoriali o “fatti” nel senso del Tractatus di<br />

Wittgenstein. Che cosa allora rende un enunciato vero o falso ?<br />

Qui bisogna accennare al fatto che nella storia del pensiero si sono affacciate<br />

diverse teorie della verità, ma qui importa menzionarne due di grande<br />

importanza: quella corrispondentista e quella coerentista. Secondo i


corrispondentisti la verità di un enunciato consiste nel suo rispecchiare qualche<br />

aspetto reale del mondo (Aristotele : “dire il vero significa dire di ciò che è, che è<br />

e di ciò che non è, che non è”). Questo sembra ovvio, ma si pensi che ci sono<br />

molti casi in cui saremmo imbarazzati ad indicare la porzione di realtà (il fatto o<br />

i fatti, secondo il Tractatus) a cui gli enunciati veri corrispondono. A che fatto<br />

corrisponde 2+2=4 ? A che fatto corrisponde l’enunciato vero che tutti i corvi<br />

sono colorati? Le leggi di natura sono come questa sono congiunzioni<br />

infinitarie: esistono allora fatti infinitari? A che fatto corrisponde l’enunciato<br />

negativo vero che Milano non è in Vietnam?<br />

I coerentisti evitano di agganciare la verità alla sfera dei fatti. In tal modo, rotti<br />

gli ormeggi con la realtà, resta aperta solo la possibilità di valutare i rapporti<br />

degli enunciati tra di loro. Gli enunciati veri formano un insieme accettato e<br />

coerente (privo di contraddizioni) e la verità di un enunciato consiste nel suo<br />

essere coerente con l’insieme degli enunciati accettati. Questa concezione è<br />

quella tipica degli idealisti come Hegel o Croce, che vedevano il mondo come<br />

una costruzione dello spirito. Neurath in effetti anticipava da un lato l’olismo di<br />

Quine , dall’altro il rifiuto dei postpositivisti a vedere nella scienza una<br />

fotografia della realtà.<br />

In effetti un’ obiezione che venne immediatamente opposta al nuovo trend<br />

postpositivista consisteva nell’accusare la nuova filosofia della scienze di essere<br />

una forma di idealismo più o meno camuffato. I. Scheffler e K.Kordig in<br />

particolare, con due libri tradotti anche in italiano, non avevano difficoltà a<br />

mostrare i punti deboli delle nuove concezioni. Il coerentismo in particolare era<br />

una fonte di problemi. Il problema principale è che non c’è un solo insieme<br />

coerente di enunciati che può essere proposto come “accettato”. La coerenza può<br />

essere stabilita in vari modi. ”Domani piove e “domani non piove” sono due<br />

proposizioni coerenti con quanto sappiamo; eppure una sola della due sarà


l’alternativa vera.<br />

Certo il consenso degli scienziati si dirige verso alcuni insiemi coerenti di<br />

credenze piuttosto che verso altri. Ma, se è per quello, anche sistemi paranoici<br />

di credenze come quello, p.es. Nazista ( che tra l'altro aveva ricadute importanti<br />

sul piano strettamente scientifico) hanno riscosso ampi consensi. Bisogna<br />

distinguere allora tra un consenso raggiunto con mezzi qualsiasi e un consenso<br />

razionale, distinzione sulla quale i postpositivisti hanno detto ben poco.<br />

La produzione degli ultimi anni di Kuhn (scomparso nel 1996) mostrava una<br />

maggiore cautela nella difesa delle sue tesi di fondo. In particolare, Kuhn<br />

osservava che nel repertorio di argomenti con cui gli scienziati difendono un<br />

paradigma o decidono tra due paradigmi in conflitto hanno un peso maggiore le<br />

valutazioni basate sulla probabilità, sulla valutazione dell’evidenza e via<br />

dicendo. Inoltre, riconosceva che era meglio evitare di dire che paradigmi<br />

diversi determinano mondi diversi, cercando di mettersi al riparo dall’accusa di<br />

propugnare una forma prescientifica di idealismo.<br />

§3 Le posizioni più oltranziste nel postpositivismo non potevano non suscitare<br />

delle reazioni vivaci e, come sempre accade, non potevano non stimolare dei<br />

tentativi di mediazione. Vale la pena di citarne due, che hanno avuto giustamente<br />

fortuna: quello di Lakatos e quello di Putnam.<br />

Quando Lakatos conobbe in Inghilterra Popper e fu catturato nel campo<br />

magnetico suo pensiero, aveva alle spalle una vicenda umana e filosofica<br />

tormentata. Ungherese, era stato un filosofo di impostazione marxista e anche<br />

esponente del governo rivoluzionario di Imre Nagy nel 1956, che venne poi<br />

travolto dalla restaurazione filosovietica. Il suo popperismo si è associato in una<br />

sintesi ben riuscita con l’intuizione di fondo hegeliana secondo cui la storia del<br />

pensiero ha una razionalità intrinseca.<br />

L’idea di Lakatos è questa: una teoria accettata dalla comunità ha un nucleo,<br />

intorno al quale viene disposta una cintura protettiva di ipotesi, assunti ausiliari


ecc. che la difendono dalle falsificazioni. Tra queste compaiono le ipotesi ad hoc<br />

non verificate, che per Popper erano contrarie all’ etica falsificazionista o l’uso<br />

della clausola ceteris paribus, che funziona come comodo ammortizzatore di<br />

fronte ad apparenti controesempi. La teoria cresce su se stessa espandendosi in<br />

varie direzioni e prende la forma di quello che Lakatos chiama programma di<br />

ricerca: un programma di ricerca non è una singola teoria ma una successione di<br />

teorie ciascuna delle quali è un aggiustamento della precedente .Esso nuota in un<br />

“oceano di anomalie” e se queste sono intollerabili viene abbandonata, ma viene<br />

abbandonata solo quando si rende disponibile un programma di ricerca migliore<br />

– cioè più ricco e in grado di risolvere i problemi del primo. La metodologia dei<br />

programmi di ricerca quindi cerca di coniugare il falsificazionismo popperiano<br />

con la visione storico­dinamica delle teorie inaugurata dai postpositivisti.<br />

Quanto a Hilary Putnam, è uno dei molti filosofi che hanno affrontato il<br />

problema più difficile che è implicito nella visione postpositivista, che è la<br />

questione del realismo. Se le teorie scientifiche rispecchiano la realtà,<br />

bisognerebbe concludere che il cambiamento delle teorie porti con sé un<br />

cambiamento della realtà? Se questo non accade, allora dobbiamo abbandonare<br />

l’idea che le teorie ripecchino la realtà e accettare che sono solo strumenti di<br />

previsione e di calcolo, come si è sostenuto varie volte negli anni 30<br />

(strumentalismo)? I postpositivisti hanno complicato la questione facendo<br />

collassare la distinzione tra osservativo e teorico, per cui la teoria influenzerebbe<br />

i dati osservativi e quindi la stessa percezione della realtà. Hilary Putnam ha<br />

proposto una ragionevole mediazione che ricorda la mediazione kantiana tra<br />

razionalismo ed empirismo. Rifiutando la sua originaria adesione al “realismo<br />

metafisico” (il punto di vista di Dio), il “realismo interno” di Putnam consiste<br />

nel dire che le teorie influenzano la descrizione del mondo e anche i problemi<br />

che vengono proposti alla scienza, ma non al punto di condizionare le risposte e<br />

quindi la conoscibilità del mondo. Pur essendo un punto di vista kantiano,<br />

Putnam non accetta l'idea di un mondo noumenico , inconoscibile “in sè”.<br />

Indubbiamente c’è una differenza tra il classificare una balena come un pesce o<br />

come un mammifero, e questo naturalmente dipende da teorie presupposte. Ma<br />

una volta descritta la realtà nella cornice di una teoria, questa presenta elementi<br />

in grado di falsificare o confermare la stessa teoria da cui è descritta. Il mondo


non è in conoscibile, ma conoscibile attraverso il degli schemi concettuali. Si<br />

può connotare l’acqua come “l’unico liquido trasparente, incolore, inodore” –<br />

come si faceva ai tempi antichi­ oppure con H20, ma questo cambiamento<br />

riguarda il modo in cui ci si riferisce alla stessa entità, e non la natura dell’entità<br />

stessa. Circa il modo in cui i termini di un linguaggio si riferiscono a oggetti del<br />

mondo Putnam ha sviluppato una teoria del riferimento (detta di Kripke­Putnam)<br />

secondo cui in virtù di un battesimo iniziale i modi di cui viene connotato un<br />

oggetto conserva sempre un aggancio<br />

con un nucleo originario di significato condiviso.<br />

Invece di parlare di verità come corrispondenza a un mondo esterno, parleremo<br />

di accettabilità razionale. Di sicuro, per Putnam, il relativismo è una posizione<br />

sbagliata : se non altro perché, come già aveva visto Socrate contro Protagora, il<br />

relativista deve proporre il suo relativismo come qualcosa di assoluto, e quindi<br />

negare implicitamente il suo stesso relativismo nel momento in cui lo professa.<br />

[BIBLIOGRAFIA ESSENZIALE reperibile in italiano<br />

Hanson,N.R. Patterns of Discovery (1958) Syndics of the CAmbridge<br />

University Press, 1978 , trad.it Feltrinelli,Milano 1978<br />

Feyerabend,P.K., Against Method, NLB, 1975, trad.it. Contro il metodo,<br />

Feltrinelli,MI,1979<br />

Kuhn, T. , The Structure of Scientific Revolutions, trad.it. La struttura delle<br />

Rivoluzioni Scientifiche, Einaudi, Torino, 1978<br />

Kuhn,T., Sneed J.D., Stegmuller,W., Paradigmi e Rivoluzioni nella Scienza,<br />

a cura di M.Baldini, Armando, Roma, 1983


Rorty,R, Philosophy and the Mirror of Nature, Princeton U.P. 1979; trad.it. “La<br />

filosofia e lo specchio della natura” Bompiani,MI, 1986<br />

Lakatos,I.­Musgrave (a cura di), Criticism and the Growth of Knowledge,<br />

Cambridge U.P. 1970, trad.it. Critica e Crescita della conoscenza, Feltrinelli,<br />

MI, 1976<br />

Popper ,K. Logik der Forschung, Springer, Vienna 1935, trad.it. in Logica della<br />

Scoperta Scientifica,, Einaudi,TO, 1974,<br />

Popper, K. Realism and the aim of Science from the Postscipt to the Logic of<br />

Scientific Discover, a cura di W.W.Bartley III (trad.it. Poscritto alla Logica<br />

della Scoperta Scientifica,Il Saggiatore, MI, 1984<br />

Putnam, H. Mente, linguaggio e realtà, tr. it. di Roberto Cordeschi, Adelphi,<br />

Milano, 1987. Matematica, materia e metodo, tr. it. di Giovanni Criscuolo,<br />

Adelphi, Milano, 19<br />

Quine,w.v.O., From a Logical Point of View, Harvard U.P, 1961, trad.it. Il<br />

problema del significato. Ubaldini, Roma, 1966<br />

Quine W.V.O, Saggi Filosofici 1970­1981 , a cura di M.Leonelli, Armando,<br />

Roma 1982<br />

Wittgenstein,L. Philosophical Investigations, 1951 trad.it Ricerche Filosofiche ]


III. LOGICA E <strong>FILOSOFIA</strong> DELLE SCIENZE FORMALI<br />

§1. Verso la metà dell’800 un geniale matematico tedesco, Georg Cantor, pose<br />

le basi di una teoria che era destinata a diventare, secondo un modo di pensare<br />

diffuso, non solo uno strumento concettuale prezioso ma il fondamento stesso<br />

di tutto il corpo della matematica: la teoria degli insiemi.<br />

Cantor non dava una definizione di insieme soddisfacente dal punto di vista<br />

contemporaneo, ma definiva in modo sufficientemente chiaro le operazioni tra<br />

insiemi e le relazioni tra insiemi. Le operazioni fondamentali tra insiemi sono :<br />

complementazione (−), unione (∪), intersezione (∩).<br />

Le relazioni sono invece : appartenenza (∈) e inclusione, (⊆). è importante non<br />

confondere queste due relazioni. Ogni insieme A è incluso in se stesso in quanto<br />

tutti gli elementi di A sono elementi di A (A ⊆ A), ma normalmente, anche se<br />

non sempre, un insieme A non appartiene a se stesso (A ∉ A : l’insieme delle<br />

mele non è una mela)<br />

Esistono inoltre due insiemi speciali, il più piccolo di tutti o insieme vuoto<br />

(∅) e il più grande di tutti o insieme totale (V).<br />

Che cosa distingue un insieme finito da un insieme infinito? La risposta di<br />

Cantor sfrutta una proprietà paradossale degli insiemi infiniti: essi hanno la<br />

stessa numerosità di alcuni loro sottoinsiemi propri (p.es., come già aveva notato<br />

Galileo, l’insieme dei numeri naturali N ha la stessa numerosità dell’insieme dei<br />

numeri pari, che è un insieme diverso da N incluso in N).<br />

La maggior gloria di Cantor è stata la teoria del transfinito, cioè la scoperta<br />

che ci sono diversi tipi di infinito: l’insieme dei numeri reali per esempio è più


numeroso dell’insieme dei numeri naturali, e da questo si può generare una<br />

gerarchia di insiemi di numerosità crescente. Quando un insieme è infinito o<br />

arbitrariamente grande, p.es. l’insieme dei numeri pari o l’insieme dei corvi, non<br />

possiamo descriverlo enumerando i suoi elementi (estensionalmente, come si<br />

dice) ma indicando la proprietà che gli elementi hanno in comune, e cioè<br />

menzionando la intensione o concetto che li accomuna. C’è un principio basilare<br />

che collega l’aspetto intensionale all’aspetto estensionale degli insiemi, il c. d.<br />

Principio di Comprensione:<br />

(PC) Per ogni proprietà P esiste l’ insieme di tutti e solo gli elementi che godono<br />

di P.<br />

Usando dei simboli si può simbolizzare così: per ogni x, Px sse x ∈⎨x: Px⎬<br />

Per esempio, data la proprietà “rosso”, esiste l’insieme di tutte e solo le cose<br />

rosse, mentre data la proprietà “essere un insieme infinito” esiste l’insieme di<br />

tutti e solo gli insiemi infiniti. Con un passo ulteriore Cantor scopre che<br />

possiamo rappresentare tutte i predicati relazionali come insiemi di insiemi<br />

ordinati di tipo particolare (p.es. la relazione “essere padre di” come l’insieme<br />

delle coppie ordinate di padri e figli) . Le funzioni sono intese come relazioni di<br />

tipo particolare , cioè relazioni della forma “molti­uno”.<br />

La descrizione delle relazioni tra insiemi può essere fatta entro una logica con<br />

il linguaggio più complesso di quello che Wittgenstein definiva mediante le<br />

tavole di verità. Se dico<br />

(U) “tutti gli uomini sono mortali”<br />

questo descrive una relazione tra insiemi, che potremmo anche descrivere<br />

dicendo<br />

(U*)“l’insieme degli uomini è incluso nell’insieme dei mortali”.<br />

Alternativamente, invece di dire<br />

(E) Qualche uomo è mortale<br />

potremmo dire<br />

(E*) L' intersezione tra insieme degli uomini e insieme dei mortali non è vuota.<br />

Il linguaggio proposizionale i cui connettivi sono descritti dalle tavole di verità<br />

contiene soltanto negazioni, disgiunzioni, congiunzioni, condizionali, ma la<br />

proposizione (U) non rientra in nessuna di queste categorie. D’altro canto è<br />

assurdo dire che si tratta di un enunciato atomico, della stessa forma di “piove”<br />

perché non descrive un fatto atomico, ma semmai ad una composizione di


infiniti fatti atomici. Per questo è necessario introdurre dei simboli appositi, i<br />

quantificatori, che ci consentano non solo di rappresentare proposizioni<br />

universali come U ma di distinguerle da altre più deboli come<br />

(E) “qualche uomo è mortale” .<br />

Gottlob Frege, il padre della logica contemporanea, introdusse una notazione e<br />

un insieme di regole per questi operatori (i quantificatori), in modo che U ed E<br />

vengono rese rispettivamente da queste due formule: ∀x(Ux ⊃ Mx) e ∃ x(Ux ∧<br />

Mx). In questo linguaggio con soggetti e predicati avremo un numero infinito di<br />

predicati U, M, S…. e un numero infinito di variabili x,y,z… che sono, come si<br />

dice, vincolate dai quantificatori.<br />

I predicati possono essere semplici ma anche relazionali, come “avere un<br />

padre”. Per esempio “ogni corvo ha un padre” diventa una formula complessa<br />

come ∀x(Cx ⊃ ∃y Pyx). Come abbiamo visto, i neopositivisti sosterranno in<br />

seguito che questo linguaggio standardizzato è il linguaggio ideale della scienza,<br />

e che compito primario dello scienziato è parafrasare il linguaggio ordinario<br />

in questo linguaggio perfetto.<br />

Con Frege per la prima volta la logica riceve un’assiomatizzazione. Viene<br />

cioè stabilito un insieme di enunciati fondamentali da cui, mediante regole<br />

molto semplici, si è in grado di derivare la totalità delle leggi logiche,<br />

proposizionali e quantificate, sotto forma di teoremi. Ma c’è di più: Frege ritiene<br />

che dagli assiomi della logica si possa derivare, mediante la logica stessa, tutta la<br />

teoria degli insiemi e tutta l’aritmetica. Si noti infatti che “essere un insieme” è<br />

un predicato come un altro e le due relazioni di appartenenza e di inclusione<br />

sono relazioni né più né meno come “padre di” e si possono quindi rappresentare<br />

entro la logica dei quantificatori. Per il resto, è ovvio che intersezione, unione e<br />

complementazione si possono rappresentare mediante i connettivi proposizionali<br />

di congiunzione, disgiunzione e negazione rispettivamente (p.es. l’insieme delle<br />

cose rosse e quadrate è l’intersezione dell’ insieme delle cose rosse con le cose<br />

quadrate)<br />

è degno di nota che le funzioni , tanto matematiche che non matematiche<br />

(p.es. quella che correla peso e statura di un individuo) si lasciano rappresentare<br />

come relazioni di tipo particolare , cioè relazioni della forma molti­uno. Una<br />

particolare funzione è la corrispondenza biunivoca, che mette in correlazioni<br />

insiemi della stessa numerosità, p.es. l’ insieme formato da Romolo e Remo e<br />

quello formato da Caino e Abele. Per stabilire questa corrispondenza non è


necessario possedere il concetto di numero. In compenso, possiamo definire la<br />

nozione di numero cardinale mediante la nozione di corrispondenza biunivoca.<br />

Possiamo creare l’insieme di tutti gli insiemi che possono essere messi in<br />

corrispondenza con l’insieme formato da Romolo e Remo e chiamarlo “Numero<br />

2”. Allo stesso modo, possiamo formare l’insieme di tutti gli insiemi che si<br />

possono mettere in corrispondenza biunivoca con l’insieme dei Tre Moschettieri<br />

e chiamarlo “numero 3” e così via all’infinito. Lo zero sarà ovviamente l’insieme<br />

formato dall’insieme vuoto.<br />

Frege fa vedere come le operazioni dell’aritmetica ­ Somma,<br />

sottrazione,moltiplicazione, divisione ­ si possono definire in termini<br />

insiemistici.<br />

In quegli anni un italiano, Giuseppe Peano, aveva formulato gli assiomi per<br />

l’aritmetica (aritmetica di Peano) e Frege fece vedere che questi assiomi si<br />

potevano derivare dalla teoria degli insiemi e quindi indirettamente dalla logica.<br />

I rami superiori dell’aritmetica –calcolo delle probabilità, calcolo<br />

infinitesimale, teoria dei numeri complessi, ecc. per Frege erano costruibili come<br />

rami dell’aritmetica, e quindi indirettamente come rami della logica.<br />

Questa imponente costruzione concettuale, che Frege chiamava programma<br />

logicista, rappresentava il primo tentativo di dare un fondamento alle scienze<br />

formali assicurando nelle stesso tempo ad esse un linguaggio comune e un<br />

insieme di regole di ragionamento perfettamente codificate, offerte dalla logica.<br />

è degno di nota che in questo programma veniva rovesciato il rapporto tra logica<br />

e matematica che altri, come Gorge Boole, avevano esplorato con successo.<br />

Secondo Boole la logica si poteva ricostruire come un ramo particolare<br />

dell’algebra interpretando le variabili x,y,z… coma classi di oggetti e i segni .,+,­<br />

come operazioni su classi. In tal modo Boole ricostruiva la parte valida della<br />

sillogistica aristotelica, ma non era in grado di rappresentare la logica di<br />

enunciati più complessi come quelli relazionali.<br />

Purtroppo questo ottimismo fondazionale era destinato a durare poco. Un<br />

giovane studioso inglese, Bertrand Russell, che intratteneva, già a 18 anni, un<br />

fitto carteggio con Frege, rilevò che il principio di comprensione, essenziale per


la teoria degli insiemi fregeana, portava a una contraddizione,o meglio ad una<br />

antinomia.<br />

Abbiamo visto che normalmente gli insiemi non appartengono a se stessi,<br />

anche se insiemi molto grandi, come l’insieme di tutti gli insiemi, godono di<br />

questa proprietà. Chiamiamo dunque “normali” gli insiemi che non si si<br />

autoappartengono. Per il principio di comprensione allora esiste<br />

l’insieme di tutti e soli gli insiemi normali (cioè un insieme che contiene questi e<br />

solo questi). Chiamiamo N questo insieme e chiediamo N ∈ N o N ∉ N? Tutte<br />

e due le domande, come si può facilmente vedere, portano ad una contraddizione<br />

: abbiamo quindi che N ∈ N se e solo se N ∉ N.<br />

è falso dunque che esiste l’insieme N, il che però mette in crisi il principio di<br />

comprensione. Si noti che questa antinomia assomiglia all’antinomia del<br />

mentitore: “Io mento” implica che dico la verità, ed è strano che Frege non<br />

avesse visto la difficoltà.<br />

Russell cercò di correggere la costruzione di Frege introducendo una<br />

gerarchizzazione degli insiemi in insiemi, insiemi di insiemi, ecc. Ciascuno di<br />

questi appartiene a un tipo diverso, e Russell introduce la convenzione che si<br />

può parlare di appartenenza solo di qualcosa rispetto a qualcosa di tipo superiore.<br />

Non si può quindi mai dire che x ∈ x o x ∉ x. Le complicazioni della teoria dei<br />

tipi furono però tali da far desistere lo stesso Russell dal continuare su questa<br />

strada. è stato suo merito, comunque, se nei tre ponderosissimi volumi dei<br />

Principia Mathematica (scritti insieme a A.N. Whitehead nel 1910) sono stati<br />

poste le basi della logica contemporanea, anche nello stile notazionale che è<br />

diverso da quello di Frege.<br />

§2. In quegli anni il programma logicista, per quanto sostenuto dal prestigio di<br />

Frege, Russell e Whitehead, non era l’unica risposta al problema che in quel<br />

momento era più avvertito, quello dei fondamenti della matematica. Due altri<br />

orientamenti di pensiero si affermavano in quegli stessi anni: quello intuizionista<br />

di Brouwer e quello formalista di Hilbert. L’intuizionismo è di fatto<br />

un ramo di quello che oggi viene più genericamente chiamato costruttivismo. Si<br />

tratta dell’idea per cui un enunciato A è vero quando esiste una dimostrazione di<br />

A, e falso quando esiste una dimostrazione di non­A, cioè una refutazione di A.


Per qualche A potrebbe non esserci né una dimostrazione né una refutazione:<br />

così accade per esempio per la congettura di Goldbach (ogni numero pari è la<br />

somma di due numeri primi), che è stata verificata dai computer per numeri<br />

astronomicamente grandi, ma non è mai stata dimostrata né refutata dagli<br />

assiomi di Peano. Questo comporta un abbandono della legge del terzo escluso.<br />

Brouwer ci metteva di suo una forma particolare di mentalismo, per cui la<br />

matematica è una costruzione della mente umana, sganciata dal linguaggio. I<br />

numeri naturali secondo lui sono oggetto di un’intuizione primaria che genera la<br />

successione numerica, e il problema per Brouwer e il suo più importante<br />

continuatore (H. Heyting) diventa naturalmente spiegare i numeri irrazionali ( il<br />

continuo) e introdurre metodi dimostrativi che sopperiscano alla perdita di<br />

quello strumento fondamentale di ragionamento che è il terzo escluso.<br />

Nonostante l’avversione di Brouwer per i formalismi, la logica intuizionista<br />

proposta da Heyting è oggi studiata con i metodi della logica simbolica.<br />

David Hilbert si colloca agli antipodi di Heyting escludendo completamente la<br />

componente psicologica. I rami della matematica per lui sono sistemi formali,<br />

intesi come giochi di segni governati da assiomi e regole che ne consentono la<br />

manipolazione concreta. Il significato associabile a questi simboli (la cosiddetta<br />

dimensione semantica) non ha alcun ruolo essenziale nella costruzione di un<br />

sistema formale. La matematica diventa quindi lo studio generale dei sistemi<br />

formali , come poi dirà il più importante formalista post­hilbertiano, H.B. Curry.<br />

Un sistema di segni è accettabile quando è privo di contraddizioni (consistente),<br />

e il problema della consistenza diventa allora il problema cardinale del<br />

formalismo. Una volta dimostrato che il problema della consistenza della<br />

geometria e di altre teoria formali si riduceva la problema della consistenza<br />

dell’aritmetica, si trattava di studiare il problema della consistenza<br />

dell’aritmetica di Peano restando, per così dire, al suo interno. Secondo Hilbert<br />

questo si poteva fare escludendo il riferimento all’infinito e operando con


metodi “finitisti”, trattando le totalità infinite “come se “ esistessero realmente<br />

alla stregua delle totalità finite. Il problema è arduo perchè si tratta di operare<br />

senza ricorrere al cosiddetto principio di induzione matematica, che entra in<br />

gioco quando cerchiamo di dimostrare che infiniti oggetti godono di una stessa<br />

proprietà. Siano a0….. an,an+1….. infiniti oggetti a cui venga associato un<br />

numero naturale. Se voglio dimostrare, p.es. che sono tutti divisibili per due,<br />

dimostro in primo luogo che a0 è divisibile per 2 e poi, ipotizzando che un<br />

qualsiasi an sia divisibile per due, dimostro che il successivo a n+1 è pure<br />

divisibile per 2.<br />

Senza questo principio è impossibile dimostrare teoremi anche molto<br />

semplici, per es.<br />

Per ogni x,y,z : x +(y +z) = (x +y) + z<br />

La logica opera ora come teoria della dimostrazione o “metamatematica”,<br />

cioè come insieme di metodi atti a dimostrare dagli assiomi le proposizioni<br />

matematiche anche intuitivamente semplici, come a=a (teoria della<br />

dimostrazione) e a stabilire la consistenza dei sistemi formali. Gli enunciati di<br />

contenuto infinitario vengono trattati come complessi simbolici soggetti a regole<br />

precise e quindi depotenziati della loro portata metafisica.<br />

Von Neumann riuscì a dimostrare la consistenza di un sistema più debole<br />

dell’aritmetica di Peano, l’aritmetica con induzione limitata a proprietà non<br />

infinitarie. C’ era la speranza che si potesse arrivare in pochi anni a dimostrare lo<br />

stesso risultato per l’aritmetica di Peano.<br />

Un problema strettamente collegato è quello della decidibilità. Un sistema è<br />

decidibile quando in un tempo finito si può stabilire se un enunciato gli<br />

appartiene oppure no. Come disse Hilbert a un famoso convegno, il problema<br />

della decisione è il problema fondamentale delle scienze formali.<br />

Il problema della consistenza dell’aritmetica è il problema di sapere in tempo<br />

finito (quindi di decidere) se una contraddizione, p.es. 0≠ 0, appartiene o no ad


essa. Anche su questo regnava un certo ottimismo perché, p.es. M. Presburger<br />

aveva provato la decidibilità del frammento dell’aritmetica di Peano con la sola<br />

addizione.<br />

§3. Purtroppo nel giro di pochi anni le aspettative riposte nella capacità dei<br />

sistemi formali di catturare i contenuti del pensiero formale ricevevano una serie<br />

di dure smentite. In primo luogo Alfred Tarski dimostrava che il predicato di<br />

verità non può essere definito entro il linguaggio di una teoria consistente che<br />

contenga l‘ aritmetica ma solo entro il metalinguaggio della stessa. In altre<br />

parole non si può dimostrare in una teoria di questo genere l’enunciato: “A è<br />

vera se e solo se A” o “A è falsa se e solo se non­A” (altrimenti avremmo, per<br />

un certo A, e precisamente l’enunciato “questo enunciato è falso”, che esso è<br />

tanto vero che falso: questa è la ben nota antinomia del mentitore).<br />

Tarski comunque riusciva a dare un senso rigoroso alla parola “vero” entro il<br />

metalinguaggio della logica dei quantificatori, associando ad ogni predicato<br />

l’insieme degli enti che ne godono e parafrasando,p.es. “la neve è bianca” in<br />

“l’oggetto designato dalla parola “neve” appartiene all’insieme delle cose<br />

bianche”.<br />

Kurt Gödel nel 1933 dimostrava un doppio risultato limitativo di enorme<br />

portata tecnica e filosofica. Il c.d. “primo teorema di Gödel” si può esprimere<br />

così :”Ogni teoria consistente che contenga l’aritmetica di Peano è incompleta,<br />

cioè non contiene tutti gli enunciati aritmetici veri”.<br />

Ci sono dunque enunciati aritmetici veri che non possono essere dedotti da un<br />

sistema assiomatico contenente l’aritmetica di Peano. Questo sorprendente<br />

risultato è reso possibile da un metodo, scoperto dallo stesso Gödel, che consente<br />

di codificare in linguaggio matematico tutti gli asserti esprimibili nel linguaggio<br />

logico (gödelizzazione). Qualunque successione finita di formule, p. es.<br />

A ⊃ A, viene associata univocamente a un numero di codice –il suo numero di


Gödel– che la esprime. Dato quel numero di codice, possiamo risalire alla<br />

formula che gli corrisponde.<br />

Supponiamo ora di costruire una formula logica S che dica: S è indimostrabile<br />

(cioè dica di se stessa che è indimostrabile, allo stesso modo in cui il mentitore<br />

dice di se stesso “io sto mentendo”).<br />

Le dimostrazioni sono sequenze di formule, quindi la proposizione asserente un<br />

reapporto di dimostrabilità (Dim(x,y)) è vera quando x è il numero di Gödel di<br />

una sequenza dimostrativa che termina con una formula con numero di Gödel y.<br />

Questa relazione, come Gödel mostra, è decidibile, cioè si può sempre decidere<br />

se è vero o no che Dim(x,y). Gödel dimostra che se R è una relazione decidibile<br />

e R(m,n) è vero allora si dimostra nell’aritmetica R(m°,n°), dove m°,n° sono i<br />

numeri di Gödel che rappresentano m,n ; mentre se R(m,n,) è falso allora si<br />

dimostra non­R(m°, n°). Questo vale anche se R è precisamente il predicato<br />

Dim.<br />

Prendiamo ora la formula logica che asserisce, mediante opportuno impiego<br />

dei numeri di Gödel, (G) “io non ho la relazione Dim con me stessa”. Se per<br />

assurdo G si potesse dimostrare sarebbe vera. Ma in tal caso essa sarebbe<br />

dimostrabile per la proprietà vista rispetto a ogni relazione R(m,n) che sia<br />

decidibile, il che porta a una contraddizione. Quindi se G è dimostrabile G è<br />

falsa. Per converso: se G è vera, essa è indimostrabile. Ma allora G è vera!<br />

Infatti G asserisce la propria indimostrabilità: e, poiché è indimostrabile,<br />

asserisce qualcosa di vero.<br />

Quindi ci sono asserti matematici veri che sono, per quanto si è visto,<br />

indimostrabili. A questo risultato Gödel aggiunge un altro elemento, e cioè che


per enunciati come G, non solo G ma anche la negazione di G è<br />

indimostrabile. Quindi l’aritmetica è incompleta e anche indecidibile, perché la<br />

verità e la falsità di certi enunciati come G non può essere stabilita con i mezzi<br />

del sistema.<br />

Il secondo teorema di Gödel, corollario del primo, consiste nel far vedere che<br />

se un sistema come l’aritemtica di Peano può dimostrare la formula che esprime<br />

la sua stessa consistenza, allora potrebbe dimostrare G. Ma poiché G non è<br />

dimostrabile, la formula che esprime la consistenza dell’aritmetica non è neppure<br />

dimostrabile entro l’aritmetica di Peano. Il programma di Hilbert, che aspirava a<br />

dimostrare la consistenza dell’aritmetica usando il frammento finitista della<br />

stessa, si rivelava quindi infondato.<br />

La portata filosofica dei due teoremi di Gödel è stata formidabile.<br />

Un’implicazione che si è voluto ravvisare, incoraggiata peraltro dallo stesso<br />

Gödel, era che nessun dispositivo che applichi sistemi meccanici di<br />

dimostrazione è in grado di dimostrare asserti veri che la mente umana è<br />

evidentemente in grado di catturare. Di qui il riaccendersi di discussioni, del<br />

resto mai sopite , sul dualismo animo­corpo e sulla rappresentabilità della mente<br />

come computer.<br />

[Bibliografia reperibile in italiano<br />

C.Mangione e S. Bozzi, Storia della logica.Da Boole ai nostri giorni, Garzanti,<br />

Milano 1993<br />

J.Crossley e altri, What is Mathematical Logic?, Oxford U.P. 1972, trad.it.<br />

Boringhieri, Torino, 1976<br />

G. Lolli, Filosofia della matematica, Il Mulino, Bologna, 2002<br />

S.G: Shankar (a cura di) Il teorema di Gödel, Muzzio, Padova, 1991<br />

C.Toffalori e P. Cintoli, Logica Matematica, McGraw­Hill, Milano, 2000]


IV. Il PROBLEMA DELL’INDUZIONE E I FONDAMENTI <strong>DELLA</strong><br />

PROBABILITA'<br />

§1. Secondo la dottrina tradizionale la differenza tra inferenza deduttiva e<br />

induttiva si può tracciare così: la prima va dal generale al particolare, l’altra<br />

in direzione opposta. Per esempio da “tutti i corvi sono neri” si deriva<br />

deduttivamente “tutti i corvi osservati sono neri ”, mentre il ragionamento<br />

induttivo sarebbe quello per cui da “tutti i corvi osservati sono neri” si deriva<br />

“tutti i corvi sono neri”.<br />

L’idea tuttavia è sbagliata per vari motivi. Uno di questi è che ci sono<br />

inferenze induttive che non rientrano nello schema sopra offerto. Per esempio<br />

l’inferenza da “tutti i corvi osservati sono neri” a “il prossimo corvo è nero” (a<br />

volte chiamata eduzione) non rientra nello schema visto, eppure è chiaramente<br />

un tipo particolare di induzione.<br />

Un modo semplice per caratterizzare, almeno in prima approssimazione, la<br />

differenza tra i ragionamenti si ha dicendo che nella transizione dalle premesse<br />

alle conclusioni alcuni ragionamenti vanno oltre quanto asserito nelle premesse<br />

permettendo un possibile incremento della nostra conoscenza (ampliativi) ed altri<br />

che non godono di questa proprietà.<br />

Volendo, potremmo caratterizzare come induttivi i ragionamenti ampliativi, e<br />

deduttivi quelli non ampliativi. Ma qui è opportuno fare una distinzione<br />

all’interno della classe dei ragionamenti ampliativi. Prendiamo questi due<br />

enunciati:<br />

(sa)“ se il fiammifero è stato sfregato si è acceso”<br />

(as)“se il fiammifero si è acceso, allora è stato sfregato”.


Sono ambedue ampliativi, ma il loro senso è diverso. Il primo ci permette di<br />

passare da una causa all’effetto, il secondo da un effetto a una presunta causa<br />

(più generalmente : dall’explanans all’explanandum) . Anche il grado di<br />

attendibilità del ragionamento è diverso. Infatti nel primo caso possiamo ritenere<br />

che la conclusione sia altamente attendibile, purchè ovviamente il fiammifero sia<br />

in condizioni normali (sia abbastanza asciutto ecc.). Nell’altro caso invece la<br />

conclusione è più aleatoria. Infatti ci sono diversi modi per accendere un<br />

fiammifero: lo si può sfregare, ma anche mettere vicino a una sorgente di calore.<br />

Il motivo per concludere, dal fatto che un fiammifero si è acceso, che è stato<br />

sfregato, dipende dalle informazioni di cui disponiamo. Se per esempio vediamo<br />

che vicino al fiammifero mancano superfici ruvide o carta vetrata e che c’è una<br />

candela accesa, la cosa migliore è concludere che il fiammifero è stato messo<br />

nella fiamma della candela.<br />

Per distinguere queste forme di inferenza ampliative, chiameremo induzione la<br />

prima e abduzione la seconda, recuperando una tripartizione teorizzata dal<br />

filosofo americano Peirce.<br />

Il discorso sull’abduzione in questa sede si può solo accennare. Secondo<br />

Peirce c’è una sorta di istinto abduttivo che ci porta a lanciare congetture<br />

esplicative e a selezionare l’ ipotesi migliore. è questo istinto che guida<br />

Sherlock Holmes nella sua ricerca del colpevole e uno scienziato come Keplero<br />

nella ricerca della traiettoria dei pianeti. Ci sono in effetti due fasi del<br />

procedimento abduttivo: la prima creativa (che consiste nel lanciare ipotesi ), la<br />

seconda selettiva, che consiste nel selezionare l’ ipotesi migliore eliminando una<br />

dopo l’altra le ipotesi peggiori. Mentre la selezione può essere effettuata in modo<br />

razionale, e quindi codificata come una logica vera e propria, è dubbio che<br />

l’abduzione creativa – come la creatività in generale – possa essere codificata.


§2. Il problema dell’induzione.<br />

L’induzione è stata all’origine di problemi non solo logici ma strettamente<br />

filosofici. Il problema di Hume, come è noto, è il seguente: non c’è nessuna<br />

garanzia logica che il futuro sia simile al passato, o più genericamente che<br />

l’ignoto sia simile al noto. In termini statistici: l’inferenza induttiva consiste nel<br />

passare da un campione all’universo, ma non c’è nessuna garanzia logica del<br />

fatto che le proprietà riscontrate nel campione si manifestino anche<br />

nell’universo. Ovviamente il campione deve rispettare dei requisiti ben noti agli<br />

statististici: in primo luogo deve essere randomizzato, omogeneo e<br />

sufficientemente ampio (si pensi alla scelta accurata dei campioni nei cosiddetti<br />

exit polls, che consentono di anticipare i risultati elettorali nel giro di pochi<br />

minuti con grande approssimazione). Anche così non c’ è nessuna garanzia che<br />

l’inferenza ci porti infallibilmente a conclusioni vere. Basti pensare al fatto che<br />

dopo aver osservato un numero enorme di cigni bianchi, si era convinti verso il<br />

1600 , che fosse vero che tutti i cigni sono bianchi. La scoperta dell’Australia, di<br />

cui prima non si sospettava neppure l’esistenza, portò invece una sorpresa,<br />

perché si scopri l’esistenza di una tribù di cigni neri.<br />

Verso il 1945 Nelson Goodman presentò un argomento logico per mostrare che<br />

nel passare dal campione all’universo siamo legittimati a inferire tutte le<br />

conclusioni che ci piacciono. Immaginiamo di aver osservato fino a oggi (2005)<br />

milioni di smeraldi verdi e nessuno smeraldo di altro colore. Introduciamo ora un<br />

predicato perfettamente definito che è<br />

Verdlù: verde e osservato prima del 3000 oppure blu e osservato dopo il 3000.<br />

Per la logica, se uno smeraldo è verde e osservato prima del 3000 allora a<br />

fortiori è verdlù (basta che un disgiunto sia vero perché la disgiunzione è vera) e<br />

tali sarà dopo il 3000 per un ragionamento induttivo. Ma che accade dopo il<br />

3000? Non saranno certo “verdi e osservati prima del 3000”, quindi varrà l’altro<br />

corno del dilemma: saranno blu e osservati dopo il 3000, quindi saranno blu.<br />

Le soluzione al rompicapo sono state diverse. Secondo alcuni dovremmo porre


dei limiti ai predicati usati. Questo sembra la morale da trarre anche da un altro<br />

paradosso, quello di Hempel.<br />

(C )“Tutti i corvi sono neri” equivale a<br />

(C*)“Tutti gli oggetti non­neri sono non­corvi”.<br />

Secondo la teoria della conferma di Hempel C, cioè che tutti i corvi sono neri, è<br />

confermato da “a è corvo & a è nero, b è un corvo e b è nero “ ecc. e la<br />

conferma aumenta con l’aumentare dell’evidenza confermante. A parità di<br />

ragionamento, C* è confermata da “a non è nero e a non è un corvo” ecc. .<br />

Questa seconda evidenza confermerà però che tutti i corvi sono neri, dato che C<br />

e C* sono equivalenti. Basta allora l’osservazione di una scarpa gialla o di un<br />

tavolo verde per confermare che tutti i corvi sono neri.<br />

Eliminando (ma è difficile dire come) predicati non standard come “non­<br />

corvo”, “non­nero”, verdlu’ ecc. sembra che i paradossi della conferma in queste<br />

formulazioni spariscano. Ma non sparisce il problema basilare di Hume, che<br />

aveva puntato il dito sul fatto che ogni inferenza induttiva è logicamente errata:<br />

si può benissimo immaginare un mondo “miracoloso” in cui il fiammifero<br />

sfregato non si accenda, gli smeraldi diventino blu e addirittura un mondo in cui<br />

a partire da questa notte spariscano tutti i fiammiferi e tutti gli smeraldi.<br />

§3. Risposte alla sfida di Hume (la giustificazione dell’induzione).<br />

Il problema principale dunque è la giustificazione dell’induzione. L’induzione,<br />

come si è detto è la gloria della scienza e lo scandalo della filosofia. Quindi<br />

dobbiamo trovare motivi che non solo ci dicano che cosa rende valida<br />

l’induzione ma ci diano criteri per scegliere tra conclusioni induttive diverse ed


eventualmente incompatibili.<br />

Il problema dell’induzione è strettamente connesso a un altro: infatti noi<br />

siamo alla ricerca anche di criteri per distinguere tra generalizzazioni vere per<br />

accidente e generalizzazioni nomiche, cioè che che costituiscono leggi di natura.<br />

P.es:<br />

“Tutti i pianeti hanno un nome di un dio greco”<br />

“Tutti i pianeti ruotano in ellissi”<br />

hanno la stessa forma e sono ben confermate, eppure la prima non è una legge, la<br />

seconda sì.<br />

Dal punto di vista di Popper non c’è nessun problema dell’induzione perché<br />

l’induzione non ha alcun ruolo nella scienza. Le leggi secondo Popper non<br />

sono confermate (cioè non ricevono nessun valore di probabilità) ma sono<br />

corroborate: in altri termini sono solo ipotesi che hanno resistito a test<br />

elaborati con la sincera intenzione di scalzarle. La corroborazione “assomiglia”<br />

alla conferma ma si distingue soprattutto perchè non ha senso assegnarle dei<br />

valori numerici<br />

Le risposte al problema della giustificazione sono state molteplici ma qui<br />

distingueremo solo quelle che hanno dominato il campo nel ‘900.<br />

a.Teorie presupposizionali dell’induzione (Mill, Keynes, Burks). Oggi poco<br />

popolare, questa concezione ha un enorme merito: quella di cercare di ridurre<br />

l’induzione alla deduzione, negando la dicotomia tra due tipi di ragionamento<br />

diversi. Si parte dall’osservazione che spesso i ragionamenti deduttivi sono<br />

espressi in modo incompleto, di solito per il fatto di non esplicitare alcune delle


premesse soppresse, come quando si dice,.p.es. “Bilbo è un gatto, quindi è un<br />

felino”, che sottace la premessa “tutti i gatti sono felini”. Argomenti incompleti<br />

di questo genere sono chiamati entimemi da Aristotele. Un argomento induttivo<br />

come “tutti i corvi osservati sono neri , quindi tutti i corvi sono neri” sono<br />

entimemi in quanto sottintendono qualche principio esprimente l’invarianza dei<br />

nessi accertati con l’osservazione. Di solito si parla di principio di Uniformità<br />

della Natura per designare l’idea per cui un nesso associativo o causale accertato<br />

in una zona limitata dello spazio­tempo vale in tutte le zone dello spazio­tempo.<br />

è indubbio che questo principio è applicato consciamente o inconsciamente<br />

dagli scienziati nella ricerca scientifica<br />

Come Hume aveva visto acutamente, il problema è sapere da dove proviene la<br />

nostra fiducia nell’ Uniformità della Natura. Se tale principio è stabilito<br />

induttivamente cadiamo in un circolo vizioso, d’altro canto non può essere<br />

stabilito deduttivamente. Ma una via d’uscita a cui spesso si ricorre è la categoria<br />

del sintetico a priori kantiano: si tratterebbe di un principio che, come il<br />

principio di causalità, riguarda il mondo ma è qualcosa che rende l’esperienza<br />

possibile e quindi a priori rispetto ad essa.<br />

Gli empiristi tuttavia rifiutano il sintetico a priori, che dal loro punto di vista è<br />

una contraddizione in termini. Carnap ha proposto una diversa riduzione<br />

dell’induzione alla deduzione creando una logica induttiva come ramo della<br />

logica deduttiva (ponendosi quindi nel solco del programma logicista). I<br />

ragionamenti induttivi sono ragionamenti incompleti perché manca un’<br />

informazione non nelle premesse ma nella conclusione. Se si specifica che il<br />

grado di probabilità dell’asserto che il prossimo corvo è nero è, p.es. 90%, allora<br />

il ragionamento che porta da “tutti i corvi osservati sono neri” a “il prossimo<br />

corvo è nero con probabilità del 90%” è deduttivamente valido. Si tratta<br />

naturalmente di calcolare correttamente tale grado di probabilità. Nel 1951<br />

Carnap proponeva, ne “Il continuo dei metodi induttivi” non uno ma infiniti<br />

metodi di calcolo ottenuti dando valori numerici diversi a due parametri che<br />

misurano il peso dato alle convinzioni a priori e a posteriori, che Carnap chiama


fattore logico (λ dipendente dal numero dei predicati del linguaggio) e fattore<br />

empirico (ε, dipendente dalla frequenza relativa m/n). Purtroppo Carnap non dice<br />

come si deve scegliere λ o ε, introducendo un elemento di arbitrarietà che apre<br />

la strada al soggettivismo. Inoltre, per citare un apparente difetto tecnico del suo<br />

lavoro, accade che la probabilità che la legge infinitaria “tutti i corvi sono neri”<br />

riceve da “tutti i corvi osservati sono neri” è espresso da una frazione con un<br />

numeratore finito e un denominatore infinito, che come è noto, ha valore 0. C’è<br />

qualcosa di controintuitivo nell’assegnare valore di probabilità zero alle leggi di<br />

natura, anche se questo si potrebbe difendere dicendo che hanno valore<br />

informativo massimo e che sono improbabili e sorprendenti (come peraltro ha<br />

sottolineato Popper). Carnap difende il suo schema asserendo che ciò che<br />

importa è stabilire il grado di probabilità (conferma) non di “tutti i corvi sono<br />

neri” ma della previsione “il prossimo corvo sarà nero” (inferenza eduttiva). Il<br />

problema comunque è stato risolto da Hintikka inserendo nel continuo un terzo<br />

parametro esprimente il numero di individui dell’universo, che comunque porta a<br />

valori che tendono verso zero per universi molto grandi.<br />

b.Giustificazione pragmatica dell’induzione. Reichenbach, considerato il più<br />

grande empirista del XX secolo, ha aggirato il problema di Hume<br />

evidenziando il fatto che “giustificare” significa valutare positivamente i mezzi<br />

rispetto ai fini. Prendiamo la regola induttiva più semplice (regola diretta),<br />

quella che trascura il valore il fattore logico e asserisce, sulla base della<br />

frequenza osservata di m/n A che sono B nel campione, che il limite a cui<br />

tende tale percentuale al crescere di n è sempre m/n. Per Reichenbach questa<br />

regola è la migliore (a prescindere dal fatto, dimostrato poi da Salmon, che è<br />

l’unica tra le regole più importanti in grado di evitare contraddizioni da<br />

premesse consistenti) per il fatto che non abbiamo nulla da perdere a seguirla.<br />

Se la natura è uniforme, vuol dire che esiste un limite a cui tende la frequenza.<br />

Se tale limite esiste, la regola diretta è in grado di calcolarlo meglio di qualsiasi<br />

altra regola. Ma se il limite non esiste, e cioè se la natura non è uniforme, non


ci sono regole in grado di calcolarlo. Se un cieco segue una strada nel bosco, la<br />

cosa più razionale da fare è continuare sul sentiero seguito con successo, anche<br />

se per ipotesi dovesse esserci un baratro.<br />

c. Giustificazione induttiva dell’induzione. Una piccola minoranza di filosofi<br />

(Braithwaite, Black) ha difeso il carattere autoapplicativo dell’induzione. Sia R<br />

la regola:“la maggior parte degli A esaminati sono B” “ Il prossimo A è B”.<br />

Secondo questi filosofi “R per lo più ha funzionato R funzionerà nel<br />

prossimo caso” contiene una circolarità solo apparente perché non presuppone la<br />

validità di R. La cosa però è dubbia perché “R ha per lo più funzionato” sembra<br />

indicare per l’appunto che R è una regola valida.<br />

§4. La nozione di probabilità e il calcolo delle probabilità.<br />

Il ragionamento induttivo nella sua forma più generale ha la forma<br />

dell’induzione proporzionale, cioè di un ragionamento la cui premessa è una<br />

frequenza osservata “m/n A sono B” . Ora dire che il 51% dei bambini sono<br />

maschi alla nascita significa, secondo l’uso comune, dire che la probabilità di<br />

avere una nascita di maschi è del 51%. Si tratta dunque di un asserto<br />

probabilistico. Inoltre, le conclusioni di qualsiasi ragionamento ampliativo<br />

hanno un certo grado di probabilità rispetto alle premesse, quindi il nesso<br />

stesso tra le premesse e la conclusione ha natura probabilistica. Ma cosa sono le<br />

probabilità e come si calcolano? Secondo una scuola di pensiero che ha avuto<br />

una certa fortuna il metodo assiomatico è sufficiente a dare una definizione<br />

implicita dei concetti assiomatizzati : secondo Hilbert per esempio il concetto<br />

di punto, linea, retta è sufficientemente determinato dagli assiomi che li


contengono, purchè siano coerenti: Lo stesso dovrebbe valere per le<br />

probabilità, per cui a partire dal 1933 è disponibile un’assiomatizzazione<br />

rigorosa dovuta al russo A. Kolmogorov. Secondo K. la probabilità è<br />

semplicemente la misura della dimensione di un evento. Un evento è un<br />

insieme di esiti di qualche esperimento: per esempio “uscita del 2 alla roulette<br />

2”oppure “uscita di un numero pari alla roulette”. Un evento certo avrà<br />

probabilità 100%, uno impossibile 0 e uno incerto un valore variabile tra 0 e<br />

100%.. Essendo una misura come il peso o la statura, la probabilità avrà la<br />

caratteristica di essere additiva:<br />

Pr (A ∪ B) = Pr(A) + Pr(B) – Pr(A ∩ B). (Principio delle probabilità totali).<br />

Per la definizioni di evento, esso viene inteso come il risultato di un esito di<br />

un esperimento, p.es. il lancio di due dadi simultaneamente o lo sparo di un<br />

colpo di mortaio. Gli eventi costituiscono un’algebra di insiemi, cioè il<br />

complemento e l’intersezione di insiemi è ancora un insieme.<br />

Il concetto non banale è quello di probabilità condizionata o subordinata<br />

(PC) Pr(B|A) = Pr (A ∩ B) Pr(A)≠0<br />

Pr(A)<br />

Questa nozione è importantissima perchè ci consente di esprimere<br />

l’indipendenza tra due eventi in questo modo: A e B sono indipendenti quando<br />

Pr(B/A) = Pr B (viceversa , sono dipendenti quando in luogo della identità<br />

abbiamo la disuguaglianza).<br />

Grazie alla nozione di indipendenza riusciamo a stabilire, per una elementare<br />

applicazione di PC, la probabilità di una congiunzione di eventi indipendenti:<br />

Se Pr(B|A)= PrB, Pr(A ∩ B) = Pr A x Pr(B). (principio delle probabilità<br />

composte).<br />

§5. La filosofia della probabilità<br />

Il problema sul tappeto è sapere se è sufficiente possedere assiomi per la


probabilità per rispondere alla domanda “che cos’ è la probabilità?”.<br />

Ammesso che la risposta sia positiva, il calcolo delle probabilità è un<br />

meccanismo per calcolare probabilità a partire da altre probabilità, ma non<br />

consente di dare criteri per assegnare le probabilità che funzionano come input<br />

del calcolo (probabilità iniziali). Il problema principale della filosofia della<br />

probabilità è per l’appunto questo.<br />

Uno dei padri fondatori del calcolo delle probabilità, Laplace, ha formulato<br />

una definizione di probabilità che ha dato una risposta al problema considerata<br />

soddisfacente per molto tempo. La probabilità è il rapporto tra i casi favorevoli<br />

all’evento e i casi possibili, purchè egualmente possibili.<br />

Questa definizione è facilmente applicabile al tavolo da gioco, dove il calcolo<br />

delle probabilità è sostanzialmente nato nel ‘600 per impulso soprattutto di nobili<br />

sfaccendati come il Principe de Merèe. Nei giochi d’azzardo ci troviamo di<br />

fronte a problemi quali: se lanciamo un dado, qual è la probabilità che esca un<br />

numero pari? I casi possibili sono sei , i casi favorevoli 3, quindi la risposta è ½.<br />

Ma la risposta si può dare solo se si sa che i casi sono equipossibili , e qui<br />

cominciano ad apparire le difficoltà: perché equipossibile sembra uguale ad<br />

equiprobabile, quindi devo già applicare la nozione di probabilità per stabilire la<br />

equiprobabilità.<br />

a. Laplace applica allora il principio di indifferenza: due casi sono equipossibili<br />

quando non abbiamo motivo di aspettarci una piuttosto dell’altra. Questa<br />

clausola funziona molto spesso senza grossi problemi; ma è chiaro che<br />

introduce una relativizzazione alle conoscenze dei soggetti , che può essere<br />

variabile nel tempo. Keynes nel Treatise on Probability (1921) ha dedicato<br />

molte pagine al principio di indifferenza, formulando una sua correzione che


consiste essenzialmente nel chiedere che le alternative non siano decomponibili<br />

in sottoalternative.<br />

Keynes, Carnap, Jeffreys ed altri negli anni Trenta in realtà si proponevano di<br />

salvare il nocciolo della concezione classica cercando di rendere applicabile non<br />

solo al caso delle alternative indifferenti ma a tutti i casi. La probabilità per<br />

questi filosofi logicisti è un rapporto logico tra una evidenza e una ipotesi.<br />

Carnap ne parla come grado di conferma, e quindi fa coincidere il grado di<br />

conferma, la logica induttiva e il calcolo delle probabilità. La forma corretta di<br />

un enunciato probabilistico non è Pr(A)=r ma Pr(h|e)=r.Se vere, questi asserti<br />

sono veri logicamente, e se falsi, logicamente falsi.<br />

Per esempio la probabilità che il prossimo corvo è nero dato che sono stati<br />

osservati 4 corvi neri e un corvo albino è un certo valore determinato ( sotto certe<br />

premesse 4/5). Per stabilire questi valori Carnap introduce diversi gruppi di<br />

assiomi oltre a quelli strettamente matematici (assiomi di regolarità, di<br />

invarianza, di rilevanza di significato). Nel continuo dei metodi induttivi, come<br />

già accennato, vengono introdotti due parametri (uno logico e uno empirico) che<br />

rendono più complesso e soprattutto non univoco, il ristulato di questi calcoli.<br />

b. Mentre Laplace sviluppava la sua concezione aprioristica della probabilità,<br />

faceva rapidi progressi una disciplina con un vasto spettro di applicazioni, la<br />

statistica. Nata per gli interessi delle compagnie di assicurazioni, la statistica<br />

diventava uno strumento indispensabile nell’epidemiologia e quindi nella fisica,<br />

soprattutto per lo studio dei gas (Boltzmann). Le affermazioni probabilistiche gli<br />

statistici sono pure di forma Pr(B|A) = r, ma si leggono :la percentuale di A che<br />

sono B è m/n (per se. La percentuale di cigni che sono bianchi è 90%). Questi<br />

enunciati sono non analitici ma sintetici, non a priori ma a posteriori, perché<br />

dipendono da informazioni derivate dall’esperienza circa le frequenze osservate<br />

(frequentismo).<br />

Il primo frequentista da citare è stato John Venn (1886), ma è stato


Reichenbach a dare al frequentismo la massima dignità filosofica facendone<br />

l’unico punto di vista compatibile con l’empirismo (per il quale, come è noto,<br />

qualunque conoscenza non logica deriva dall’esperienza). Si noti che il<br />

frequentismo risolve immediatamente la difficoltà del principio di indifferenza.<br />

Per un frequentista gli enunciati probabilistici riguardano il mondo ed esprimono<br />

conoscenza sintetica del mondo. Per un empirista non ci sono conoscenza a<br />

priori, a parte quelle logico­matematiche, quindi il principio di indifferenza non è<br />

lecito perchè è basato su una forma di conoscenza a priori.<br />

Purtroppo solo in pochi casi è sufficiente identificare la probabilità con la<br />

percentuale di casi riscontrata in un insieme finito. Per conoscere la probabilità,<br />

per esempio che un abitante di un certo appartamento di un grattacielo sia<br />

biondo, è sufficiente esaminare tutti gli abitanti del grattacielo e vedere qual è la<br />

percentuale di persone bionde tra di essi.<br />

Se il numero di abitanti è troppo grande per consentire l'esame (riguarda, per<br />

esempio, gli abitanti di New York) possiamo surrogare l'esame suddetto con il<br />

metodo del campionamento, cioè esaminando solo un campione rappresentativo<br />

dell ' universo selezionato in modo adeguato.<br />

Ma che dire se l'universo le cui proprietà ci interessano è infinito? Supponiamo<br />

di colorare di rosso la faccia di un dado. Come possiamo sapere qual è la<br />

percentuale di uscite di questa faccia rossa in infiniti lanci – che per un<br />

frequentista equivale a dire la probabilità che esca questa faccia rossa?<br />

Per fare un’assegnazione di probabilità di questo tipo bisogna prendere in<br />

considerazione una sequenza (o un campione ordinato) di eventi le cui<br />

dimensioni sono illimitatamente grandi. Secondo la formulazione di


Reichenbach la probabilità di A entro una classe B (PrA|B) è il limite a cui<br />

tendono con il crescere di n le frequenze osservate di A in un campione di n<br />

elementi tratti da B. Se i limiti a cui tendono le frequenze di tutte le facce<br />

diremo che tutte le facce sono equiprobabili.<br />

è chiaro che c´ é una difficoltà del concetto di limite usato dai frequentisti,<br />

che non e´sicuramente uguale a quello usato in matematica. Il limite non<br />

puòessere calcolato con qualche algoritmo, anche perchè non c´ è nessuna<br />

garanzia logica che tale limite esista. Asserire che il limite esiste significa<br />

asserire il postulato dell’ uniformitàdella natura che, per quanto si è già detto, è<br />

controverso. In termini probabilistici l’asserto che la frequenza tende alla<br />

probabilità teorica e´detto postulato empirico del caso, e non è affatto un<br />

teorema del calcolo delle probabilità. Sfortunatamente a volte viene confuso con<br />

la legge dei grandi numeri, cioè con il c.d. teorema di Bernoulli<br />

Lim (n ∞) Pr [ | s/n –p| < ε ] =1<br />

Se il campione osservato deve essere rappresentativo della sequenza, come<br />

abbiamo già detto, deve inoltre avere delle proprietà di perfezione, prima di tutto<br />

quella di essere “casualità” , “irregolare” o “random”. Certo un dispositivo<br />

come il dado o la roulette tale casualità dovrebbe essere garantita dalla natura del<br />

dispositivo stesso. Ma questo non vale per classi di fatti che non dipendono dalla<br />

costruzioni di meccanismi aleatori. Le proprietà che dovrebbero possedere<br />

questi insiemi ­campione sono state oggetto di varie speculazioni matematiche.<br />

Si è cercato, a partire da von Mises, di definire le proprietà di un insieme<br />

essenzialmente irregolare. Sembra in effetti che ci sia qualcosa di paradossale nel<br />

trovare un insieme di regole per generare una sequenza irregolare. Si sono<br />

trovati in compenso buoni risultati empirici per la generazione di sequenze<br />

“pseudocasuali” (si noti che la sequenza dei decimali di π non puòdirsi<br />

irregolare in senso tecnico, anche se di fatto nessuno ha trovato una regolarità nel


modo in cui si succedono questi decimali: la si può comunque usare “di fatto”<br />

come matrice per sequenze numeriche casuali).<br />

Il frequentismo è diventato il punto di vista dominante presso gli statistici,<br />

dato che la nozione di probabilità che essi usano è di fatto quella frequentista.<br />

Le difficoltà comunque non mancano. Ci limitiamo a citare queste:<br />

a) la definizione statistica di probabilità non soddisfa gli assiomi di Kolmogorov<br />

per tutti i valori.<br />

b) per i frequentisti la probabilità descrive una frequenza entro una classe di<br />

riferimento: quindi non ha senso assegnare un valore di probabilità a eventi<br />

singoli ma solo a tipi di evento, p.es. “uscita del 2” . Non ha senso parlare di<br />

probabilità dell’ evento “uscita del 2 al terzo lancio”. Una variante del<br />

frequentismo detta “propensionismo” ha cercato di dare una risposta a questo<br />

problema tenendo conto delle condizioni in cui si verificano i singoli eventi. Se<br />

per esempio al terzo lancio il dado è zavorrato , ha un senso chiedersi qual è la<br />

probabiilità dell’uscita di 2 al terzo lancio. In questa visione la probabilità<br />

diventa una propensione di un dato dispositivo a produrre certi risultati in<br />

condizioni date.<br />

c) La corrente di filosofia della probabilità che ha avuto maggiori e crescenti<br />

consensi negli ultimi anni è quella soggettivista, dovuta a F.P. Ramsey e<br />

soprattutto al matematico italiano Bruno de Finetti. I soggettivisti ritengono che<br />

ci sono tante probabilità quanti sono i soggetti, dato che la probabilità è solo<br />

misura del grado di credenza soggettiva. Le probabilità iniziali vengono accettate<br />

osservando il comportamento dei soggetti nello scommettere. Supponiamo che il<br />

soggetto, trattando con un allibratore, accetti di scommettere 10 euro sulla<br />

vittoria di un cavallo per ricevere in cambio 100 euro. Vuol dire che considera<br />

rischiosa questa scommessa: il c.d. “quoziente di scommessa” 10/100 misura il<br />

grado di fiducia nel verficarsi dell’evento, e precisamente la probabilità del 10%


ad esso assegnato.<br />

Tutte le scommesse sono legittime salvo quelle che portano a perdita certa:<br />

per esempio quando si scommettono 10 euro su Testa e 10 euro su Croce dopo<br />

aver fissato un quoziente di scommessa di 10/15 (circa 66%). In tal caso si<br />

guadagnano in ogni caso 15 euro, ma la scommessa ne costa 20. Scommesse del<br />

genere vengono dette incoerenti. Il requisito della coerenza è pertanto l’unico<br />

che va rispettato, in quanto requisito di razionalità. Un sistema di scommesse<br />

incoerente (Dutch Book) può essere anche estremamente complesso, e sta allo<br />

scommettitore manifestare la sua razionalità rifiutandolo. Si può dimostrare che<br />

questa concezione della probabilità soddisfa gli assiomi di Kolmogorov. I<br />

vantaggi del soggettivismo sono innegabili. Si puòscommettere tanto su eventi<br />

singoli che su eventi ripetuti, si puòtenere in conto le frequenze osservate ma<br />

anche non tenerne alcun conto. Si puòassegnare una probabilità anche a un<br />

evento completamente nuovo, sulla base di convizioni che non c’ é’ bisogno di<br />

giustificare. Il giocatore di borsa opera spesso in questo modo , anche perchè<br />

non dispose di statistiche sui titoli ma si fida di informazioni riservate che sta a<br />

lui valutare, oppure semplicemente al suo fiuto. La fortuna del soggettivismo<br />

presso glie economisti è facile da spiegare, anche perchè i valori di probabilità<br />

vengono ricondotti a rapporti tra somme di denaro.<br />

Questa semplicità naturalmente ha un prezzo. Le osservazioni principali da<br />

fare sono queste<br />

1)Il quoziente di scommessa, poniamo del 10/100, vale tanto quando si<br />

scommettono 10 euro per averne 100 e quando si scommettono 1000 euro per<br />

averne 100.000. A parità di reddito, la seconda scommessa è molto piu’<br />

rischiosa. Per ovviare a questa difficoltà si potrebbe ricorrere (Ramsey) alla<br />

nozione di preferenza tra beni, che peròsembra presupponga una conoscenza<br />

delle probabilità.<br />

2) Ci sono leggi probabilistiche che sono accettate dalla scienza perchè hanno<br />

valore intersoggettivo.


3)I soggettivisti non sono in grado di dire che signiifca “apprendere dall’<br />

esperienza”, e cioè fare valutazioni probabilistiche razionali che siano<br />

proporzionali all’esperienza accumulata. Secondo wittgensteiniani come<br />

Strawson essere ragionevoli significa per definizione (cioè per gli usi del<br />

linguaggio ordinario) avere delle credenze commisurate all’evidenza, ossia<br />

ragionare induttivamente., mentre la razionalità intesa come coerenza nello<br />

scommettere non fa parte del repertorio concettuale ordinario, anche perchè si<br />

puòvivere benissimo senza fare l’esperienza dello scommettere, che tra l’altro<br />

presuppone l’esistenza di denaro circolante, sconosciuta in alcune culture<br />

tropicali.<br />

§6. Il teorema di Bayes e le sue applicazioni<br />

Negli ultimi anni l’attenzione degli epistemologi si è concentrata su uno<br />

strumento matematico che i soggettivisti hanno avuto il merito di porre al centro<br />

dell’attenzione in quanto dal loro punto di vista esprime l’unico senso preciso in<br />

cui si puòparlare di “inferenza dal noto all’ígnoto”. Dimostrato nel 700 da un<br />

matematico inglese, il torema di Bayes esprime la probabilità di A dato B in<br />

termini della probabiilità di B dato A ( per questo è chiamato anche teorema<br />

della probabilità inversa.)<br />

Pr A| B = Pr(A & B) =`Pr A x Pr(B|A)<br />

Pr(B) Pr(B)<br />

Se chiamiamo Pr(B|A) verosimiglianza (likelyhood) , la verosimiglianza ha<br />

normalmente valori diversi dalla probabilità . Per esempio la probabilità che<br />

tutti i corvi siano neri (A) dato che 100 corvi sono neri è diversa dalla<br />

probabilità che 100 corvi sono neri dato che tutti i corvi sono neri, che è<br />

esattamente del 100%. In tal caso anche un soggettivista può calcolare la


probabilità della generalizzazione induttiva una volta che conosca la<br />

verosimiglianza (che qui è ovviamente 1), e faccia un’assegnazione<br />

(eventualmente soggettiva) ad A e a B.<br />

Il teorema di Bayes, prediletto daí soggettivisti, è stato valorizzato come<br />

strumento inferenziale dai filosofi detti bayesiani, che non necessariamente<br />

sono soggettivisti (si parla di bayesianismo oggettivo). Esso pare fortemente<br />

adeguato soprattuto nel campo della cosiddetta abduzione, che nel caso piu’<br />

ovvio è l’inferenza dagli effetti alle cause. Se ci sono due ipotesi causali h1 e<br />

h2, il teorema di Bayes consente di calcolare quale delle due cause è la piu’<br />

probabile (confrontando cioè Pr h1|e e Pr h2|e) una volta che si sappia valutare<br />

qual è Pr e|h1 e Pre|h2 e si sia assegnato un valore a Pr(h1),Pr(h2) e Pr(e).<br />

[ Bibliografia reperibile in italiano<br />

G.Boniolo e P.Vidali, Filosofia della scienza, cap.4 e App2 , Ed. Bruno<br />

Mondadori, Milano,1999<br />

J.Hintikka: Induzione, accettazione , informazione, (a cura di<br />

P. Parlavecchia e M.Mondadori) Il Mulino,Bologna, 1974.<br />

L.J.Cohen : Introduzione alla filosofia dell'Induzione e della probabilità,<br />

Giuffrè, Milano 1998<br />

M.C.Galavotti: Probabilità, La Nuova Italia, Firenze, 2000<br />

C. Pizzi: Teorie della probabilità e teorie della causa, CLUEB, Bologna,<br />

1983<br />

P.Suppes: La logica del probabile: un approccio bayesiano alla probabilità,<br />

CLUEB, Bologna, 1984<br />

B.Skyrms, Introduzione alla logica induttiva, Il Mulino, Bologna, 1966]


V. LA <strong>FILOSOFIA</strong> <strong>DELLA</strong> CAUSALITA'<br />

1.Ci sono due principi che nella filosofia tradizionale hanno avuto il ruolo di<br />

caposaldi del pensiero scientifico: il cosiddetto “principio di causalità”, cioè<br />

l’assunto che ogni evento ha una causa ­ e la sua variante più debole, il<br />

“principio di ragion sufficiente”, asserente che ogni cosa ha una ragion d’essere<br />

o fondamento , dove il fondamento è qualcosa che spiega l’effetto ma a,<br />

differenza della causa, non è necessitante per questo.<br />

In un celebre articolo scritto nel 1913 (ora in “Logica e Misticismo”), Bertrand<br />

Russell esprimeva l’opinione che il principio di causalità è “il relitto di un’era<br />

tramontata, il quale viene lasciato sopravvivere, come la monarchia,<br />

nell’opinione errata che non produca danni”.<br />

Con questa battuta Russell esprimeva un punto di vista che era corrente in<br />

ambienti scientifici influenzati dal positivismo e anticipava le posizioni di quello<br />

che sarebbe poi stato chiamato neopositivismo. Russell infatti non solo asseriva<br />

la fine del principio di causalità, ma profetizzava anche che qualunque scienza


avanzata il linguaggio causale era destinato a sparire, e che le cosiddette leggi<br />

causali sarebbero state formulate come equazioni differenziali in cui si<br />

esprimeva la variazione concomitante di determinate grandezze da determinate<br />

altre. Le variabili dipendenti avrebbero preso il posto degli effetti e le variabili<br />

indipendenti avrebbero preso il posto delle cause.<br />

La concezione di Russell presupponeva la fiducia nel primato della fisica<br />

(dove era per l’appunto in corso il processo di purificazione linguistica sopra<br />

descritto) e in realtà sottintendeva una completa fiducia in una futura confluenza<br />

di tutte le scienze nella fisica. Come è noto, dopo la prima guerra mondiale il<br />

neopositivismo avrebbe istituzionalizzato questo ruolo dominante nella fisica<br />

con il c.d. fisicalismo e, per quanto riguarda la causalità, avrebbe assunto un<br />

atteggiamento analogamente riduttivo. Wittgenstein nel Tractatus esprimeva in<br />

modo tagliente questi umori con l’aforisma “la credenza nel nesso causale è<br />

superstizione”. Quanto all’idea secondo cui ogni evento ha una causa,<br />

Wittgenstein osservava (6.16) che “se ci fosse un principio di causalità potrebbe<br />

suonare ‘Ci sono leggi di naturà”. Che cosa sono le leggi di natura? Wittgenstein<br />

e i suoi allievi più diretti come Schlick le intendono come regole che ci mettono<br />

in grado di prevedere i fenomeni o calcolare i valori delle loro proprietà<br />

misurabili. L’esistenza di leggi di natura dunque non è altro che l’esistenza di<br />

regole di inferenza o di calcolo di questo tipo.<br />

Tuttavia l’eclissi della causalità non aveva ancora completato la sua parabola<br />

se il più fedele portavoce di Wittgenstein, F. Waissmann, poteva scrivere nel<br />

secondo dopoguerra un lungo saggio intitolato “Tramonto e fine della causalità”.<br />

Secondo Waismann questo crollo definitivo della causalità sarebbe stato prodotto<br />

dal principio di indeterminazione di Heisenberg (1927) . Come è noto, in questo<br />

si afferma che è impossibile misurare simultaneamente due grandezze coniugate<br />

(p.es. la posizione e la velocità di un elettrone), e quindi anche di fare predizioni<br />

esatte circa i fenomeni del mondo subatomico. Possiamo parlare di cause senza<br />

effetti e di effetti senza cause. Secondo un punto di vista molto ripetuto, questa<br />

limitazione sarebbe dovuta all’interferenza dell’osservatore con l’oggetto<br />

microscopico osservato (si noti che per “vedere” qualsiasi cosa questa va colpita<br />

con un fascio di fotoni). Ma è sempre più chiaro che la limitazione è dovuta alla


natura stessa di particelle come gli elettroni, che si comportano tanto come onde<br />

che come corpuscoli, dando origine a manifestazioni che sono incomprensibili<br />

se analizzate con il linguaggio e con i metodi usati per il mondo macroscopico.<br />

Con tutto ciò si arrivava alla dissoluzione del determinismo causale di Laplace<br />

Come è noto, Laplace postulava la possibilità di un demone onnisciente in grado<br />

di calcolare in linea di principio tutte le qualità degli eventi passati e futuri<br />

conoscendo in modo completo lo stato di cose presente. Il caso è semplicemente,<br />

in questa prospettiva, l’ignoranza delle cause. Dopo Heisenberg invece il caso<br />

diventa un ingrediente ineliminabile della realtà stessa. In tutte le scienze<br />

emergenti, dalla sociologia alla biologia molecolare, leggi probabilistiche e<br />

statistiche sostituivano le leggi deterministiche, che si potevano in ogni caso<br />

presentare come casi limite delle prime.<br />

A quasi un secolo di distanza da quella che pareva una crisi irreversibile<br />

siamo in grado di fare un quadro della situazione piuttosto diverso da quello<br />

pronosticato da Russell e condiviso dai neopositivisti. Da un lato l’ attuazione<br />

del programma fiscalista sembra oggi addirittura più remota di quanto fosse ai<br />

tempi di Russell, e questo soprattutto per l’enorme rilievo che hanno assunto le<br />

scienze umano­sociali. Dall’altro è un fatto che gli scienziati, fisici compresi,<br />

non hanno certo abbandonato il linguaggio causale nell’ attività di ricerca e<br />

dell’esposizione ufficiale dei loro risultati. I medici continuano a parlare di<br />

eziologia delle malattie, e a fare della ricerca della cause di queste il loro<br />

obiettivo fondamentale (una buona diagnosi è per tutti una questione di vita o di<br />

morte) e anche i fisici usano un gergo causale, anche se in modo più implicito<br />

che esplicito. Si pensi infatti che la maggior parte dei verbi transitivi attivi<br />

(“urtare”,”espellere”, “distruggere” ecc.) sono essenzialmente verbi di<br />

causazione in quanto descrivono un determinato rapporto tra evento causante ed<br />

evento causato. Anche nell’ipotesi che si possa eliminare il gergo causale dalla


formulazione delle leggi, sembra che questo sia impossibile nella descrizione<br />

della cosiddetta realtà fenomenica.<br />

Quanto precede forse basta da solo a spiegare il moltiplicarsi impressionante di<br />

saggi filosofici sulla causalità a partire dal 1960 circa, quando viene pubblicato<br />

“Causation in Law” di Hart & Honorè, due filosofi del diritto consapevoli<br />

dell’importanza che hanno le considerazioni causali nell’accertamento delle<br />

responsabilità penali. Certo questo trend è in parte motivato dall’esaurirsi del<br />

positivismo logico alla fine degli anni 50. Ma sarebbe un errore pensare che<br />

questa fioritura sia legata al postpositivismo, cioè al filone di pensiero della linea<br />

Hanson­Kuhn­Feyerabend. In realtà questa corrente filosofica è ben poco<br />

interessata all’analisi concettuale e si è limitata a mettere l’accento sul ruolo che<br />

hanno le teorie scientifiche nel rispondere alla domanda “qual è la causa del<br />

fenomeno x”? Di che cosa si tratti si può vedere facilmente da un esempio.<br />

Supponiamo che si verifichi un incidente stradale conclusosi con la morte di un<br />

conducente che in stato di ubriachezza passava con il rosso. Supponiamo di<br />

chiedere a un vigile urbano, a un medico, a un sociologo qual è la causa del<br />

decesso. Avremo verosimilmente delle risposte diverse. L’uno dirà che l’evento<br />

si è prodotto perché l’autista è passato con il rosso, l’altro indicherà la causa in<br />

un’emorragia inarrestabile, il terzo nel fatto che il guidatore era un alcolista. I tre<br />

soggetti sono influenzati da paradigmi diversi e individuano cause diverse.<br />

Individuare una causa significherebbe dunque usare un certo insieme di<br />

presupposti di sfondo (una teoria, un insieme di pregiudizi) per distinguere ciò<br />

che è rilevante da ciò che non è rilevante. Tutto ciò è indubbiamente vero sul<br />

piano della psicologia della ricerca scientifica, ma elude uno dei problemi<br />

centrali della filosofia della scienza, e cioè che esistono catene causali<br />

“oggettive”, cioè che i vari soggetti possono riconoscere come tali<br />

indipendentemente dal peso che ciascuno può voler assegnare ai singoli membri<br />

della catena? Questo problema è solo uno dei molti che sono stati recentemente<br />

oggetto di dibattito nella filosofia della causalità, dove con questo termine<br />

intendo rifermi a una nuova area di ricerca su temi comuni spesso scollegati,<br />

che attualmente vengono perseguite con strumenti diversi (logici, linguistici,<br />

algebrici, statistici) da studiosi di diversa estrazione che parlano linguaggi<br />

diversi.<br />

Vediamo insieme alcuni temi importanti da esaminare con la massima


attenzione.<br />

2. Gli studi sulla genesi del concetto di causa non sono, a rigore, filosofici.<br />

Tuttavia ha una grande importanza per la ricerca filosofica sapere come si<br />

sviluppano nel bambino le nozioni causali ,e confrontare questo sviluppo con<br />

quello subito da queste nozioni nella storia della cultura. Il riferimento obbligato<br />

qui è naturalmente alle ricerche di Jean Piaget e della sua scuola ginevrina.<br />

Il bambino ha coscienza prima di tutto della propria capacità produttiva,<br />

generativa e manipolativa, e in base a questo passo ad attribuire analoghi poteri<br />

agli oggetti che riconosce come esterni al proprio corpo. Il linguaggio ordinario<br />

è abbondantemente percorso da questa concezione produttivistica della causa.<br />

Noi diciamo infatti che il fuoco ha prodotto la scottatura, che il sedativo agisce<br />

sul sistema nervoso, che le scariche elettriche hanno generato un campo<br />

magnetico.<br />

Tutto questo è in accordo anche con l’animismo, cioè con la credenza comune<br />

ai popoli primitivi secondo cui tutti gli oggetti possiedono un’anima. Questa<br />

convinzione, o almeno i suoi residui, sono rintracciabili anche agli albori del<br />

pensiero occidentale,e precisamente nella dottrina aristotelica secondo cui<br />

esistono poteri occulti nelle sostanze, come il potere dell’oppio di causare il<br />

sonno o il potere del diamante di tagliare il vetro. Ebbene, nell’ambito della<br />

filosofia della causalità anche questa posizione filosofica ha ripreso vigore. Due<br />

filosofi inglesi influenzati da Wittgenstein, Harrè e Madden, hanno<br />

recentemente pubblicato un volume in cui si rilancia l’idea che l’ontologia<br />

adeguata alla scienza moderna sia quella che contempla una realtà formata da<br />

individui dotati di poteri.<br />

è difficile credere che una filosofia di questo genere (si direbbe una filosofia<br />

Lockeana aggiornata) sia presentabile agli albori del terzo millennio.


Supponiamo di dire che il digiuno di un certo deputato radicale ha causato il<br />

dimagrimento dello stesso. Qual è l’oggetto dotato di poteri che causa tale<br />

fenomeno? Non certo il cibo , a meno che non sia più una battuta dire “lo<br />

zucchero rende il caffè amaro, se non ce lo metti” . Alternativamente, possiamo<br />

dire che il digiuno è una sostanza dotata di poteri? Ma questo significa dilatare<br />

tropo il ventaglio di ciò che gli aristotelici intendono per sostanza. Non<br />

dimentichiamo che Don Ferrante di fronte alla peste di Milano osservava,<br />

seguendo Aristotele, che la peste non era né sostanza né accidente, e quindi che<br />

non poteva esistere. Un sostenitore di una teoria simile a quella di Harrè e<br />

Madden, Mario Bunge, ha liquidato il problema sostenendo che enunciati del<br />

genere necessitano di una complessa parafrasi, ma non dice quale.<br />

Una nozione di causa simile a questa, ma più accettabile per un fisico, sta nel<br />

ridurre la relazione di causa­effetto a quella di trasmissione di una grandezza<br />

(forza, momento, accelerazione…) da un corpo all’altro. Ma il tipo di<br />

controesempio da invocare è sempre lo stesso. Premendo l’interruttore la stanza<br />

da luminosa diventa buia, ma questo si ottiene non con la trasmissione del flusso<br />

di elettricità ma con l’interruzione dello stesso.<br />

Anche le ricerche sulla genesi del concetto di causa non hanno ottenuto un<br />

risultato univoco. Un conto infatti è la genesi nella mente del bambino, altra è<br />

la genesi nella storia della cultura umana. Già nel 1940 il grande giurista<br />

austriaco Hans Kelsen evidenziava che l’origine culturale della nozioni causali è<br />

di tipo etico­ giuridico. La parola “causa” (cfr. l’espressione “far causa a uno”)<br />

indica “il responsabile”. I primitivi vedono nella natura una lotta tra gli elementi<br />

della natura in cui viene perturbato l’equilibrio naturale. Il principio di causalità<br />

non è altro che una proiezione sulla natura del principio del contrappasso (cioè<br />

che la pena deve essere una vendetta proporzionata alla colpa): allo stesso modo<br />

in cui la vendetta adeguata ripristina l’equilibrio sociale, l’effetto adeguato<br />

ripristina l’equilibrio naturale.<br />

Ora quest’idea della natura come sistema in equilibrio sotto spinte differenti è<br />

vicina all’immagine che gli economisti danno oggi dei sistemi economici. Essi<br />

sono rappresentabili come modelli (sistemi di equazioni) in cui alcune variabili<br />

(p.es. salari) sono da considerare non influenzate da altre che dipendono dalle<br />

prime, e quindi ne sono l’effetto. Grazie a particolari espedienti matematici<br />

(studiati p.es. da Blalock e Simon) si riesce inoltre a dare un senso preciso<br />

all’idea di feed­back, cioè alla retroazione delle variabili­effetto sulle variabili­


causa, che tende a riportare un sistema all’equilibrio. In tal modo la teoria dei<br />

sistemi rientra nel filone dei molti tentativi volti a purificare l’idea di causa dai<br />

suoi connotati antropomorfi e metafisici.<br />

Questi tentativi, che nel 900 sono stai sviluppati con tecniche sofisticate,<br />

hanno un precedente illustre nel pensiero di David Hume. Erroneamente si è<br />

voluto vedere in questo filosofo uno scettico distruttivo che mirava a negare un<br />

senso agli asserti causali. In realtà Hume, come ogni empirista, si rifiuta di<br />

attribuire realtà a ciò che non è osservabile, e tali non sono i poteri causali e il<br />

nesso causa­effetto. La tesi di Hume è che quando asseriamo che c è causa di e<br />

stiamo semplicemente asserendo<br />

1) che c ed e si sono realmente verificati<br />

che eventi simili a c sono spazialmente contigui e regolarmente seguiti da eventi<br />

simili ad e.<br />

è solo per associazione ingannevole di idee, secondo Hume, che riteniamo che ci<br />

sia un legame occulto tra la causa e l’effetto o un potere causale della sostanza<br />

(regularity view).<br />

All’analisi di Hume sono state opposte diverse obiezioni ma le due principali<br />

sono le seguenti:<br />

I). Ci sono casi in cui si può stabilire un nesso causale con una sola<br />

osservazione, e quindi senza passare attraverso l’osservazione di esempi ripetuti.<br />

Thomas Reid, un contemporaneo di Hume, osservava per esempio che l’effetto<br />

della propria volontà sulle proprie azioni si può stabilire in modo immediato<br />

senza passare attraverso osservazioni ripetute. Non essendo un fenomeno<br />

pubblicamente osservabile, questo a rigore non è qualcosa che interessi un<br />

empirista. Comunque si possono escogitare altri esempi analoghi: p.es. si inietta<br />

un nuovo farmaco a una cavia e questa immediatamente muore: In mancanza di<br />

altre ipotesi causali secondo alcuni è lecito concludere che l’iniezione è stata<br />

causa della morte.<br />

II). Ci sono successioni regolari che rispecchiano i requisiti di Hume e tuttavia<br />

non sono causali.<br />

Reid osservava che il giorno è regolarmente seguito dalla notte e viceversa,<br />

senza che nessuno si possa dire causa dell’altro. La prima dentizione è


egolarmente seguita dalla seconda, ma non si può dire causa di questa. In molti<br />

processi deterministici linerari un certo tipo di evento è seguito da un altro senza<br />

che si possa dire che ne è la causa.<br />

Controesempi di questo genere si potrebbero considerare non decisivi. A<br />

proposito di questi si potrebbe argomentare che in effetti non si parla di nesso<br />

causa­ effetto, ma che nemmeno lo si esclude (dopo tutto , il giorno rende<br />

possibile la notte e la prima dentizione rende possibile la seconda) è dunque un<br />

caso di vaghezza semantica, in cui c’è una certa arbitarietà nella scelta del<br />

linguaggio.<br />

Ma casi di successioni regolari non causali esistono e sono all’ordine del<br />

giorno. Kant, come si sa, aveva l’abitudine di compiere una passeggiata<br />

quotidianamente nella piazza di Konigsberg con un puntualità cronometrica.<br />

Quindi ogni giorno la sua presenza nella piazza era seguita da una certa<br />

posizione delle lancette dell’orologio (orologio tanto tedesco quanto il filosofo).<br />

Nessuno però potrebbe dire che la presenza di Kant era la causa della posizione<br />

delle lancette, nonostante fosse a questa contigua anche spazialmente.<br />

Perché è possibile produrre controesempi di questo genere? Una risposta<br />

potrebbe essere che si tratta di generalizzazioni accidentali, non di leggi di<br />

natura. Se Kant fosse mancato un giorno all’appuntamento o l’orologio si fosse<br />

fermato per un guasto questo avrebbe creato sorpresa ma nessuno avrebbe<br />

gridato al miracolo, come quando Giosuè fermò il sole durante la battaglia di<br />

Gerico.<br />

E' sufficiente allora chiedere che sussistano leggi di successione regolare per<br />

parlare di relazioni causali? Con ciò siamo tornati al riduzionismo di<br />

Wittgenstein, cioè all’idea che l’esistenza di nessi causali altro non sia che<br />

l’esistenza di leggi di natura.<br />

La riposta però è ancora negativa. Noi sappiamo che l’abbassarsi della lancetta<br />

del barometro è regolarmente seguita dal maltempo (così si dice): abbiamo<br />

quindi una regola che ci consente di inferire, dall’abbassamento del barometro,<br />

l’avvicinarsi del maltempo. Eppure siamo anche sicuri che l’abbassarsi del


arometro non è causa del maltempo ma solo un indizio di questo. Altrimenti<br />

detto, si tratta di una causa spuria, e il motivo per cui sembra una causa genuina<br />

è che esiste una causa genuina antecedente (l’abbassamento della pressione<br />

atmosferica) da cui dipende tanto la variazione barometrica quanto l’effetto vero<br />

e proprio .<br />

è difficile quindi accettare l’analisi regolarista senza almeno questa<br />

correzione: c1 è causa di e se e segue nomicamente da c1, a meno che non<br />

esista una terza causa antecedente c2 da cui dipende tanto c1 che e.<br />

3. Negli anni ‘30 i neopositivisti hanno effettuato, soprattutto per merito di<br />

Hempel, un tentativo ancora più radicale di eliminare la nozione di causa. è<br />

sufficiente al proposito ricordare la teoria della spiegazione di Hempel­<br />

Oppenheim. Molto semplicemente, se C è un elemento dell’explanans ed E è<br />

l’explanandum, diremo che C è causa di E (C , si direbbe è ragione sufficiente,<br />

una volta congiunta ad altre informazioni), per credere ad E. Parleremo di teoria<br />

“esplicazionista della causa” in quanto le cause vengono ridotte a fattori<br />

esplicativi.<br />

Rispetto alla teoria neohumeana, p.es. di Schlick, l’ esplicazionismo elimina il<br />

requisito della precedenza temporale delle cause. Supponiamo di chiedere:<br />

“perché quel passero costruisce il nido?” (explanandum) e che la risposta sia<br />

“perché disporrà in un momento successivo le uova nel nido”. Qui l’explanans è<br />

posteriore all’explanandum. Lo diremmo una causa? Aristotele diceva di sì e<br />

parlava al proposito di cause finali o posteriori all’effetto. Gli empiristi negano<br />

l’esistenza di questa causalità retroattiva e preferiscono dire in questo caso che il<br />

passero è stato programmato a mettere le uova nel nido, dove la programmazione<br />

genetica è una causa antecedente, non posteriore.<br />

Problema analogo è quello delle cause simultanee. Anche qui gli empiristi<br />

sono scettici e di solito sottoscrivono il principio di azione ritardata, secondo cui<br />

ogni azione “prende tempo”, fosse anche l’azione delle onde più veloci, che sono


quelle luminose. La velocità altissima della luce spiga alcuni apparenti esempi di<br />

causalità simultanea. Per esempio se premo il pulsante ho l’impressione che si<br />

accenda “simultaneamente” la lampadina, ma in realtà ciò che accade perché il<br />

lasso di tempo intercorso è impercettibile.<br />

Per concludere, un neohumeano potrebbe definire una causa C1 come una<br />

delle condizioni iniziali C1…Cn che fanno parte dell’explanans dell’effetto E<br />

(explanandum) che si verifica in un momento successivo. Si potrebbe anche dire<br />

che C1 è ceteris paribus sufficiente per E, dove l’espressione “ ceteris paribus”<br />

indica le condizioni di contorno preesistenti compatibili con E. Questo<br />

concezione è assai elegante, ma il controesempio del barometro ci fa riflettere<br />

sulla sua insufficienza. L’abbassarsi del barometro rende prevedibile la<br />

tempesta, ma non la spiega e tanto meno ne è causa. Sono stati fatti dei tentativi<br />

probabilistici molto sofisticati per distinguere le cause genuine dalle cause<br />

spurie, che è un problema di vitale importanza soprattutto quando sono in gioco<br />

delle correlazioni statistiche di eventi non facilmente ordinabili temporalmente .<br />

Per esempio risulta una correlazione positiva tra le variabili c ( check up) e m<br />

( mortalità) , anche se è difficile credere che i check up diminuiscano la speranza<br />

di vita. Tecniche molto raffinate per lo smascheramento delle cause spurie sono<br />

state introdotte nell’ impiego dei modelli matematici come quelli di Blalock e<br />

Simon.<br />

Ma sembra che non si sia dato risalto all’intuizione più semplice. Si può<br />

osservare che l’abbassarsi del barometro è sì condizione ceteris paribus<br />

sufficiente per l’effetto ma non è una condizione cegteris paribus necessaria o,<br />

come si suol dire, una conditio sine qua non per lo stesso. Se, per esempio, non<br />

ci fosse stato l’abbassamento del barometro per mancanza del barometro, ci


sarebbe stata egualmente tempesta, come avveniva prima dell’invenzione dei<br />

barometri.<br />

Qualcuno può sostenere che questo “esperimento mentale” è l’unico vero test<br />

per la genuinità delle correlazioni causali. Si ipotizza in altre parole che un certo<br />

evento C non si sia verificato e ci si chiede che cosa ne sarebbe dell’evento<br />

successivo E.<br />

Un asserto come “se non ci fosse stato c non si sarebbe verificato e” è un<br />

periodo ipotetico della irrealtà, che i logici oggi chiamano condizionale<br />

controfattuale. Max Weber ha teorizzato l’essenzialità di questo metodo in un<br />

ben noto saggio sulla metodologia delle scienze storico­sociali. Non solo<br />

riusciamo così ad eliminare le cause spurie, ma anche a dare un peso alle cause<br />

genuine. Che cosa ha causato la I guerra Mondiale? Se non fossero stati sparati i<br />

colpi di pistola di Sarajevo la guerra si sarebbe comunque verificata anche se in<br />

modi leggermente diversi, quindi quell’evento (casus belli) si può qualificare<br />

come causa accidentale.<br />

Purtroppo la distinzione tra condizione sufficiente e condizione necessaria non<br />

è mai stata chiara nella letteratura filosofica fino all’ultimo secolo, e la<br />

confusione è presente in molti autori. Un esempio clamoroso è fornito dallo<br />

stesso Hume, che in un passo celebre definisce la causa così: un oggetto seguito<br />

da un altro, dove tutti gli oggetti simili al primo sono seguiti da oggetti simili al<br />

secondo. O, in altri termini dove, se il primo non ci fosse stato, il secondo non<br />

sarebbe mai esistito (Enquiry). Questo passo ha fatto versare fiumi di inchiostro<br />

perché appare che nella prima parte del passo Hume definisce la causa come<br />

condizione ceters paribus sufficiente, mentre nella seconda usa un condizionale<br />

controfattuale.<br />

Questa ambivalenza è stata incorporta da J.L.Mackie in una delle più<br />

complesse e interessanti teorie della causa oggi disponibili. Secondo MacKie le


cause sono una via dimezzo tra cause necessarie e sufficienti. Più precisamente<br />

sono INUS­condizioni (: sono cioè parti insufficienti ma necessarie di una<br />

condizione più ampia che è sufficiente ma non necessaria per l’effetto.<br />

L’esempio del barile pieno di polvere è tipico. Il fatto che le polveri siano<br />

asciutte è insufficiente per l’effetto, ma necessario entro una condizione<br />

complessiva che è in sé sufficiente ma non necessaria (il barile potrebbe<br />

esplodere per cause diverse, per esempio un aumento anormale di temperatura).<br />

La teoria controfattuale della causa è sostanzialmente condivisa da Mackie nel<br />

suo ultimo libro, The Cement of Universe. Bisogna sottolineare che questa<br />

concezione è ormai una delle più condivise, anche per il fondamentale contributo<br />

di David K.Lewis.<br />

Va subito detto che anche questa concezione ha le sue difficoltà. La principale<br />

difficoltà è che possono esserci due o più cause che sono sufficiente per l’effetto<br />

ma non necessarie. L’esempio standard è quello dei due killers che colpisono un<br />

uomo con colpi egualmente mortali. Se il primo non avesse sparato –possiamo<br />

dire­ la vittima sarebbe comunque morta, e los tesso potrebbe dirsi del secondo<br />

killer. Allora nessuno dei due è colpevole?<br />

Un altro esempio spesso citato , perché tratto dalla letteratura giudiziaria, è<br />

quello del viaggiatore nel deserto. Due delinquenti vogliono uccidere uno stesso<br />

viaggiatore che si appresta ad attraversare il deserto. All’insaputa uno<br />

dell’altro ,uno gli pratica un foro nella borraccia, l’altro riempe la borraccia di<br />

veleno. La vittima muore disidratata: ma se avesse bevuto dalla borraccia<br />

sarebbe comunque morta, questa volta per avvelenamento. Questo esempio è<br />

leggermente diverso da quello dei due Pistoleros perché nel primo caso i due<br />

danno luogo a un caso di sovradeterminazione: qui invece i due malviventi<br />

mettono in moto due catene causali una delle quali sopravanza l’altra.<br />

Nonostante le difficoltà, la teoria della conditio sine qua non è quella che ha<br />

una tradizione più solida in campo giuridica, e che si mostra più promettente.<br />

Noi ci sentiamo in colpa per una certa azione quando possiamo dire che, se non<br />

avessimo agito in quel modo , non ne sarebbe seguito quel particolare danno.<br />

La cosa importante è riconoscere che sono diverse nozioni di causa di diversa<br />

forza, che però hanno come nocciolo comune quello di conditio sine qua non. La<br />

nozione più forte è probabilmente quella di “essere la causa” (cioè l’unica causa


determinante). Per fare un esempio, quando diciamo<br />

1­ La perdita al gioco è stata la causa della rovina di Filippo<br />

Intendiamo dire che “Se Filippo non avesse subito la perdita al gioco non ci<br />

sarebbe stata la sua rovina”, ma anche altro e precisamente:<br />

(*) che la perdita al gioco era sufficiente a prevedere la rovina di Filippo<br />

(**) che nessun altro evento noto antecedente si può considerare condizione<br />

necessaria e sufficiente della rovina di Filippo,<br />

Non c’è nessun problema comunque ad accettare l’idea che le nozioni causali<br />

hanno un grado diverso di complessità. Pur avendo come base comune un<br />

condizionale controfattuale, si può indicare come compito della filosofia della<br />

causalità precisamente l’analisi di tali diverse nozioni, eventualmente in<br />

linguaggi con un diverso grado di potenza espressiva. Il riferimento ai linguaggi<br />

è essenziale perché, p.es., la teoria probabilistica della causa esige un linguaggio<br />

più potente del linguaggio che consente di esprimere i condizionali<br />

controfattuali.<br />

Reichenbach, Salmon e Suppes ci hanno lasciato teorie probabilistiche della<br />

causa molto interessanti. Quella di Suppes è la più nota agli economisti.<br />

Definiamo una causa prima facie C di E come un evento che incremente la<br />

probabilità di E (Pr(E|C) > Pr(E)). Una causa prima facie può essere spuria o<br />

genuina. Per essere considerata genuina bisogna far vedere che non esiste nessun<br />

evento precedente che incrementa la probabilità di E in misura uguale superiore<br />

a quello di C. L’esempio del barometro è un tipico esempio di causa non<br />

genuina, perché la depressione antecedente aumenta da sola la probabilità di E in<br />

misura maggiore, annullando il peso di C. Su questa base Suppes si mostra


capace di tracciare distinzioni molto sottili, come quella tra causa diretta e causa<br />

indiretta, causa supplementare, causa sufficiente ecc..<br />

Questa notevole flessibilità della teoria probabilistica della causa ha un prezzo.<br />

Prima di tutto la teoria di Suppes assegna probabilità a eventi, non a fatti che<br />

sono a loro volta relazioni causali. Eppure la causalità sussiste spesso tra fatti che<br />

sono a loro volta relazioni causali. Io potrei dire per esempio che Tizio è stato<br />

causa dell’avvelenamento mediante stricnina di Caio da parte di Sempronio. Per<br />

trattare probabilisticamente questa relazione dovremmo assegnare un valore di<br />

probabilità a una relazione probabilistica, il che oggi non è tecnicamente<br />

possibile a meno di aggiungere assiomi molto problematici agli assiomi di<br />

Kolmogorov.<br />

Questo problema non si pone nelle teorie non probabilistiche, e in particolare<br />

in quella controfattuale. E' più che legittimo dire, per esempio, “se Tizio non<br />

avesse aiutato Sempronio allora, se Sempronio non avesse usato la stricnina<br />

contro Caio, Caio non sarebbe morto” : tutto ciò è equivalente a dire che se Tizio<br />

non avesse aiutato Sempronio allora Caio non sarebbe morto per usato la<br />

stricnina usata contro di lui da Sempronio. Si noti che in base allo stesso schema<br />

si può trattare senza problemi anche la sovradeterminazione (se il primo killer<br />

non avesse sparato il secondo sarebbe stato causa della morte di Kennedy) che<br />

viceversa risulta difficoltosa anche dal punto di vista probabilistico.<br />

Tutto questo fa pensare che la pluralità dei linguaggi non garantisca<br />

automaticamente la traducibilità di un linguaggio nell’altro, e quindi sia<br />

necessario operare una scelta radicale tra i linguaggi. In questo momento quello<br />

controfattuale appare, nonostante le apparenze, più adeguato di quello<br />

probabilistico.<br />

]BIBLIOGRAFIA IN LINGUA ITALIANA<br />

Benzi,M., Scoprire le cause, Franco Angeli, Milano,2003<br />

Bunge,M., La causalità, Boringhieri,Torino, 1963<br />

Blalock.H. , L'analisi causale in Sociologia, Marsilio.Padova,1967<br />

Galavotti M.C.e Gambetta,G (a cura di) , Causalità e modelli probabilistici,<br />

CLUEB, Bologna, 1983<br />

Pizzi,C, Eventi e cause, Giuffrè,Milano,1997]


VI. LA <strong>FILOSOFIA</strong> DELLE SCIENZE UMANO­SOCIALI.<br />

§1. Le discipline che studiano l’uomo (economia, sociologia, psicologia,<br />

antropologia, etnologia) sono state per gli epistemologi una fonte di diverse<br />

difficoltà, come si può desumere dal fatto stesso che è stato a volte negato loro lo<br />

status di scienze. è chiaro, infatti, che non è sufficiente chiamare qualcosa<br />

scienza perché sia tale effettivamente, come è evidente dal fatto che si parla, per<br />

esempio, di scienze occulte e scienze motorie, che con la scienza hanno poco a<br />

che spartire. Per non entrare qui nel merito di questa controversa discussione ne<br />

parleremo come di discipline scientifiche, e non di scienze, conservando però la<br />

dizione corrente “scienze umane” – “scienze sociali”. Sono discipline di recente


formazione, anche se forse la più antica delle scienze (umane e non umane) è la<br />

medicina, che ha per oggetto primario il corpo umano e le sue patologie.<br />

Qualcosa va detto sulla medicina per la sua singolarità e per l’importanza che<br />

riveste per la vita di tutti. Nella misura in cui si interessa alle malattie non di un<br />

singolo individuo ma di un’intera popolazione la medicina si può classificare tra<br />

le scienza sociale. In particolare un ramo della medicina, l’, è lo studio della<br />

distribuzione dei determinanti delle malattie nelle popolazioni umane. Ha inizio<br />

verso la fine del ‘500, quando si cominciano a fare elenchi dei decessi indicando<br />

la presunta causa di morte. Dopo due secoli la epidemiologia si coniuga con la<br />

statistica e raggiunge risultati sempre più esatti. E' chiaro che il problema<br />

basilare che interessa gli epidemiologi è individuare le cause di una certa<br />

malattia epidemica partendo da dati semplicemente statistici.<br />

Nel 1849 e nel 1853 due epidemie di colera colpirono l’Inghilterra.<br />

Osservando che nelle aree a livello del Tamigi si aveva una concentrazione della<br />

malattia più alta che nelle altre, raffinando progressivamente le osservazioni<br />

anche con i dati circa le singole strade J.Snow arrivò a individuare nell’acqua<br />

potabile inquinata dalle fogna la causa dell’epidemia. Era un grande progresso,<br />

che faceva piazza pulita del vecchio pregiudizio per cui la causa del colera erano<br />

dei miasmi o contaminazioni dell’aria. Nel 1883 Koch isolò il vibrione colerico e<br />

quindi scoprì la causa batteriologica del colera, rendendo possibile la<br />

prevenzione e la guarigione di singoli malati e non di popolazioni. Con<br />

ragionamenti e rilevazioni di tipo analogo Semmelweiss scoprì la causa della<br />

febbre puerperale nella mancanza di precauzioni igieniche da parte del personale<br />

ospedaliero e introdusse obbligatoriamente la prassi della disinfezione delle<br />

mani con soluzione clorurata.<br />

Se la batteriologia è un ramo della medicina comunicante con la biologia,<br />

ci sono rami della medicina come la psichiatria e la neurologia che sono al


confine con la psicologia, una disciplina che si è staccata dalla medicina negli<br />

ultimi due secoli e ora ha caratteristiche autonome. Nel momento in cui entra<br />

in gioco la sfera dei fenomeni che una volta erano chiamati spirituali (volontà,<br />

pensiero, immaginazione, sogno ecc.) ci si imbatte nell’elemento principale<br />

che separa le discipline in oggetto dalle scienze fisiche. La differenza tra<br />

discipline umano­sociali e scienze fisiche ha una pluralità di aspetti.<br />

In primo luogo, nelle scienze umane l’uomo si trova a dover riflettere e capire<br />

non un oggetto esterno, ma in un certo senso se stesso. Per quanto oggettiva e<br />

spassionata possa essere l’ osservazione di un uomo da parte di un uomo, il<br />

medico o lo psichiatra si trova a cercare di capire qualcosa che lui stesso conosce<br />

in quanto li ha sperimentati personalmente : da un lato (per i fenomeni corporei)<br />

le sensazioni dolorose, il senso di sazietà o di fame ecc. , dall’altro (per i<br />

fenomeni psichici) i fenomeni dell’attenzione, della memoria, del sogno ecc. e<br />

le innumerevoli sfumature delle emozioni – odio, amore, paura, ira,<br />

insoddisfazione ecc.<br />

In secondo luogo, la complessità dei comportamenti umani non ha reso<br />

possibile elaborare un corpo di leggi generali ben fondate paragonabile a quello<br />

di cui si dispone nella fisica o nella biologia. Le generalizzazioni su sui ci si<br />

appoggia sono più ristrette e meno precise di quelle delle scienze naturali, quindi<br />

meno affidabili ai fini della previsione e della spiegazione. A ragione di questo e<br />

non solo di questo, per comune ammissione, non esiste nelle scienze sociali<br />

l’unanimità che si raggiunge nelle scienze naturali. Inoltre, rispetto alle scienze<br />

naturali, le divergenze epistemologiche e metodologiche di fondo condizionano


la ricerca in un modo enormemente più rilevante rispetto alle scienze naturali.<br />

Una controversia metodologica di lunga data riguarda la stessa opportunità di<br />

prendere a modello per le scienze umane le scienze naturali mature e in<br />

particolare la scienza regina, che è la fisica. Abbiamo già visto che i<br />

neopositivisti erano accomunati dal fisicalismo, cioè dall’idea che ogni scienza<br />

era destinata a diventare un ramo della fisica. Anche le scienze umano­sociali per<br />

loro andavano quindi trattate come rami della fisica, e Neurath propose una<br />

. In primo luogo, nelle scienze umane fiscaliste non c’è<br />

posto per valutazioni del tipo buono/cattivo, giusto/ingiusto (ideale della<br />

Wertfreiheit: avalutatività, evidenziato da Max Weber) che non competono allo<br />

scienziato. In secondo luogo ­ ciò che più conta ­ non ci deve essere posto per<br />

asserti circa fenomeni per loro natura inosservabili , come le intenzioni, i<br />

ricordi, i sogni, i pensieri e le menti di altri soggetti. Ciò che è osservabile è<br />

semplicemente il comportamento: non il pensiero ma il linguaggio, non le<br />

emozioni ma gli atti in cui tali emozioni si esprimono , non i sogni ma i resoconti<br />

verbali che di questa esperienza vengono riferiti. In psicologia questo<br />

orientamento prende la forma del cosiddetto comportamentismo (Pavlov,<br />

Watson, Skinner), che consiste nell’osservare l’uomo alla stessa stregua di<br />

quanto si fa con in animali di un certo livello di intelligenza. Allo stesso modo in<br />

cui il cane manifesta certi comportamenti prodotti da certi stimoli (per esempio<br />

la salivazione in presenza del cibo) , così il bambino piccolo e l’uomo adulto<br />

hanno comportamenti comprensibili secondo lo schema stimolo­risposta, e lo<br />

psicologo non deve occuparsi di nient’altro.<br />

Ma se il comportamentismo poteva avere qualche plausibilità nello studio di<br />

individui in stato di isolamento, diventava problematico nello studio di essere<br />

umani in stato di aggregazione. La fisica, a differenza dell’astronomia, è una<br />

scienza sperimentale e deve il suo progresso al metodo sperimentale di Galileo.<br />

Un esperimento, come è noto, è un’interferenza deliberata con il corso della<br />

natura che consente di stabilire per induzione le leggi di comportamento dei<br />

corpi : lo stesso dovrebbero fare, secondo i comportamentisti, gli psicologi.<br />

Ma, mentre su un bambino possiamo compiere esperimenti come quello di<br />

Pavlov sui cani, come è possibile fare esperimenti su aggregati sociali? Al<br />

proposito si osserva che, anche se non si possono fare esperimenti di laboratorio,<br />

si possono costruire esperimenti che in qualche modo sono loro simulazioni.


Per esempio fu ideato un esperimento di laboratorio per determinare se i votanti<br />

vengano influenzati dalla conoscenza della confessione religiosa dei candidati<br />

(si crearono associazioni con membri che non si conoscevano precedentemente<br />

e si fecero elezioni a cariche interne. A metà degli affiliati venne rivelata la<br />

confessione religiosa dei candidati, all’altra metà venne nascosta; si vide che<br />

c’era una differenza significativa). Ma purtroppo non tutti i fenomeni sociali si<br />

prestano a queste esperimenti, e questo fa capire la scarsità o l’inaffidabilità delle<br />

leggi su cui può contare una disciplina come la sociologia.<br />

Un problema che è citato spesso come un ostacolo alla formulazione di leggi<br />

generali riguarda il “condizionamento culturale” dei fenomeni sociali. Per<br />

esempio il rapporto tra tasso di natalità e status sociale si può determinare con<br />

una certa precisione in una certa comunità in un certo periodo storico, ma può<br />

essere completamente diverso in comunità diverse o in periodi storici diversi.<br />

Possiamo parlare in questo caso di leggi? Salvo eccezioni, gli epistemologi<br />

concordano sul fatto che le leggi sono spazio­temporalmente invarianti.<br />

Possiamo allora dire che ci sono leggi transculturali, cioè tali da applicarsi a<br />

tutti gli aggregati sociali a prescindere dalla loro collocazione spaziale o<br />

temporale? Si è a volte sostenuto che se la funzione delle leggi è fare previsioni<br />

corrette, queste leggi non possono esserci perché non garantirebbero previsioni<br />

sicure circa ogni periodo futuro di tempo, all’opposto di come l’astronomia ci<br />

permette di predire le eclissi che avverranno tra milioni anni. Ma questo non è<br />

possibile per la mutevolezza delle società umane e di fatto, come si osserva ,<br />

previsioni esatte sono rare anche nel breve periodo. Possono esserci previsioni<br />

inesatte: p.es. si sa con certezza che la diffusione di certe notizie sui mass media<br />

–p.es. certi tipi spettacolari di crimini – producono effetti imitativi, ma non si sa<br />

prevedere la dimensione di questi, la qualità e il tempo in cui si possono<br />

verificare.<br />

Come controbiezione si potrebbe osservare che in fisica le previsioni esatte<br />

sono garantite solo dal soddisfacimento di certe condizioni che possono essere<br />

anche estremamente complesse: per esempio la costante gravitazionale nella<br />

legge di Galileo per la caduta dei gravi (s= gt2/2) non ha lo stesso valore a tutte<br />

le latitudini perché dipende dalla distanza dal centro della terra, per cui le<br />

previsioni sono esatte purchè tale valore venga reso preciso applicando la legge<br />

ai casi specifici. Questa risposta però non viene giudicata sufficiente. Ci sono<br />

infatti casi in cui le previsioni nelle scienze sociali disturbano il processo stesso


che pretendono di prevedere,e questo a ragione del fatto che nelle scienze umane<br />

il soggetto della conoscenza e l’oggetto conosciuto hanno delle interdipendenze<br />

dovute alla natura comune. Si pensi alle previsioni di borsa: se queste vengono<br />

rese pubbliche, possono disturbare l’andamento della borsa. La previsione di un<br />

crollo in borsa fatta da qualche autorevole analista potrebbe scatenare il panico e<br />

provocare esattamente ciò che esso predice (predizioni autoadempienti). In altri<br />

casi le predizioni possono essere autofalsificanti (si parla di previsioni<br />

“suicide”). Se si prevede, p. es., un aumento di azioni terroristiche in una certa<br />

area questo porterà a un aumento delle misure di prevenzione e quindi a una<br />

falsificazione della previsione stessa.<br />

Questa difficoltà riguarda non solo previsioni singole ma anche teorie<br />

complesse. Si è sostenuto per esempio che la predizione di Marx del crollo del<br />

capitalismo ha messo in moto dei processi (p.es. concessioni sindacali, misure<br />

previdenziali ecc.) che hanno disinnescato i motivi che secondo Marx avrebbero<br />

inevitabilmente provocato la fine del capitalismo stesso.<br />

Il fenomeno dell’interferenza non deve stupire perchè si riscontra in medicina,<br />

con il c.d.”effetto camice bianco”: la presenza del medico può alterare i valori<br />

della pressione in soggetti particolarmente emotivi. Si noti peraltro che gran<br />

parte delle informazioni di base in certe scienze è basato sui sondaggi o sulle<br />

interviste, e – al di là degli errori che si possono commettere solo per il fatto di<br />

usare metodi statistici errati (campioni non rappresentativi o non randomizzati) –<br />

il modo in cui il sondaggio viene eseguito (p.es. la stessa formulazione delle<br />

domande) può influenzare le risposte dei soggetti intervistati.<br />

Si può osservare che anche nelle scienze naturali si manifesta pure<br />

un’interazione tra strumento di osservazione/misura e oggetto osservato: fatto<br />

ben noto nell'investigazione del mondo sottomicroscopico (che seconda una<br />

certa scuola di pensiero spiega il principio di indeterminazione di Heisenberg)<br />

ma anche nel mondo macroscopico, in cui un termometro freddo o caldo può<br />

modificare la stessa temperatura del liquido in cui viene immerso a scopo di<br />

misurazione. Accade però che queste modificazioni o sono trascurabili o<br />

possono essere calcolate in modo esatto e invariabile, cosa che non accade nella<br />

sfera dei fenomeni sociali.<br />

Di fatto si registra un alto grado di imprevedibilità sia nei comportamenti<br />

individuali che in quelli degli organismi sociali. Per fare un solo esempio, un<br />

fenomeno ben noto e sempre osservato, soprattutto quando è in gioco


l’applicazione di utopie (p.es. l’abolizione della famiglia o della proprietà<br />

privata) è quello della controfinalità o eterogenesi dei fini: ciò che si ottiene non<br />

solo è diverso da quanto ci si propone di realizzare ma è agli antipodi di questo.<br />

Si pensi che gli ideali di libertà, eguaglianza e fraternità hanno portato al Terrore<br />

della Rivoluzione Francese e quindi a risultati esattamente opposti da quelli che<br />

si cercava di conseguire.<br />

Fin qui abbiamo dato per scontato che l’obiettivo distintivo delle scienze sia<br />

quello di garantire previsioni o retrodizioni esatte. Ma si potrebbe obiettare che<br />

vedere nella previsione l’obiettivo fondamentale della scienza è da un lato<br />

riduttivo, dall’altro troppo pretenzioso. Secondo Hempel c’è una simmetria tra<br />

spiegazione e previsione, nel senso che ogni previsione può essere convertita in<br />

una spiegazione hempeliana e viceversa (tesi della simmetria). Ma Hempel<br />

stesso ha avuto dei ripensamenti sulla tesi della simmetria. In questa sede è<br />

meglio sostenere che scopo primario della scienza non è la previsione ma la<br />

spiegazione, eventualmente fatta col senno di poi. Il crollo di Wall Street, la fine<br />

repentina del comunismo in Europa, le rivolte nel Nord Africa sono stati eventi<br />

che erano imprevisti nel momento in cui si sono verificati, ma oggi siamo in<br />

grado di darne una spiegazione più o meno convincente, così come spieghiamo a<br />

posteriori incidenti aerei che non erano umanamente prevedibili nel momento in<br />

cui si verificavano.<br />

§2 Ritornando alla questione dell’interferenza, bisogna prendere atto che, pur<br />

rendendo problematiche le previsioni, anche le interferenze sono oggetto di<br />

conoscenza e possono essere descritte entro leggi sufficientemente affidabili.<br />

Dunque si può sostenere che è possibile stabilire alcune leggi del comportamento<br />

di individui isolati e di gruppi sociali e che leggi possono essere usate , se non<br />

per la previsione, sicuramente per la spiegazione.<br />

Qui però interviene un’altra difficoltà, dovuta al fatto che le leggi in questione,<br />

e le spiegazioni che esse autorizzano, non possono essere leggi descrittive di soli<br />

comportamenti, come i comportamentisti hanno richiesto. Le azioni umane sono


mosse da intenzioni, aspettative, timori, speranze, illusioni ecc., e tali stati interni<br />

non possono osservati come si osserva la caduta di una mela dall’albero. Ma un<br />

comportamentista potrebbe anche non aderire a una forma di rozzo riduzionismo<br />

che vieti di parlare di stati interni. Allo stesso in cui “massa” e “peso” sono<br />

termini teorici che vengono agganciati al piano osservativo mediante acconce<br />

regole di corrispondenza, così termini come “”paura”, “attenzione”<br />

“ambizione”,… designano stati interni che però esistono nella misura in cui<br />

hanno delle manifestazioni osservabili. Nonostante questo garantisca un grande<br />

ampliamento di prospettive, è chiaro comunque che l’introspezione però viene<br />

esclusa come metodo di conoscenza, perché non si può ricondurre a<br />

comportamenti pubblicamente osservabili. Con buona pace degli psicoanalisti,<br />

dovremmo rinunciare a considerare, per esempio, i sogni come elementi che<br />

producono conoscenza, per il semplice fatto che ciascuno sogna sempre i propri<br />

sogni e non i sogni altrui (e tra l’altro ne diventa consapevole al risveglio, con<br />

una dubbia anamnesi).<br />

Ci sono alternative al comportamentismo più o meno liberalizzato? Un’<br />

alternativa è questa: noi possiamo capire gli eventi storici, sociali, e psicologici<br />

perché noi , in quanto uomini o donne, sperimentiamo stati interni simili a quelli<br />

degli agenti che vengono studiati. Possiamo in altre parole dire, p.es. : “se fossi<br />

stato un calvinista del 500 in un paese come l’Olanda avrei partecipato a quel<br />

fenomeno sociale descritto come capitalismo nascente” (la verità di questo<br />

controfattuale è implicita nella tesi di Weber che vede una connessione tra<br />

nascita del capitalismo e etica protestante). Non si possono, in altre parole,


capire i fenomeni umano­sociali senza una certa dose di empatia (il “mettersi nei<br />

panni degli altri”). A questo punto però si può fare a meno della spiegazione<br />

mediante leggi e puntare esclusivamente sulla comprensione dei fenomeni<br />

(Verstehen contrapposto a Erklaren).<br />

Nell’800 la distinzione tra spiegazione mediante leggi e comprensione è stata<br />

più volte teorizzata insieme alla distinzione tra scienze nomotetiche (come le<br />

scienze naturali) e scienze idiografiche (come la storiografia) che hanno come<br />

obiettivo la descrizione esauriente di fatti, o complessi di fatti, che hanno una<br />

loro fisionomia irripetibile e pertanto non possono essere soggetti a leggi. Se è<br />

difficile trovare due individui che hanno malattie simili in circostanze simili (si<br />

pensi che ci sono malattie, p.es. allergie rarissime, che colpiscono solo poche<br />

persone al mondo) a maggior ragione sarà difficile trovare situazioni storiche<br />

simili in cui accadono eventi simili (p.es. guerre o rivoluzioni). Si è a volte detto<br />

che la Rivoluzione Russa del '900 è simile a quella Francese del '700, ma è più<br />

facile trovare delle differenze tra i due fenomeni che non dei tratti comuni. Se<br />

poi dico, per esempio, “Luigi XIV morì impopolare perché fece una politica<br />

nociva per gli interessi nazionali” dove si può trovare una legge che funziona<br />

come spiegazione del fatto che Luigi XIV morì impopolare? Dovrei trovare casi<br />

simili nella storia, ma di fatto di simile a Luigi XIV c’è solo Luigi XIV.<br />

Secondo il filosofo della storia W.Dray lo schema di Hempel non si applica alle<br />

scienze umane: a suo giudizio una certa azione umana o politica si spiega solo<br />

facendo vedere che nelle date circostanze era la cosa più razionale da fare.<br />

G.H. Von Wright ha pure insistito sul fatto che il comportamento intenzionale<br />

o finalistico va compreso con metodi diversi da quelli che fanno ricorso a leggi<br />

associative o causali. Quello che von Wright chiama “sillogismo pratico” (non<br />

riducibile a schemi di ragionamento deduttivo o induttivo) ha questa forma:<br />

x intende provocare E<br />

x ritiene di non poter provocare E se non fa l’azione A<br />

x si dispone a fare A<br />

Secondo von Wright la conclusione descrive un fatto che si può conoscere solo<br />

comprendendo le intenzioni di x , e questo non si può conseguire con la semplice


osservazione del comportamento.<br />

La rinuncia alla spiegazione mediante leggi porta all'obiettivo di qualificare<br />

discipline come la psicologia, l'etnologia, l'antropologia, l'etnolinguistica come<br />

scienze idiografiche. In tal caso bisogna richiamare l'attenzione sul fatto che i<br />

ricercatori di queste discipline spesso non valutano adeguatamente la<br />

differenza tra la cultura a cui appartengono e quella dei soggetti con cui<br />

vengono a contatto: differenza che può interessare proprio l'atteggiamento dei<br />

nativi verso i metodi di indagine usati dai ricercatori (interviste, fotografie,<br />

registrazioni ecc.) nella misura in cui questi sono prodotti di una cultura<br />

estranea ai nativi stessi. Non è detto, per esempio, che gli intervistati si<br />

preoccupino di rispondere alle interviste riportando fatti reali piuttosto che fatti<br />

immaginari o mitici, dato che non condividono il presupposto culturale secondo<br />

cui l'intervistato dovrebbe attenersi all'ideale della veridicità.<br />

Come è noto, il c.d. relativismo culturale mira a depurare l' osservazione di<br />

soggetti o gruppi appartenenti a culture diverse da valutazioni di tipo<br />

etnocentrico, cioè derivate dalla cultura stessa del ricercatore. Il fatto che le<br />

discipline in questione sono in ogni caso un prodotto della cultura occidentale<br />

degli ultimi due secoli pone comunque al raggiungimento di questo obiettivo un<br />

limite strutturale, in parte esemplificato dalle difficoltà sopra esposte .<br />

§3 La storiografia è la più controversa delle discipline umano­sociali, al punto<br />

che più volte le si è negata la cittadinanza nel dominio della scienza (secondo<br />

una versione benevola, sarebbe a metà strada tra scienza ed arte). Il motivo<br />

principale di questa ripulsa è che a quanto pare non ci sono leggi propriamente<br />

storiche, e se queste si possono formulare queste vengono spesso considerate<br />

pertinenti ad altre scienze (p.es. può essere vero che periodi di costumi sessuali<br />

rilassati si succedono a periodi di costumi sessuali restrittivi, ma, se questa è una<br />

legge, può essere classificata come una legge sociologica, non squisitamente<br />

storica).La storiografica dovrebbe essere, dunque, per eccellnza, una disciplina<br />

idiografica.


Agli antipodi rispetto alla storiografia nel campo delle scienze umano­sociali si<br />

colloca l’economia, che si è sviluppata come disciplina scientifica dal tronco<br />

della filosofia nell’800, anche se il capolavoro di Adam Smith è del 1776.<br />

Rispetto ad altre discipline è stata la prima ad usare strumenti matematici anche<br />

molto complessi (che a qualcuno, come Norbert Wiener, sono sembrati un modo<br />

per camuffare la sua arretratezza rispetto alle scienze naturali).Ciò che è<br />

sembrato fin dall’inizio metterla sullo stesso piano delle scienze naturali è il fatto<br />

che l’esito di una miriade di comportamenti economici individuali volontari può<br />

tradursi in un comportamento collettivo involontario ma (p.es. un aumento<br />

generalizzato dei prezzi). In tal modo il comportamento della collettività non si<br />

può paragonare a quello dei singoli e non dipende dalla considerazione di stati<br />

interni, il che fa pensare che i fenomeni economici macroscopici siano trattabili<br />

come fenomeni naturali.<br />

Rispetto alle scienze naturali tuttavia colpisce la distanza che separa le teorie<br />

economiche dai fatti, soprattutto macroeconomici, a cui si riferiscono. Per citare<br />

le parole di Daniell Hausman, fondatore della rivista Economics and<br />

Philosophy,”con un po' di esagerazione si potrebbe concludere che l’economia<br />

contemporanea possiede tutti i segni distintivi di una scienza matura, tranne il<br />

successo empirico”. Ci sono cinque temi principali che impegnano la<br />

metodologia della scienza economica.<br />

1) Molti principi economici contengono asserzioni sul mondo dal punto di<br />

vista soggettivo di un agente individuale. E' un freno alla vera scienza?<br />

I principi centrali dell’economia (p.es. “tutti preferiscono maggiore benessere a


minore benessere”) sono inesatti, cioè devono far fronte a un numero esorbitante<br />

di controesempi. Come si può costruire una scienza in tali condizioni?<br />

Gli economisti contemporanei esitano a parlare di “teorie” o “leggi” e<br />

preferiscono operare con “modelli”.<br />

Le relazioni causali in economia sono difficili da identificare perchè i<br />

fenomeni economici sono interdipendenti. In termini di variabili, è normale<br />

essere costretti a dire che x influenza y, y influenza z, ma z influenza a volte x.<br />

Qual è il fondamento empirico della fiducia nei modelli, dato il loro scarso<br />

aggancio con i fatti?<br />

Le prime considerazioni metodologiche si trovano in Nassau Senior (1836) e J.<br />

S. Mill (1836). Mill distingue metodo a posteriori a metodo a priori. I famosi<br />

metodi di Mill per scoperta delle cause sono metodi a posteriori, ma<br />

sfortunatamente inapplicabili alla sfera economica. Il più importante di questi<br />

metodi è il Metodo della Differenza. Per sapere, per esempio, se i dazi doganali<br />

favoriscono o no lo sviluppo economico dovrei confrontare nazioni che li<br />

applicano con nazioni che non li applicano, ma non ci sono mai nazioni che sono<br />

diverse solo per questa caratteristica. Anche il ragionamento controfattuale è<br />

problematico per questo motivo. Dunque bisogna ricorrere al metodo a priori.<br />

Si fissano alcune leggi generali valide inattaccabili e le si usano per fare<br />

previsioni attendibili in circostanze date, che possono essere sbagliate senza<br />

inficiare le leggi prestabilite. In tal modo possiamo accettare l’economia come<br />

scienza inesatta e separata, cioè sviluppata ignorando deliberatamente le<br />

informazioni fornite da altre discipline. Anche se non parla di modelli, Mill<br />

prefigura l’importanza dei modelli e anticipa la metodologia degli ultimi


decenni.<br />

Questo orientamento incontrò critiche severe da economisti più o meno<br />

influenzati dal neopositivismo. P.es. Terence Hutchison negli anni ‘30 osservò<br />

che le clausole ceteris paribus che si associavano gli asserti teorici erano così<br />

numerose da rendere inapplicabili (e quindi prive di senso empirico) le teorie<br />

economiche. Negli anni 50 Fritz Machlup e Milton Friedman argomentarono che<br />

gli economisti devono predire con esattezza solo i prezzi e le quantità, cioè i dati<br />

di mercato misurabili, ignorando tutto ciò che esorbita da questi. In questo<br />

strumentalismo esasperato ogni ipotesi che non venga ricondotta<br />

all’econometria viene giudicata irrilevante. Ma questo sembra in contrasto con la<br />

prassi corrente, inclusa quella di Friedman, in cui molte ipotesi, anche nel<br />

linguaggio causale che Friedman rifiuta, vengono mantenute anche quando sono<br />

falsificate dai dati di mercato. Non c’è da stupirsi se questa pluralità di<br />

atteggiamenti ha portato a una proliferazione di studi metodologici, che<br />

occupano orami quasi una metà della letteratura economica. Seguendo la<br />

classificazione di Hausman, gli orientamenti emersi si possono classificare in<br />

quattro categorie.<br />

a) T. Hutchison e Marc Blaug (1992) hanno difeso una posizione<br />

neopopperiana. Si noti che Popper è stato considerato, non si sa se correttamente,<br />

l’alter ego filosofico dell'economista F. von Hayek. Uno dei problemi più<br />

imbarazzanti del popperismo è il fatto che normalmente una teoria h è sottoposta<br />

al tribunale dell’esperienza insieme ad altre assunzioni c1…cn, ragione per cui<br />

ciò che viene falsificato non è mai h ma la congiunzione h & c1…cn. (problema<br />

di Duhem). In economia è particolarmente difficile stabilire quali elementi di<br />

questa congiunzione sono effettivamente falsificati. Non stupisce che sia stata<br />

accolta con favore quindi la metodologia dei programmi di ricerca di Lakatos,<br />

che propone un cocktail di Popper e Kuhn , ammorbidendo i criteri di<br />

falsificazione.<br />

b) In fuga dalle difficoltà metodologiche, alcuni metodologi si sono allontanati


dalla filosofia della scienza, coltivando una “antimetodologia” : l’attenzione va<br />

alla retorica del linguaggio economico (Weintraub) e alle caratteristiche<br />

sociologiche della pratica economica (D.W. Hands). D. McClosky (1985) ha<br />

detto che gli economisti devono solo badare alla propria retorica, cioè al modo in<br />

cui si influenzano reciprocamente. è la versione economica di Rorty.<br />

c) Allo stesso modo in cui W. Salmon negli ultimi anni ha sviluppato la tesi<br />

secondo cui al di sotto dei fenomeni esistono realmente “meccanismi causali”<br />

che la scienza mira a scoprire, autori come Tony Lawson (1997) e Uskali Maki<br />

(1990) hanno teorizzato un realismo causale, che Maki riscontra nella storia del<br />

pensiero economico. N. Cartwright difende l’importanza del ragionamento<br />

causale nell’economia e nell’econometria, anche se con un atteggiamento non<br />

realista<br />

d) Un’altra corrente è quella che si rifà alla concezione strutturalista delle teorie<br />

di Suppes, Sneed, Stegmuller secondo cui una teoria scientifica non è una<br />

costruzione assomatica ma è una struttura consistente di un nucleo algebrico­<br />

matematiche associabile a un certo insieme di applicazione.<br />

Stando a Hausman pare che si rilevi una schizofrenia metodologica per cui,<br />

nonostante le varie professioni di fede, la metodologia seguita in pratica è<br />

sostanzialmente quella di Mill. Se è così, però, la metodologia che di fatto viene<br />

applicata, non quella che viene professata, è compatibile con quella delle<br />

scienze naturali avanzate, e si apre il compito di formulare esattamente una<br />

metodologia unificante.<br />

Un' area in grande sviluppo nella quale si incontrano filosofia, economia e<br />

matematica è la trattazione economica dei temi della preferenza e della scelta


trattabile nell'ambito della c.d. Teoria delle decisioni. Gli economisti adottano<br />

spesso l’idealizzazione per cui si rappresentano le credenze di un soggetto come<br />

quozienti di scommessa in condizioni di conoscenza completa o incompleta . C’è<br />

uno studio economico delle funzioni di utilità, dove l’utilità è il prodotto della<br />

probabilità del verificarsi di un evento per il guadagno ottenuto con il<br />

verificarsi dello stesso. Questi studi si saldano con i metodi della teoria dei<br />

giochi, fondata da von Neumann e Morgenstern e sviluppata da matematici come<br />

Nash. A parte la fecondità dell’interscambio tra economia e matematica su questi<br />

temi, bisogna tener conto che le strategie studiate da questi scienziati poggiano<br />

su alcune norme più o meno esplicite come : “bisogna massimizzare l’interesse<br />

atteso”, “bisogna evitare una perdita certa in un sistema di scommesse” ecc.<br />

Questo riapre una questione che inizialmente si è data per risolta accogliendo la<br />

tesi di Weber della avalutatività delle scienze umano­sociali. In economia questo<br />

problema acquista significato particolare data la sua interazione con la politica.<br />

E' quasi scontato in economia identificare il benessere con la soddisfazione<br />

delle proprie preferenze egoistiche. Apparentemente questo sembra un<br />

postulato neutro; di fatto però implica che non si ha benessere se non come<br />

perseguimento di preferenze egoistiche, il che sembra avere una connotazione<br />

valutativa in quanto esclude altre definizioni diverse di benessere che potrebbero<br />

essere plausibili in contesti politici ed etici diversi. A volte, si potrebbe<br />

sostenere, le preferenze egoistiche non sono garanzia di benessere né per sé né<br />

per altri. Si pensi a un ragazzo che vuole andare in motorino senza casco perché<br />

tale è la sua preferenza e perché è convinto che questo sia il suo vantaggio. La<br />

sua convinzione potrebbe essere falsa, anzi di fatto lo è.<br />

Va inoltre osservato che il comportamento degli uomini reali non è<br />

invariabilmente egoistico, anche se le manifestazioni di altruismo potrebbero<br />

essere risultato di un calcolo più o meno consapevole. Ci sono animali, non solo<br />

uomini, che si sacrificano per salvare la specie, e sembra che questo sia scritto<br />

nel codice genetico (incidentalmente, in contrasto con la teoria di Darwin<br />

secondo cui tutti i nostri geni sono funzionale al vantaggio individuale). Sarebbe


al proposito utile studiare il comportamento umano con l’ausilio delle scienze<br />

della vita.<br />

Nonostante le apparenze,economia sembra dunque avere dei risvolti valutativi<br />

che mancano in altre discipline umano­sociali (come la psicologia) e sono assenti<br />

dalle scienze naturali.E' un problema aperto sapere se questo aspetto<br />

comprometta o no la sua legittima aspirazione a costituirsi come scienza.<br />

[BIBLIOGRAFIA ESSENZIALE IN ITALIANO<br />

J. Hicks, Analisi causale e teoria economica, Il Mulino, Bologna, 1981<br />

E. Nagel, La struttura della scienza, Feltrinelli, Milano, 1968,cap.xiii<br />

G.H. von Wright, Spiegazione e comprensione, Il Mulino, Bologna, 1971<br />

P.Barrotta e T.Raffaelli, Epistemologia ed Economia, UTET, Torino,1998<br />

M.C.Galavotti e G.Gambetta (a cura di), Epistemologia ed economia, CLUEB,<br />

Bologna, 1988<br />

M.Weber, La metodologia delle scienze storico­sociali . Einaudi, Torino, 1958]


VII­L’INTELLIGENZA ARTIFICIALE E LA <strong>SCIENZA</strong> COGNITIVA<br />

§1. Si può iniziare con un breve excursus storico. Negli anni ‘30 un problema<br />

sentito era quello di definire rigorosamente il concetto di algoritmo, cioè<br />

(intuitivamente) di una procedura di calcolo che applicando in modo<br />

deterministico un numero finito di istruzioni dà un risultato univoco in tempo<br />

finito. Gödel per aprire la strada al suo celebre teorema definì un insieme di<br />

funzioni, dette ricorsive primitive, che rappresentavano algoritmi basilari da<br />

considerare il nocciolo della teoria della computazione, nel senso che ogni<br />

procedura di calcolo avrebbe dovuto essere definita a partire da queste.<br />

Negli anni 36­37 a Cambridge Alan Turing seguì un’altra via: quella di<br />

definire una macchina calcolatrice ideale di elementare semplicità progettata per<br />

il calcolo di funzioni aritmetiche, di cui tutte le macchine calcolatrici concrete<br />

apparissero come casi specifici.<br />

Per avere una macchina di Turing (MT) bisogna disporre di un linguaggio<br />

con un alfabeto finito di simboli che sia in grado di generare un numero<br />

infinito di formule. Queste formule, che la macchina è destinata a elaborare, sono<br />

stampate su un nastro infinito che attraversa la macchina. Il nastro è diviso in<br />

celle e la macchina esamina una cella alla volta mediante una testina sensibile.<br />

La MT può fare solo quattro cose: 1)cancellare un simbolo su una casella e<br />

scriverne un altro al suo posto; 2)muovere la testina di un posto a destra; 3)<br />

muovere la testina di un posto a sinistra; 4)fermarsi. La macchina inoltre<br />

memorizza le operazioni compiute e quindi ha stati di memoria diversi ad ogni<br />

passo.


Ogni macchina di Turing è caratterizzata dall’insieme di istruzioni che<br />

descrivono il suo programma. Queste istruzioni sono rappresentate come<br />

quadruple di forma n1­n2­n3­n4 che si leggono così: se sei nello stato di<br />

memoria n1 e leggi il simbolo n2, fai l’operazione n3 e vai nello stato n4 . Il<br />

funzionamento della macchina è deterministico: la macchina non procede per<br />

sorteggi o “a casaccio” in nessun punto del processo.<br />

In termini concreti una MT si compone di un corpo centrale che può assumere<br />

stati diversi, ha un' unità di lettura e un' unità di scrittura che possono anche<br />

coincidere, poste in modo da ispezionare le caselle del nastro illimitato, e un<br />

meccanismo in grado di spostare il nastro a sinistra e a destra di un certo<br />

numero di posizioni. Il calcolo è una successione finita di applicazioni delle<br />

istruzioni partendo da una posizione fissata.<br />

Un esempio semplice di MT è una macchina che partendo da certe formule<br />

numeriche come input calcola come output il valore delle usuali funzioni<br />

aritmetiche (addizione, moltiplicazione ecc). Quando un problema è risolto –cioè<br />

quando è stato calcolato il valore della funzione­ la MT si ferma, mentre la<br />

mancata fermata (il preseguire all’infinito) indica la mancata soluzione del<br />

problema.<br />

La c.d. tesi di Church­Turing afferma che ogni funzione algoritmica (funzione<br />

ricorsiva) è calcolabile da una macchina di Turing e, viceversa, ogni funzione<br />

Turing­calcolabile è una funzione algoritmica. In particolare, ogni computer<br />

costruibile è un esempio particolare di macchina di Turing. Questa tesi (che ha la<br />

forma di una congettura) nonostante gli sforzi per trovare dei controesempi, è<br />

considerata ancor oggi valida.<br />

Secondo un punto di vista diffuso, le operazioni di un uomo che calcola si<br />

possono pensare come operazioni eseguibili da una macchina di Turing. Cosa<br />

implica questo asserto? Si vuole dire che il pensiero umano è meccanizzabile?<br />

Oppure, conversamente, che tutti i calcolatori si possono considerare come<br />

oggetti “pensanti” di tipo speciale? Possiamo dire sensatamente che le<br />

macchine pensano? Turing a questo proposito suggeriva un test (test di Turing)<br />

mirante a stabilire se una macchina può imitare un uomo al punto di ingannare<br />

un interrogante che non sappia se l’autore di una certa performance è un uomo<br />

o una macchina. Turing era ottimista sul futuro della computer science; riteneva<br />

infatti che nel giro del XX secolo il 70% della macchine avrebbero superato il<br />

test di Turing. Tale ottimismo può dirsi incoraggiato del fatto che oggi ci sono


macchine scacchiste in grado di battere grandi campioni.<br />

Ma il teorema di Gödel, secondo molti, suggerisce che esistano operazioni<br />

razionali della mente umana che non sono rappresentabili in termini meccanici.<br />

Nel 1938 Alonzo Church dimostrava che la logica dei quantificatori non è<br />

decidibile, e cioè che c’è un numero arbitrariamente grande di formule di cui non<br />

possiamo dire in linea di principio se sono o meno teoremi del calcolo. La logica<br />

assiomatizzata di Frege quindi non è in grado di risolvere in modo meccanico<br />

tutti i problemi esprimibili nel linguaggio. Il teorema di Church afferma che non<br />

è in linea di principio possibile costruire una macchina che risponda a tutte le<br />

domande esprimibili in linguaggio logico, il che sembra comportare una<br />

limitazione intrinseca alle capacità delle macchine di Turing.<br />

La macchina di Turing non è in grado di calcolare tutte le funzioni possibili,<br />

come è chiaro da una semplice considerazione. Ciò che è interessante è che la<br />

definizione astratta data della macchina di Turing consente di identificare una<br />

speciale macchina di Turing, detta Macchina di Turing Universale (MTU), che<br />

“simula”, per così dire, le altre macchine di Turing. Infatti, dato che ogni<br />

macchina di Turing è identificata dall’insieme delle sue istruzioni ( che sono<br />

quadruple di simboli), tali insiemi di istruzioni possono essere rappresentate<br />

univocamente da un numero naturale , e così diventare elementi dell’input della<br />

MTU. Questo vuol dire che la MTU può anche parlare di se stessa, e acquista le<br />

virtù dell’autodipendenza o autoriferimento. Incappa quindi in difficoltà tipo<br />

quella del mentitore. Poniamole questo semplicissimo problema:<br />

“Non ti fermerai? ”. I casi sono due: o la macchina si ferma o non si ferma. Se<br />

la macchina si ferma, risponde affermativamente alla domanda , e se non si<br />

ferma , risponde negativamente alla stessa domanda. Quindi se si ferma vuol<br />

dire che è vero che non si ferma e se non si ferma vuol dire che è falso che non<br />

si ferma, quindi è vero che si ferma. Questo è il tipico esempio di un problema<br />

insolubile, cioè di una funzione non computabile.<br />

Questo risultato faceva fallire da un lato il sogno leibniziano di trovare una<br />

macchina che risolva tutti i problemi, dall’altro gettava ombra su alcune vecchie<br />

teorie filosofiche, come quella di Hobbes, secondo cui pensare è calcolare.<br />

Quando Hobbes scriveva, non c’erano né macchine sviluppate né una<br />

psicologia sviluppata né una logica sviluppata. Ma tutti gli elementi per<br />

un’analisi scientifica (extrafilosofica) della mente cominciavano ad essere<br />

abbondantemente disponibili negli anni 80. Non c’è da stupirsi se nasceva in


questi anni un filone di studi sulla natura della mente umana che si collocava a<br />

cavallo tra la filosofia tradizionale e altre discipline che in modi diverse<br />

studiavano la mente. Negli anni 80­90 la continua interazione tra le discipline<br />

che entravano in gioco nella c.d. “philosophy of mind” diventava così complessa<br />

da configurare una disciplina autonoma, a cui è stato dato il nome di scienza<br />

cognitiva. Altri preferiscono parlare di scienze cognitive (al plurale) perché al<br />

momento questa disciplina si presenta ancora come un accorpamento di diverse<br />

discipline integrate, in particolar modo la linguistica, la filosofia, la psicologia<br />

cognitiva e naturalmente l’informatica. Non manca l’apporto di discipline a<br />

carattere tecnologico come la robotica. L’elemento unificante della scienza<br />

cognitiva consiste nel concepire i processi mentali come fatti computazionali e<br />

nella visione naturalistica della mente. I confini tra i vari settori non sono netti :<br />

ciò che conta è la sinergia interdisciplinare. Basti pensare al modo in cui la<br />

robotica ha influenzato gli studi sulla percezione visiva grazie alla creazione di<br />

apparecchi e protesi.<br />

Può essere utile ritornare alla già vista influenza del neopositivismo sulla<br />

psicologia, che ha portato allo sviluppo del comportamentismo, che riduceva<br />

inizialmente ogni fenomeno alla coppia stimolo­risposta. Come abbiamo visto, il<br />

comportamentismo liberalizzato ammetteva l’uso di termini teorici per dare un<br />

senso agli stati interni. Nel 1948 Tolman, per render conto del comportamento<br />

dei topi nei labirinti, introduceva la nozione di mappa cognitiva dell’ambiente,<br />

cioè di qualcosa che va oltre il comportamento osservabile e al meccanismo<br />

stimolo­risposta. In quegli anni cominciò ad affermarsi l’idea della mente<br />

come sistema di elaborazione di informazioni, per cui le entità teoriche<br />

descrivevano stati di un dispositivo di calcolo: è chiaro che la tesi di Church­<br />

Turing, nonostante i limiti visti, suggeriva fortemente la costruzione di modelli<br />

meccanici per ogni forma di calcolo anche non numerico , suggerendo una<br />

concezione computazionale della mente Si noti : a) che l’impostazione<br />

computazionale consente di sviluppare una nozione di mente compatibile con<br />

la visione fisicalista del mondo. b)che i programmi implementati nei<br />

calcolatori digitali possono funzionare come simulazione di processi cognitivi.<br />

Si noti che le spiegazioni computazionali della mente si allontanano dallo<br />

schema di Hempel­Oppenheim. Un algoritmo o un programma non coincidono<br />

con insiemi di leggi nel senso di Hempel. Siamo di fronte a modelli della<br />

mente,e bisognerebbe quindi ampliare la concezione della spiegazione in modo


da dare legittimità all’idea di spiegazione mediante modelli.<br />

Da queste idee si sviluppava molto naturalmente il cosiddetto funzionalismo<br />

(legato in particolare al nome di H.Putnam) secondo cui ciò che identifica gli<br />

stati computazionali non è il supporto fisico (hardware), ma il rapporto degli<br />

stati tra loro. Quindi la mente si può pensare non come una sostanza materiale<br />

ma come base delle relazioni mentali tra stati fisici. Questo è diventato il punto<br />

di vista “ufficiale” delle scienze cognitive, banalizzato nello slogan:<br />

mente:software = cervello :hardware.<br />

E' ovvio che, alla luce dei limiti visti della tesi di Turing, ci sono state<br />

opposizioni a questo punto di vista, che –per usare un vecchio linguaggio ­ nega<br />

l’irriducibilità dello spirito alla materia. J.R.Lucas e R.Penrose hanno utilizzato il<br />

teorema di Gödel per contrastare l’idea che la mente sia rappresentabile come un<br />

computer. “C’è una formula che non è dimostrabile meccanicamente ma che noi<br />

possiamo vedere essere vera”, dice Lucas. Ma secondo i funzionalisti ci sono<br />

degli equivoci su questo punto. Il teorema di Gödel in effetti può essere inteso<br />

in due modi:1)dimostra che questo enunciato esiste indipendentemente dalla<br />

mente umana oppure ­ 2) dimostra che per ogni teoria coerente e completa esiste<br />

un algoritmo che genera un enunciato che è vero nel modello dei numeri naturali<br />

ma non è dimostrabile. (Questo presupponendo la tesi di Church che identifica<br />

funzioni ricorsive e funzioni Turing­calcolabili). Se è così, il procedimento di<br />

generazione dell’enunciato in questione è in definitva meccanizzabile, contro<br />

quanto sostiene Lucas.<br />

Torniamo dunque alla plausibilità del concepire la mente umana come un<br />

computer . Come si vede leggendo il celebre “Gödel, Escher, Bach” di<br />

Hofstadter, questo è il punto di vista quasi ufficiale su questo argomento. Eppure<br />

i dubbi sono legittimi e vanno presi in considerazione.<br />

Per tornare a un punto connesso: si vuole allora dire che le macchine pensano?<br />

Una volta qualcuno chiese a McCarthy – l’inventore dei linguaggi di<br />

programmazione LISP ­ se un termostato avesse credenze. Lui rispose sì. Le<br />

credenze sono “qui fa troppo freddo “, “qui fa troppo caldo”, “qui si sta bene”.<br />

Ci sono due argomenti, quello della Terra Gemella di Hilary Putnam e quello<br />

della Stanza Cinese di Ronald Searle, che sono stati elaborati per criticare la<br />

tesi che gli stati mentali sono stati computazionali.<br />

Terra Gemella. Immaginiamo un pianeta gemello della terra in cui tutto è come


da noi salvo che l’acqua non è H 2 0 ma qualcos’altro (ossido di deuterio). Un mio<br />

gemello identico vuole bere acqua simultaneamente a me nella terra gemella.<br />

Siamo ambedue nello stesso stato computazionale, ma non nello stesso stato<br />

mentale, perché il contenuto dei due stati è differente e potremmo essere delusi<br />

bevendo deuterio anziché acqua.<br />

Stanza Cinese. L’informatico Roger Schank ha creato programmi progettati per<br />

simulare la lettura e la comprensione di una storia. R. Searle nega che la<br />

macchina comprende e risponde alle domande sula storia. Immaginiamo un<br />

soggetto chiuso in una stanza che ignora il cinese ma riceve dei messaggi in<br />

cinese , riceve un foglio di domande in cinese e dispone di un insieme di regole<br />

per produrre scritti cinesi in risposta al secondo foglio. Lui si comporta<br />

esattamente come un computer, e supera il test di Turing senza capire nulla. Se<br />

le macchine pensano, mancano dei poteri causali della mente che assicurano la<br />

caratteristica ritenuta distintiva dell'attività mentale umana, che nella tradizione<br />

filosofica ( scolastica medioevale, Brentano, Husserl) si chiama intenzionalità.<br />

La psicologia del senso comune è quel corpo di conoscenze e di<br />

generalizzazioni che si basa sull’attribuzione di credenze e desideri a se stessi e<br />

agli altri, con lo scopo di spiegare i comportamenti umani.<br />

La cosiddetta TCRM (Teoria Computazionale Rappresentazionale della<br />

Mente) proposta da J. Fodor si propone come una mediazione tra il<br />

funzionalismo del primo Putnam e psicologia del senso comune. L’idea di Fodor<br />

è che pensare vuol dire manipolare un linguaggio speciale , il mentalese<br />

(linguaggio della mente): p.es. credere che p significa avere nella mente una<br />

certa proposizione del mentalese che sta in certi rapporti definiti con altre<br />

proposizioni del mentalese.


Avverso a Fodor è l’eliminativismo: una forma moderna del materialismo e<br />

del comportamentismo, ma compatibile con il funzionalismo, che ritiene che la<br />

psicologia del senso comune sia sbagliata e vada eliminata in una scienza matura<br />

(Patricia Churchland).<br />

Il dibattito sulle immagini mentali ­ essenzialmente pittoriche per alcuni,<br />

essenzialmente proposizionali per altri­ illustra significativamente gli sviluppi<br />

della scienza cognitiva. Solo nel 1996 questa controversia filosofica venne<br />

corroborata con dati derivati dalle neuroscienze (Kosslyn). Nello stesso tempo le<br />

neuroscienze si avvicinavano alle scienze cognitive, dando vita alle neuroscienze<br />

cognitive. Negli anni 80 c’ è stato un revival di modelli connessionisti, in cui ci<br />

si allontanava dai modelli computazionali tradizionali per introdurre modelli<br />

computazionali ispirati all’architettura neuronale. L’interazione tra scienze<br />

cognitive e scienze biologiche è tuttora in pieno sviluppo.<br />

Una tendenza emersa negli ultimi due decenni riguarda anche l’influenza di<br />

fattori ambientali (sociali ma anche fisici e biologici); si parla di “cognizione<br />

situata”, che riguarda anche la percezione derivata dall’ambiente. L’accento in<br />

questo caso è più sulla ricezione che sull’ elaborazione; si guarda al<br />

comportamento reattivo di animali molto semplici, come p.es. gli insetti, per<br />

costruire robot (etologia cognitiva di Wilson e Keil,1999).<br />

Accanto allo scambio interdisciplinare con la biologia e la zoologia abbiamo<br />

anche l’interazione con l’antropologia. Il relativismo culturale degli anni 60­70<br />

è stato chiaramente marginalizzato in quanto le scienze cognitive presuppongono<br />

l’invarianza della mente umana rispetto ai fattori ambientali: valga al proposito<br />

la tesi Chomskiana del carattere innato delle facoltà linguistiche. C’è stata una<br />

ripresa del concetto, considerato fuori moda, di natura umana. Sulla stessa onda


si possono considerare le spiegazione evoluzionistiche dei comportamenti<br />

cognitivi e si possono sviluppare anche modelli computazionali del processo<br />

evolutivo (evolutionary computation e vita artificiale).<br />

Si è avuto anche una ripresa di interesse per la coscienza e per le emozioni,<br />

categorie dimenticate o trascurate nella fase iniziale. Si distingue tra coscienza<br />

cognitiva e coscienza fenomenica. La seconda riguarda la capacità di un agente<br />

di accedere ai propri stati qualitativi (qualia: “i modi in cui le cose ci<br />

sembrano”), mentre la prima riguarda la capacità di rappresentare gli stati<br />

mentali ai fini della pianificazione delle proprie azioni.<br />

Dal punto di vista metodologico, la coscienza cognitiva non è problematica.<br />

Uno stato mentale è sempre caratterizzato dalle sue relazioni funzionali con gli<br />

altri stati mentali, catturabili con gli strumenti del paradigma funzionalista. La<br />

coscienza fenomenica invece sembra essere una proprietà intrinseca dello stato<br />

stesso, irrelato con gli altri ( questo sembra evidenziato da esperimenti mentali<br />

come quello della stanza cinese). La sperimentabilità “in prima persona” è un<br />

problema che riguarda qualsiasi spiegazione scientifica della mente. Thomas<br />

Nagel nega che in terza persona si possa cogliere il fenomeno della coscienza, e<br />

secondo Colin McGinn c’è un’impossibilità di principio per la mente umana di<br />

comprendere il fenomeno della coscienza e a fortiori di spiegarlo. Sembra quindi<br />

sfuggire alle prese della scienza cognitiva. Si fa valere al proposito l’approccio<br />

del materialismo eliminativista di Churchland , mentre secondo Daniel Dennett,<br />

oggi esponente di spicco del funzionalismo, quello che chiamiamo coscienza<br />

fenomenica è un coacervo di fenomeni eterogenei che di fatto non esiste, anche<br />

se ciò rende difficile capire come sia sperimentabile in prima persona.<br />

Dunque il funzionalismo sembra nonostante tutto il paradigma dominante nella<br />

scienza cognitiva. Ma ritorniamo a valutare le alternative proposte al modello<br />

della mente come macchina di Turing. Negli ultimi anni è nata una nuova<br />

nozione di computazione non­ Turing.<br />

Gödel ha sostenuto a più riprese che la tesi di Turing secondo cui la mente è<br />

rappresentabile come una TM è non conclusiva in quanto viene tralasciato il<br />

fatto che la mente non è un oggetto statico ma in costante sviluppo. La rilevanza<br />

attribuita alle osservazioni di Gödel dipende dall’indiscussa autorità di Gödel<br />

stesso. Gödel coglie un aspetto di particolare rilevanza: nel comprendere e<br />

nell’usare termini astratti entrano in gioco termini sempre più astratti. Sebbene a


ogni stadio il numero dei termini astratti possa essere finito (e anche il numero<br />

degli stati mentali distinti, come asserisce Turing), nel corso dell’applicazione<br />

della procedura esso potrebbe convergere all’infinito: qualcosa del genere<br />

sembra accadere nel processo di formazione di assiomi dell’infinito sempre più<br />

forti nella teoria degli insiemi o nella costruzione della gerarchia dei numeri<br />

transfiniti di Cantor.<br />

Gödel sembra ritenere che questa procedura mentale non sia una procedura<br />

meccanica, e non possa essere eseguita da un automa finito. Sembrano quindi<br />

che possano esserci forme di intelligenza “non computazionale”, che vanno oltre<br />

le procedure meccaniche finite di Turing. Nello stesso tempo, come abbiamo già<br />

osservato a proposito di Lucas e Penrose, non si può negare un carattere<br />

algoritmico a procedure siffatte.<br />

Se è così chiediamoci:<br />

i. Come descrivere il carattere di queste forme di intelligenza non meccanica?<br />

ii. I processi mentali che vanno oltre le procedure meccaniche presentano una<br />

forma di calcolo che va oltre una computazione meccanica effettiva?<br />

iii. Come possiamo rimpiazzare la dicotomia “calcolo meccanico /non<br />

meccanico” con la descrizione di procedure di maggiore generalità che includano<br />

sia la computazione meccanica sia quella non meccanica?<br />

Secondo Gödel dunque alcune procedure mentali eseguite dalla mente umana<br />

non soddisfano le condizioni di finitezza e determinazione richieste dall’analisi<br />

di Turing sull’esecuzione di procedure meccaniche. L’ipotesi di Gödel avvalora<br />

la tesi secondo cui ci possono essere funzioni calcolabili ma non Turing­<br />

computabili, il che farebbe pensare all’ abbandono della tesi di Church­Turing.<br />

In base a quant già detto, un primo esempio di tale sorta di funzioni sarebbe<br />

costituito da una funzione calcolabile dalla mente umana tramite una procedura<br />

che comporta l’uso di termini astratti in base al loro significato, funzione che non


può essere computata mediante una procedura puramente meccanica. Se si<br />

potesse esibire chiaramente una simile funzione, il risultato sosterrebbe una tesi<br />

anti­algoritmica e anti­meccanica sulla mente umana. Si tratterebbe infatti di una<br />

funzione che è definibile costruttivamente, computabile dalla mente umana, ma<br />

non sarebbe Turing­computabile.<br />

La tesi di Turing secondo cui ciò che può essere calcolato da un essere umano<br />

idealizzato che segua una routine di passi elementari è MT­computabile<br />

potrebbe essere affinata precisando la nozione stessa di calcolatore. Di qui la tesi<br />

di Robert Gandy secondo cui “ciò che può essere calcolato da un dispositivo<br />

meccanico deterministico è computabile”. Si tratta di una generalizzazione della<br />

tesi di Turing, in cui i meccanismi considerati hanno limitazioni di carattere<br />

fisico: una condizione di finitezza (un limite inferiore) sulle dimensioni delle<br />

componenti elementari (o atomiche) e una condizione di località, cioè un limite<br />

superiore sulla velocità di propagazione dei segnali, la velocità della luce. Un<br />

passo oltre le macchine ideali di Gandy sono i ‘calcolatori quantistici’. Sembra<br />

allora ragionevole spingersi fino alla tesi più generale secondo cui “ciò che può<br />

essere calcolato da un dispositivo fisico (deterministico o indeterministico) è<br />

computabile”.<br />

Un calcolatore quantistico, essendo un dispositivo fisico in grado di eseguire<br />

algoritmi quantistici che non hanno analogo classico, potrebbe rappresentare un<br />

nuovo modello di algoritmo. Con questo ci spingiamo alle frontiere della<br />

ricerca, perché i calcolatori quantistici stanno attualmente passando dalla fase di


progettazione a quella concreta. Il vantaggio dei calcolatori quantistici è la loro<br />

impressionante velocità, dato che lavorano in parallelo e non linearmente. Il poco<br />

che si può dire circa il rapporto con la mente umana si condensa in una<br />

congettura di Roger Penrose: “Il comportamento non computazionale del<br />

cervello umano potrebbe dipendere da fenomeni di tipo quantistico”.<br />

Restano aperti diversi interrogativi collaterali:<br />

a)Un calcolatore quantistico è ancora una macchina di Turing? Secondo Deutsch,<br />

dal momento che tutti i processi paralleli possono essere in linea di principio<br />

linearizzati, non si fuoriesce comunque da quanto enunciato dalla tesi di Church­<br />

Turing.<br />

b) Ci sono aspetti non computazionali nel pensiero umano: si tratta di fenomeni<br />

non computazionali quantistici ?<br />

c) Un sistema fisico quantistico è simulabile da un computer quantistico?<br />

Finora non abbiamo accennato al fatto che tra gli aspetti non computazionali<br />

del pensiero umano dobbiamo porre un aspetto che secondo alcuni è ciò che<br />

caratterizza la specie umana dalle altre specie animali: la creatività. Non è<br />

azzardato dire che il tema della creatività è quello su cui tutte le concezioni<br />

computazionaliste della mente hanno dovuto misurarsi, con esiti la cui<br />

importanza oggi non è facile da valutare..<br />

§ 3 . La centralità acquistata dalla scienza cognitiva è dovuta al fatto che l’<br />

informatica è diventata la disciplina trainante nei confronti delle cosiddette<br />

scienze formali e in parte della stessa fisica. Si può addirittura sostenere che<br />

l’informatica ha cambiato il volto della stessa filosofia. Dobbiamo a Paul<br />

Thagard la nascita della cosiddetta filosofia computazionale.


Da un lato, la presenza del WorldWideWeb è una novità di un certo rilievo<br />

perché mette a disposizione degli utenti un’enciclopedia illimitata, e questo<br />

vale anche per tutto il materiale filosofico. Ogni filosofo americano oggi ha una<br />

sua pagina personale e mette in rete i propri lavori scavalcando la distribuzione<br />

di materiale cartaceo. Ci sono insegnamenti “virtuali” di filosofia ecc. Ma il<br />

problema è sapere qual è il contributo effettivo che l’informatica ha dato alla<br />

discussione filosofica. I computers, per quanto in sè siano perfettamente stupidi,<br />

sono programmati per fare cose che gli uomini non possono fare, o almeno non<br />

possono fare con la stessa velocità e lo stesso grado di infallibilità. Prescindendo<br />

dalle questioni poste dalla scienza cognitiva, i computers simulano la mente<br />

umana e pertanto presentano elementi nuovi per la valutazione di classiche<br />

questioni filosofiche.<br />

Pensiamo ad alcuni problemi squisitamente metodologici, per esempio al<br />

problema dell’abduzione. Come si ricorderà, l’abduzione è un tipo di inferenza<br />

ampliativa (un tempo confusa con l’induzione), che consente in passare<br />

dall’explanandum all’explanans, cioè da ciò che si deve spiegare ai dati<br />

esplicativi. I dati esplicativi possono essere leggi ( come le leggi di Keplero,<br />

che spiegano le varie posizioni dei pianeti) oppure fatti singolari che nel caso<br />

più comune offrono una spiegazione causale dell' explanandum . L’ inferenza<br />

abduttiva è l’inferenza alla miglior spiegazione e spesso viene classificata in due<br />

tipi: abduzione creativa (che crea le ipotesi esplicative) e abduzione selettiva<br />

(che seleziona tali ipotesi). L' abduzione selettiva è basata, si ritiene, su metodi<br />

razionali dominabili: si sceglie l’ipotesi più economica, più informativa ecc. ,


oppure si applica quello strumento prezioso che è il teorema di Bayes, per cui<br />

conoscendo il valore probabilistico di E dato C (Pr(E|C)), di E e di C si può<br />

calcolare la probabilità di C dato E Pr(C|E)) e la si può confrontare con Pr(C'|<br />

E), Pr(C”|E) ecc. con l'obiettivo di scegliendo l'ipotesi più probabile.<br />

L’abduzione creativa è stata in genere considerata intrattabile con metodi<br />

formali, essendo ritenuta oggetto della psicologia della ricerca. Tuttavia a<br />

partire dagli anni 80 l’ingegneria ha offerto degli automi in grado di compiere<br />

scoperte, o almeno di simularle. DENDRAL (1980) scopriva la struttura<br />

molecolare del campione avendo come input i dati spettroscopici e<br />

METADENDRAL scopriva qualcosa di più: le regole che spiegano il processo di<br />

frammentazione dei campioni. Il programma BACON 1 ha ri­scoperto la terza<br />

legge di Keplero, la legge di Ohm e la legge di Boyle ­Mariotte con una<br />

procedura data­driven, cioè confrontando le formule con i dati empirici assunti<br />

come inputs.<br />

Nei suddetti programmi l'elaborazione partiva comunque da un insieme di dati<br />

scelti dal programmatore. In effetti sembra ci sia una contraddizione nell’idea<br />

stessa di un automa creativo, non diversamente da come sembra ci sia una<br />

contraddizione nell’idea stessa di un automa che produce sequenze casuali<br />

(random sequences): come può esserci un insieme di regole per produrre una<br />

sequenza che per definizione è irregolare? Ma la cosiddetta Intelligenza<br />

Artificiale (AI) non poteva non raccogliere anche questa sfida. Già nel 1987<br />

venivano implementati programmi in grado di simulare le scoperte scientifiche<br />

usando come spazio di ricerca tutte le possibile formule esprimenti correlazioni


tra variabili I tentativi in questa direzione sono ormai oggetto di copiosa<br />

letteratura. Può essere utile ricordare qui che ci sono risultati recentissimi anche<br />

per le scoperte che ormai vengono spesso chiamate serendipiane. Che significa?<br />

Una scoperta è serendipiana quando è stata ottenuta in modo preterintenzionale,<br />

quando cioè il ricercatore era alla ricerca di qualcos’altro o addirittura di<br />

qualcosa di opposto (v. scoperta della penicillina da parte di Pasteur). In questi<br />

casi è chiaro che la scoperta è impossibile senza l’intuito e le genialità del<br />

ricercatore stesso.<br />

Campos e Figueiredo (2002) hanno realizzato un software, MAX, che per<br />

quanto non crei ipotesi serendipiane è uno strumento per la serendipidità. Per<br />

cogliere il punto, si pensi alla distinzione tra la ricerca di informazione in<br />

Internet guidata da uno scopo preciso ­ come si fa normalmente usando un<br />

motore di ricerca ­ e il “navigare in Internet” a casaccio, che offre il terreno<br />

fertile per la scoperta serendipiana. MAX si propone di offrire stimoli<br />

interessanti e inattesi al ricercatore: il Modulo di Formulazione di Suggerimenti<br />

di MAX ha come scopo la ricerca deliberata di occasioni per il lateral thinking.<br />

Il programma è in grado di definire una misura di somiglianza tra documenti, in<br />

modo da assemblare documenti divergenti. Gli autori concludono che “fare<br />

programmi per la serendipità è possibile”.<br />

Le procedure informatiche entrano in gioco a diversi stadi della ricerca<br />

abduttiva. In primo luogo, anche se non sono in grado di produrre un ventaglio di<br />

ipotesi che sia automaticamente candidato al successo, sono in grado di produrre<br />

combinatoriamente, sulla base di informazioni predeterminate, un numero


estremamente alto di ipotesi, e in ogni caso più alto di quello che qualsiasi<br />

operatore umano è in grado di formulare. In secondo luogo sono in grado di<br />

individuare ipotesi logicamente equivalenti e di scegliere, a parità di contenuto,<br />

quelle sintatticamente più semplici semplificando il repertorio delle ipotesi di<br />

base. In terzo luogo, sono in grado di calcolare rapidamente le conseguenze delle<br />

ipotesi assunte e di eliminare le ipotesi in conflitto rispetto ai dati empirici con<br />

una velocità non consentita all’operatore umano.<br />

Il ruolo della creatività umana non è stato finora messo in discussione dalla<br />

programmazione abduttiva: anche perché qualunque programma si possa<br />

scrivere per il più sofisticato dei computers è, in ultima analisi, un prodotto della<br />

stessa creatività umana.<br />

[BIBLIOGRAFIA ESSENZIALE IN ITALIANO<br />

R.Cordeschi e V.Somenzi (a cura di) La filosofia degli automi, Boringhieri,<br />

Torino 1986<br />

D. R Hostadter, Gödel , Escher, Bach, Adelphi ,Milano, 1985<br />

L.Magnani, Ingegnerie della conoscenza. Introduzione alla filosofia<br />

computazionale, Marcos y Marcos, Milano, 1997<br />

D. Marconi, Filosofia e scienza cognitiva, Laterza,Bari,2001.<br />

S.Nannini, L’anima e il corpo. Un’introduzione storica alla filosofia della<br />

mente, Laterza, Bari, 2002<br />

P.Thagard, La mente. Introduzione alla scienza cognitiva (a cura di L. Magnani),<br />

Guerini, Milano, 1996]

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!