CLAUDIO PIZZI LEZIONI DI FILOSOFIA DELLA SCIENZA a. a. 20102011
CLAUDIO PIZZI LEZIONI DI FILOSOFIA DELLA SCIENZA a. a. 20102011
CLAUDIO PIZZI LEZIONI DI FILOSOFIA DELLA SCIENZA a. a. 20102011
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
<strong>CLAU<strong>DI</strong>O</strong> <strong>PIZZI</strong><br />
<strong>LEZIONI</strong> <strong>DI</strong> <strong>FILOSOFIA</strong> <strong>DELLA</strong> <strong>SCIENZA</strong><br />
a. a. <strong>20102011</strong>
I. IL POSITIVISMO LOGICO.<br />
§1. Dell' epistemologia contemporanea, a differenza che di altre discipline, si<br />
può indicare una data di nascita abbastanza precisa, il 1925. In quest’anno un<br />
fisico viennese di grande cultura filosofica, Moritz Schlick (18821936),<br />
cominciò a usare il salotto di casa sua per ospitare un gruppo di discussione a<br />
cui partecipavano colleghi della generazione più giovane, di varia estrazione<br />
culturale. Al centro di molte discussioni erano le idee contenute in un testo di<br />
recente pubblicazione, il Tractatus LogicoPhilosophicus. L’autore di questo<br />
testo atipico, che si presentava come una serie di aforismi numerati, era un<br />
giovane viennese, rampollo di una ricchissima e blasonata famiglia, Ludwig<br />
Wittgenstein. Partito volontario per la Prima Guerra Mondiale, Wittgenstein era<br />
stato fatto prigioniero dagli italiani a Monte Cassino, riuscendo però a<br />
completare il manoscritto nella forma che sarebbe diventata definitiva.<br />
E' singolare che l’autore del libro che era al centro di tanto interesse non<br />
abbia mai preso parte alle riunioni del circolo pur mantenendo i contatti con<br />
alcuni esponenti come Friedrich Waismann. Questo si può spiegare con la<br />
scontrosità del suo carattere, ma bisogna anche tener conto che Wittgenstein.<br />
riteneva di non aver niente da aggiungere a quanto scritto nel suo libro, con cui<br />
pensava di aver risolto in modo definitivo tutti i problemi principali della<br />
filosofia. Al termine di questa impresa filosofica, come lui stesso dichiarava alla<br />
fine della sua trattazione, non poteva esserci altro che il silenzio.<br />
Le riunioni del circolo – che prese il nome di Ernest Mach Verein – erano
molto animate. I filosofi nel senso tradizionale del termine erano per lo più<br />
assenti ma partecipavano matematici come Hans Hahn e saltuariamente Kurt<br />
Gödel (che era boemo), sociologi come Otto Neurath e Felix Kaufmann, fisici<br />
come Philipp Frank.<br />
Nel 1926 Rudolf Carnap (18911970), che era docente a Jena, fu chiamato<br />
all’Università di Vienna. Il contributo di Carnap, che sarebbe diventato in<br />
seguito la figura più importante del movimento, fu importante anche per la sua<br />
capacità di mantenere i contatti con gli ambienti tedeschi. Con qualche anno di<br />
ritardo infatti a Berlino si era costituito un circolo ispirato alle stesse idee, i cui<br />
maggiori esponenti furono Hans Reichenbach (18911953), Carl Gustav Hempel<br />
(19031992), Richard von Mises (18851953), Walter Dusbislav(18951937).<br />
Nel giro di pochi anni circoli analoghi vennero aperti in Polonia (circolo di<br />
Leopoli – Varsavia), in Inghilterra, dove aveva lasciato il segno la lezione di<br />
Russell, e in seguito negli Stati Uniti dove emerse rapidamente la figura di<br />
W.V.O. Quine.<br />
§2. La corrente di pensiero che nasceva in questo modo è stata battezzata in vari<br />
modi : positivismo logico, neopositivismo, neoempirismo, empirismo logico,<br />
empirismo scientifico. Comunque lo si voglia chiamare, è unanime il<br />
riconoscimento che le personalità che lo costituivano erano di statura eccezionale<br />
e che altrettanto eccezionale fu la svolta che riuscì a imprimere alla riflessione<br />
sulla scienza. Tanto per cominciare un punto caratterizzante della nuova corrente<br />
di pensiero è che la filosofia non doveva essere concepita come un corpo di<br />
dottrine o di principi ma come un’attività. Scopo di questa attività doveva essere
l’ analisi logica del linguaggio, cioè l’analisi del linguaggio compiuta mediante<br />
lo strumento della logica. Oggetto primario della ricerca erano le nozioni basilari<br />
della scienza (legge, teoria, esperimento, …), che venivano sottoposte ad un<br />
esame che Carnap chiamava di esplicazione. Una nozione vaga e intuitiva<br />
espressa nel linguaggio ordinario,p.es di teoria o di probabilità, doveva essere<br />
esplicata, e cioè rimpiazzata da un suo sostituto rigoroso espresso entro un<br />
linguaggio ideale, esente dalle impurità del linguaggio ordinario. Lo strumento<br />
per condurre questa attività esplicativa era una scienza rigorosa che era stata<br />
fondata pochi decenni addietro da matematici come Boole, Frege e Russell, la<br />
logica matematica. Dunque qui vediamo un altro elemento di novità. Per quanto<br />
fosse una metascienza, essendo un’ attività esercitata mediante metodi scientifici,<br />
la filosofia così intesa si proponeva essa stessa come una scienza.<br />
Non c’è dubbio che l’origine del nocciolo di questa idea sia stato il Tractatus<br />
di Wittgenstein. Vediamo dunque per sommi capi che cosa si trova in questo<br />
classico della filosofia. Apparso negli Annalen der Naturphilosophie di Ostwald<br />
nel 1921 e poi in inglese nel 1922 con introduzione di Bertrand Russell, il<br />
Tractatus consta di una serie di aforismi seguiti da commenti e sottocommenti<br />
numerati secondo il loro grado di importanza. Lo stile della presentazione,<br />
lapidario e a volte criptico, è più simile a quello della filosofia antica e della<br />
filosofia orientale che a quello contemporaneo, caratteristica che contribuì al suo<br />
successo editoriale. Sette aforismi principali sono seguiti da commenti numerati<br />
in ordine di importanza.<br />
1.Il mondo è tutto ciò che accade
2. Ciò che accade, il fatto è il realizzarsi di stati di cose<br />
3. L’immagine logica dei fatti è il pensiero<br />
4. La proposizione è il pensiero dotato di senso<br />
5.La proposizione è una funzione di verità delle proposizioni elementari<br />
6.La forma generale della proposizione è [ , /, ξ]<br />
7.Di ciò di cui non si può parlare bisogna tacere<br />
Il mondo reale viene presentato come la somma degli accadimenti o fatti, e<br />
questi sono la realizzazione di alcuni degli infiniti “stati di cose”<br />
combinatoriamente possibili. Questi fatti possono essere estremamente<br />
complessi, ma per quanto complessi siano essi non sono altro che combinazioni<br />
di fatti atomici o elementari, e cioè fatti che non possono essere scomposti in<br />
altri fatti: p.es. il fatto che piove e che il cielo è coperto è un fatto molecolare ,<br />
che è la composizione del fatto atomico che piove con il fatto atomico che il<br />
cielo è coperto. Poiché tra linguaggio e mondo esiste una specularità fotografica,<br />
il linguaggio nella sua forma ideale consta di enunciati molecolari che sono la<br />
composizione di enunciati atomici. Il modo in cui gli enunciati si compongono<br />
nel linguaggio ideale è offerto da alcuni semplici connettivi logici: negazione,<br />
congiunzione, disgiunzione, condizionale e bicondizionale. L’uso di simboli<br />
appositi (¬, ∧ , v , ⊃ , ≡) sta a sottolineare che questi connettivi non sono<br />
esattamente la traduzione dei loro corrispettivi nel linguaggio ordinario. Le<br />
cosiddette tavole di verità ci danno le condizioni a cui un enunciato molecolare è<br />
vero o falso a seconda della verità o falsità degli enunciati atomici componenti.<br />
Vero e Falso sono detti “valori di verità” degli enunciati.
Queste tavole di verità si possono descrivere sinteticamente in questo modo:<br />
Se A e B sono enunciati qualsiasi,<br />
la congiunzione A ∧ B è Vera se A e B sono ambedue Vere, altrimenti Falsa;<br />
la disgiunzione A v B è Falsa se A e B sono ambedue False, altrimenti Vera;<br />
il condizionale A ⊃ B è Falso se A è Vera e B Falsa, altrimenti Falso;<br />
il bicondizionale A ≡ B è Vero se A e B hanno lo stesso valore di verità,<br />
altrimenti è Falso;<br />
la negazione ¬A è vera se A è Falsa, e Falsa se A è vera.<br />
Quando un enunciato è invariabilmente vero si dice tautologia: le tautologie<br />
sono quelle che tradizionalmente venivano chiamate leggi logiche (p.es. il terzo<br />
escluso). Applicando le tavole di verità si può stabilire in modo meccanico e in<br />
un tempo finito se un enunciato è o non è una tautologia. Come si suol dire,<br />
dunque, le tavole di verità, forniscono una procedura di decisione per la logica<br />
degli enunciati atomici e molecolari. Come si vedrà più avanti, questa logica è<br />
solo una porzione limitata della logica necessaria alla formalizzazione del<br />
linguaggio scientifico, ma Wittgenstein riteneva che a tale frammento fosse<br />
riducibile ogni ramo superiore della logica.<br />
Su questa premessa fondamentale (in effetti una vera e propria metafisica)<br />
Wittgenstein costruisce una teoria del significato che, in forma più sofisticata,<br />
sarebbe stata ereditata dal Circolo di Vienna. L’idea basilare è che una<br />
proposizione è dotata di senso quando si è in grado di definire una procedura per<br />
stabilire se è vera o falsa, dove la verità consiste nel rispecchiamento di un fatto<br />
atomico o molecolare. Nella sua prima formulazione il cosiddetto “criterio<br />
empirico di significanza” prendeva questa forma, noto anche come principio di<br />
verificabilità :<br />
(PV)“Un enunciato è significante se e solo se è verificabile in linea di<br />
principio”.<br />
Altra variante<br />
(PV*)“Il significato di un enunciato è il metodo della sua verifica”<br />
Prendiamo p.es. due coppie di asserti tratti dalla filosofia tradizionale: “Un ente
onnipotente ha creato il mondo” e “l’Essere è in bilico sul Nulla”. Non<br />
essendoci procedure per stabilire se sono veri o falsi, sono privi di senso, e lo<br />
stesso vale per le loro negazioni. La funzione della logica (e della filosofia come<br />
attività di chiarificazione) è quella di parafrasare gli enunciati del linguaggio<br />
ordinario nel linguaggio ideale, in modo tale da chiarire la loro forma logica<br />
perfetta; una volta così tradotte, si stabiliscono le condizioni a cui sono vere o<br />
false, e si stabilisce così la loro sensatezza. La conclusione di questa analisi, o<br />
meglio le conclusioni che si propone di raggiungere questa analisi è che le<br />
proposizioni che costituiscono la metafisica tradizionale sono prive di senso,<br />
mentre solo le proposizioni della scienza sono dotate di senso.<br />
In Wittgenstein questa autolimitazione della filosofia si colora di una vena<br />
mistica che non si trova negli altri filosofi neopositivisti. Le proposizioni<br />
dell’etica e dell’estetica sono a rigore prive di senso, anche se esprimono<br />
sentimenti e passioni che, pur ineffabili, hanno grande valore per gli uomini. Lo<br />
stesso vale per il Trascendente: esso viene percepito come qualcosa che si pone<br />
al di là del limite, che esiste (“si mostra”, dice W), ma è inesprimibile.<br />
La metafisica tradizionale e la sua compagna prossima –la teologia dunque<br />
sono il campo di contese inconcludenti e infinite perché constano di<br />
pseudoproposizioni prive di senso e discutono quindi pseudoproblemi.<br />
Ma le discussioni che si aprirono immediatamente, in seno al Circolo, sul<br />
criterio empirico di significanza, danno la misura di come lo stile filosofico del<br />
circolo fosse antidogmatico e, in certo senso, ispirato al metodo sperimentale.<br />
Ogni esplicazione di un concetto che veniva proposta in via tentativa non<br />
pretendeva ad essere definitiva ma perfettibile. La nozione più importante da<br />
esplicare in via preliminare era la nozione di significanza, ma il principio di<br />
verificabilità si dimostrava immediatamente inaccettabile, nella forma sopra<br />
proposta. In primo luogo, anche trascurando che tutte le proposizioni normative e<br />
valutative risultano prive di senso per tale criterio, bisogna chiarire che la<br />
verificabilità “in linea di principio” deve applicarsi anche a proposizioni per cui<br />
non esiste, nel momento in cui sono valutate, la disponibilità tecnica di una
verifica. Quando venne fondato il Circolo di Vienna non c’era la possibilità<br />
tecnica di mandare una sonda sulla Luna, ma nessuno dubitava della sensatezza<br />
dell’enunciato “ci sono montagne dall’altra parte della luna”, per quanto avrebbe<br />
potuto risultare , a sorpresa, falso. La risposta era che esso risulta sensato “in<br />
linea di principio”, e cioè, nei limiti in cui possiamo descrivere senza<br />
contraddizione delle tecniche che consentirebbero la verifica. Ma il problema<br />
più grave, come si vide immediatamente, era un altro.<br />
Prendiamo una legge di natura come “Tutti i corvi sono neri”. è ovvio che la<br />
legge non asserisce qualcosa sui corvi effettivamente osservati, che sono in<br />
numero finito, ma su tutti i corvi presenti, passati e futuri che sono in numero<br />
infinito; anzi, come vedremo meglio, su tutti i possibili corvi, che sono pure<br />
infiniti . Secondo una teoria suggerita dallo stesso Wittgenstein nel Tractatus, un<br />
asserto come questo, che i logici simbolizzano nella forma ∀x (Nx ⊃ Cx)<br />
equivale a una congiunzione infinita di enunciati del tipo “a è un corvo solo se a<br />
è nero”, “b è un corvo solo se b è nero”, “c è un corvo solo se c è nero “ ecc.. In<br />
questa analisi vediamo all’opera il ruolo della logica formale, che ciò porta a<br />
evidenziare ciò che il senso comune e la logica del senso comune non rendono<br />
trasparente. Per verificare la legge dovremmo quindi verificare infiniti enunciati,<br />
e quindi compiere infinite verifiche. Ma questo non è possibile nemmeno in linea<br />
di principio: ammesso e non concesso che si disponga di un nome per tutti gli<br />
oggetti dell'universo, dobbiamof are i conti con il fatto che il tempo disponibile<br />
per le verifiche è un tempo finito. Conclusione: le leggi scientifiche, che sono gli<br />
enunciati che rendono possibile la ricerca scientifica, sono prive di senso.<br />
Gli anni ’30 furono caratterizzati dai tentativi di emendare il criterio empirico<br />
di significanza salvando almeno la significatività delle leggi scientifiche. In<br />
Testability and Meaning Carnap propose di sostituire la verificabilità con la<br />
controllabilità (che presuppone l’ esistenza di strumenti di controllo) e poi con la<br />
confermabilità. Il criterio di significanza liberalizzato asserirà dunque che un<br />
enunciato è significante se e solo se è confermabile.<br />
Che vuol dire confermabile? Per capirlo dobbiamo renderci conto fatto che il<br />
neopositivismo è l’erede dell’empirismo classico, cioè dell’ idea secondo cui<br />
ogni conoscenza non a priori deriva in ultima analisi dall’esperienza. (il<br />
sintetico a priori per un empirista è puramente contraddittorio). Ma l’ esperienza<br />
ci dà solo approssimazioni alla certezza, e cioè gradi probabilità. Il probabilismo<br />
quindi è l’esito naturale dell’empirismo. Assegnare a un enunciato un grado di
conferma sulla base dell’esperienza equivale ad assegnargli un grado di<br />
probabilità. Se a un enunciato (p.es. una legge) siamo in grado assegnare un<br />
grado di probabilità sulla base dell’esperienza questo enunciato è significante,<br />
altrimenti no.<br />
La nuova riformulazione di Carnap poneva su basi più soddisfacenti il criterio<br />
di significanza, ma guadagnava un problema nuovo, che era quello di proporre<br />
un’analisi logica della stessa nozione di probabilità. Come vedremo più avanti,<br />
Carnap produsse uno sforzo matematicamente poderoso per ricostruire il calcolo<br />
delle probabilità come ramo specifico (assiomatico) della logica. Nella sua<br />
prospettiva logica della conferma, logica induttiva e calcolo della probabilità<br />
costituiscono un’unica teoria. Non erano idee completamente nuove, dato che<br />
Keynes le aveva già espresse in “Treatise on Probability”. Ma la differenza<br />
sostanziale è che Carnap usa come strumento di indagine non la matematica ma<br />
la logica simbolica. Per tutti i neopositivisti è la logica, non la matematica, che<br />
diventa strumento per la rigorizzazione del linguaggio scientifico. Secondo<br />
Carnap che da questo punto di vista proseguiva l’insegnamento di Frege e<br />
Russell la matematica si può ricostruire come un ramo della logica (logicismo).<br />
Come vedremo, oggi questa posizione è difficilmente sostenibile, ma l' idea<br />
guida del logicismo ha avuto un’ enorme suggestione e ha dato slancio alle<br />
ricerche del Circolo di Vienna.<br />
§3. Torniamo per un momento alle vicende del Circolo, che dopo il 1925 nel giro<br />
di pochi anni si trasformava in un vero e proprio movimento organizzato. Nel<br />
1929 compariva il manifesto del gruppo Wissenschaftliche Weltauffassung: der<br />
Wiener Kreis, un opuscolo di 60 pagine firmato da Hahn, Neurath, Carnap. Nel<br />
1935 Neurath in una breve monografia enucleava quattro caposaldi che erano<br />
condivisi da quanti aderivano al movimento: 1) antimetafisica 2) empirismo di<br />
carattere generale 3) intervento metodico della logica 4) matematizzazione di<br />
tutte le scienze. Tra i precursori delle nuove idee venivano indicati (a parte<br />
Mach, che era il modello di scienziatofilosofo più vicino al circolo) Comte,
Hume, Sesto Empirico, Leibniz. Filosofi come Democrito e Marx erano citati<br />
insieme ad altri per il loro orientamento antimetafisico e antireligioso.<br />
Era molto chiaro che la logica e la matematica agivano non solo come<br />
strumenti di lavoro ma assolvevano una funzione superiore. Infatti, dal momento<br />
che offrivano un linguaggio comune a tutte le scienze avanzate assicuravano la<br />
comunicazione tra queste e quindi diventavano agenti chiave di un processo<br />
che la filosofia doveva incoraggiare: quello verso l’unità della scienza. La<br />
promozione dell’unità della scienza diventa quindi un obiettivo cardinale<br />
dell' epistemologia. Nel 1935 si tenne a Parigi un congresso intitolato all’unità<br />
della scienza, a cui Neurath partecipò con una prolusione in cui si richiamava<br />
apertamente al programma degli enciclopedisti del 700. Neurath diventava<br />
animatore di una collana di studi “International Encyclopedia of Unified<br />
Science” di cui vennero pubblicati diversi fascicoli scritti dai migliori specialisti.<br />
Le scienze non solo dovevano tendere all’unità ma di fatto erano avviate verso di<br />
questa nella misura in cui una scienza avanzata, la fisica, tendeva<br />
progressivamente a inglobare altre scienze, a partire dalla chimica, come suoi<br />
rami specifici. A lungo andare le scienze della vita , e poi anche le scienze<br />
umano sociali così si pensava si sarebbero ridotte a rami specializzati della<br />
fisica (fisicalismo).<br />
Mentre le idee del Circolo acquistavano vigore, le vicende umane dei suoi<br />
componenti erano drammaticamente sfortunate. Nel 1936, anno dell’annessione<br />
dell’Austria alla Germania, Schlick venne assassinato da uno studente nazista<br />
sulle scale dell’Università di Vienna. Questo evento segnava la fine del<br />
movimento organizzato in Europa e l’inizio della diaspora dei suoi membri.<br />
Carnap, Reichenbach, Hempel, Weinberg, Feigl e altri trovarono posto in varie<br />
università americane, dove incontrarono un ambiente molto favorevole.<br />
Naturalmente, nonostante la mediazione di brillanti giovani come Quine, la<br />
filosofia dominante negli USA era quella pragmatista, dominata dall’ influenza
di personalità come Dewey e C.I.Lewis, a cui tra l'altro non era estranea neppure<br />
l’influenza dell’idealismo hegeliano importata nell’800 dagli immigrati di lingua<br />
tedesca.<br />
Fino al 1970 (morte di Carnap) il positivismo logico nella versione americana –<br />
talvolta chiamato received view – fu la corrente epistemologica dominante<br />
negli Stati Uniti. Da un lato questa corrente di pensiero, che non solo ammetteva<br />
ma incoraggiava le divergenze interne come fattore di progresso, mostrava una<br />
straordinaria capacità di crescita, dall’altro il successo era garantito dalla<br />
mancanza di alternative credibili.<br />
Negli anni ‘30, grazie soprattutto ad Hempel, il positivismo logico fu in grado<br />
di sviluppare una concezione delle teorie scientifiche e della spiegazione<br />
scientifica che non ha avuto rivali fino agli anni 70. Cominciamo a chiarire che<br />
il pensiero dei neopositivisti poggiava su una serie di presupposti che non<br />
venivano messe in discussione perché erano in un certo senso considerati<br />
autoevidenti. Si trattava di alcune dicotomie concettuali e principalmente: 1)la<br />
distinzione analiticosintetico 2) la distinzione tra contesto della giustificazione e<br />
contesto della scoperta 3)la distinzione teorico osservativo.<br />
1) La prima distinzione fa parte della tradizione filosofica derivata<br />
dall’empirismo. Gli enunciati veri o sono tali per la loro forma o per il<br />
significato dei termini (ex vi terminorum) oppure in virtù dell’osservazione e<br />
dell’esperimento. Alla prima classe appartengono enunciati come “0=0”,<br />
“2+2=4”, “Nessuno scapolo è sposato”, che vengono detti analitici. Altri<br />
enunciati, come “ alcuni gatti sono neri” sono derivati dall’esperienza e sono<br />
detti sintetici. I primi non possono mai essere falsi per il loro stesso significato,<br />
mentre i secondi possono essere veri o falsi a seconda delle circostanze.<br />
2) La distinzione tra contesto della scoperta e contesto della giustificazione,<br />
sottolineata da Reichenbach, indica che le qualità che rendono giustificato<br />
inserire un enunciato nel corpo della scienza (p.es. coerenza interna, alto grado<br />
di conferma ecc.) non hanno niente a che vedere con il modo in cui questo
enunciato è stato di fatto scoperto dagli scienziati. Che Newton sia arrivato alla<br />
teoria della gravitazione osservando una mela cadere dall’albero è molto<br />
interessante per la psicologia ma irrilevante per la epistemologia. Si osservi che<br />
molte scoperte sono , come si dice oggi, serendipiane, cioè preterintenzionali, il<br />
che nulla toglie alla loro validità.<br />
3) La dicotomia osservativoteorico è essenziale per capire la concezione<br />
neopositivista delle teorie. Il linguaggio ideale della scienza deve distinguere<br />
rigorosamente due insiemi di termini ; quelli che descrivono qualcosa che cade<br />
sotto il dominio diretto dei sensi (rosso, mela, telescopio…) e quelli che non<br />
hanno questa caratteristica, pur essendo impiegati correntemente nella scienza<br />
(gravità, peso, inflazione, inconscio…). Grosso modo si tratta della vecchia<br />
distinzione tra concreto e astratto che qui, ovviamente, passa attraverso l’ esame<br />
rigoroso della logica. Non si nega che ci possono essere casi di difficile<br />
attribuzione ( per esempio un peso di 90 Kg rilevato da una bilancia è<br />
osservativo o teorico? ) ma si afferma che si può sempre tracciare una distinzione<br />
abbastanza sicura tra ciò che viene rilevato dall’osservazioni e da semplici<br />
operazioni di misura e ciò che non ha questa caratteristica.<br />
Breve parentesi. Negli anni '20 e '30 i neopositivisti dedicarono molte energie a<br />
stabilire la forma e la qualità delle informazioni basilari, derivate dai sensi, su cui<br />
doveva poggiare l’intera costruzione della scienza (protocolli). Alcuni<br />
sostenevano che i protocolli non erano enunciati ma resoconti neutri di<br />
osservazioni del tipo “qui,ora, rosso”, mentre altri come Neurath sostenevano<br />
che ogni enunciato va confrontato con altri enunciati , per cui non ha senso far<br />
poggiare una costruzione linguistica come la scienza su dati extralinguistici.<br />
Qui interessa osservare che, una volta accettata la dicotomia<br />
“osservativo/teorico” per gli enunciati singoli, questa si può estendere alle leggi<br />
scientifiche (che per i neopositivisti sono enunciati di tipo particolare, e non
elementi della realtà) le quali possono essere classificate quindi in osservative<br />
( es.:”tutti i cavalli hanno un cervello”) e teoriche (es::“tutti gli atomi sono<br />
costituiti da elettroni in movimento”).<br />
Qui dobbiamo subito chiederci se gli asserti teorici, non essendo derivati<br />
dall’osservazione, non finiscano per cadere sotto i rigori del criterio empirico di<br />
significanza al pari delle pseudoproposizioni metafisiche (già abbiamo visto che<br />
questo pericolo insidiava le stesse leggi scientifiche). Qui le risposte sono state<br />
diverse. La più semplice, proposta dal fisico americano Bridgman, sta nel dire<br />
che ogni termine teorico è definibile in termini della classe di operazioni e di<br />
calcolo che consentono di precisare il loro valore. Per quanto suggestiva, questa<br />
idea urta contro una difficoltà di fondo: dal momento che le operazioni di misura<br />
e di calcolo di aun stessa grandezza, poniamo della temperatura, sono diverse e<br />
cambiano con gli sviluppi tecnologici, ci sono diversi concetti di temperatura che<br />
cambiano continuamente. Per ovviare a questo problema i neopositivisti<br />
trovarono una soluzione che divenne in un certo senso definitiva:<br />
per ogni termine teorico t esistono delle regole che lo connettono ai dati<br />
osservativi dandone una “interpretazione parziale”, che può arricchirsi<br />
indefinitamente con lo sviluppo della scienza. Una regola di corrispondenza per<br />
esempio è la seguente:<br />
“se la colonnina di mercurio entro il termometro b raggiunge la tacca c, la<br />
temperatura del corpo b è di 35°”.<br />
Il complesso di tali regole (che, si noti, non sono equivalenze ma semplici<br />
implicazioni) è in grado di interpretare, cioè assegnare un significato, in un dato<br />
momento storico, a un termine teorico.<br />
Una teoria scientifica si presenta come una costruzione piramidale di leggi<br />
gerarchizzate secondo la loro generalità e secondo il loro carattere più o meno<br />
teorico . Questo presuppone che si sappia distinguere una legge di natura da altri<br />
enunciati che hanno struttura sintattica analoga (p.es. “Tutti i pianeti hanno il<br />
nome di una divinità greca”), ma i neopositivisti ritenevano, almeno fino<br />
all’inizio degli anni ’40, che tale distinzione non fosse problematica. Al livello<br />
più basso della gerarchia suddetta si trovano leggi che si appoggiano<br />
direttamente all’esperienza osservativa. Per esempio da “tutti i corvi osservati<br />
sono neri” si inferisce la legge osservativa “tutti i corvi sono neri” mediante una
estrapolazione induttiva. Ci sono casi in cui una legge riceve sostegno induttivo<br />
dal basso, ma è anche derivabile da leggi di maggiore generalità e astrazione. In<br />
tal caso questa legge nel corpo della teoria ha una posizione molto solida. Al<br />
vertice della piramide si trovano nella scienza modello (la fisica) leggi teoriche<br />
come F=ma. Esse ricevono un senso mediante le regole di corrispondenza, ma<br />
sono giustificate dalla loro capacità di derivare innumerevoli leggi di inferiore<br />
generalità e minore astrazione che in forma diretta o indiretta poggiano<br />
sull’esperienza.<br />
Veniamo ora al concetto di spiegazione (si noti che la spiegazione non va<br />
confusa con la esplicazione a cui si è già accennato, anche se i termini in italiano<br />
sembrano sinonimi).<br />
Un tema importante dell’espistemologia è stato fin dall’ 800 l’interrogativo:<br />
qual è lo scopo primario della scienza? Le risposte sono state almeno tre : a)<br />
descrivere sinteticamente la natura; b) effettuare previsioni corrette; c) spiegare i<br />
fenomeni sotto indagine.<br />
Scartata come limitativa la prima, la terza risposta è stata quelle che i<br />
neopositivisti hanno sottoscritto, anche perché si è affermata la diffusa<br />
convinzione che fosse coincidente con la seconda. Hempel ha difeso con forza<br />
fino agli anni 60 la cosiddetta “tesi della simmetria”, secondo la quale<br />
spiegazione e previsione sono strutturalmente identiche. Su questo ci sarebbe<br />
molto da discutere. Se è vero che la previsione razionale di un evento (p.es.<br />
un’eclissi di luna, non una vincita al lotto) implica una sua spiegazione, è più<br />
difficile sostenere che la spiegazione di un evento passato (p.es. il crollo di Wall<br />
Street del 1929) implichi una sua previsione (il crollo si è verificato perchè in<br />
quel momento ha colto gli operatori di sorpresa, altrimenti sarebbe stato forse<br />
evitato).<br />
Accettiamo per semplicità la tesi della simmetria. Spiegare significa dare una<br />
risposta alla domanda “Perché E”? E può essere una legge o un fatto singolo. Nel<br />
caso di una legge la nozione neopositivista di teoria racchiude la risposta: Se<br />
una legge si deriva da una legge più generale si considera spiegata da questa.<br />
Naturalmente bisognerebbe caratterizzare la nozione di “più generale”. Se io mi<br />
chiedo perché tutti i cani italiani hanno un cervello e rispondo “ perchè tutti i<br />
cani europei hanno un cervello” questa seconda legge è più generale della<br />
prima, ma darebbe una spiegazione ben misera del fatto su cui ci si interroga.<br />
Viceversa “tutti i quadrupedi hanno un cervello” darebbe una spiegazione molto
migliore perché connette due proprietà strutturali suggerendo anche un nesso<br />
causale tra di esse.<br />
Ciò che è chiaro comunque è che spiegare significa derivare logicamente, e<br />
che ogni spiegazione va presentata come una derivazione logica. Nel caso E sia<br />
un evento singolare effettivamente accaduto la derivazione logica può essere<br />
data da uno o più fatti noti come accaduti mediante una o più leggi di natura.<br />
Seguendo Hempel, l’evento da spiegare E (explanandum) si deriva da un<br />
explanans che consta di una classe di leggi L1 & …& Ln e di condizioni iniziali<br />
C1….Ck.<br />
Questa idea apparentemente banale, nota come teoria delle leggi di copertura o<br />
schema di HemperlOppenheim, in realtà è una fonte di problemi. Ne<br />
distingueremo due tipi: in primis bisogna porre delle restrizioni su questa<br />
definizioni iniziale. Supponiamo per esempio che E e C1 siano identiche o<br />
logicamente equivalenti oppure due descrizioni dello stesso fenomeno. In questo<br />
caso avremmo che Ci è un elemento della spiegazione di E, cioè che E spiega E.<br />
Questo può sembrare assurdo ma nella storia della scienza si è verificato più<br />
spesso di quanto non si pensi. Nella commedia di Molière “Il Borghese<br />
Gentiluomo” si ironizza suglia aristotelici che spiegavano la capacità dell’oppio<br />
di far dormire dicendo che possedeva un virtus dormitiva. Per un neopositivista il<br />
significato di questo enunciato è indistinguibile dall’explanandum (le proceduree<br />
di verifica sono identiche), per cui in questo caso, nonostante le apparenze, si<br />
spiega E mediante E. Altre condizioni restrittive hanno lo scopo di evitare altre<br />
banalizzazioni: per esempio se A spiega E, non bisogna permetter che E spieghi<br />
A, quindi bisogna garantire che questa relazione non sia simmetrica.<br />
Ma la più interessante difficoltà è stata vista da Hempel per il fatto che L1…<br />
Ln possono essere non leggi ineccepibili ma leggi probabilisticoinduttive (p.es<br />
il 99% dei fiammiferi sfregati si accende). Questo impone una correzione dello<br />
schema iniziale perché l’explanandum in questo caso non segue con la certezza<br />
del 100% ma con una certezza inferiore. Stando così le cose dobbiamo precisare<br />
il grado di certezza (probabilità) della conclusione specificandolo anche<br />
formalmente. Per Hempel –che distingue questo schema chiamandolo statisticoinduttivo<br />
la probabilità della conclusione date le premesse deve comunque<br />
essere molto alta (regola dell’alta probabilità) .<br />
Il modello SI (StatisticoInduttivo) ha dei problemi propri che si aggiungono<br />
ai problemi del modello ND (NomologicoDeduttivo). Ci limitiamo ad accennare
al fatto che un aumento di informazione nelle premesse può far saltare il rapporto<br />
tra premesse e conclusione. Per esempio: chiediamoci perché il Sig. Rossi si è<br />
ristabilito da una recente operazione chirurgica. Rispondiamo con l’explanans<br />
seguente: Rossi è stato operato di appendicectomia e il 99% di questi interventi<br />
è seguito da una rapida guarigione. Ma supponiamo di acquisire nuove<br />
informazioni su Rossi: da queste risulta che Rossi ha 95 anni di età. La<br />
probabilità che a quest’età un’operazione di questo genera si risolva con una<br />
rapida guarigione non è molto alta ma molto bassa. Si dice oggi che l’inferenza è<br />
nonmonotòna: è sensibile all’ incremento di informazione nelle premesse. La<br />
risposta di Hempel, che suscitò immediatamente obiezioni e polemiche, fu che<br />
la descrizione dell’explanandum doveva essere massimamente specifica. Non<br />
bisogna occultare le informazioni che si possiedono su E. Questo è un caso<br />
particolare della regola che i positivisti logici chiamano di Evidenza Totale. In<br />
ogni spiegazione bisogna tener conto di tutta l’informazione disponibile. SI tratta<br />
di un ideale difficile da raggiungere, se non altro perché tutta l’informazione<br />
disponibile potrebbe esigere un tempo infinito o comunque illimitatamente<br />
grande.<br />
[Per una Bibliografia essenziale sul neopositivismo si veda L. Geymonat, “Storia<br />
del pensiero scientifico e filosofico”; voll 6 e 7, Garzanti 1972, 1976]
II. LA SVOLTA RELATIVISTICA E IL PROBLEMA DEL REALISMO.<br />
§1. Negli anni ’50 il positivismo logico dominava incontrastato le università di<br />
tutti i paesi di lingua inglese. Allo stesso modo in cui si usa indicare per il<br />
neopositivismo una data di nascita si potrebbe indicare una data di morte: in tal<br />
caso una scelta appropriata sarebbe il 1970 (anno della scomparsa di Carnap). La<br />
verità è che il neopositivismo non è morto perché è stato superato da altre<br />
correnti più agguerrite o perché è”passato di moda”, come accaduto p.es. al<br />
marxismo o all’esistenzialismo. Il fatto è che per svariati motivi i suoi stessi<br />
esponenti hanno smesso di accettare per sé questa etichetta. Ricordiamo che per<br />
i neopositivisti la filosofia non è un sistema di idee ma un’attività, e che tale<br />
attività portava i neopositivisti a rimettere in discussione spregiudicatamente i<br />
presupposti di base. Alla fine le divergenze su questi presupposti erano divenute<br />
troppo ampie perché si potesse parlare di un movimento di pensiero unitario,<br />
anche se estremamente articolato.<br />
Alcuni di questi presupposti condivisi sono già stati indicati in alcune di quelle<br />
opposizioni concettuali a cui si è già accennato e che venivano accettate come, in<br />
un certo senso, autoevidenti: la distinzione analiticosintetico, la distinzione<br />
osservativoteorico, la distinzione tra contesto della scoperta e contesto della<br />
giustificazione. Per quanto riguarda la prima va osservato che W.v.O.Quine in<br />
“Due dogmi dell’empirsimo” (1946), pur ponendosi come il collega Nelson<br />
Goodman nel solco del neopositivismo, criticava l’adesione dei positivisti logici<br />
a due “non empirici dogmi dell’empirismo”: questi dogmi erano il riduzionismo<br />
(la tesi per cui ciò che è significante è riconducibile a qualcosa che deriva
dall’esperienza immediata) e la distinzione analitico sintetico. Quine si<br />
chiedeva: che significa dire che “ogni maschio adulto non sposato è scapolo” è<br />
“analitico”?. Quando si tenta di esplicare l’analiticità secondo Quine si<br />
chiamano in causa nozioni imparentate come quella di sinonimia, necessità,<br />
regola semantica , che non hanno un significato chiaro (Quine ha sempre<br />
accusato di oscurità nozioni modali come quelle di necessario e possibile) oppure<br />
rimandano circolarmente a quella di analiticità.<br />
Quanto al riduzionismo (che riporta al criterio empirico di significanza) Quine<br />
osserva che in fondo esso riposa sul presupposto per cui si possono falsificare o<br />
verificare degli enunciati atomici in stato di isolamento mediante dati sensoriali,<br />
ciascuno dei quali dovrebbe essere espresso da qualche proposizione elementare.<br />
Di fatto però questo non accade. La tesi di Quine, poi sviluppata da lui negli anni<br />
50 con un impronta molto personale, è che gli enunciati di una teoria non<br />
vengono sottoposti al vaglio dell’esperienza singolarmente ma in modo olistico,<br />
cioè tutti insieme. Per Quine ingenuo pensare che una teoria venga confermata<br />
confermando singolarmente tutti i suoi asserti, o che si abbandoni una teoria<br />
semplicemente perché si trova un controesempio. Quando una teoria “funziona”<br />
ai fini della spiegazione e della previsione non è conveniente eliminarla, anche<br />
se per avventura dovesse essere in conflitto con qualche dato sperimentale. Qui<br />
emerge il pragmatismo della tradizione americana, che preferisce parlare di<br />
utilità o funzionalità delle teorie piuttosto che di verità o falsità delle stesse. Per<br />
usare la sua immagine, una teoria è come un campo di forza che tocca<br />
l’esperienza con uno sei suoi lati. Se entra in conflitto con l’esperienza viene
evisionata in modo da riprendere la sua funzionalità.<br />
Nella prospettiva di Quine ci sono proposizioni più immuni da revisione e altre<br />
meno immuni. Le proposizioni della logica e della matematica sono più immuni<br />
da revisione delle altre, e queste sono quelle che i neopositivisti di solito<br />
classificano come analitiche. Ma esse non sono immuni per loro natura o per<br />
qualche stipulazione che le rende tali, come i neopositivisti erano soliti pensare.<br />
Un esempio per esempio è dato dalla legge del terzo escluso, che per la logica<br />
matematica è una tautologia garantita dalle tavole di verità. A parte il fatto che<br />
c’è una scuola di pensiero matematica, l’intuizionismo, che le nega la validità<br />
del terzo escluso nelle stesse scienze formali, è accaduto che la meccanica<br />
quantistica, cioè una scienza empirica, ha evidenziato una classe di fenomeni<br />
sperimentali che si possono descrivere solo rinunciando ad una logica che<br />
includa il terzo escluso e molte altre delle leggi logiche accettate dalla tradizione.<br />
Dunque quello che è sempre stata citata come un esempio di verità analitica è<br />
stato rimesso in discussione a fronte di dati sperimentali , proprio come<br />
accadrebbe quando la scoperta di cigni neri in Australia ha portato a repingere<br />
“tutti i cigni sono bianchi”.<br />
Negli anni '50 il neopositivismo subiva attacchi anche da parte di una scuola<br />
che per certi versi era agli antipodi di quella pragmatista a cui si ispirava<br />
sostanzialmente Quine. Era la scuola che un filosofo di orgine viennese, Karl<br />
Popper, aveva fondato in Inghilterra presso la London School of Economics, e<br />
che tuttora è attiva (Agassi, Watkins, Fetzer).<br />
Per molti anni , soprattutto in Italia, Popper (viennese della generazione di<br />
Carnap) è stato considerato un neopositivista eretico e un personaggio<br />
secondario nel panorama epistemologico. I punti di contatto con il<br />
neopositivismo ovviamente non mancano: per esempio la concezione della<br />
spiegazione scientifica di Popper anticipava quella di Hempel, al punto che si<br />
parla di teoria di PopperHempel. Ma gli sviluppi del pensiero di Popper seguiti<br />
alla sua “Logica della scoperta scientifica” (1936) hanno reso chiaro che la sua<br />
prospettiva era originale e indipendente. Rapidamente, si può osservare che già<br />
negli anni ‘20 il problema centrale di Popper non era quello della significanza<br />
(su cui si tormentavano i neopositivisti) ma quello della demarcazione tra<br />
scienza e pseudoscienza. Che cosa distingue gli asserti della scienza da ciò che<br />
scienza non è, anche quando si autoproclama scienza? Gli enunciati della
scienza hanno una caratteristica comune: sono tutti falsificabili. Anche se non<br />
siamo in grado di dire che sono veri, siamo in grado di dire quale osservazione o<br />
quale esperimento li renderebbe falsi. Si noti che questo risolve in modo diverso<br />
il problema delle leggi di natura. “Tutti i corvi sono neri” fa parte della scienza<br />
non perché è vero ma perché è una ipotesi che ha resistito a vari tentativi di<br />
falsificazione. Noi siamo in grado di enunciare che cosa lo renderebbe falso<br />
(l’osservazione di un corvo nonnero) e l’etica scientifica impone di sottoporlo<br />
a tests severi in grado di falsificarlo. Non ha senso raccogliere all’infinito<br />
esempi di corvi neri per confermare questa presunta legge: essa avrà sempre il<br />
carattere di un’ipotesi, la cui validità dipende dalla sua resistenza ai tentativi di<br />
falsificazione.<br />
La metafisica e le pseudoscienze invece si autoimmunizzano rendendo<br />
impossibile la falsificazione. In un famoso saggio del 1933 Popper cita la<br />
psicoanalisi, il marxismo e l’astrologia come esempi di pseudoscienze formulate<br />
in modo da non essere smentite da nulla. Per esempio le caratterizzazioni dei tipi<br />
umani secondo i segni zodiacali è formulata in modo tale che ci sono sempre<br />
scappatoie per evitare la falsificazione (per esempio il ricorso agli ascendenti,<br />
alle cuspidi ecc.). Questo non accade – e non deve accadere per la scienza.<br />
Quando Einstein presentò la relatività in varie occasioni disse che il test decisivo<br />
per la teoria sarebbe stato l’osservazione del pianeta Mercurio nel 1919 in<br />
posizione di massima vicinanza al Sole : “Se non dovesse esistere lo<br />
spostamento verso il rosso delle linee spettrali dovute al potenziale<br />
gravitazionale, la teoria generale della relatività sarebbe insostenibile”.<br />
La scienza per Popper è un sistema di ipotesi che reggono fino a prova<br />
contraria, proprio come l'accusa diimputato che porta alla sua condanna è<br />
accettata da un tribunale fino a che non emergono eventuali elementi che la<br />
falsifichino (si noti che Popper era figlio di un avvocato). L’induzione quindi<br />
non ha alcun ruolo nella scienza. Tutt’al più una teoria che sostiene molti tests<br />
volti a falsificarla si può dire più o meno corroborata. La scienza è un edificio<br />
che non poggia sul terreno roccioso: per usare una fortunata metafora di Popper,<br />
è come una palafitta piantata su un terreno argilloso. Con il tempo una teoria si<br />
consolida, i pali della palafitta vengono spinti più a fondo, ma senza arrivare mai<br />
a un punto fermo. Una teoria T, se falsificata, è sostituita da una teoria T’ che<br />
recupera la parte sana di T. T’ verrà sostituita da una teoria migliore T”. Questo<br />
progresso ci porta a teorie sempre più verosimili, cioè sempre più approssimate
alla verità, verità che resta un ideale a cui la scienza si avvicina<br />
asintoticamente.<br />
Bisogna sottolineare ancora che Popper non si interessa della questione della<br />
significanza. Criticare la metafisica non vuol dire negare la significanza dei suoi<br />
enunciati. Sarebbe sciocco pensare che Aristotele o Cartesio dicessero cose prive<br />
di senso (incidentalmente Popper negli ultimi anni ammise di essere sempre stato<br />
un dualista cartesiano, cioè di aver sempre creduto nel dualismo di spirito e<br />
materia). In realtà non solo buona parte della metafisica è dotata di senso, ma è<br />
accaduto che la metafisica ha preparato il terreno alla scienza o l’ha<br />
accompagnata interferendo positivamente con questa. Il tema della relevant<br />
Metaphysics è stato sviluppato dopo il 60 soprattutto dalla sua scuola, che ne ha<br />
fatto un motivo caratterizzante.<br />
Quine e Popper rappresentano due modi diversi di criticare il positivismo<br />
logico pur restando fedeli , in un certo senso, al suo spirito. Per quanto lontani,<br />
ambedue hanno in comune il rifiuto di considerare la teoria come una<br />
costruzione “estratta” tramite qualche tipo di astrazione dalle esperienze<br />
osservative. Secondo Popper questa idea non fa che perpetuare il mito<br />
baconiano secondo cui i concetti astratti, le teorie , le leggi ecc. sono derivati<br />
dalle osservazioni così come il vino è derivato dalla spremitura dei chicchi di<br />
uva. è stato facile obiettare a Popper che di fatto la sua concezione usa più<br />
induzione di quanto lui miri a far apparire. Quella che Popper chiama “gradi di<br />
corroborazione” – cioè gradi di resistenza ai test falsificanti – assomigliano ai<br />
gradi di conferma carnapiani. Ma, soprattutto, accade che per effettuare un test<br />
falsificante c’è bisogno di usare strumenti sicuri e collaudati p.es. telescopi,<br />
barometri ecc. : e tale sicurezza può solo essere stabilita con ripetute esperienze,<br />
cioè in fin dei ca di tipo induttivo. Detto altrimenti, dobbiamo presupporre la<br />
persistenza di certi oggetti e la stabilità di un certo numero di loro qualità, cioè<br />
ammettere qualche variante del principio che una volta veniva chiamato di<br />
Uniformità della Natura. In ogni caso, i test verificanti o falsificanti vanno<br />
ripetuti un certo numero di volte almeno finchè non danno un risultato che si<br />
giudica sicuro. è accaduto per esempio per l’esperimento di MichelsonMorley<br />
che è stato escogitato per refutare o confermare l’esistenza dell’etere cosmico ed<br />
è stato ripetuto diverse volte con risultati alterni. Qui Popper risponde alla<br />
critica proponendo un tipo speciale di convenzionalismo: sono gli scienziati che,<br />
con un accordo tacito o esplicito, convengono che un certo asserto (assertobase)
ha la caratteristica di un dato incontrovertibile e si può usare per la falsificazione<br />
di enunciati più complessi.<br />
Un problema di non facile soluzione per Popper è definire le condizioni a cui<br />
sono falsificabili le leggi o le generalizzazioni probabilistiche, p.es. “il 51% dei<br />
bambini è maschio alla nascita”. Quale campione di bambini osservato si<br />
potrebbe considerare falsificante per la generalizzazione in questione?<br />
Su un punto Popper mostrava un indubbio vantaggio sui neopositivisti. Non ha<br />
senso chiedere a un osservatore “che cosa vedi nel microscopio?” perché<br />
nessuno può descrivere in un tempo finito ciò che si vede in un dato momento.<br />
L’idea che esista un osservatore neutro che funziona come una macchina<br />
fotografica perfettamente passiva è un mito empirista. Noi facciamo delle<br />
osservazioni per rispondere a problemi che ci vengono posti (p.es. per sapere se<br />
in una data posizione si trova o no una macchia rossa) e tali domande<br />
dipendono dalla teoria che stiamo sottoponendo a test. L' apprendimento<br />
procede per prove ed errori e non per ripetizione cumulative di esperienze, come<br />
ingenuamente pensavano gli empiristi. La teoria sotto indagine quindi guida ciò<br />
che chiamiamo osservazione, anche se ovviamente potrebbe essere falsificata<br />
dall’ osservazione stessa.<br />
§2. Negli anni cinquanta il rapporto teoriaosservazione – e quindi la dicotomia<br />
teoricoosservativo – diventava un tema di sempre maggiore importanza, anche<br />
perché c’era una disciplina, la psicologia della percezione, che poteva mettere a<br />
disposizione dei filosofi una massa cospicua di risultati di cui era obbligatorio<br />
tenere conto.<br />
Nello stesso tempo si doveva registrare un fatto che sicuramente giocava a<br />
sfavore del neopositivismo. L’autore del Tractatus, dopo un periodo di silenzio<br />
interrottosi con la sua chiamata a Cambridge nel 1928, aveva ripensato<br />
le idee del suo capolavoro e proposto un punto di vista che appariva nuovo.<br />
Questo “secondo Wittgenstein” ha lasciato un solo testo a stampa, le Ricerche<br />
FIlosfiche, apparse postme nel 1952, ma anche un’ impressionante mole di<br />
manoscritti sotto forma di diari e di note, a cui si devono aggiungere gli appunti
presi dai suoi studenti nel corso delle lezioni. Ciò che cambiava rispetto al<br />
Tractatus primariamente era la teoria del significato. Nel Tractatus una<br />
proposizione è significante se e solo se è vera o falsa, e la sua verità consiste<br />
nell’essere rispecchiamento (immagine) di un fatto atomico o molecolare. Ma il<br />
secondo Wittgenstein, influenzato forse dallo studio dell’etnoantropologia<br />
(sappiamo che scrisse una recensione a “Il ramo d'Oro” di Frazer) vede ora che<br />
il significato di un enunciato non è offerto dalla verificabilità di un suo rapporto<br />
proiettivo con il mondo dall’insieme di regole che ne governano l’uso. Allo<br />
stesso modo in cui il significato della torre negli scacchi, poniamo, è dato non<br />
dall’avere la forma di una torre ma dall’insieme di regole che ne governano l’uso<br />
nel gioco degli scacchi, così il senso di una parola come, poniamo, “bellezza”<br />
non è dato dal riferirsi a un oggetto chiamato “bellezza” ma dalle regole che ne<br />
governano l’uso in una lingua come l’italiano (teoria dei giochi linguistici). Il<br />
linguaggio comune, non il linguaggio perfetto della logica, diventa dunque<br />
l’oggetto primario di indagine insieme allo slogan “non chiedete il significato,<br />
chiedete l’uso”. I seguaci di Wittgenstein in Inghilterra (Strawson, Anscombe,<br />
Ryle, Toulmin), che sono tuttora numerosi, trasformarono questa filosofia in una<br />
“filosofia del linguaggio ordinario”, che dal loro punto di vista si riduceva di<br />
fatto all’analisi della lingua inglese.<br />
Wittgenstein aveva familiarità con la cosiddetta “teoria della Gestalt”,<br />
secondo cui non esiste un vedere che non sia percezione strutturata di una forma.<br />
Esempi famosi sono il cubo di Necker e l’immagine del duckrabbit , una figura<br />
ambigua che può essere “letta” come un papero o un coniglio e che Wittgenstein<br />
riproduce nelle Ricerche Filosofiche. La tesi di Wittgenstein è che la<br />
disponibilità di un certo linguaggio condiziona la percezione stessa. Chi non ha<br />
mai visto la neve, come certi popoli dell’Africa,non possiede nel suo linguaggio<br />
la parola “neve” e non può riconoscere qualcosa come neve. Nello stesso tempo,<br />
come osservava il linguista Benjiamin Lee Whorf, gli esquimesi che hanno venti<br />
termini diversi per indicare tipi di neve, “vedono” diversi tipi di neve che noi<br />
non siamo in grado di riconoscere come tali.<br />
Il secondo Wittgenstein dunque rovescia il rapporto tra linguaggio e<br />
osservazione. Applicata all’epistemologia questa concezione aveva alcune<br />
immediate implicazioni, evidenziate da N.R.Hanson in Patterns of Discovery
(1958). La logica simbolica e la matematica cessavano di fornire il linguaggio<br />
ideale della scienza. Ciò che diventava importante sono gli usi che gli scienziati<br />
fanno dei termini di cui dispongono e che determinano il loro senso. Teorie<br />
diverse comportano giochi linguistici diversi, anche se i segni grafici o acustici<br />
coinvolti possono essere identici. Il termine “terra” usato da Tolomeo non ha lo<br />
stesso senso del termine “terra” usato da Keplero perché il suo senso è<br />
determinato dalle regole che lo connettono ad altri termini come “sole”, “cielo”<br />
ecc. , e tali regole sono diverse da teoria a teoria. Quindi le osservazioni<br />
descritte entro teorie diverse sono osservazioni diverse. Quando Tolomeo e<br />
Keplero guardano il sole “vedono” due cose diverse. Tolomeo “vede” un oggetto<br />
mobile, Keplero “vede “ un oggetto immobile, allo stesso modo in cui qualcuno<br />
può vedere un papero e un altro un coniglio in una figura gestaltica. I dati<br />
empirici, si dirà sempre più frequentemente, sono “carichi di teoria”. La teoria<br />
condiziona lo stesso livello osservativo. Si tratta di idee non completamente<br />
nuove. Basta notare che intorno al 1935 un medico polacco, Ludwig Fleck,<br />
aveva già evidenziato la natura strutturata della percezione in un libro riscoperto<br />
anni dopo, “Genesi e sviluppo di un fatto scientifico”, che ripercorreva la<br />
scoperta della reazione Wasserman.<br />
Questo nuovo modo di intendere l’osservazione scientifica è stato proposto da<br />
M.Polanyi all’inizio degli anni 50, anche se si è diffuso con “Patterns of<br />
Discovery” di N.R.Hanson (1958). Qui Hanson per la prima volta presenta la<br />
scoperta scientifica come un’ impresa volta alla determinazione di “modi di<br />
vedere”. Sono questi “modi di vedere” che hanno la funzione che Hempel<br />
assegnava alle leggi e alle teorie nell spiegazione. Qualcosa è spiegato quando<br />
trova un posto entro una Gestalt, una visione dei fenomeni.<br />
Negli stessi anni Stephen Toulmin introduceva la metafora delle teorie come
mappe, cioè rappresentazioni nonlinguistiche della realtà. Si tratta sempre di<br />
un allontanamento dalla concezione neopositivista in quanto le teorie e le leggi<br />
cessano di essere entità linguistiche e la spiegazione cessa di essere un tipo<br />
particolare di ragionamento. L’epistemologo ora non si occupa di ricostruire<br />
razionalmente entro un linguaggio ideale i risultati della scienza, ma si occupa<br />
del modo effettivo in cui gli scienziati giocano il gioco della scienza. è chiaro<br />
allora che anche la dicotomia tra contesto della scoperta e contesto della<br />
giustificazione viene sostanzialmente superata, e parallelamente viene meno la<br />
distinzione (cara soprattutto a Popper) tra metodologia descrittiva e metodologia<br />
normativa. Cade la distinzione netta tra epistemologia, psicologia della scoperta,<br />
storia della scienza e sociologia della scienza.<br />
Questo diverso orientamento, che era minoritario negli anni ‘50, guadagnò<br />
lentamente terreno, fino a diventare dominante negli anni ‘70 e ‘80. In mancanza<br />
di un termine preciso, lo si è chiamato postpositivismo o, meno bene, “nuova<br />
filosofia della scienza”. La popolarità arrivò sull’onda di un fortunato libro,<br />
“La struttura delle rivoluzioni scientifiche”, il cui autore, Thomas Kuhn, era,<br />
significativamente, uno storico della scienza prestato alla filosofia. Kuhn aveva<br />
studiato per anni la rivoluzione copernica e si era convinto che il modo in cui si è<br />
passati dalla concezione tolemaica del mondo a quella copernicana<br />
esemplificava uno schema di sviluppo che si applicava allo sviluppo di tutte le<br />
scienze indistintamente . Lo schema di sviluppo consiste in questo. La comunità<br />
scientifica normalmente condivide in modo più o meno conscio un linguaggio<br />
(inteso come insieme di regole per l’uso dei termini) e un insieme di pregiudizi,<br />
dogmi, opinioni ereditate, che Kuhn non chiama teoria ma paradigma. L’attività<br />
ordinaria degli scienziati consiste nella soluzione di rompicapi (puzzles) che<br />
vengono generati dall’ impiego del paradigma stesso. Questa attività è chiamata<br />
da Kuhn scienza normale.
Ci sono momenti in cui un paradigma entra in crisi perché cessa di proporre<br />
problemi interessanti e presenta anomalie vistose che non si è in grado di<br />
risolvere con gli strumenti interni al paradigma. Dopo un periodo di crisi viene<br />
proposto da qualcuno un modo alternativo di vedere le cose, cioè un nuovo<br />
paradigma. Si entra così in una fase rivoluzionaria, che può essere anche molto<br />
lunga, e che si concluda quando il nuovo paradigma conquista il consenso della<br />
generazione più giocane degli scienziati. Quando questo accade il vecchio<br />
paradigma viene seppellito, si riscrivono i manuali scientifici e si reimposta la<br />
ricerca creando un nuovo periodo di scienza normale.<br />
Dal momento che i paradigmi condizionano il modo di vedere, rendono gli<br />
scienziati ciechi rispetto ai dati empirici che potrebbero falsificarli. Con buona<br />
pace di Popper, gli scienziati nella fase di scienza normale tendono a conservare<br />
il paradigma vigente perché non “vedono”, né possono vedere con le lenti<br />
offerte dal paradigma, i controesempi falsificanti. L’atteggiamento degli<br />
scienziati non è molto diverso da quello degli artisti che seguono una corrente<br />
estetica , degli uomini di fede che aderiscono a una confessione religiosa o dei<br />
seguaci di un partito che seguono un’ideologia. Il cambiamento di paradigma,<br />
che a volte è dovuto alla gemialità di un unico creatore (Galileo, Darwin,<br />
Einstein) è paragonato ad una conversione religiosa, dopo la quale il problema è<br />
solo convertire gli altri, cioè persuaderli a militare a favore del nuovo paradigma.<br />
è da notare che nelle rivoluzioni scientifiche si ha una sostituzione di<br />
paradigmi, il che non vuol dire che nel cambiamento si registra un progresso. Si<br />
può parlare di progresso entro un paradigma, ma non di un progresso nel<br />
passaggio da un paradigma a un altro. Ciò che è giusto o sbagliato è tale rispetto<br />
a un paradigma, ma non possiamo c classificare un paradigma come giusto o<br />
sbagliato rispetto a un altro paradigma: i paradigmi, come dice Kuhn, sono<br />
incommensurabili.<br />
Si attuava così nel campo dell’ epistemologia lo stesso passaggio al<br />
relativismo che gli etnoantropologi avevano già introdotto nel campo delle loro
discipline. è chiara in particolare l’influenza che Kuhn ha ricevuto da B.L.<br />
Whorf, che infatti Kuhn cita nella sua prefazione. Per Whorf gruppi etnici<br />
linguisticamente diversi vivono in realtà diverse perché usano linguaggio<br />
diversi; per esempio gli indiani Hopi vivono in un mondo diverso dal nostro<br />
perché la loro nozione di tempo , registrata in un linguaggio diverso dal nostro e<br />
intraducibile con il nostro, è differente. Chi crede nella intraducibilità dei<br />
linguaggi non fa fatica a passare alla tesi kuhniana della intraducibilità delle<br />
teorie, anche se tanto gli aristotelici che Copernico parlavano la stessa lingua,<br />
cioè il latino.<br />
Allo stesso modo in cui non ha senso chiedersi se la cultura hopi è migliore o<br />
peggiore della nostra, così non ha senso chiedersi se il paradigma tolemaico è<br />
migliore o peggiore del nostro. Passando al nuovo paradigma perdiamo la<br />
capacità di vedere che cosa c’è di buono nel vecchio paradigma. è errato dunque<br />
dire che il vecchio paradigma è “superato” dal nuovo, anche se ovviamente<br />
qualcosa del vecchio viene conservato, mentre altro viene cancellato . Questo<br />
perché cambiare paradigma vuol dire cambiare mondo: Galileo e Tolomeo<br />
vivono in realtà diverse, stante che la realtà è qualcosa che viene percepito<br />
attraverso il filtro del paradigma.<br />
Queste idee, come si può capire, ebbero un enorme risonanza. Facevano cadere<br />
in un solo colpo il mito della superiorità della scienza rispetto ad altre forme di<br />
rapporto con il mondo (letteratura, pittura, storia, ideologia) e mettevano in crisi<br />
la convinzione che la scienza garantisse una conoscenza progressivamente<br />
più profonda del mondo.<br />
§3. Nell’arco di pochi anni idee simili a quelle di Kuhn vennero sviluppate<br />
da studiosi di formazione diversa le cui conseguenze si manifestavano in forme
che apparivano anche più radicali. “Contro il metodo” di Feyerabend (un fisico<br />
passato alla filosofia) apparso nel 1975, porta l’antipositivismo di Kuhn alle<br />
estreme conseguenze. Galileo – l’eroe positivo di questo libro – ottenne i suoi<br />
successi non applicando i metodi codificati dagli epistemologi tradizionali ma<br />
violando sistematicamente le regole di quello che sarebbe stato poi codificato<br />
come un metodo scientifico. Ciò che Galileo poteva vedere nel suo famoso<br />
telescopio era ben poco rispetto a quanto diceva di vedere e soprattutto rispetto a<br />
quanto teorizzava di vedere: ciò che importava era catturare il consenso alle sue<br />
teorie e i dati sperimentali avevano valore propagandistico. Si sa con certezza<br />
che, nonostante gli venga ascritta la paternità del metodo sperimentali, Galileo<br />
non eseguì mai alcuni degli esperimenti di cui si faceva promotore. Gli<br />
esperimenti che Galileo prediligeva ( come quello della nave che doveva<br />
illustrare la relatività del moto) erano esperimenti mentali e in questi si<br />
presupponeva spesso la teoria che gli esperimenti miravano a corroborare.<br />
Lo slogan “tutto è teorico”, che divenne popolare anche in Italia negli anni ‘70,<br />
da Feyerabend veniva integrato con lo slogan dell’anarchismo<br />
metodologico:”tutto va bene”. Le teorie scientifiche entrano in competizione tra<br />
loro come i movimenti politici e, sul libero mercato, dominano per la loro<br />
capacità di catturare il consenso. Non c’è neppure una distinzione netta tra<br />
scienza e pseudoscienza: astrologia e magia nera possono influenzare la scienza<br />
ed entrare in competizione con essa senza che ciò implichi una svalutazione della<br />
scienza stessa.<br />
L’anarchismo metodologico di Feyerabend, che andava di pari passo con la
deregulation che si affermava in quegli anni negli Stati Uniti, convinse<br />
molti, inizialmente sedotti dalle idee di Kuhn, che il nuovo relativismo stava<br />
spingendo in una direzione pericolosa. Veniva messa in crisi non soltanto la<br />
capacità della scienza di descrivere un mondo oggettivo, ma la stessa distinzione<br />
della scienza rispetto ad altre attività che non sono solo estranee alla scienza ma<br />
antiscientifiche. Che cosa distingue più, in un anarchismo coerente, la fisica<br />
dalle scienze occulte o dalla dianetica di Ron Hubbard?<br />
Sulla strada indicata da Feyerabend pochi anni dopo si è sviluppata la<br />
filosofia di Richard Rorty, un filosofo che coerentemente con le proprie idee si è<br />
poi trasferito in un dipartimento di letteratura. In “La scienza e lo specchio della<br />
natura”(1979) Rorty annulla la distinzione tra linguaggio e mondo. L’ipotesi che<br />
esista un mondo speculare al linguaggio (metafisica del Tractatus) o un mondo<br />
indipendente dal linguaggio non è necessaria. La verità non è la corrispondenza<br />
con un mondo “là fuori” ma l’asseribilità garantita dal consenso. “La razionalità<br />
scientifica – scrive Rorty è solo questione di essere aperti e curiosi,e di fare<br />
affidamento sulla ragione anziché sulla forza” : con il che si può classificare per<br />
scienza più o meno tutto quello che ottiene il consenso in modo non violento.<br />
Esiste una babele di linguaggi : il linguaggio della fisica, della sociologia, il<br />
linguaggio ordinario, che hanno tra di loro rapporti complessi. Compito del<br />
filosofo è mettere in comunicazione questi linguaggi operando delle traduzioni,<br />
o meglio delle interpretazioni. Il lavoro del filosofo è un lavoro ermeneutico ,<br />
ben lontana dall’analisi logica dei postitivisti : incidentalmente, più simile al<br />
lavoro dello storico che Croce e Gentile proponevano come compito<br />
dell’intellettuale dopo la fine della filosofia.<br />
Può essere interessante osservare che le radici del postpositivismo si trovavano<br />
già all’interno di alcuni orientamenti emersi all’interno del positivismo logico. In<br />
particolare Neurath, in dura polemica con Schlick, negava che la verità di un<br />
enunciato atomico (p.es. il tavolo è rosso) si potesse stabilire confrontando il<br />
linguaggio con un mondo extralinguistico. Gli enunciati si confrontano solo con<br />
altri linguaggi e non con dati sensoriali o “fatti” nel senso del Tractatus di<br />
Wittgenstein. Che cosa allora rende un enunciato vero o falso ?<br />
Qui bisogna accennare al fatto che nella storia del pensiero si sono affacciate<br />
diverse teorie della verità, ma qui importa menzionarne due di grande<br />
importanza: quella corrispondentista e quella coerentista. Secondo i
corrispondentisti la verità di un enunciato consiste nel suo rispecchiare qualche<br />
aspetto reale del mondo (Aristotele : “dire il vero significa dire di ciò che è, che è<br />
e di ciò che non è, che non è”). Questo sembra ovvio, ma si pensi che ci sono<br />
molti casi in cui saremmo imbarazzati ad indicare la porzione di realtà (il fatto o<br />
i fatti, secondo il Tractatus) a cui gli enunciati veri corrispondono. A che fatto<br />
corrisponde 2+2=4 ? A che fatto corrisponde l’enunciato vero che tutti i corvi<br />
sono colorati? Le leggi di natura sono come questa sono congiunzioni<br />
infinitarie: esistono allora fatti infinitari? A che fatto corrisponde l’enunciato<br />
negativo vero che Milano non è in Vietnam?<br />
I coerentisti evitano di agganciare la verità alla sfera dei fatti. In tal modo, rotti<br />
gli ormeggi con la realtà, resta aperta solo la possibilità di valutare i rapporti<br />
degli enunciati tra di loro. Gli enunciati veri formano un insieme accettato e<br />
coerente (privo di contraddizioni) e la verità di un enunciato consiste nel suo<br />
essere coerente con l’insieme degli enunciati accettati. Questa concezione è<br />
quella tipica degli idealisti come Hegel o Croce, che vedevano il mondo come<br />
una costruzione dello spirito. Neurath in effetti anticipava da un lato l’olismo di<br />
Quine , dall’altro il rifiuto dei postpositivisti a vedere nella scienza una<br />
fotografia della realtà.<br />
In effetti un’ obiezione che venne immediatamente opposta al nuovo trend<br />
postpositivista consisteva nell’accusare la nuova filosofia della scienze di essere<br />
una forma di idealismo più o meno camuffato. I. Scheffler e K.Kordig in<br />
particolare, con due libri tradotti anche in italiano, non avevano difficoltà a<br />
mostrare i punti deboli delle nuove concezioni. Il coerentismo in particolare era<br />
una fonte di problemi. Il problema principale è che non c’è un solo insieme<br />
coerente di enunciati che può essere proposto come “accettato”. La coerenza può<br />
essere stabilita in vari modi. ”Domani piove e “domani non piove” sono due<br />
proposizioni coerenti con quanto sappiamo; eppure una sola della due sarà
l’alternativa vera.<br />
Certo il consenso degli scienziati si dirige verso alcuni insiemi coerenti di<br />
credenze piuttosto che verso altri. Ma, se è per quello, anche sistemi paranoici<br />
di credenze come quello, p.es. Nazista ( che tra l'altro aveva ricadute importanti<br />
sul piano strettamente scientifico) hanno riscosso ampi consensi. Bisogna<br />
distinguere allora tra un consenso raggiunto con mezzi qualsiasi e un consenso<br />
razionale, distinzione sulla quale i postpositivisti hanno detto ben poco.<br />
La produzione degli ultimi anni di Kuhn (scomparso nel 1996) mostrava una<br />
maggiore cautela nella difesa delle sue tesi di fondo. In particolare, Kuhn<br />
osservava che nel repertorio di argomenti con cui gli scienziati difendono un<br />
paradigma o decidono tra due paradigmi in conflitto hanno un peso maggiore le<br />
valutazioni basate sulla probabilità, sulla valutazione dell’evidenza e via<br />
dicendo. Inoltre, riconosceva che era meglio evitare di dire che paradigmi<br />
diversi determinano mondi diversi, cercando di mettersi al riparo dall’accusa di<br />
propugnare una forma prescientifica di idealismo.<br />
§3 Le posizioni più oltranziste nel postpositivismo non potevano non suscitare<br />
delle reazioni vivaci e, come sempre accade, non potevano non stimolare dei<br />
tentativi di mediazione. Vale la pena di citarne due, che hanno avuto giustamente<br />
fortuna: quello di Lakatos e quello di Putnam.<br />
Quando Lakatos conobbe in Inghilterra Popper e fu catturato nel campo<br />
magnetico suo pensiero, aveva alle spalle una vicenda umana e filosofica<br />
tormentata. Ungherese, era stato un filosofo di impostazione marxista e anche<br />
esponente del governo rivoluzionario di Imre Nagy nel 1956, che venne poi<br />
travolto dalla restaurazione filosovietica. Il suo popperismo si è associato in una<br />
sintesi ben riuscita con l’intuizione di fondo hegeliana secondo cui la storia del<br />
pensiero ha una razionalità intrinseca.<br />
L’idea di Lakatos è questa: una teoria accettata dalla comunità ha un nucleo,<br />
intorno al quale viene disposta una cintura protettiva di ipotesi, assunti ausiliari
ecc. che la difendono dalle falsificazioni. Tra queste compaiono le ipotesi ad hoc<br />
non verificate, che per Popper erano contrarie all’ etica falsificazionista o l’uso<br />
della clausola ceteris paribus, che funziona come comodo ammortizzatore di<br />
fronte ad apparenti controesempi. La teoria cresce su se stessa espandendosi in<br />
varie direzioni e prende la forma di quello che Lakatos chiama programma di<br />
ricerca: un programma di ricerca non è una singola teoria ma una successione di<br />
teorie ciascuna delle quali è un aggiustamento della precedente .Esso nuota in un<br />
“oceano di anomalie” e se queste sono intollerabili viene abbandonata, ma viene<br />
abbandonata solo quando si rende disponibile un programma di ricerca migliore<br />
– cioè più ricco e in grado di risolvere i problemi del primo. La metodologia dei<br />
programmi di ricerca quindi cerca di coniugare il falsificazionismo popperiano<br />
con la visione storicodinamica delle teorie inaugurata dai postpositivisti.<br />
Quanto a Hilary Putnam, è uno dei molti filosofi che hanno affrontato il<br />
problema più difficile che è implicito nella visione postpositivista, che è la<br />
questione del realismo. Se le teorie scientifiche rispecchiano la realtà,<br />
bisognerebbe concludere che il cambiamento delle teorie porti con sé un<br />
cambiamento della realtà? Se questo non accade, allora dobbiamo abbandonare<br />
l’idea che le teorie ripecchino la realtà e accettare che sono solo strumenti di<br />
previsione e di calcolo, come si è sostenuto varie volte negli anni 30<br />
(strumentalismo)? I postpositivisti hanno complicato la questione facendo<br />
collassare la distinzione tra osservativo e teorico, per cui la teoria influenzerebbe<br />
i dati osservativi e quindi la stessa percezione della realtà. Hilary Putnam ha<br />
proposto una ragionevole mediazione che ricorda la mediazione kantiana tra<br />
razionalismo ed empirismo. Rifiutando la sua originaria adesione al “realismo<br />
metafisico” (il punto di vista di Dio), il “realismo interno” di Putnam consiste<br />
nel dire che le teorie influenzano la descrizione del mondo e anche i problemi<br />
che vengono proposti alla scienza, ma non al punto di condizionare le risposte e<br />
quindi la conoscibilità del mondo. Pur essendo un punto di vista kantiano,<br />
Putnam non accetta l'idea di un mondo noumenico , inconoscibile “in sè”.<br />
Indubbiamente c’è una differenza tra il classificare una balena come un pesce o<br />
come un mammifero, e questo naturalmente dipende da teorie presupposte. Ma<br />
una volta descritta la realtà nella cornice di una teoria, questa presenta elementi<br />
in grado di falsificare o confermare la stessa teoria da cui è descritta. Il mondo
non è in conoscibile, ma conoscibile attraverso il degli schemi concettuali. Si<br />
può connotare l’acqua come “l’unico liquido trasparente, incolore, inodore” –<br />
come si faceva ai tempi antichi oppure con H20, ma questo cambiamento<br />
riguarda il modo in cui ci si riferisce alla stessa entità, e non la natura dell’entità<br />
stessa. Circa il modo in cui i termini di un linguaggio si riferiscono a oggetti del<br />
mondo Putnam ha sviluppato una teoria del riferimento (detta di KripkePutnam)<br />
secondo cui in virtù di un battesimo iniziale i modi di cui viene connotato un<br />
oggetto conserva sempre un aggancio<br />
con un nucleo originario di significato condiviso.<br />
Invece di parlare di verità come corrispondenza a un mondo esterno, parleremo<br />
di accettabilità razionale. Di sicuro, per Putnam, il relativismo è una posizione<br />
sbagliata : se non altro perché, come già aveva visto Socrate contro Protagora, il<br />
relativista deve proporre il suo relativismo come qualcosa di assoluto, e quindi<br />
negare implicitamente il suo stesso relativismo nel momento in cui lo professa.<br />
[BIBLIOGRAFIA ESSENZIALE reperibile in italiano<br />
Hanson,N.R. Patterns of Discovery (1958) Syndics of the CAmbridge<br />
University Press, 1978 , trad.it Feltrinelli,Milano 1978<br />
Feyerabend,P.K., Against Method, NLB, 1975, trad.it. Contro il metodo,<br />
Feltrinelli,MI,1979<br />
Kuhn, T. , The Structure of Scientific Revolutions, trad.it. La struttura delle<br />
Rivoluzioni Scientifiche, Einaudi, Torino, 1978<br />
Kuhn,T., Sneed J.D., Stegmuller,W., Paradigmi e Rivoluzioni nella Scienza,<br />
a cura di M.Baldini, Armando, Roma, 1983
Rorty,R, Philosophy and the Mirror of Nature, Princeton U.P. 1979; trad.it. “La<br />
filosofia e lo specchio della natura” Bompiani,MI, 1986<br />
Lakatos,I.Musgrave (a cura di), Criticism and the Growth of Knowledge,<br />
Cambridge U.P. 1970, trad.it. Critica e Crescita della conoscenza, Feltrinelli,<br />
MI, 1976<br />
Popper ,K. Logik der Forschung, Springer, Vienna 1935, trad.it. in Logica della<br />
Scoperta Scientifica,, Einaudi,TO, 1974,<br />
Popper, K. Realism and the aim of Science from the Postscipt to the Logic of<br />
Scientific Discover, a cura di W.W.Bartley III (trad.it. Poscritto alla Logica<br />
della Scoperta Scientifica,Il Saggiatore, MI, 1984<br />
Putnam, H. Mente, linguaggio e realtà, tr. it. di Roberto Cordeschi, Adelphi,<br />
Milano, 1987. Matematica, materia e metodo, tr. it. di Giovanni Criscuolo,<br />
Adelphi, Milano, 19<br />
Quine,w.v.O., From a Logical Point of View, Harvard U.P, 1961, trad.it. Il<br />
problema del significato. Ubaldini, Roma, 1966<br />
Quine W.V.O, Saggi Filosofici 19701981 , a cura di M.Leonelli, Armando,<br />
Roma 1982<br />
Wittgenstein,L. Philosophical Investigations, 1951 trad.it Ricerche Filosofiche ]
III. LOGICA E <strong>FILOSOFIA</strong> DELLE SCIENZE FORMALI<br />
§1. Verso la metà dell’800 un geniale matematico tedesco, Georg Cantor, pose<br />
le basi di una teoria che era destinata a diventare, secondo un modo di pensare<br />
diffuso, non solo uno strumento concettuale prezioso ma il fondamento stesso<br />
di tutto il corpo della matematica: la teoria degli insiemi.<br />
Cantor non dava una definizione di insieme soddisfacente dal punto di vista<br />
contemporaneo, ma definiva in modo sufficientemente chiaro le operazioni tra<br />
insiemi e le relazioni tra insiemi. Le operazioni fondamentali tra insiemi sono :<br />
complementazione (−), unione (∪), intersezione (∩).<br />
Le relazioni sono invece : appartenenza (∈) e inclusione, (⊆). è importante non<br />
confondere queste due relazioni. Ogni insieme A è incluso in se stesso in quanto<br />
tutti gli elementi di A sono elementi di A (A ⊆ A), ma normalmente, anche se<br />
non sempre, un insieme A non appartiene a se stesso (A ∉ A : l’insieme delle<br />
mele non è una mela)<br />
Esistono inoltre due insiemi speciali, il più piccolo di tutti o insieme vuoto<br />
(∅) e il più grande di tutti o insieme totale (V).<br />
Che cosa distingue un insieme finito da un insieme infinito? La risposta di<br />
Cantor sfrutta una proprietà paradossale degli insiemi infiniti: essi hanno la<br />
stessa numerosità di alcuni loro sottoinsiemi propri (p.es., come già aveva notato<br />
Galileo, l’insieme dei numeri naturali N ha la stessa numerosità dell’insieme dei<br />
numeri pari, che è un insieme diverso da N incluso in N).<br />
La maggior gloria di Cantor è stata la teoria del transfinito, cioè la scoperta<br />
che ci sono diversi tipi di infinito: l’insieme dei numeri reali per esempio è più
numeroso dell’insieme dei numeri naturali, e da questo si può generare una<br />
gerarchia di insiemi di numerosità crescente. Quando un insieme è infinito o<br />
arbitrariamente grande, p.es. l’insieme dei numeri pari o l’insieme dei corvi, non<br />
possiamo descriverlo enumerando i suoi elementi (estensionalmente, come si<br />
dice) ma indicando la proprietà che gli elementi hanno in comune, e cioè<br />
menzionando la intensione o concetto che li accomuna. C’è un principio basilare<br />
che collega l’aspetto intensionale all’aspetto estensionale degli insiemi, il c. d.<br />
Principio di Comprensione:<br />
(PC) Per ogni proprietà P esiste l’ insieme di tutti e solo gli elementi che godono<br />
di P.<br />
Usando dei simboli si può simbolizzare così: per ogni x, Px sse x ∈⎨x: Px⎬<br />
Per esempio, data la proprietà “rosso”, esiste l’insieme di tutte e solo le cose<br />
rosse, mentre data la proprietà “essere un insieme infinito” esiste l’insieme di<br />
tutti e solo gli insiemi infiniti. Con un passo ulteriore Cantor scopre che<br />
possiamo rappresentare tutte i predicati relazionali come insiemi di insiemi<br />
ordinati di tipo particolare (p.es. la relazione “essere padre di” come l’insieme<br />
delle coppie ordinate di padri e figli) . Le funzioni sono intese come relazioni di<br />
tipo particolare , cioè relazioni della forma “moltiuno”.<br />
La descrizione delle relazioni tra insiemi può essere fatta entro una logica con<br />
il linguaggio più complesso di quello che Wittgenstein definiva mediante le<br />
tavole di verità. Se dico<br />
(U) “tutti gli uomini sono mortali”<br />
questo descrive una relazione tra insiemi, che potremmo anche descrivere<br />
dicendo<br />
(U*)“l’insieme degli uomini è incluso nell’insieme dei mortali”.<br />
Alternativamente, invece di dire<br />
(E) Qualche uomo è mortale<br />
potremmo dire<br />
(E*) L' intersezione tra insieme degli uomini e insieme dei mortali non è vuota.<br />
Il linguaggio proposizionale i cui connettivi sono descritti dalle tavole di verità<br />
contiene soltanto negazioni, disgiunzioni, congiunzioni, condizionali, ma la<br />
proposizione (U) non rientra in nessuna di queste categorie. D’altro canto è<br />
assurdo dire che si tratta di un enunciato atomico, della stessa forma di “piove”<br />
perché non descrive un fatto atomico, ma semmai ad una composizione di
infiniti fatti atomici. Per questo è necessario introdurre dei simboli appositi, i<br />
quantificatori, che ci consentano non solo di rappresentare proposizioni<br />
universali come U ma di distinguerle da altre più deboli come<br />
(E) “qualche uomo è mortale” .<br />
Gottlob Frege, il padre della logica contemporanea, introdusse una notazione e<br />
un insieme di regole per questi operatori (i quantificatori), in modo che U ed E<br />
vengono rese rispettivamente da queste due formule: ∀x(Ux ⊃ Mx) e ∃ x(Ux ∧<br />
Mx). In questo linguaggio con soggetti e predicati avremo un numero infinito di<br />
predicati U, M, S…. e un numero infinito di variabili x,y,z… che sono, come si<br />
dice, vincolate dai quantificatori.<br />
I predicati possono essere semplici ma anche relazionali, come “avere un<br />
padre”. Per esempio “ogni corvo ha un padre” diventa una formula complessa<br />
come ∀x(Cx ⊃ ∃y Pyx). Come abbiamo visto, i neopositivisti sosterranno in<br />
seguito che questo linguaggio standardizzato è il linguaggio ideale della scienza,<br />
e che compito primario dello scienziato è parafrasare il linguaggio ordinario<br />
in questo linguaggio perfetto.<br />
Con Frege per la prima volta la logica riceve un’assiomatizzazione. Viene<br />
cioè stabilito un insieme di enunciati fondamentali da cui, mediante regole<br />
molto semplici, si è in grado di derivare la totalità delle leggi logiche,<br />
proposizionali e quantificate, sotto forma di teoremi. Ma c’è di più: Frege ritiene<br />
che dagli assiomi della logica si possa derivare, mediante la logica stessa, tutta la<br />
teoria degli insiemi e tutta l’aritmetica. Si noti infatti che “essere un insieme” è<br />
un predicato come un altro e le due relazioni di appartenenza e di inclusione<br />
sono relazioni né più né meno come “padre di” e si possono quindi rappresentare<br />
entro la logica dei quantificatori. Per il resto, è ovvio che intersezione, unione e<br />
complementazione si possono rappresentare mediante i connettivi proposizionali<br />
di congiunzione, disgiunzione e negazione rispettivamente (p.es. l’insieme delle<br />
cose rosse e quadrate è l’intersezione dell’ insieme delle cose rosse con le cose<br />
quadrate)<br />
è degno di nota che le funzioni , tanto matematiche che non matematiche<br />
(p.es. quella che correla peso e statura di un individuo) si lasciano rappresentare<br />
come relazioni di tipo particolare , cioè relazioni della forma moltiuno. Una<br />
particolare funzione è la corrispondenza biunivoca, che mette in correlazioni<br />
insiemi della stessa numerosità, p.es. l’ insieme formato da Romolo e Remo e<br />
quello formato da Caino e Abele. Per stabilire questa corrispondenza non è
necessario possedere il concetto di numero. In compenso, possiamo definire la<br />
nozione di numero cardinale mediante la nozione di corrispondenza biunivoca.<br />
Possiamo creare l’insieme di tutti gli insiemi che possono essere messi in<br />
corrispondenza con l’insieme formato da Romolo e Remo e chiamarlo “Numero<br />
2”. Allo stesso modo, possiamo formare l’insieme di tutti gli insiemi che si<br />
possono mettere in corrispondenza biunivoca con l’insieme dei Tre Moschettieri<br />
e chiamarlo “numero 3” e così via all’infinito. Lo zero sarà ovviamente l’insieme<br />
formato dall’insieme vuoto.<br />
Frege fa vedere come le operazioni dell’aritmetica Somma,<br />
sottrazione,moltiplicazione, divisione si possono definire in termini<br />
insiemistici.<br />
In quegli anni un italiano, Giuseppe Peano, aveva formulato gli assiomi per<br />
l’aritmetica (aritmetica di Peano) e Frege fece vedere che questi assiomi si<br />
potevano derivare dalla teoria degli insiemi e quindi indirettamente dalla logica.<br />
I rami superiori dell’aritmetica –calcolo delle probabilità, calcolo<br />
infinitesimale, teoria dei numeri complessi, ecc. per Frege erano costruibili come<br />
rami dell’aritmetica, e quindi indirettamente come rami della logica.<br />
Questa imponente costruzione concettuale, che Frege chiamava programma<br />
logicista, rappresentava il primo tentativo di dare un fondamento alle scienze<br />
formali assicurando nelle stesso tempo ad esse un linguaggio comune e un<br />
insieme di regole di ragionamento perfettamente codificate, offerte dalla logica.<br />
è degno di nota che in questo programma veniva rovesciato il rapporto tra logica<br />
e matematica che altri, come Gorge Boole, avevano esplorato con successo.<br />
Secondo Boole la logica si poteva ricostruire come un ramo particolare<br />
dell’algebra interpretando le variabili x,y,z… coma classi di oggetti e i segni .,+,<br />
come operazioni su classi. In tal modo Boole ricostruiva la parte valida della<br />
sillogistica aristotelica, ma non era in grado di rappresentare la logica di<br />
enunciati più complessi come quelli relazionali.<br />
Purtroppo questo ottimismo fondazionale era destinato a durare poco. Un<br />
giovane studioso inglese, Bertrand Russell, che intratteneva, già a 18 anni, un<br />
fitto carteggio con Frege, rilevò che il principio di comprensione, essenziale per
la teoria degli insiemi fregeana, portava a una contraddizione,o meglio ad una<br />
antinomia.<br />
Abbiamo visto che normalmente gli insiemi non appartengono a se stessi,<br />
anche se insiemi molto grandi, come l’insieme di tutti gli insiemi, godono di<br />
questa proprietà. Chiamiamo dunque “normali” gli insiemi che non si si<br />
autoappartengono. Per il principio di comprensione allora esiste<br />
l’insieme di tutti e soli gli insiemi normali (cioè un insieme che contiene questi e<br />
solo questi). Chiamiamo N questo insieme e chiediamo N ∈ N o N ∉ N? Tutte<br />
e due le domande, come si può facilmente vedere, portano ad una contraddizione<br />
: abbiamo quindi che N ∈ N se e solo se N ∉ N.<br />
è falso dunque che esiste l’insieme N, il che però mette in crisi il principio di<br />
comprensione. Si noti che questa antinomia assomiglia all’antinomia del<br />
mentitore: “Io mento” implica che dico la verità, ed è strano che Frege non<br />
avesse visto la difficoltà.<br />
Russell cercò di correggere la costruzione di Frege introducendo una<br />
gerarchizzazione degli insiemi in insiemi, insiemi di insiemi, ecc. Ciascuno di<br />
questi appartiene a un tipo diverso, e Russell introduce la convenzione che si<br />
può parlare di appartenenza solo di qualcosa rispetto a qualcosa di tipo superiore.<br />
Non si può quindi mai dire che x ∈ x o x ∉ x. Le complicazioni della teoria dei<br />
tipi furono però tali da far desistere lo stesso Russell dal continuare su questa<br />
strada. è stato suo merito, comunque, se nei tre ponderosissimi volumi dei<br />
Principia Mathematica (scritti insieme a A.N. Whitehead nel 1910) sono stati<br />
poste le basi della logica contemporanea, anche nello stile notazionale che è<br />
diverso da quello di Frege.<br />
§2. In quegli anni il programma logicista, per quanto sostenuto dal prestigio di<br />
Frege, Russell e Whitehead, non era l’unica risposta al problema che in quel<br />
momento era più avvertito, quello dei fondamenti della matematica. Due altri<br />
orientamenti di pensiero si affermavano in quegli stessi anni: quello intuizionista<br />
di Brouwer e quello formalista di Hilbert. L’intuizionismo è di fatto<br />
un ramo di quello che oggi viene più genericamente chiamato costruttivismo. Si<br />
tratta dell’idea per cui un enunciato A è vero quando esiste una dimostrazione di<br />
A, e falso quando esiste una dimostrazione di nonA, cioè una refutazione di A.
Per qualche A potrebbe non esserci né una dimostrazione né una refutazione:<br />
così accade per esempio per la congettura di Goldbach (ogni numero pari è la<br />
somma di due numeri primi), che è stata verificata dai computer per numeri<br />
astronomicamente grandi, ma non è mai stata dimostrata né refutata dagli<br />
assiomi di Peano. Questo comporta un abbandono della legge del terzo escluso.<br />
Brouwer ci metteva di suo una forma particolare di mentalismo, per cui la<br />
matematica è una costruzione della mente umana, sganciata dal linguaggio. I<br />
numeri naturali secondo lui sono oggetto di un’intuizione primaria che genera la<br />
successione numerica, e il problema per Brouwer e il suo più importante<br />
continuatore (H. Heyting) diventa naturalmente spiegare i numeri irrazionali ( il<br />
continuo) e introdurre metodi dimostrativi che sopperiscano alla perdita di<br />
quello strumento fondamentale di ragionamento che è il terzo escluso.<br />
Nonostante l’avversione di Brouwer per i formalismi, la logica intuizionista<br />
proposta da Heyting è oggi studiata con i metodi della logica simbolica.<br />
David Hilbert si colloca agli antipodi di Heyting escludendo completamente la<br />
componente psicologica. I rami della matematica per lui sono sistemi formali,<br />
intesi come giochi di segni governati da assiomi e regole che ne consentono la<br />
manipolazione concreta. Il significato associabile a questi simboli (la cosiddetta<br />
dimensione semantica) non ha alcun ruolo essenziale nella costruzione di un<br />
sistema formale. La matematica diventa quindi lo studio generale dei sistemi<br />
formali , come poi dirà il più importante formalista posthilbertiano, H.B. Curry.<br />
Un sistema di segni è accettabile quando è privo di contraddizioni (consistente),<br />
e il problema della consistenza diventa allora il problema cardinale del<br />
formalismo. Una volta dimostrato che il problema della consistenza della<br />
geometria e di altre teoria formali si riduceva la problema della consistenza<br />
dell’aritmetica, si trattava di studiare il problema della consistenza<br />
dell’aritmetica di Peano restando, per così dire, al suo interno. Secondo Hilbert<br />
questo si poteva fare escludendo il riferimento all’infinito e operando con
metodi “finitisti”, trattando le totalità infinite “come se “ esistessero realmente<br />
alla stregua delle totalità finite. Il problema è arduo perchè si tratta di operare<br />
senza ricorrere al cosiddetto principio di induzione matematica, che entra in<br />
gioco quando cerchiamo di dimostrare che infiniti oggetti godono di una stessa<br />
proprietà. Siano a0….. an,an+1….. infiniti oggetti a cui venga associato un<br />
numero naturale. Se voglio dimostrare, p.es. che sono tutti divisibili per due,<br />
dimostro in primo luogo che a0 è divisibile per 2 e poi, ipotizzando che un<br />
qualsiasi an sia divisibile per due, dimostro che il successivo a n+1 è pure<br />
divisibile per 2.<br />
Senza questo principio è impossibile dimostrare teoremi anche molto<br />
semplici, per es.<br />
Per ogni x,y,z : x +(y +z) = (x +y) + z<br />
La logica opera ora come teoria della dimostrazione o “metamatematica”,<br />
cioè come insieme di metodi atti a dimostrare dagli assiomi le proposizioni<br />
matematiche anche intuitivamente semplici, come a=a (teoria della<br />
dimostrazione) e a stabilire la consistenza dei sistemi formali. Gli enunciati di<br />
contenuto infinitario vengono trattati come complessi simbolici soggetti a regole<br />
precise e quindi depotenziati della loro portata metafisica.<br />
Von Neumann riuscì a dimostrare la consistenza di un sistema più debole<br />
dell’aritmetica di Peano, l’aritmetica con induzione limitata a proprietà non<br />
infinitarie. C’ era la speranza che si potesse arrivare in pochi anni a dimostrare lo<br />
stesso risultato per l’aritmetica di Peano.<br />
Un problema strettamente collegato è quello della decidibilità. Un sistema è<br />
decidibile quando in un tempo finito si può stabilire se un enunciato gli<br />
appartiene oppure no. Come disse Hilbert a un famoso convegno, il problema<br />
della decisione è il problema fondamentale delle scienze formali.<br />
Il problema della consistenza dell’aritmetica è il problema di sapere in tempo<br />
finito (quindi di decidere) se una contraddizione, p.es. 0≠ 0, appartiene o no ad
essa. Anche su questo regnava un certo ottimismo perché, p.es. M. Presburger<br />
aveva provato la decidibilità del frammento dell’aritmetica di Peano con la sola<br />
addizione.<br />
§3. Purtroppo nel giro di pochi anni le aspettative riposte nella capacità dei<br />
sistemi formali di catturare i contenuti del pensiero formale ricevevano una serie<br />
di dure smentite. In primo luogo Alfred Tarski dimostrava che il predicato di<br />
verità non può essere definito entro il linguaggio di una teoria consistente che<br />
contenga l‘ aritmetica ma solo entro il metalinguaggio della stessa. In altre<br />
parole non si può dimostrare in una teoria di questo genere l’enunciato: “A è<br />
vera se e solo se A” o “A è falsa se e solo se nonA” (altrimenti avremmo, per<br />
un certo A, e precisamente l’enunciato “questo enunciato è falso”, che esso è<br />
tanto vero che falso: questa è la ben nota antinomia del mentitore).<br />
Tarski comunque riusciva a dare un senso rigoroso alla parola “vero” entro il<br />
metalinguaggio della logica dei quantificatori, associando ad ogni predicato<br />
l’insieme degli enti che ne godono e parafrasando,p.es. “la neve è bianca” in<br />
“l’oggetto designato dalla parola “neve” appartiene all’insieme delle cose<br />
bianche”.<br />
Kurt Gödel nel 1933 dimostrava un doppio risultato limitativo di enorme<br />
portata tecnica e filosofica. Il c.d. “primo teorema di Gödel” si può esprimere<br />
così :”Ogni teoria consistente che contenga l’aritmetica di Peano è incompleta,<br />
cioè non contiene tutti gli enunciati aritmetici veri”.<br />
Ci sono dunque enunciati aritmetici veri che non possono essere dedotti da un<br />
sistema assiomatico contenente l’aritmetica di Peano. Questo sorprendente<br />
risultato è reso possibile da un metodo, scoperto dallo stesso Gödel, che consente<br />
di codificare in linguaggio matematico tutti gli asserti esprimibili nel linguaggio<br />
logico (gödelizzazione). Qualunque successione finita di formule, p. es.<br />
A ⊃ A, viene associata univocamente a un numero di codice –il suo numero di
Gödel– che la esprime. Dato quel numero di codice, possiamo risalire alla<br />
formula che gli corrisponde.<br />
Supponiamo ora di costruire una formula logica S che dica: S è indimostrabile<br />
(cioè dica di se stessa che è indimostrabile, allo stesso modo in cui il mentitore<br />
dice di se stesso “io sto mentendo”).<br />
Le dimostrazioni sono sequenze di formule, quindi la proposizione asserente un<br />
reapporto di dimostrabilità (Dim(x,y)) è vera quando x è il numero di Gödel di<br />
una sequenza dimostrativa che termina con una formula con numero di Gödel y.<br />
Questa relazione, come Gödel mostra, è decidibile, cioè si può sempre decidere<br />
se è vero o no che Dim(x,y). Gödel dimostra che se R è una relazione decidibile<br />
e R(m,n) è vero allora si dimostra nell’aritmetica R(m°,n°), dove m°,n° sono i<br />
numeri di Gödel che rappresentano m,n ; mentre se R(m,n,) è falso allora si<br />
dimostra nonR(m°, n°). Questo vale anche se R è precisamente il predicato<br />
Dim.<br />
Prendiamo ora la formula logica che asserisce, mediante opportuno impiego<br />
dei numeri di Gödel, (G) “io non ho la relazione Dim con me stessa”. Se per<br />
assurdo G si potesse dimostrare sarebbe vera. Ma in tal caso essa sarebbe<br />
dimostrabile per la proprietà vista rispetto a ogni relazione R(m,n) che sia<br />
decidibile, il che porta a una contraddizione. Quindi se G è dimostrabile G è<br />
falsa. Per converso: se G è vera, essa è indimostrabile. Ma allora G è vera!<br />
Infatti G asserisce la propria indimostrabilità: e, poiché è indimostrabile,<br />
asserisce qualcosa di vero.<br />
Quindi ci sono asserti matematici veri che sono, per quanto si è visto,<br />
indimostrabili. A questo risultato Gödel aggiunge un altro elemento, e cioè che
per enunciati come G, non solo G ma anche la negazione di G è<br />
indimostrabile. Quindi l’aritmetica è incompleta e anche indecidibile, perché la<br />
verità e la falsità di certi enunciati come G non può essere stabilita con i mezzi<br />
del sistema.<br />
Il secondo teorema di Gödel, corollario del primo, consiste nel far vedere che<br />
se un sistema come l’aritemtica di Peano può dimostrare la formula che esprime<br />
la sua stessa consistenza, allora potrebbe dimostrare G. Ma poiché G non è<br />
dimostrabile, la formula che esprime la consistenza dell’aritmetica non è neppure<br />
dimostrabile entro l’aritmetica di Peano. Il programma di Hilbert, che aspirava a<br />
dimostrare la consistenza dell’aritmetica usando il frammento finitista della<br />
stessa, si rivelava quindi infondato.<br />
La portata filosofica dei due teoremi di Gödel è stata formidabile.<br />
Un’implicazione che si è voluto ravvisare, incoraggiata peraltro dallo stesso<br />
Gödel, era che nessun dispositivo che applichi sistemi meccanici di<br />
dimostrazione è in grado di dimostrare asserti veri che la mente umana è<br />
evidentemente in grado di catturare. Di qui il riaccendersi di discussioni, del<br />
resto mai sopite , sul dualismo animocorpo e sulla rappresentabilità della mente<br />
come computer.<br />
[Bibliografia reperibile in italiano<br />
C.Mangione e S. Bozzi, Storia della logica.Da Boole ai nostri giorni, Garzanti,<br />
Milano 1993<br />
J.Crossley e altri, What is Mathematical Logic?, Oxford U.P. 1972, trad.it.<br />
Boringhieri, Torino, 1976<br />
G. Lolli, Filosofia della matematica, Il Mulino, Bologna, 2002<br />
S.G: Shankar (a cura di) Il teorema di Gödel, Muzzio, Padova, 1991<br />
C.Toffalori e P. Cintoli, Logica Matematica, McGrawHill, Milano, 2000]
IV. Il PROBLEMA DELL’INDUZIONE E I FONDAMENTI <strong>DELLA</strong><br />
PROBABILITA'<br />
§1. Secondo la dottrina tradizionale la differenza tra inferenza deduttiva e<br />
induttiva si può tracciare così: la prima va dal generale al particolare, l’altra<br />
in direzione opposta. Per esempio da “tutti i corvi sono neri” si deriva<br />
deduttivamente “tutti i corvi osservati sono neri ”, mentre il ragionamento<br />
induttivo sarebbe quello per cui da “tutti i corvi osservati sono neri” si deriva<br />
“tutti i corvi sono neri”.<br />
L’idea tuttavia è sbagliata per vari motivi. Uno di questi è che ci sono<br />
inferenze induttive che non rientrano nello schema sopra offerto. Per esempio<br />
l’inferenza da “tutti i corvi osservati sono neri” a “il prossimo corvo è nero” (a<br />
volte chiamata eduzione) non rientra nello schema visto, eppure è chiaramente<br />
un tipo particolare di induzione.<br />
Un modo semplice per caratterizzare, almeno in prima approssimazione, la<br />
differenza tra i ragionamenti si ha dicendo che nella transizione dalle premesse<br />
alle conclusioni alcuni ragionamenti vanno oltre quanto asserito nelle premesse<br />
permettendo un possibile incremento della nostra conoscenza (ampliativi) ed altri<br />
che non godono di questa proprietà.<br />
Volendo, potremmo caratterizzare come induttivi i ragionamenti ampliativi, e<br />
deduttivi quelli non ampliativi. Ma qui è opportuno fare una distinzione<br />
all’interno della classe dei ragionamenti ampliativi. Prendiamo questi due<br />
enunciati:<br />
(sa)“ se il fiammifero è stato sfregato si è acceso”<br />
(as)“se il fiammifero si è acceso, allora è stato sfregato”.
Sono ambedue ampliativi, ma il loro senso è diverso. Il primo ci permette di<br />
passare da una causa all’effetto, il secondo da un effetto a una presunta causa<br />
(più generalmente : dall’explanans all’explanandum) . Anche il grado di<br />
attendibilità del ragionamento è diverso. Infatti nel primo caso possiamo ritenere<br />
che la conclusione sia altamente attendibile, purchè ovviamente il fiammifero sia<br />
in condizioni normali (sia abbastanza asciutto ecc.). Nell’altro caso invece la<br />
conclusione è più aleatoria. Infatti ci sono diversi modi per accendere un<br />
fiammifero: lo si può sfregare, ma anche mettere vicino a una sorgente di calore.<br />
Il motivo per concludere, dal fatto che un fiammifero si è acceso, che è stato<br />
sfregato, dipende dalle informazioni di cui disponiamo. Se per esempio vediamo<br />
che vicino al fiammifero mancano superfici ruvide o carta vetrata e che c’è una<br />
candela accesa, la cosa migliore è concludere che il fiammifero è stato messo<br />
nella fiamma della candela.<br />
Per distinguere queste forme di inferenza ampliative, chiameremo induzione la<br />
prima e abduzione la seconda, recuperando una tripartizione teorizzata dal<br />
filosofo americano Peirce.<br />
Il discorso sull’abduzione in questa sede si può solo accennare. Secondo<br />
Peirce c’è una sorta di istinto abduttivo che ci porta a lanciare congetture<br />
esplicative e a selezionare l’ ipotesi migliore. è questo istinto che guida<br />
Sherlock Holmes nella sua ricerca del colpevole e uno scienziato come Keplero<br />
nella ricerca della traiettoria dei pianeti. Ci sono in effetti due fasi del<br />
procedimento abduttivo: la prima creativa (che consiste nel lanciare ipotesi ), la<br />
seconda selettiva, che consiste nel selezionare l’ ipotesi migliore eliminando una<br />
dopo l’altra le ipotesi peggiori. Mentre la selezione può essere effettuata in modo<br />
razionale, e quindi codificata come una logica vera e propria, è dubbio che<br />
l’abduzione creativa – come la creatività in generale – possa essere codificata.
§2. Il problema dell’induzione.<br />
L’induzione è stata all’origine di problemi non solo logici ma strettamente<br />
filosofici. Il problema di Hume, come è noto, è il seguente: non c’è nessuna<br />
garanzia logica che il futuro sia simile al passato, o più genericamente che<br />
l’ignoto sia simile al noto. In termini statistici: l’inferenza induttiva consiste nel<br />
passare da un campione all’universo, ma non c’è nessuna garanzia logica del<br />
fatto che le proprietà riscontrate nel campione si manifestino anche<br />
nell’universo. Ovviamente il campione deve rispettare dei requisiti ben noti agli<br />
statististici: in primo luogo deve essere randomizzato, omogeneo e<br />
sufficientemente ampio (si pensi alla scelta accurata dei campioni nei cosiddetti<br />
exit polls, che consentono di anticipare i risultati elettorali nel giro di pochi<br />
minuti con grande approssimazione). Anche così non c’ è nessuna garanzia che<br />
l’inferenza ci porti infallibilmente a conclusioni vere. Basti pensare al fatto che<br />
dopo aver osservato un numero enorme di cigni bianchi, si era convinti verso il<br />
1600 , che fosse vero che tutti i cigni sono bianchi. La scoperta dell’Australia, di<br />
cui prima non si sospettava neppure l’esistenza, portò invece una sorpresa,<br />
perché si scopri l’esistenza di una tribù di cigni neri.<br />
Verso il 1945 Nelson Goodman presentò un argomento logico per mostrare che<br />
nel passare dal campione all’universo siamo legittimati a inferire tutte le<br />
conclusioni che ci piacciono. Immaginiamo di aver osservato fino a oggi (2005)<br />
milioni di smeraldi verdi e nessuno smeraldo di altro colore. Introduciamo ora un<br />
predicato perfettamente definito che è<br />
Verdlù: verde e osservato prima del 3000 oppure blu e osservato dopo il 3000.<br />
Per la logica, se uno smeraldo è verde e osservato prima del 3000 allora a<br />
fortiori è verdlù (basta che un disgiunto sia vero perché la disgiunzione è vera) e<br />
tali sarà dopo il 3000 per un ragionamento induttivo. Ma che accade dopo il<br />
3000? Non saranno certo “verdi e osservati prima del 3000”, quindi varrà l’altro<br />
corno del dilemma: saranno blu e osservati dopo il 3000, quindi saranno blu.<br />
Le soluzione al rompicapo sono state diverse. Secondo alcuni dovremmo porre
dei limiti ai predicati usati. Questo sembra la morale da trarre anche da un altro<br />
paradosso, quello di Hempel.<br />
(C )“Tutti i corvi sono neri” equivale a<br />
(C*)“Tutti gli oggetti nonneri sono noncorvi”.<br />
Secondo la teoria della conferma di Hempel C, cioè che tutti i corvi sono neri, è<br />
confermato da “a è corvo & a è nero, b è un corvo e b è nero “ ecc. e la<br />
conferma aumenta con l’aumentare dell’evidenza confermante. A parità di<br />
ragionamento, C* è confermata da “a non è nero e a non è un corvo” ecc. .<br />
Questa seconda evidenza confermerà però che tutti i corvi sono neri, dato che C<br />
e C* sono equivalenti. Basta allora l’osservazione di una scarpa gialla o di un<br />
tavolo verde per confermare che tutti i corvi sono neri.<br />
Eliminando (ma è difficile dire come) predicati non standard come “non<br />
corvo”, “nonnero”, verdlu’ ecc. sembra che i paradossi della conferma in queste<br />
formulazioni spariscano. Ma non sparisce il problema basilare di Hume, che<br />
aveva puntato il dito sul fatto che ogni inferenza induttiva è logicamente errata:<br />
si può benissimo immaginare un mondo “miracoloso” in cui il fiammifero<br />
sfregato non si accenda, gli smeraldi diventino blu e addirittura un mondo in cui<br />
a partire da questa notte spariscano tutti i fiammiferi e tutti gli smeraldi.<br />
§3. Risposte alla sfida di Hume (la giustificazione dell’induzione).<br />
Il problema principale dunque è la giustificazione dell’induzione. L’induzione,<br />
come si è detto è la gloria della scienza e lo scandalo della filosofia. Quindi<br />
dobbiamo trovare motivi che non solo ci dicano che cosa rende valida<br />
l’induzione ma ci diano criteri per scegliere tra conclusioni induttive diverse ed
eventualmente incompatibili.<br />
Il problema dell’induzione è strettamente connesso a un altro: infatti noi<br />
siamo alla ricerca anche di criteri per distinguere tra generalizzazioni vere per<br />
accidente e generalizzazioni nomiche, cioè che che costituiscono leggi di natura.<br />
P.es:<br />
“Tutti i pianeti hanno un nome di un dio greco”<br />
“Tutti i pianeti ruotano in ellissi”<br />
hanno la stessa forma e sono ben confermate, eppure la prima non è una legge, la<br />
seconda sì.<br />
Dal punto di vista di Popper non c’è nessun problema dell’induzione perché<br />
l’induzione non ha alcun ruolo nella scienza. Le leggi secondo Popper non<br />
sono confermate (cioè non ricevono nessun valore di probabilità) ma sono<br />
corroborate: in altri termini sono solo ipotesi che hanno resistito a test<br />
elaborati con la sincera intenzione di scalzarle. La corroborazione “assomiglia”<br />
alla conferma ma si distingue soprattutto perchè non ha senso assegnarle dei<br />
valori numerici<br />
Le risposte al problema della giustificazione sono state molteplici ma qui<br />
distingueremo solo quelle che hanno dominato il campo nel ‘900.<br />
a.Teorie presupposizionali dell’induzione (Mill, Keynes, Burks). Oggi poco<br />
popolare, questa concezione ha un enorme merito: quella di cercare di ridurre<br />
l’induzione alla deduzione, negando la dicotomia tra due tipi di ragionamento<br />
diversi. Si parte dall’osservazione che spesso i ragionamenti deduttivi sono<br />
espressi in modo incompleto, di solito per il fatto di non esplicitare alcune delle
premesse soppresse, come quando si dice,.p.es. “Bilbo è un gatto, quindi è un<br />
felino”, che sottace la premessa “tutti i gatti sono felini”. Argomenti incompleti<br />
di questo genere sono chiamati entimemi da Aristotele. Un argomento induttivo<br />
come “tutti i corvi osservati sono neri , quindi tutti i corvi sono neri” sono<br />
entimemi in quanto sottintendono qualche principio esprimente l’invarianza dei<br />
nessi accertati con l’osservazione. Di solito si parla di principio di Uniformità<br />
della Natura per designare l’idea per cui un nesso associativo o causale accertato<br />
in una zona limitata dello spaziotempo vale in tutte le zone dello spaziotempo.<br />
è indubbio che questo principio è applicato consciamente o inconsciamente<br />
dagli scienziati nella ricerca scientifica<br />
Come Hume aveva visto acutamente, il problema è sapere da dove proviene la<br />
nostra fiducia nell’ Uniformità della Natura. Se tale principio è stabilito<br />
induttivamente cadiamo in un circolo vizioso, d’altro canto non può essere<br />
stabilito deduttivamente. Ma una via d’uscita a cui spesso si ricorre è la categoria<br />
del sintetico a priori kantiano: si tratterebbe di un principio che, come il<br />
principio di causalità, riguarda il mondo ma è qualcosa che rende l’esperienza<br />
possibile e quindi a priori rispetto ad essa.<br />
Gli empiristi tuttavia rifiutano il sintetico a priori, che dal loro punto di vista è<br />
una contraddizione in termini. Carnap ha proposto una diversa riduzione<br />
dell’induzione alla deduzione creando una logica induttiva come ramo della<br />
logica deduttiva (ponendosi quindi nel solco del programma logicista). I<br />
ragionamenti induttivi sono ragionamenti incompleti perché manca un’<br />
informazione non nelle premesse ma nella conclusione. Se si specifica che il<br />
grado di probabilità dell’asserto che il prossimo corvo è nero è, p.es. 90%, allora<br />
il ragionamento che porta da “tutti i corvi osservati sono neri” a “il prossimo<br />
corvo è nero con probabilità del 90%” è deduttivamente valido. Si tratta<br />
naturalmente di calcolare correttamente tale grado di probabilità. Nel 1951<br />
Carnap proponeva, ne “Il continuo dei metodi induttivi” non uno ma infiniti<br />
metodi di calcolo ottenuti dando valori numerici diversi a due parametri che<br />
misurano il peso dato alle convinzioni a priori e a posteriori, che Carnap chiama
fattore logico (λ dipendente dal numero dei predicati del linguaggio) e fattore<br />
empirico (ε, dipendente dalla frequenza relativa m/n). Purtroppo Carnap non dice<br />
come si deve scegliere λ o ε, introducendo un elemento di arbitrarietà che apre<br />
la strada al soggettivismo. Inoltre, per citare un apparente difetto tecnico del suo<br />
lavoro, accade che la probabilità che la legge infinitaria “tutti i corvi sono neri”<br />
riceve da “tutti i corvi osservati sono neri” è espresso da una frazione con un<br />
numeratore finito e un denominatore infinito, che come è noto, ha valore 0. C’è<br />
qualcosa di controintuitivo nell’assegnare valore di probabilità zero alle leggi di<br />
natura, anche se questo si potrebbe difendere dicendo che hanno valore<br />
informativo massimo e che sono improbabili e sorprendenti (come peraltro ha<br />
sottolineato Popper). Carnap difende il suo schema asserendo che ciò che<br />
importa è stabilire il grado di probabilità (conferma) non di “tutti i corvi sono<br />
neri” ma della previsione “il prossimo corvo sarà nero” (inferenza eduttiva). Il<br />
problema comunque è stato risolto da Hintikka inserendo nel continuo un terzo<br />
parametro esprimente il numero di individui dell’universo, che comunque porta a<br />
valori che tendono verso zero per universi molto grandi.<br />
b.Giustificazione pragmatica dell’induzione. Reichenbach, considerato il più<br />
grande empirista del XX secolo, ha aggirato il problema di Hume<br />
evidenziando il fatto che “giustificare” significa valutare positivamente i mezzi<br />
rispetto ai fini. Prendiamo la regola induttiva più semplice (regola diretta),<br />
quella che trascura il valore il fattore logico e asserisce, sulla base della<br />
frequenza osservata di m/n A che sono B nel campione, che il limite a cui<br />
tende tale percentuale al crescere di n è sempre m/n. Per Reichenbach questa<br />
regola è la migliore (a prescindere dal fatto, dimostrato poi da Salmon, che è<br />
l’unica tra le regole più importanti in grado di evitare contraddizioni da<br />
premesse consistenti) per il fatto che non abbiamo nulla da perdere a seguirla.<br />
Se la natura è uniforme, vuol dire che esiste un limite a cui tende la frequenza.<br />
Se tale limite esiste, la regola diretta è in grado di calcolarlo meglio di qualsiasi<br />
altra regola. Ma se il limite non esiste, e cioè se la natura non è uniforme, non
ci sono regole in grado di calcolarlo. Se un cieco segue una strada nel bosco, la<br />
cosa più razionale da fare è continuare sul sentiero seguito con successo, anche<br />
se per ipotesi dovesse esserci un baratro.<br />
c. Giustificazione induttiva dell’induzione. Una piccola minoranza di filosofi<br />
(Braithwaite, Black) ha difeso il carattere autoapplicativo dell’induzione. Sia R<br />
la regola:“la maggior parte degli A esaminati sono B” “ Il prossimo A è B”.<br />
Secondo questi filosofi “R per lo più ha funzionato R funzionerà nel<br />
prossimo caso” contiene una circolarità solo apparente perché non presuppone la<br />
validità di R. La cosa però è dubbia perché “R ha per lo più funzionato” sembra<br />
indicare per l’appunto che R è una regola valida.<br />
§4. La nozione di probabilità e il calcolo delle probabilità.<br />
Il ragionamento induttivo nella sua forma più generale ha la forma<br />
dell’induzione proporzionale, cioè di un ragionamento la cui premessa è una<br />
frequenza osservata “m/n A sono B” . Ora dire che il 51% dei bambini sono<br />
maschi alla nascita significa, secondo l’uso comune, dire che la probabilità di<br />
avere una nascita di maschi è del 51%. Si tratta dunque di un asserto<br />
probabilistico. Inoltre, le conclusioni di qualsiasi ragionamento ampliativo<br />
hanno un certo grado di probabilità rispetto alle premesse, quindi il nesso<br />
stesso tra le premesse e la conclusione ha natura probabilistica. Ma cosa sono le<br />
probabilità e come si calcolano? Secondo una scuola di pensiero che ha avuto<br />
una certa fortuna il metodo assiomatico è sufficiente a dare una definizione<br />
implicita dei concetti assiomatizzati : secondo Hilbert per esempio il concetto<br />
di punto, linea, retta è sufficientemente determinato dagli assiomi che li
contengono, purchè siano coerenti: Lo stesso dovrebbe valere per le<br />
probabilità, per cui a partire dal 1933 è disponibile un’assiomatizzazione<br />
rigorosa dovuta al russo A. Kolmogorov. Secondo K. la probabilità è<br />
semplicemente la misura della dimensione di un evento. Un evento è un<br />
insieme di esiti di qualche esperimento: per esempio “uscita del 2 alla roulette<br />
2”oppure “uscita di un numero pari alla roulette”. Un evento certo avrà<br />
probabilità 100%, uno impossibile 0 e uno incerto un valore variabile tra 0 e<br />
100%.. Essendo una misura come il peso o la statura, la probabilità avrà la<br />
caratteristica di essere additiva:<br />
Pr (A ∪ B) = Pr(A) + Pr(B) – Pr(A ∩ B). (Principio delle probabilità totali).<br />
Per la definizioni di evento, esso viene inteso come il risultato di un esito di<br />
un esperimento, p.es. il lancio di due dadi simultaneamente o lo sparo di un<br />
colpo di mortaio. Gli eventi costituiscono un’algebra di insiemi, cioè il<br />
complemento e l’intersezione di insiemi è ancora un insieme.<br />
Il concetto non banale è quello di probabilità condizionata o subordinata<br />
(PC) Pr(B|A) = Pr (A ∩ B) Pr(A)≠0<br />
Pr(A)<br />
Questa nozione è importantissima perchè ci consente di esprimere<br />
l’indipendenza tra due eventi in questo modo: A e B sono indipendenti quando<br />
Pr(B/A) = Pr B (viceversa , sono dipendenti quando in luogo della identità<br />
abbiamo la disuguaglianza).<br />
Grazie alla nozione di indipendenza riusciamo a stabilire, per una elementare<br />
applicazione di PC, la probabilità di una congiunzione di eventi indipendenti:<br />
Se Pr(B|A)= PrB, Pr(A ∩ B) = Pr A x Pr(B). (principio delle probabilità<br />
composte).<br />
§5. La filosofia della probabilità<br />
Il problema sul tappeto è sapere se è sufficiente possedere assiomi per la
probabilità per rispondere alla domanda “che cos’ è la probabilità?”.<br />
Ammesso che la risposta sia positiva, il calcolo delle probabilità è un<br />
meccanismo per calcolare probabilità a partire da altre probabilità, ma non<br />
consente di dare criteri per assegnare le probabilità che funzionano come input<br />
del calcolo (probabilità iniziali). Il problema principale della filosofia della<br />
probabilità è per l’appunto questo.<br />
Uno dei padri fondatori del calcolo delle probabilità, Laplace, ha formulato<br />
una definizione di probabilità che ha dato una risposta al problema considerata<br />
soddisfacente per molto tempo. La probabilità è il rapporto tra i casi favorevoli<br />
all’evento e i casi possibili, purchè egualmente possibili.<br />
Questa definizione è facilmente applicabile al tavolo da gioco, dove il calcolo<br />
delle probabilità è sostanzialmente nato nel ‘600 per impulso soprattutto di nobili<br />
sfaccendati come il Principe de Merèe. Nei giochi d’azzardo ci troviamo di<br />
fronte a problemi quali: se lanciamo un dado, qual è la probabilità che esca un<br />
numero pari? I casi possibili sono sei , i casi favorevoli 3, quindi la risposta è ½.<br />
Ma la risposta si può dare solo se si sa che i casi sono equipossibili , e qui<br />
cominciano ad apparire le difficoltà: perché equipossibile sembra uguale ad<br />
equiprobabile, quindi devo già applicare la nozione di probabilità per stabilire la<br />
equiprobabilità.<br />
a. Laplace applica allora il principio di indifferenza: due casi sono equipossibili<br />
quando non abbiamo motivo di aspettarci una piuttosto dell’altra. Questa<br />
clausola funziona molto spesso senza grossi problemi; ma è chiaro che<br />
introduce una relativizzazione alle conoscenze dei soggetti , che può essere<br />
variabile nel tempo. Keynes nel Treatise on Probability (1921) ha dedicato<br />
molte pagine al principio di indifferenza, formulando una sua correzione che
consiste essenzialmente nel chiedere che le alternative non siano decomponibili<br />
in sottoalternative.<br />
Keynes, Carnap, Jeffreys ed altri negli anni Trenta in realtà si proponevano di<br />
salvare il nocciolo della concezione classica cercando di rendere applicabile non<br />
solo al caso delle alternative indifferenti ma a tutti i casi. La probabilità per<br />
questi filosofi logicisti è un rapporto logico tra una evidenza e una ipotesi.<br />
Carnap ne parla come grado di conferma, e quindi fa coincidere il grado di<br />
conferma, la logica induttiva e il calcolo delle probabilità. La forma corretta di<br />
un enunciato probabilistico non è Pr(A)=r ma Pr(h|e)=r.Se vere, questi asserti<br />
sono veri logicamente, e se falsi, logicamente falsi.<br />
Per esempio la probabilità che il prossimo corvo è nero dato che sono stati<br />
osservati 4 corvi neri e un corvo albino è un certo valore determinato ( sotto certe<br />
premesse 4/5). Per stabilire questi valori Carnap introduce diversi gruppi di<br />
assiomi oltre a quelli strettamente matematici (assiomi di regolarità, di<br />
invarianza, di rilevanza di significato). Nel continuo dei metodi induttivi, come<br />
già accennato, vengono introdotti due parametri (uno logico e uno empirico) che<br />
rendono più complesso e soprattutto non univoco, il ristulato di questi calcoli.<br />
b. Mentre Laplace sviluppava la sua concezione aprioristica della probabilità,<br />
faceva rapidi progressi una disciplina con un vasto spettro di applicazioni, la<br />
statistica. Nata per gli interessi delle compagnie di assicurazioni, la statistica<br />
diventava uno strumento indispensabile nell’epidemiologia e quindi nella fisica,<br />
soprattutto per lo studio dei gas (Boltzmann). Le affermazioni probabilistiche gli<br />
statistici sono pure di forma Pr(B|A) = r, ma si leggono :la percentuale di A che<br />
sono B è m/n (per se. La percentuale di cigni che sono bianchi è 90%). Questi<br />
enunciati sono non analitici ma sintetici, non a priori ma a posteriori, perché<br />
dipendono da informazioni derivate dall’esperienza circa le frequenze osservate<br />
(frequentismo).<br />
Il primo frequentista da citare è stato John Venn (1886), ma è stato
Reichenbach a dare al frequentismo la massima dignità filosofica facendone<br />
l’unico punto di vista compatibile con l’empirismo (per il quale, come è noto,<br />
qualunque conoscenza non logica deriva dall’esperienza). Si noti che il<br />
frequentismo risolve immediatamente la difficoltà del principio di indifferenza.<br />
Per un frequentista gli enunciati probabilistici riguardano il mondo ed esprimono<br />
conoscenza sintetica del mondo. Per un empirista non ci sono conoscenza a<br />
priori, a parte quelle logicomatematiche, quindi il principio di indifferenza non è<br />
lecito perchè è basato su una forma di conoscenza a priori.<br />
Purtroppo solo in pochi casi è sufficiente identificare la probabilità con la<br />
percentuale di casi riscontrata in un insieme finito. Per conoscere la probabilità,<br />
per esempio che un abitante di un certo appartamento di un grattacielo sia<br />
biondo, è sufficiente esaminare tutti gli abitanti del grattacielo e vedere qual è la<br />
percentuale di persone bionde tra di essi.<br />
Se il numero di abitanti è troppo grande per consentire l'esame (riguarda, per<br />
esempio, gli abitanti di New York) possiamo surrogare l'esame suddetto con il<br />
metodo del campionamento, cioè esaminando solo un campione rappresentativo<br />
dell ' universo selezionato in modo adeguato.<br />
Ma che dire se l'universo le cui proprietà ci interessano è infinito? Supponiamo<br />
di colorare di rosso la faccia di un dado. Come possiamo sapere qual è la<br />
percentuale di uscite di questa faccia rossa in infiniti lanci – che per un<br />
frequentista equivale a dire la probabilità che esca questa faccia rossa?<br />
Per fare un’assegnazione di probabilità di questo tipo bisogna prendere in<br />
considerazione una sequenza (o un campione ordinato) di eventi le cui<br />
dimensioni sono illimitatamente grandi. Secondo la formulazione di
Reichenbach la probabilità di A entro una classe B (PrA|B) è il limite a cui<br />
tendono con il crescere di n le frequenze osservate di A in un campione di n<br />
elementi tratti da B. Se i limiti a cui tendono le frequenze di tutte le facce<br />
diremo che tutte le facce sono equiprobabili.<br />
è chiaro che c´ é una difficoltà del concetto di limite usato dai frequentisti,<br />
che non e´sicuramente uguale a quello usato in matematica. Il limite non<br />
puòessere calcolato con qualche algoritmo, anche perchè non c´ è nessuna<br />
garanzia logica che tale limite esista. Asserire che il limite esiste significa<br />
asserire il postulato dell’ uniformitàdella natura che, per quanto si è già detto, è<br />
controverso. In termini probabilistici l’asserto che la frequenza tende alla<br />
probabilità teorica e´detto postulato empirico del caso, e non è affatto un<br />
teorema del calcolo delle probabilità. Sfortunatamente a volte viene confuso con<br />
la legge dei grandi numeri, cioè con il c.d. teorema di Bernoulli<br />
Lim (n ∞) Pr [ | s/n –p| < ε ] =1<br />
Se il campione osservato deve essere rappresentativo della sequenza, come<br />
abbiamo già detto, deve inoltre avere delle proprietà di perfezione, prima di tutto<br />
quella di essere “casualità” , “irregolare” o “random”. Certo un dispositivo<br />
come il dado o la roulette tale casualità dovrebbe essere garantita dalla natura del<br />
dispositivo stesso. Ma questo non vale per classi di fatti che non dipendono dalla<br />
costruzioni di meccanismi aleatori. Le proprietà che dovrebbero possedere<br />
questi insiemi campione sono state oggetto di varie speculazioni matematiche.<br />
Si è cercato, a partire da von Mises, di definire le proprietà di un insieme<br />
essenzialmente irregolare. Sembra in effetti che ci sia qualcosa di paradossale nel<br />
trovare un insieme di regole per generare una sequenza irregolare. Si sono<br />
trovati in compenso buoni risultati empirici per la generazione di sequenze<br />
“pseudocasuali” (si noti che la sequenza dei decimali di π non puòdirsi<br />
irregolare in senso tecnico, anche se di fatto nessuno ha trovato una regolarità nel
modo in cui si succedono questi decimali: la si può comunque usare “di fatto”<br />
come matrice per sequenze numeriche casuali).<br />
Il frequentismo è diventato il punto di vista dominante presso gli statistici,<br />
dato che la nozione di probabilità che essi usano è di fatto quella frequentista.<br />
Le difficoltà comunque non mancano. Ci limitiamo a citare queste:<br />
a) la definizione statistica di probabilità non soddisfa gli assiomi di Kolmogorov<br />
per tutti i valori.<br />
b) per i frequentisti la probabilità descrive una frequenza entro una classe di<br />
riferimento: quindi non ha senso assegnare un valore di probabilità a eventi<br />
singoli ma solo a tipi di evento, p.es. “uscita del 2” . Non ha senso parlare di<br />
probabilità dell’ evento “uscita del 2 al terzo lancio”. Una variante del<br />
frequentismo detta “propensionismo” ha cercato di dare una risposta a questo<br />
problema tenendo conto delle condizioni in cui si verificano i singoli eventi. Se<br />
per esempio al terzo lancio il dado è zavorrato , ha un senso chiedersi qual è la<br />
probabiilità dell’uscita di 2 al terzo lancio. In questa visione la probabilità<br />
diventa una propensione di un dato dispositivo a produrre certi risultati in<br />
condizioni date.<br />
c) La corrente di filosofia della probabilità che ha avuto maggiori e crescenti<br />
consensi negli ultimi anni è quella soggettivista, dovuta a F.P. Ramsey e<br />
soprattutto al matematico italiano Bruno de Finetti. I soggettivisti ritengono che<br />
ci sono tante probabilità quanti sono i soggetti, dato che la probabilità è solo<br />
misura del grado di credenza soggettiva. Le probabilità iniziali vengono accettate<br />
osservando il comportamento dei soggetti nello scommettere. Supponiamo che il<br />
soggetto, trattando con un allibratore, accetti di scommettere 10 euro sulla<br />
vittoria di un cavallo per ricevere in cambio 100 euro. Vuol dire che considera<br />
rischiosa questa scommessa: il c.d. “quoziente di scommessa” 10/100 misura il<br />
grado di fiducia nel verficarsi dell’evento, e precisamente la probabilità del 10%
ad esso assegnato.<br />
Tutte le scommesse sono legittime salvo quelle che portano a perdita certa:<br />
per esempio quando si scommettono 10 euro su Testa e 10 euro su Croce dopo<br />
aver fissato un quoziente di scommessa di 10/15 (circa 66%). In tal caso si<br />
guadagnano in ogni caso 15 euro, ma la scommessa ne costa 20. Scommesse del<br />
genere vengono dette incoerenti. Il requisito della coerenza è pertanto l’unico<br />
che va rispettato, in quanto requisito di razionalità. Un sistema di scommesse<br />
incoerente (Dutch Book) può essere anche estremamente complesso, e sta allo<br />
scommettitore manifestare la sua razionalità rifiutandolo. Si può dimostrare che<br />
questa concezione della probabilità soddisfa gli assiomi di Kolmogorov. I<br />
vantaggi del soggettivismo sono innegabili. Si puòscommettere tanto su eventi<br />
singoli che su eventi ripetuti, si puòtenere in conto le frequenze osservate ma<br />
anche non tenerne alcun conto. Si puòassegnare una probabilità anche a un<br />
evento completamente nuovo, sulla base di convizioni che non c’ é’ bisogno di<br />
giustificare. Il giocatore di borsa opera spesso in questo modo , anche perchè<br />
non dispose di statistiche sui titoli ma si fida di informazioni riservate che sta a<br />
lui valutare, oppure semplicemente al suo fiuto. La fortuna del soggettivismo<br />
presso glie economisti è facile da spiegare, anche perchè i valori di probabilità<br />
vengono ricondotti a rapporti tra somme di denaro.<br />
Questa semplicità naturalmente ha un prezzo. Le osservazioni principali da<br />
fare sono queste<br />
1)Il quoziente di scommessa, poniamo del 10/100, vale tanto quando si<br />
scommettono 10 euro per averne 100 e quando si scommettono 1000 euro per<br />
averne 100.000. A parità di reddito, la seconda scommessa è molto piu’<br />
rischiosa. Per ovviare a questa difficoltà si potrebbe ricorrere (Ramsey) alla<br />
nozione di preferenza tra beni, che peròsembra presupponga una conoscenza<br />
delle probabilità.<br />
2) Ci sono leggi probabilistiche che sono accettate dalla scienza perchè hanno<br />
valore intersoggettivo.
3)I soggettivisti non sono in grado di dire che signiifca “apprendere dall’<br />
esperienza”, e cioè fare valutazioni probabilistiche razionali che siano<br />
proporzionali all’esperienza accumulata. Secondo wittgensteiniani come<br />
Strawson essere ragionevoli significa per definizione (cioè per gli usi del<br />
linguaggio ordinario) avere delle credenze commisurate all’evidenza, ossia<br />
ragionare induttivamente., mentre la razionalità intesa come coerenza nello<br />
scommettere non fa parte del repertorio concettuale ordinario, anche perchè si<br />
puòvivere benissimo senza fare l’esperienza dello scommettere, che tra l’altro<br />
presuppone l’esistenza di denaro circolante, sconosciuta in alcune culture<br />
tropicali.<br />
§6. Il teorema di Bayes e le sue applicazioni<br />
Negli ultimi anni l’attenzione degli epistemologi si è concentrata su uno<br />
strumento matematico che i soggettivisti hanno avuto il merito di porre al centro<br />
dell’attenzione in quanto dal loro punto di vista esprime l’unico senso preciso in<br />
cui si puòparlare di “inferenza dal noto all’ígnoto”. Dimostrato nel 700 da un<br />
matematico inglese, il torema di Bayes esprime la probabilità di A dato B in<br />
termini della probabiilità di B dato A ( per questo è chiamato anche teorema<br />
della probabilità inversa.)<br />
Pr A| B = Pr(A & B) =`Pr A x Pr(B|A)<br />
Pr(B) Pr(B)<br />
Se chiamiamo Pr(B|A) verosimiglianza (likelyhood) , la verosimiglianza ha<br />
normalmente valori diversi dalla probabilità . Per esempio la probabilità che<br />
tutti i corvi siano neri (A) dato che 100 corvi sono neri è diversa dalla<br />
probabilità che 100 corvi sono neri dato che tutti i corvi sono neri, che è<br />
esattamente del 100%. In tal caso anche un soggettivista può calcolare la
probabilità della generalizzazione induttiva una volta che conosca la<br />
verosimiglianza (che qui è ovviamente 1), e faccia un’assegnazione<br />
(eventualmente soggettiva) ad A e a B.<br />
Il teorema di Bayes, prediletto daí soggettivisti, è stato valorizzato come<br />
strumento inferenziale dai filosofi detti bayesiani, che non necessariamente<br />
sono soggettivisti (si parla di bayesianismo oggettivo). Esso pare fortemente<br />
adeguato soprattuto nel campo della cosiddetta abduzione, che nel caso piu’<br />
ovvio è l’inferenza dagli effetti alle cause. Se ci sono due ipotesi causali h1 e<br />
h2, il teorema di Bayes consente di calcolare quale delle due cause è la piu’<br />
probabile (confrontando cioè Pr h1|e e Pr h2|e) una volta che si sappia valutare<br />
qual è Pr e|h1 e Pre|h2 e si sia assegnato un valore a Pr(h1),Pr(h2) e Pr(e).<br />
[ Bibliografia reperibile in italiano<br />
G.Boniolo e P.Vidali, Filosofia della scienza, cap.4 e App2 , Ed. Bruno<br />
Mondadori, Milano,1999<br />
J.Hintikka: Induzione, accettazione , informazione, (a cura di<br />
P. Parlavecchia e M.Mondadori) Il Mulino,Bologna, 1974.<br />
L.J.Cohen : Introduzione alla filosofia dell'Induzione e della probabilità,<br />
Giuffrè, Milano 1998<br />
M.C.Galavotti: Probabilità, La Nuova Italia, Firenze, 2000<br />
C. Pizzi: Teorie della probabilità e teorie della causa, CLUEB, Bologna,<br />
1983<br />
P.Suppes: La logica del probabile: un approccio bayesiano alla probabilità,<br />
CLUEB, Bologna, 1984<br />
B.Skyrms, Introduzione alla logica induttiva, Il Mulino, Bologna, 1966]
V. LA <strong>FILOSOFIA</strong> <strong>DELLA</strong> CAUSALITA'<br />
1.Ci sono due principi che nella filosofia tradizionale hanno avuto il ruolo di<br />
caposaldi del pensiero scientifico: il cosiddetto “principio di causalità”, cioè<br />
l’assunto che ogni evento ha una causa e la sua variante più debole, il<br />
“principio di ragion sufficiente”, asserente che ogni cosa ha una ragion d’essere<br />
o fondamento , dove il fondamento è qualcosa che spiega l’effetto ma a,<br />
differenza della causa, non è necessitante per questo.<br />
In un celebre articolo scritto nel 1913 (ora in “Logica e Misticismo”), Bertrand<br />
Russell esprimeva l’opinione che il principio di causalità è “il relitto di un’era<br />
tramontata, il quale viene lasciato sopravvivere, come la monarchia,<br />
nell’opinione errata che non produca danni”.<br />
Con questa battuta Russell esprimeva un punto di vista che era corrente in<br />
ambienti scientifici influenzati dal positivismo e anticipava le posizioni di quello<br />
che sarebbe poi stato chiamato neopositivismo. Russell infatti non solo asseriva<br />
la fine del principio di causalità, ma profetizzava anche che qualunque scienza
avanzata il linguaggio causale era destinato a sparire, e che le cosiddette leggi<br />
causali sarebbero state formulate come equazioni differenziali in cui si<br />
esprimeva la variazione concomitante di determinate grandezze da determinate<br />
altre. Le variabili dipendenti avrebbero preso il posto degli effetti e le variabili<br />
indipendenti avrebbero preso il posto delle cause.<br />
La concezione di Russell presupponeva la fiducia nel primato della fisica<br />
(dove era per l’appunto in corso il processo di purificazione linguistica sopra<br />
descritto) e in realtà sottintendeva una completa fiducia in una futura confluenza<br />
di tutte le scienze nella fisica. Come è noto, dopo la prima guerra mondiale il<br />
neopositivismo avrebbe istituzionalizzato questo ruolo dominante nella fisica<br />
con il c.d. fisicalismo e, per quanto riguarda la causalità, avrebbe assunto un<br />
atteggiamento analogamente riduttivo. Wittgenstein nel Tractatus esprimeva in<br />
modo tagliente questi umori con l’aforisma “la credenza nel nesso causale è<br />
superstizione”. Quanto all’idea secondo cui ogni evento ha una causa,<br />
Wittgenstein osservava (6.16) che “se ci fosse un principio di causalità potrebbe<br />
suonare ‘Ci sono leggi di naturà”. Che cosa sono le leggi di natura? Wittgenstein<br />
e i suoi allievi più diretti come Schlick le intendono come regole che ci mettono<br />
in grado di prevedere i fenomeni o calcolare i valori delle loro proprietà<br />
misurabili. L’esistenza di leggi di natura dunque non è altro che l’esistenza di<br />
regole di inferenza o di calcolo di questo tipo.<br />
Tuttavia l’eclissi della causalità non aveva ancora completato la sua parabola<br />
se il più fedele portavoce di Wittgenstein, F. Waissmann, poteva scrivere nel<br />
secondo dopoguerra un lungo saggio intitolato “Tramonto e fine della causalità”.<br />
Secondo Waismann questo crollo definitivo della causalità sarebbe stato prodotto<br />
dal principio di indeterminazione di Heisenberg (1927) . Come è noto, in questo<br />
si afferma che è impossibile misurare simultaneamente due grandezze coniugate<br />
(p.es. la posizione e la velocità di un elettrone), e quindi anche di fare predizioni<br />
esatte circa i fenomeni del mondo subatomico. Possiamo parlare di cause senza<br />
effetti e di effetti senza cause. Secondo un punto di vista molto ripetuto, questa<br />
limitazione sarebbe dovuta all’interferenza dell’osservatore con l’oggetto<br />
microscopico osservato (si noti che per “vedere” qualsiasi cosa questa va colpita<br />
con un fascio di fotoni). Ma è sempre più chiaro che la limitazione è dovuta alla
natura stessa di particelle come gli elettroni, che si comportano tanto come onde<br />
che come corpuscoli, dando origine a manifestazioni che sono incomprensibili<br />
se analizzate con il linguaggio e con i metodi usati per il mondo macroscopico.<br />
Con tutto ciò si arrivava alla dissoluzione del determinismo causale di Laplace<br />
Come è noto, Laplace postulava la possibilità di un demone onnisciente in grado<br />
di calcolare in linea di principio tutte le qualità degli eventi passati e futuri<br />
conoscendo in modo completo lo stato di cose presente. Il caso è semplicemente,<br />
in questa prospettiva, l’ignoranza delle cause. Dopo Heisenberg invece il caso<br />
diventa un ingrediente ineliminabile della realtà stessa. In tutte le scienze<br />
emergenti, dalla sociologia alla biologia molecolare, leggi probabilistiche e<br />
statistiche sostituivano le leggi deterministiche, che si potevano in ogni caso<br />
presentare come casi limite delle prime.<br />
A quasi un secolo di distanza da quella che pareva una crisi irreversibile<br />
siamo in grado di fare un quadro della situazione piuttosto diverso da quello<br />
pronosticato da Russell e condiviso dai neopositivisti. Da un lato l’ attuazione<br />
del programma fiscalista sembra oggi addirittura più remota di quanto fosse ai<br />
tempi di Russell, e questo soprattutto per l’enorme rilievo che hanno assunto le<br />
scienze umanosociali. Dall’altro è un fatto che gli scienziati, fisici compresi,<br />
non hanno certo abbandonato il linguaggio causale nell’ attività di ricerca e<br />
dell’esposizione ufficiale dei loro risultati. I medici continuano a parlare di<br />
eziologia delle malattie, e a fare della ricerca della cause di queste il loro<br />
obiettivo fondamentale (una buona diagnosi è per tutti una questione di vita o di<br />
morte) e anche i fisici usano un gergo causale, anche se in modo più implicito<br />
che esplicito. Si pensi infatti che la maggior parte dei verbi transitivi attivi<br />
(“urtare”,”espellere”, “distruggere” ecc.) sono essenzialmente verbi di<br />
causazione in quanto descrivono un determinato rapporto tra evento causante ed<br />
evento causato. Anche nell’ipotesi che si possa eliminare il gergo causale dalla
formulazione delle leggi, sembra che questo sia impossibile nella descrizione<br />
della cosiddetta realtà fenomenica.<br />
Quanto precede forse basta da solo a spiegare il moltiplicarsi impressionante di<br />
saggi filosofici sulla causalità a partire dal 1960 circa, quando viene pubblicato<br />
“Causation in Law” di Hart & Honorè, due filosofi del diritto consapevoli<br />
dell’importanza che hanno le considerazioni causali nell’accertamento delle<br />
responsabilità penali. Certo questo trend è in parte motivato dall’esaurirsi del<br />
positivismo logico alla fine degli anni 50. Ma sarebbe un errore pensare che<br />
questa fioritura sia legata al postpositivismo, cioè al filone di pensiero della linea<br />
HansonKuhnFeyerabend. In realtà questa corrente filosofica è ben poco<br />
interessata all’analisi concettuale e si è limitata a mettere l’accento sul ruolo che<br />
hanno le teorie scientifiche nel rispondere alla domanda “qual è la causa del<br />
fenomeno x”? Di che cosa si tratti si può vedere facilmente da un esempio.<br />
Supponiamo che si verifichi un incidente stradale conclusosi con la morte di un<br />
conducente che in stato di ubriachezza passava con il rosso. Supponiamo di<br />
chiedere a un vigile urbano, a un medico, a un sociologo qual è la causa del<br />
decesso. Avremo verosimilmente delle risposte diverse. L’uno dirà che l’evento<br />
si è prodotto perché l’autista è passato con il rosso, l’altro indicherà la causa in<br />
un’emorragia inarrestabile, il terzo nel fatto che il guidatore era un alcolista. I tre<br />
soggetti sono influenzati da paradigmi diversi e individuano cause diverse.<br />
Individuare una causa significherebbe dunque usare un certo insieme di<br />
presupposti di sfondo (una teoria, un insieme di pregiudizi) per distinguere ciò<br />
che è rilevante da ciò che non è rilevante. Tutto ciò è indubbiamente vero sul<br />
piano della psicologia della ricerca scientifica, ma elude uno dei problemi<br />
centrali della filosofia della scienza, e cioè che esistono catene causali<br />
“oggettive”, cioè che i vari soggetti possono riconoscere come tali<br />
indipendentemente dal peso che ciascuno può voler assegnare ai singoli membri<br />
della catena? Questo problema è solo uno dei molti che sono stati recentemente<br />
oggetto di dibattito nella filosofia della causalità, dove con questo termine<br />
intendo rifermi a una nuova area di ricerca su temi comuni spesso scollegati,<br />
che attualmente vengono perseguite con strumenti diversi (logici, linguistici,<br />
algebrici, statistici) da studiosi di diversa estrazione che parlano linguaggi<br />
diversi.<br />
Vediamo insieme alcuni temi importanti da esaminare con la massima
attenzione.<br />
2. Gli studi sulla genesi del concetto di causa non sono, a rigore, filosofici.<br />
Tuttavia ha una grande importanza per la ricerca filosofica sapere come si<br />
sviluppano nel bambino le nozioni causali ,e confrontare questo sviluppo con<br />
quello subito da queste nozioni nella storia della cultura. Il riferimento obbligato<br />
qui è naturalmente alle ricerche di Jean Piaget e della sua scuola ginevrina.<br />
Il bambino ha coscienza prima di tutto della propria capacità produttiva,<br />
generativa e manipolativa, e in base a questo passo ad attribuire analoghi poteri<br />
agli oggetti che riconosce come esterni al proprio corpo. Il linguaggio ordinario<br />
è abbondantemente percorso da questa concezione produttivistica della causa.<br />
Noi diciamo infatti che il fuoco ha prodotto la scottatura, che il sedativo agisce<br />
sul sistema nervoso, che le scariche elettriche hanno generato un campo<br />
magnetico.<br />
Tutto questo è in accordo anche con l’animismo, cioè con la credenza comune<br />
ai popoli primitivi secondo cui tutti gli oggetti possiedono un’anima. Questa<br />
convinzione, o almeno i suoi residui, sono rintracciabili anche agli albori del<br />
pensiero occidentale,e precisamente nella dottrina aristotelica secondo cui<br />
esistono poteri occulti nelle sostanze, come il potere dell’oppio di causare il<br />
sonno o il potere del diamante di tagliare il vetro. Ebbene, nell’ambito della<br />
filosofia della causalità anche questa posizione filosofica ha ripreso vigore. Due<br />
filosofi inglesi influenzati da Wittgenstein, Harrè e Madden, hanno<br />
recentemente pubblicato un volume in cui si rilancia l’idea che l’ontologia<br />
adeguata alla scienza moderna sia quella che contempla una realtà formata da<br />
individui dotati di poteri.<br />
è difficile credere che una filosofia di questo genere (si direbbe una filosofia<br />
Lockeana aggiornata) sia presentabile agli albori del terzo millennio.
Supponiamo di dire che il digiuno di un certo deputato radicale ha causato il<br />
dimagrimento dello stesso. Qual è l’oggetto dotato di poteri che causa tale<br />
fenomeno? Non certo il cibo , a meno che non sia più una battuta dire “lo<br />
zucchero rende il caffè amaro, se non ce lo metti” . Alternativamente, possiamo<br />
dire che il digiuno è una sostanza dotata di poteri? Ma questo significa dilatare<br />
tropo il ventaglio di ciò che gli aristotelici intendono per sostanza. Non<br />
dimentichiamo che Don Ferrante di fronte alla peste di Milano osservava,<br />
seguendo Aristotele, che la peste non era né sostanza né accidente, e quindi che<br />
non poteva esistere. Un sostenitore di una teoria simile a quella di Harrè e<br />
Madden, Mario Bunge, ha liquidato il problema sostenendo che enunciati del<br />
genere necessitano di una complessa parafrasi, ma non dice quale.<br />
Una nozione di causa simile a questa, ma più accettabile per un fisico, sta nel<br />
ridurre la relazione di causaeffetto a quella di trasmissione di una grandezza<br />
(forza, momento, accelerazione…) da un corpo all’altro. Ma il tipo di<br />
controesempio da invocare è sempre lo stesso. Premendo l’interruttore la stanza<br />
da luminosa diventa buia, ma questo si ottiene non con la trasmissione del flusso<br />
di elettricità ma con l’interruzione dello stesso.<br />
Anche le ricerche sulla genesi del concetto di causa non hanno ottenuto un<br />
risultato univoco. Un conto infatti è la genesi nella mente del bambino, altra è<br />
la genesi nella storia della cultura umana. Già nel 1940 il grande giurista<br />
austriaco Hans Kelsen evidenziava che l’origine culturale della nozioni causali è<br />
di tipo etico giuridico. La parola “causa” (cfr. l’espressione “far causa a uno”)<br />
indica “il responsabile”. I primitivi vedono nella natura una lotta tra gli elementi<br />
della natura in cui viene perturbato l’equilibrio naturale. Il principio di causalità<br />
non è altro che una proiezione sulla natura del principio del contrappasso (cioè<br />
che la pena deve essere una vendetta proporzionata alla colpa): allo stesso modo<br />
in cui la vendetta adeguata ripristina l’equilibrio sociale, l’effetto adeguato<br />
ripristina l’equilibrio naturale.<br />
Ora quest’idea della natura come sistema in equilibrio sotto spinte differenti è<br />
vicina all’immagine che gli economisti danno oggi dei sistemi economici. Essi<br />
sono rappresentabili come modelli (sistemi di equazioni) in cui alcune variabili<br />
(p.es. salari) sono da considerare non influenzate da altre che dipendono dalle<br />
prime, e quindi ne sono l’effetto. Grazie a particolari espedienti matematici<br />
(studiati p.es. da Blalock e Simon) si riesce inoltre a dare un senso preciso<br />
all’idea di feedback, cioè alla retroazione delle variabilieffetto sulle variabili
causa, che tende a riportare un sistema all’equilibrio. In tal modo la teoria dei<br />
sistemi rientra nel filone dei molti tentativi volti a purificare l’idea di causa dai<br />
suoi connotati antropomorfi e metafisici.<br />
Questi tentativi, che nel 900 sono stai sviluppati con tecniche sofisticate,<br />
hanno un precedente illustre nel pensiero di David Hume. Erroneamente si è<br />
voluto vedere in questo filosofo uno scettico distruttivo che mirava a negare un<br />
senso agli asserti causali. In realtà Hume, come ogni empirista, si rifiuta di<br />
attribuire realtà a ciò che non è osservabile, e tali non sono i poteri causali e il<br />
nesso causaeffetto. La tesi di Hume è che quando asseriamo che c è causa di e<br />
stiamo semplicemente asserendo<br />
1) che c ed e si sono realmente verificati<br />
che eventi simili a c sono spazialmente contigui e regolarmente seguiti da eventi<br />
simili ad e.<br />
è solo per associazione ingannevole di idee, secondo Hume, che riteniamo che ci<br />
sia un legame occulto tra la causa e l’effetto o un potere causale della sostanza<br />
(regularity view).<br />
All’analisi di Hume sono state opposte diverse obiezioni ma le due principali<br />
sono le seguenti:<br />
I). Ci sono casi in cui si può stabilire un nesso causale con una sola<br />
osservazione, e quindi senza passare attraverso l’osservazione di esempi ripetuti.<br />
Thomas Reid, un contemporaneo di Hume, osservava per esempio che l’effetto<br />
della propria volontà sulle proprie azioni si può stabilire in modo immediato<br />
senza passare attraverso osservazioni ripetute. Non essendo un fenomeno<br />
pubblicamente osservabile, questo a rigore non è qualcosa che interessi un<br />
empirista. Comunque si possono escogitare altri esempi analoghi: p.es. si inietta<br />
un nuovo farmaco a una cavia e questa immediatamente muore: In mancanza di<br />
altre ipotesi causali secondo alcuni è lecito concludere che l’iniezione è stata<br />
causa della morte.<br />
II). Ci sono successioni regolari che rispecchiano i requisiti di Hume e tuttavia<br />
non sono causali.<br />
Reid osservava che il giorno è regolarmente seguito dalla notte e viceversa,<br />
senza che nessuno si possa dire causa dell’altro. La prima dentizione è
egolarmente seguita dalla seconda, ma non si può dire causa di questa. In molti<br />
processi deterministici linerari un certo tipo di evento è seguito da un altro senza<br />
che si possa dire che ne è la causa.<br />
Controesempi di questo genere si potrebbero considerare non decisivi. A<br />
proposito di questi si potrebbe argomentare che in effetti non si parla di nesso<br />
causa effetto, ma che nemmeno lo si esclude (dopo tutto , il giorno rende<br />
possibile la notte e la prima dentizione rende possibile la seconda) è dunque un<br />
caso di vaghezza semantica, in cui c’è una certa arbitarietà nella scelta del<br />
linguaggio.<br />
Ma casi di successioni regolari non causali esistono e sono all’ordine del<br />
giorno. Kant, come si sa, aveva l’abitudine di compiere una passeggiata<br />
quotidianamente nella piazza di Konigsberg con un puntualità cronometrica.<br />
Quindi ogni giorno la sua presenza nella piazza era seguita da una certa<br />
posizione delle lancette dell’orologio (orologio tanto tedesco quanto il filosofo).<br />
Nessuno però potrebbe dire che la presenza di Kant era la causa della posizione<br />
delle lancette, nonostante fosse a questa contigua anche spazialmente.<br />
Perché è possibile produrre controesempi di questo genere? Una risposta<br />
potrebbe essere che si tratta di generalizzazioni accidentali, non di leggi di<br />
natura. Se Kant fosse mancato un giorno all’appuntamento o l’orologio si fosse<br />
fermato per un guasto questo avrebbe creato sorpresa ma nessuno avrebbe<br />
gridato al miracolo, come quando Giosuè fermò il sole durante la battaglia di<br />
Gerico.<br />
E' sufficiente allora chiedere che sussistano leggi di successione regolare per<br />
parlare di relazioni causali? Con ciò siamo tornati al riduzionismo di<br />
Wittgenstein, cioè all’idea che l’esistenza di nessi causali altro non sia che<br />
l’esistenza di leggi di natura.<br />
La riposta però è ancora negativa. Noi sappiamo che l’abbassarsi della lancetta<br />
del barometro è regolarmente seguita dal maltempo (così si dice): abbiamo<br />
quindi una regola che ci consente di inferire, dall’abbassamento del barometro,<br />
l’avvicinarsi del maltempo. Eppure siamo anche sicuri che l’abbassarsi del
arometro non è causa del maltempo ma solo un indizio di questo. Altrimenti<br />
detto, si tratta di una causa spuria, e il motivo per cui sembra una causa genuina<br />
è che esiste una causa genuina antecedente (l’abbassamento della pressione<br />
atmosferica) da cui dipende tanto la variazione barometrica quanto l’effetto vero<br />
e proprio .<br />
è difficile quindi accettare l’analisi regolarista senza almeno questa<br />
correzione: c1 è causa di e se e segue nomicamente da c1, a meno che non<br />
esista una terza causa antecedente c2 da cui dipende tanto c1 che e.<br />
3. Negli anni ‘30 i neopositivisti hanno effettuato, soprattutto per merito di<br />
Hempel, un tentativo ancora più radicale di eliminare la nozione di causa. è<br />
sufficiente al proposito ricordare la teoria della spiegazione di Hempel<br />
Oppenheim. Molto semplicemente, se C è un elemento dell’explanans ed E è<br />
l’explanandum, diremo che C è causa di E (C , si direbbe è ragione sufficiente,<br />
una volta congiunta ad altre informazioni), per credere ad E. Parleremo di teoria<br />
“esplicazionista della causa” in quanto le cause vengono ridotte a fattori<br />
esplicativi.<br />
Rispetto alla teoria neohumeana, p.es. di Schlick, l’ esplicazionismo elimina il<br />
requisito della precedenza temporale delle cause. Supponiamo di chiedere:<br />
“perché quel passero costruisce il nido?” (explanandum) e che la risposta sia<br />
“perché disporrà in un momento successivo le uova nel nido”. Qui l’explanans è<br />
posteriore all’explanandum. Lo diremmo una causa? Aristotele diceva di sì e<br />
parlava al proposito di cause finali o posteriori all’effetto. Gli empiristi negano<br />
l’esistenza di questa causalità retroattiva e preferiscono dire in questo caso che il<br />
passero è stato programmato a mettere le uova nel nido, dove la programmazione<br />
genetica è una causa antecedente, non posteriore.<br />
Problema analogo è quello delle cause simultanee. Anche qui gli empiristi<br />
sono scettici e di solito sottoscrivono il principio di azione ritardata, secondo cui<br />
ogni azione “prende tempo”, fosse anche l’azione delle onde più veloci, che sono
quelle luminose. La velocità altissima della luce spiga alcuni apparenti esempi di<br />
causalità simultanea. Per esempio se premo il pulsante ho l’impressione che si<br />
accenda “simultaneamente” la lampadina, ma in realtà ciò che accade perché il<br />
lasso di tempo intercorso è impercettibile.<br />
Per concludere, un neohumeano potrebbe definire una causa C1 come una<br />
delle condizioni iniziali C1…Cn che fanno parte dell’explanans dell’effetto E<br />
(explanandum) che si verifica in un momento successivo. Si potrebbe anche dire<br />
che C1 è ceteris paribus sufficiente per E, dove l’espressione “ ceteris paribus”<br />
indica le condizioni di contorno preesistenti compatibili con E. Questo<br />
concezione è assai elegante, ma il controesempio del barometro ci fa riflettere<br />
sulla sua insufficienza. L’abbassarsi del barometro rende prevedibile la<br />
tempesta, ma non la spiega e tanto meno ne è causa. Sono stati fatti dei tentativi<br />
probabilistici molto sofisticati per distinguere le cause genuine dalle cause<br />
spurie, che è un problema di vitale importanza soprattutto quando sono in gioco<br />
delle correlazioni statistiche di eventi non facilmente ordinabili temporalmente .<br />
Per esempio risulta una correlazione positiva tra le variabili c ( check up) e m<br />
( mortalità) , anche se è difficile credere che i check up diminuiscano la speranza<br />
di vita. Tecniche molto raffinate per lo smascheramento delle cause spurie sono<br />
state introdotte nell’ impiego dei modelli matematici come quelli di Blalock e<br />
Simon.<br />
Ma sembra che non si sia dato risalto all’intuizione più semplice. Si può<br />
osservare che l’abbassarsi del barometro è sì condizione ceteris paribus<br />
sufficiente per l’effetto ma non è una condizione cegteris paribus necessaria o,<br />
come si suol dire, una conditio sine qua non per lo stesso. Se, per esempio, non<br />
ci fosse stato l’abbassamento del barometro per mancanza del barometro, ci
sarebbe stata egualmente tempesta, come avveniva prima dell’invenzione dei<br />
barometri.<br />
Qualcuno può sostenere che questo “esperimento mentale” è l’unico vero test<br />
per la genuinità delle correlazioni causali. Si ipotizza in altre parole che un certo<br />
evento C non si sia verificato e ci si chiede che cosa ne sarebbe dell’evento<br />
successivo E.<br />
Un asserto come “se non ci fosse stato c non si sarebbe verificato e” è un<br />
periodo ipotetico della irrealtà, che i logici oggi chiamano condizionale<br />
controfattuale. Max Weber ha teorizzato l’essenzialità di questo metodo in un<br />
ben noto saggio sulla metodologia delle scienze storicosociali. Non solo<br />
riusciamo così ad eliminare le cause spurie, ma anche a dare un peso alle cause<br />
genuine. Che cosa ha causato la I guerra Mondiale? Se non fossero stati sparati i<br />
colpi di pistola di Sarajevo la guerra si sarebbe comunque verificata anche se in<br />
modi leggermente diversi, quindi quell’evento (casus belli) si può qualificare<br />
come causa accidentale.<br />
Purtroppo la distinzione tra condizione sufficiente e condizione necessaria non<br />
è mai stata chiara nella letteratura filosofica fino all’ultimo secolo, e la<br />
confusione è presente in molti autori. Un esempio clamoroso è fornito dallo<br />
stesso Hume, che in un passo celebre definisce la causa così: un oggetto seguito<br />
da un altro, dove tutti gli oggetti simili al primo sono seguiti da oggetti simili al<br />
secondo. O, in altri termini dove, se il primo non ci fosse stato, il secondo non<br />
sarebbe mai esistito (Enquiry). Questo passo ha fatto versare fiumi di inchiostro<br />
perché appare che nella prima parte del passo Hume definisce la causa come<br />
condizione ceters paribus sufficiente, mentre nella seconda usa un condizionale<br />
controfattuale.<br />
Questa ambivalenza è stata incorporta da J.L.Mackie in una delle più<br />
complesse e interessanti teorie della causa oggi disponibili. Secondo MacKie le
cause sono una via dimezzo tra cause necessarie e sufficienti. Più precisamente<br />
sono INUScondizioni (: sono cioè parti insufficienti ma necessarie di una<br />
condizione più ampia che è sufficiente ma non necessaria per l’effetto.<br />
L’esempio del barile pieno di polvere è tipico. Il fatto che le polveri siano<br />
asciutte è insufficiente per l’effetto, ma necessario entro una condizione<br />
complessiva che è in sé sufficiente ma non necessaria (il barile potrebbe<br />
esplodere per cause diverse, per esempio un aumento anormale di temperatura).<br />
La teoria controfattuale della causa è sostanzialmente condivisa da Mackie nel<br />
suo ultimo libro, The Cement of Universe. Bisogna sottolineare che questa<br />
concezione è ormai una delle più condivise, anche per il fondamentale contributo<br />
di David K.Lewis.<br />
Va subito detto che anche questa concezione ha le sue difficoltà. La principale<br />
difficoltà è che possono esserci due o più cause che sono sufficiente per l’effetto<br />
ma non necessarie. L’esempio standard è quello dei due killers che colpisono un<br />
uomo con colpi egualmente mortali. Se il primo non avesse sparato –possiamo<br />
dire la vittima sarebbe comunque morta, e los tesso potrebbe dirsi del secondo<br />
killer. Allora nessuno dei due è colpevole?<br />
Un altro esempio spesso citato , perché tratto dalla letteratura giudiziaria, è<br />
quello del viaggiatore nel deserto. Due delinquenti vogliono uccidere uno stesso<br />
viaggiatore che si appresta ad attraversare il deserto. All’insaputa uno<br />
dell’altro ,uno gli pratica un foro nella borraccia, l’altro riempe la borraccia di<br />
veleno. La vittima muore disidratata: ma se avesse bevuto dalla borraccia<br />
sarebbe comunque morta, questa volta per avvelenamento. Questo esempio è<br />
leggermente diverso da quello dei due Pistoleros perché nel primo caso i due<br />
danno luogo a un caso di sovradeterminazione: qui invece i due malviventi<br />
mettono in moto due catene causali una delle quali sopravanza l’altra.<br />
Nonostante le difficoltà, la teoria della conditio sine qua non è quella che ha<br />
una tradizione più solida in campo giuridica, e che si mostra più promettente.<br />
Noi ci sentiamo in colpa per una certa azione quando possiamo dire che, se non<br />
avessimo agito in quel modo , non ne sarebbe seguito quel particolare danno.<br />
La cosa importante è riconoscere che sono diverse nozioni di causa di diversa<br />
forza, che però hanno come nocciolo comune quello di conditio sine qua non. La<br />
nozione più forte è probabilmente quella di “essere la causa” (cioè l’unica causa
determinante). Per fare un esempio, quando diciamo<br />
1 La perdita al gioco è stata la causa della rovina di Filippo<br />
Intendiamo dire che “Se Filippo non avesse subito la perdita al gioco non ci<br />
sarebbe stata la sua rovina”, ma anche altro e precisamente:<br />
(*) che la perdita al gioco era sufficiente a prevedere la rovina di Filippo<br />
(**) che nessun altro evento noto antecedente si può considerare condizione<br />
necessaria e sufficiente della rovina di Filippo,<br />
Non c’è nessun problema comunque ad accettare l’idea che le nozioni causali<br />
hanno un grado diverso di complessità. Pur avendo come base comune un<br />
condizionale controfattuale, si può indicare come compito della filosofia della<br />
causalità precisamente l’analisi di tali diverse nozioni, eventualmente in<br />
linguaggi con un diverso grado di potenza espressiva. Il riferimento ai linguaggi<br />
è essenziale perché, p.es., la teoria probabilistica della causa esige un linguaggio<br />
più potente del linguaggio che consente di esprimere i condizionali<br />
controfattuali.<br />
Reichenbach, Salmon e Suppes ci hanno lasciato teorie probabilistiche della<br />
causa molto interessanti. Quella di Suppes è la più nota agli economisti.<br />
Definiamo una causa prima facie C di E come un evento che incremente la<br />
probabilità di E (Pr(E|C) > Pr(E)). Una causa prima facie può essere spuria o<br />
genuina. Per essere considerata genuina bisogna far vedere che non esiste nessun<br />
evento precedente che incrementa la probabilità di E in misura uguale superiore<br />
a quello di C. L’esempio del barometro è un tipico esempio di causa non<br />
genuina, perché la depressione antecedente aumenta da sola la probabilità di E in<br />
misura maggiore, annullando il peso di C. Su questa base Suppes si mostra
capace di tracciare distinzioni molto sottili, come quella tra causa diretta e causa<br />
indiretta, causa supplementare, causa sufficiente ecc..<br />
Questa notevole flessibilità della teoria probabilistica della causa ha un prezzo.<br />
Prima di tutto la teoria di Suppes assegna probabilità a eventi, non a fatti che<br />
sono a loro volta relazioni causali. Eppure la causalità sussiste spesso tra fatti che<br />
sono a loro volta relazioni causali. Io potrei dire per esempio che Tizio è stato<br />
causa dell’avvelenamento mediante stricnina di Caio da parte di Sempronio. Per<br />
trattare probabilisticamente questa relazione dovremmo assegnare un valore di<br />
probabilità a una relazione probabilistica, il che oggi non è tecnicamente<br />
possibile a meno di aggiungere assiomi molto problematici agli assiomi di<br />
Kolmogorov.<br />
Questo problema non si pone nelle teorie non probabilistiche, e in particolare<br />
in quella controfattuale. E' più che legittimo dire, per esempio, “se Tizio non<br />
avesse aiutato Sempronio allora, se Sempronio non avesse usato la stricnina<br />
contro Caio, Caio non sarebbe morto” : tutto ciò è equivalente a dire che se Tizio<br />
non avesse aiutato Sempronio allora Caio non sarebbe morto per usato la<br />
stricnina usata contro di lui da Sempronio. Si noti che in base allo stesso schema<br />
si può trattare senza problemi anche la sovradeterminazione (se il primo killer<br />
non avesse sparato il secondo sarebbe stato causa della morte di Kennedy) che<br />
viceversa risulta difficoltosa anche dal punto di vista probabilistico.<br />
Tutto questo fa pensare che la pluralità dei linguaggi non garantisca<br />
automaticamente la traducibilità di un linguaggio nell’altro, e quindi sia<br />
necessario operare una scelta radicale tra i linguaggi. In questo momento quello<br />
controfattuale appare, nonostante le apparenze, più adeguato di quello<br />
probabilistico.<br />
]BIBLIOGRAFIA IN LINGUA ITALIANA<br />
Benzi,M., Scoprire le cause, Franco Angeli, Milano,2003<br />
Bunge,M., La causalità, Boringhieri,Torino, 1963<br />
Blalock.H. , L'analisi causale in Sociologia, Marsilio.Padova,1967<br />
Galavotti M.C.e Gambetta,G (a cura di) , Causalità e modelli probabilistici,<br />
CLUEB, Bologna, 1983<br />
Pizzi,C, Eventi e cause, Giuffrè,Milano,1997]
VI. LA <strong>FILOSOFIA</strong> DELLE SCIENZE UMANOSOCIALI.<br />
§1. Le discipline che studiano l’uomo (economia, sociologia, psicologia,<br />
antropologia, etnologia) sono state per gli epistemologi una fonte di diverse<br />
difficoltà, come si può desumere dal fatto stesso che è stato a volte negato loro lo<br />
status di scienze. è chiaro, infatti, che non è sufficiente chiamare qualcosa<br />
scienza perché sia tale effettivamente, come è evidente dal fatto che si parla, per<br />
esempio, di scienze occulte e scienze motorie, che con la scienza hanno poco a<br />
che spartire. Per non entrare qui nel merito di questa controversa discussione ne<br />
parleremo come di discipline scientifiche, e non di scienze, conservando però la<br />
dizione corrente “scienze umane” – “scienze sociali”. Sono discipline di recente
formazione, anche se forse la più antica delle scienze (umane e non umane) è la<br />
medicina, che ha per oggetto primario il corpo umano e le sue patologie.<br />
Qualcosa va detto sulla medicina per la sua singolarità e per l’importanza che<br />
riveste per la vita di tutti. Nella misura in cui si interessa alle malattie non di un<br />
singolo individuo ma di un’intera popolazione la medicina si può classificare tra<br />
le scienza sociale. In particolare un ramo della medicina, l’, è lo studio della<br />
distribuzione dei determinanti delle malattie nelle popolazioni umane. Ha inizio<br />
verso la fine del ‘500, quando si cominciano a fare elenchi dei decessi indicando<br />
la presunta causa di morte. Dopo due secoli la epidemiologia si coniuga con la<br />
statistica e raggiunge risultati sempre più esatti. E' chiaro che il problema<br />
basilare che interessa gli epidemiologi è individuare le cause di una certa<br />
malattia epidemica partendo da dati semplicemente statistici.<br />
Nel 1849 e nel 1853 due epidemie di colera colpirono l’Inghilterra.<br />
Osservando che nelle aree a livello del Tamigi si aveva una concentrazione della<br />
malattia più alta che nelle altre, raffinando progressivamente le osservazioni<br />
anche con i dati circa le singole strade J.Snow arrivò a individuare nell’acqua<br />
potabile inquinata dalle fogna la causa dell’epidemia. Era un grande progresso,<br />
che faceva piazza pulita del vecchio pregiudizio per cui la causa del colera erano<br />
dei miasmi o contaminazioni dell’aria. Nel 1883 Koch isolò il vibrione colerico e<br />
quindi scoprì la causa batteriologica del colera, rendendo possibile la<br />
prevenzione e la guarigione di singoli malati e non di popolazioni. Con<br />
ragionamenti e rilevazioni di tipo analogo Semmelweiss scoprì la causa della<br />
febbre puerperale nella mancanza di precauzioni igieniche da parte del personale<br />
ospedaliero e introdusse obbligatoriamente la prassi della disinfezione delle<br />
mani con soluzione clorurata.<br />
Se la batteriologia è un ramo della medicina comunicante con la biologia,<br />
ci sono rami della medicina come la psichiatria e la neurologia che sono al
confine con la psicologia, una disciplina che si è staccata dalla medicina negli<br />
ultimi due secoli e ora ha caratteristiche autonome. Nel momento in cui entra<br />
in gioco la sfera dei fenomeni che una volta erano chiamati spirituali (volontà,<br />
pensiero, immaginazione, sogno ecc.) ci si imbatte nell’elemento principale<br />
che separa le discipline in oggetto dalle scienze fisiche. La differenza tra<br />
discipline umanosociali e scienze fisiche ha una pluralità di aspetti.<br />
In primo luogo, nelle scienze umane l’uomo si trova a dover riflettere e capire<br />
non un oggetto esterno, ma in un certo senso se stesso. Per quanto oggettiva e<br />
spassionata possa essere l’ osservazione di un uomo da parte di un uomo, il<br />
medico o lo psichiatra si trova a cercare di capire qualcosa che lui stesso conosce<br />
in quanto li ha sperimentati personalmente : da un lato (per i fenomeni corporei)<br />
le sensazioni dolorose, il senso di sazietà o di fame ecc. , dall’altro (per i<br />
fenomeni psichici) i fenomeni dell’attenzione, della memoria, del sogno ecc. e<br />
le innumerevoli sfumature delle emozioni – odio, amore, paura, ira,<br />
insoddisfazione ecc.<br />
In secondo luogo, la complessità dei comportamenti umani non ha reso<br />
possibile elaborare un corpo di leggi generali ben fondate paragonabile a quello<br />
di cui si dispone nella fisica o nella biologia. Le generalizzazioni su sui ci si<br />
appoggia sono più ristrette e meno precise di quelle delle scienze naturali, quindi<br />
meno affidabili ai fini della previsione e della spiegazione. A ragione di questo e<br />
non solo di questo, per comune ammissione, non esiste nelle scienze sociali<br />
l’unanimità che si raggiunge nelle scienze naturali. Inoltre, rispetto alle scienze<br />
naturali, le divergenze epistemologiche e metodologiche di fondo condizionano
la ricerca in un modo enormemente più rilevante rispetto alle scienze naturali.<br />
Una controversia metodologica di lunga data riguarda la stessa opportunità di<br />
prendere a modello per le scienze umane le scienze naturali mature e in<br />
particolare la scienza regina, che è la fisica. Abbiamo già visto che i<br />
neopositivisti erano accomunati dal fisicalismo, cioè dall’idea che ogni scienza<br />
era destinata a diventare un ramo della fisica. Anche le scienze umanosociali per<br />
loro andavano quindi trattate come rami della fisica, e Neurath propose una<br />
. In primo luogo, nelle scienze umane fiscaliste non c’è<br />
posto per valutazioni del tipo buono/cattivo, giusto/ingiusto (ideale della<br />
Wertfreiheit: avalutatività, evidenziato da Max Weber) che non competono allo<br />
scienziato. In secondo luogo ciò che più conta non ci deve essere posto per<br />
asserti circa fenomeni per loro natura inosservabili , come le intenzioni, i<br />
ricordi, i sogni, i pensieri e le menti di altri soggetti. Ciò che è osservabile è<br />
semplicemente il comportamento: non il pensiero ma il linguaggio, non le<br />
emozioni ma gli atti in cui tali emozioni si esprimono , non i sogni ma i resoconti<br />
verbali che di questa esperienza vengono riferiti. In psicologia questo<br />
orientamento prende la forma del cosiddetto comportamentismo (Pavlov,<br />
Watson, Skinner), che consiste nell’osservare l’uomo alla stessa stregua di<br />
quanto si fa con in animali di un certo livello di intelligenza. Allo stesso modo in<br />
cui il cane manifesta certi comportamenti prodotti da certi stimoli (per esempio<br />
la salivazione in presenza del cibo) , così il bambino piccolo e l’uomo adulto<br />
hanno comportamenti comprensibili secondo lo schema stimolorisposta, e lo<br />
psicologo non deve occuparsi di nient’altro.<br />
Ma se il comportamentismo poteva avere qualche plausibilità nello studio di<br />
individui in stato di isolamento, diventava problematico nello studio di essere<br />
umani in stato di aggregazione. La fisica, a differenza dell’astronomia, è una<br />
scienza sperimentale e deve il suo progresso al metodo sperimentale di Galileo.<br />
Un esperimento, come è noto, è un’interferenza deliberata con il corso della<br />
natura che consente di stabilire per induzione le leggi di comportamento dei<br />
corpi : lo stesso dovrebbero fare, secondo i comportamentisti, gli psicologi.<br />
Ma, mentre su un bambino possiamo compiere esperimenti come quello di<br />
Pavlov sui cani, come è possibile fare esperimenti su aggregati sociali? Al<br />
proposito si osserva che, anche se non si possono fare esperimenti di laboratorio,<br />
si possono costruire esperimenti che in qualche modo sono loro simulazioni.
Per esempio fu ideato un esperimento di laboratorio per determinare se i votanti<br />
vengano influenzati dalla conoscenza della confessione religiosa dei candidati<br />
(si crearono associazioni con membri che non si conoscevano precedentemente<br />
e si fecero elezioni a cariche interne. A metà degli affiliati venne rivelata la<br />
confessione religiosa dei candidati, all’altra metà venne nascosta; si vide che<br />
c’era una differenza significativa). Ma purtroppo non tutti i fenomeni sociali si<br />
prestano a queste esperimenti, e questo fa capire la scarsità o l’inaffidabilità delle<br />
leggi su cui può contare una disciplina come la sociologia.<br />
Un problema che è citato spesso come un ostacolo alla formulazione di leggi<br />
generali riguarda il “condizionamento culturale” dei fenomeni sociali. Per<br />
esempio il rapporto tra tasso di natalità e status sociale si può determinare con<br />
una certa precisione in una certa comunità in un certo periodo storico, ma può<br />
essere completamente diverso in comunità diverse o in periodi storici diversi.<br />
Possiamo parlare in questo caso di leggi? Salvo eccezioni, gli epistemologi<br />
concordano sul fatto che le leggi sono spaziotemporalmente invarianti.<br />
Possiamo allora dire che ci sono leggi transculturali, cioè tali da applicarsi a<br />
tutti gli aggregati sociali a prescindere dalla loro collocazione spaziale o<br />
temporale? Si è a volte sostenuto che se la funzione delle leggi è fare previsioni<br />
corrette, queste leggi non possono esserci perché non garantirebbero previsioni<br />
sicure circa ogni periodo futuro di tempo, all’opposto di come l’astronomia ci<br />
permette di predire le eclissi che avverranno tra milioni anni. Ma questo non è<br />
possibile per la mutevolezza delle società umane e di fatto, come si osserva ,<br />
previsioni esatte sono rare anche nel breve periodo. Possono esserci previsioni<br />
inesatte: p.es. si sa con certezza che la diffusione di certe notizie sui mass media<br />
–p.es. certi tipi spettacolari di crimini – producono effetti imitativi, ma non si sa<br />
prevedere la dimensione di questi, la qualità e il tempo in cui si possono<br />
verificare.<br />
Come controbiezione si potrebbe osservare che in fisica le previsioni esatte<br />
sono garantite solo dal soddisfacimento di certe condizioni che possono essere<br />
anche estremamente complesse: per esempio la costante gravitazionale nella<br />
legge di Galileo per la caduta dei gravi (s= gt2/2) non ha lo stesso valore a tutte<br />
le latitudini perché dipende dalla distanza dal centro della terra, per cui le<br />
previsioni sono esatte purchè tale valore venga reso preciso applicando la legge<br />
ai casi specifici. Questa risposta però non viene giudicata sufficiente. Ci sono<br />
infatti casi in cui le previsioni nelle scienze sociali disturbano il processo stesso
che pretendono di prevedere,e questo a ragione del fatto che nelle scienze umane<br />
il soggetto della conoscenza e l’oggetto conosciuto hanno delle interdipendenze<br />
dovute alla natura comune. Si pensi alle previsioni di borsa: se queste vengono<br />
rese pubbliche, possono disturbare l’andamento della borsa. La previsione di un<br />
crollo in borsa fatta da qualche autorevole analista potrebbe scatenare il panico e<br />
provocare esattamente ciò che esso predice (predizioni autoadempienti). In altri<br />
casi le predizioni possono essere autofalsificanti (si parla di previsioni<br />
“suicide”). Se si prevede, p. es., un aumento di azioni terroristiche in una certa<br />
area questo porterà a un aumento delle misure di prevenzione e quindi a una<br />
falsificazione della previsione stessa.<br />
Questa difficoltà riguarda non solo previsioni singole ma anche teorie<br />
complesse. Si è sostenuto per esempio che la predizione di Marx del crollo del<br />
capitalismo ha messo in moto dei processi (p.es. concessioni sindacali, misure<br />
previdenziali ecc.) che hanno disinnescato i motivi che secondo Marx avrebbero<br />
inevitabilmente provocato la fine del capitalismo stesso.<br />
Il fenomeno dell’interferenza non deve stupire perchè si riscontra in medicina,<br />
con il c.d.”effetto camice bianco”: la presenza del medico può alterare i valori<br />
della pressione in soggetti particolarmente emotivi. Si noti peraltro che gran<br />
parte delle informazioni di base in certe scienze è basato sui sondaggi o sulle<br />
interviste, e – al di là degli errori che si possono commettere solo per il fatto di<br />
usare metodi statistici errati (campioni non rappresentativi o non randomizzati) –<br />
il modo in cui il sondaggio viene eseguito (p.es. la stessa formulazione delle<br />
domande) può influenzare le risposte dei soggetti intervistati.<br />
Si può osservare che anche nelle scienze naturali si manifesta pure<br />
un’interazione tra strumento di osservazione/misura e oggetto osservato: fatto<br />
ben noto nell'investigazione del mondo sottomicroscopico (che seconda una<br />
certa scuola di pensiero spiega il principio di indeterminazione di Heisenberg)<br />
ma anche nel mondo macroscopico, in cui un termometro freddo o caldo può<br />
modificare la stessa temperatura del liquido in cui viene immerso a scopo di<br />
misurazione. Accade però che queste modificazioni o sono trascurabili o<br />
possono essere calcolate in modo esatto e invariabile, cosa che non accade nella<br />
sfera dei fenomeni sociali.<br />
Di fatto si registra un alto grado di imprevedibilità sia nei comportamenti<br />
individuali che in quelli degli organismi sociali. Per fare un solo esempio, un<br />
fenomeno ben noto e sempre osservato, soprattutto quando è in gioco
l’applicazione di utopie (p.es. l’abolizione della famiglia o della proprietà<br />
privata) è quello della controfinalità o eterogenesi dei fini: ciò che si ottiene non<br />
solo è diverso da quanto ci si propone di realizzare ma è agli antipodi di questo.<br />
Si pensi che gli ideali di libertà, eguaglianza e fraternità hanno portato al Terrore<br />
della Rivoluzione Francese e quindi a risultati esattamente opposti da quelli che<br />
si cercava di conseguire.<br />
Fin qui abbiamo dato per scontato che l’obiettivo distintivo delle scienze sia<br />
quello di garantire previsioni o retrodizioni esatte. Ma si potrebbe obiettare che<br />
vedere nella previsione l’obiettivo fondamentale della scienza è da un lato<br />
riduttivo, dall’altro troppo pretenzioso. Secondo Hempel c’è una simmetria tra<br />
spiegazione e previsione, nel senso che ogni previsione può essere convertita in<br />
una spiegazione hempeliana e viceversa (tesi della simmetria). Ma Hempel<br />
stesso ha avuto dei ripensamenti sulla tesi della simmetria. In questa sede è<br />
meglio sostenere che scopo primario della scienza non è la previsione ma la<br />
spiegazione, eventualmente fatta col senno di poi. Il crollo di Wall Street, la fine<br />
repentina del comunismo in Europa, le rivolte nel Nord Africa sono stati eventi<br />
che erano imprevisti nel momento in cui si sono verificati, ma oggi siamo in<br />
grado di darne una spiegazione più o meno convincente, così come spieghiamo a<br />
posteriori incidenti aerei che non erano umanamente prevedibili nel momento in<br />
cui si verificavano.<br />
§2 Ritornando alla questione dell’interferenza, bisogna prendere atto che, pur<br />
rendendo problematiche le previsioni, anche le interferenze sono oggetto di<br />
conoscenza e possono essere descritte entro leggi sufficientemente affidabili.<br />
Dunque si può sostenere che è possibile stabilire alcune leggi del comportamento<br />
di individui isolati e di gruppi sociali e che leggi possono essere usate , se non<br />
per la previsione, sicuramente per la spiegazione.<br />
Qui però interviene un’altra difficoltà, dovuta al fatto che le leggi in questione,<br />
e le spiegazioni che esse autorizzano, non possono essere leggi descrittive di soli<br />
comportamenti, come i comportamentisti hanno richiesto. Le azioni umane sono
mosse da intenzioni, aspettative, timori, speranze, illusioni ecc., e tali stati interni<br />
non possono osservati come si osserva la caduta di una mela dall’albero. Ma un<br />
comportamentista potrebbe anche non aderire a una forma di rozzo riduzionismo<br />
che vieti di parlare di stati interni. Allo stesso in cui “massa” e “peso” sono<br />
termini teorici che vengono agganciati al piano osservativo mediante acconce<br />
regole di corrispondenza, così termini come “”paura”, “attenzione”<br />
“ambizione”,… designano stati interni che però esistono nella misura in cui<br />
hanno delle manifestazioni osservabili. Nonostante questo garantisca un grande<br />
ampliamento di prospettive, è chiaro comunque che l’introspezione però viene<br />
esclusa come metodo di conoscenza, perché non si può ricondurre a<br />
comportamenti pubblicamente osservabili. Con buona pace degli psicoanalisti,<br />
dovremmo rinunciare a considerare, per esempio, i sogni come elementi che<br />
producono conoscenza, per il semplice fatto che ciascuno sogna sempre i propri<br />
sogni e non i sogni altrui (e tra l’altro ne diventa consapevole al risveglio, con<br />
una dubbia anamnesi).<br />
Ci sono alternative al comportamentismo più o meno liberalizzato? Un’<br />
alternativa è questa: noi possiamo capire gli eventi storici, sociali, e psicologici<br />
perché noi , in quanto uomini o donne, sperimentiamo stati interni simili a quelli<br />
degli agenti che vengono studiati. Possiamo in altre parole dire, p.es. : “se fossi<br />
stato un calvinista del 500 in un paese come l’Olanda avrei partecipato a quel<br />
fenomeno sociale descritto come capitalismo nascente” (la verità di questo<br />
controfattuale è implicita nella tesi di Weber che vede una connessione tra<br />
nascita del capitalismo e etica protestante). Non si possono, in altre parole,
capire i fenomeni umanosociali senza una certa dose di empatia (il “mettersi nei<br />
panni degli altri”). A questo punto però si può fare a meno della spiegazione<br />
mediante leggi e puntare esclusivamente sulla comprensione dei fenomeni<br />
(Verstehen contrapposto a Erklaren).<br />
Nell’800 la distinzione tra spiegazione mediante leggi e comprensione è stata<br />
più volte teorizzata insieme alla distinzione tra scienze nomotetiche (come le<br />
scienze naturali) e scienze idiografiche (come la storiografia) che hanno come<br />
obiettivo la descrizione esauriente di fatti, o complessi di fatti, che hanno una<br />
loro fisionomia irripetibile e pertanto non possono essere soggetti a leggi. Se è<br />
difficile trovare due individui che hanno malattie simili in circostanze simili (si<br />
pensi che ci sono malattie, p.es. allergie rarissime, che colpiscono solo poche<br />
persone al mondo) a maggior ragione sarà difficile trovare situazioni storiche<br />
simili in cui accadono eventi simili (p.es. guerre o rivoluzioni). Si è a volte detto<br />
che la Rivoluzione Russa del '900 è simile a quella Francese del '700, ma è più<br />
facile trovare delle differenze tra i due fenomeni che non dei tratti comuni. Se<br />
poi dico, per esempio, “Luigi XIV morì impopolare perché fece una politica<br />
nociva per gli interessi nazionali” dove si può trovare una legge che funziona<br />
come spiegazione del fatto che Luigi XIV morì impopolare? Dovrei trovare casi<br />
simili nella storia, ma di fatto di simile a Luigi XIV c’è solo Luigi XIV.<br />
Secondo il filosofo della storia W.Dray lo schema di Hempel non si applica alle<br />
scienze umane: a suo giudizio una certa azione umana o politica si spiega solo<br />
facendo vedere che nelle date circostanze era la cosa più razionale da fare.<br />
G.H. Von Wright ha pure insistito sul fatto che il comportamento intenzionale<br />
o finalistico va compreso con metodi diversi da quelli che fanno ricorso a leggi<br />
associative o causali. Quello che von Wright chiama “sillogismo pratico” (non<br />
riducibile a schemi di ragionamento deduttivo o induttivo) ha questa forma:<br />
x intende provocare E<br />
x ritiene di non poter provocare E se non fa l’azione A<br />
x si dispone a fare A<br />
Secondo von Wright la conclusione descrive un fatto che si può conoscere solo<br />
comprendendo le intenzioni di x , e questo non si può conseguire con la semplice
osservazione del comportamento.<br />
La rinuncia alla spiegazione mediante leggi porta all'obiettivo di qualificare<br />
discipline come la psicologia, l'etnologia, l'antropologia, l'etnolinguistica come<br />
scienze idiografiche. In tal caso bisogna richiamare l'attenzione sul fatto che i<br />
ricercatori di queste discipline spesso non valutano adeguatamente la<br />
differenza tra la cultura a cui appartengono e quella dei soggetti con cui<br />
vengono a contatto: differenza che può interessare proprio l'atteggiamento dei<br />
nativi verso i metodi di indagine usati dai ricercatori (interviste, fotografie,<br />
registrazioni ecc.) nella misura in cui questi sono prodotti di una cultura<br />
estranea ai nativi stessi. Non è detto, per esempio, che gli intervistati si<br />
preoccupino di rispondere alle interviste riportando fatti reali piuttosto che fatti<br />
immaginari o mitici, dato che non condividono il presupposto culturale secondo<br />
cui l'intervistato dovrebbe attenersi all'ideale della veridicità.<br />
Come è noto, il c.d. relativismo culturale mira a depurare l' osservazione di<br />
soggetti o gruppi appartenenti a culture diverse da valutazioni di tipo<br />
etnocentrico, cioè derivate dalla cultura stessa del ricercatore. Il fatto che le<br />
discipline in questione sono in ogni caso un prodotto della cultura occidentale<br />
degli ultimi due secoli pone comunque al raggiungimento di questo obiettivo un<br />
limite strutturale, in parte esemplificato dalle difficoltà sopra esposte .<br />
§3 La storiografia è la più controversa delle discipline umanosociali, al punto<br />
che più volte le si è negata la cittadinanza nel dominio della scienza (secondo<br />
una versione benevola, sarebbe a metà strada tra scienza ed arte). Il motivo<br />
principale di questa ripulsa è che a quanto pare non ci sono leggi propriamente<br />
storiche, e se queste si possono formulare queste vengono spesso considerate<br />
pertinenti ad altre scienze (p.es. può essere vero che periodi di costumi sessuali<br />
rilassati si succedono a periodi di costumi sessuali restrittivi, ma, se questa è una<br />
legge, può essere classificata come una legge sociologica, non squisitamente<br />
storica).La storiografica dovrebbe essere, dunque, per eccellnza, una disciplina<br />
idiografica.
Agli antipodi rispetto alla storiografia nel campo delle scienze umanosociali si<br />
colloca l’economia, che si è sviluppata come disciplina scientifica dal tronco<br />
della filosofia nell’800, anche se il capolavoro di Adam Smith è del 1776.<br />
Rispetto ad altre discipline è stata la prima ad usare strumenti matematici anche<br />
molto complessi (che a qualcuno, come Norbert Wiener, sono sembrati un modo<br />
per camuffare la sua arretratezza rispetto alle scienze naturali).Ciò che è<br />
sembrato fin dall’inizio metterla sullo stesso piano delle scienze naturali è il fatto<br />
che l’esito di una miriade di comportamenti economici individuali volontari può<br />
tradursi in un comportamento collettivo involontario ma (p.es. un aumento<br />
generalizzato dei prezzi). In tal modo il comportamento della collettività non si<br />
può paragonare a quello dei singoli e non dipende dalla considerazione di stati<br />
interni, il che fa pensare che i fenomeni economici macroscopici siano trattabili<br />
come fenomeni naturali.<br />
Rispetto alle scienze naturali tuttavia colpisce la distanza che separa le teorie<br />
economiche dai fatti, soprattutto macroeconomici, a cui si riferiscono. Per citare<br />
le parole di Daniell Hausman, fondatore della rivista Economics and<br />
Philosophy,”con un po' di esagerazione si potrebbe concludere che l’economia<br />
contemporanea possiede tutti i segni distintivi di una scienza matura, tranne il<br />
successo empirico”. Ci sono cinque temi principali che impegnano la<br />
metodologia della scienza economica.<br />
1) Molti principi economici contengono asserzioni sul mondo dal punto di<br />
vista soggettivo di un agente individuale. E' un freno alla vera scienza?<br />
I principi centrali dell’economia (p.es. “tutti preferiscono maggiore benessere a
minore benessere”) sono inesatti, cioè devono far fronte a un numero esorbitante<br />
di controesempi. Come si può costruire una scienza in tali condizioni?<br />
Gli economisti contemporanei esitano a parlare di “teorie” o “leggi” e<br />
preferiscono operare con “modelli”.<br />
Le relazioni causali in economia sono difficili da identificare perchè i<br />
fenomeni economici sono interdipendenti. In termini di variabili, è normale<br />
essere costretti a dire che x influenza y, y influenza z, ma z influenza a volte x.<br />
Qual è il fondamento empirico della fiducia nei modelli, dato il loro scarso<br />
aggancio con i fatti?<br />
Le prime considerazioni metodologiche si trovano in Nassau Senior (1836) e J.<br />
S. Mill (1836). Mill distingue metodo a posteriori a metodo a priori. I famosi<br />
metodi di Mill per scoperta delle cause sono metodi a posteriori, ma<br />
sfortunatamente inapplicabili alla sfera economica. Il più importante di questi<br />
metodi è il Metodo della Differenza. Per sapere, per esempio, se i dazi doganali<br />
favoriscono o no lo sviluppo economico dovrei confrontare nazioni che li<br />
applicano con nazioni che non li applicano, ma non ci sono mai nazioni che sono<br />
diverse solo per questa caratteristica. Anche il ragionamento controfattuale è<br />
problematico per questo motivo. Dunque bisogna ricorrere al metodo a priori.<br />
Si fissano alcune leggi generali valide inattaccabili e le si usano per fare<br />
previsioni attendibili in circostanze date, che possono essere sbagliate senza<br />
inficiare le leggi prestabilite. In tal modo possiamo accettare l’economia come<br />
scienza inesatta e separata, cioè sviluppata ignorando deliberatamente le<br />
informazioni fornite da altre discipline. Anche se non parla di modelli, Mill<br />
prefigura l’importanza dei modelli e anticipa la metodologia degli ultimi
decenni.<br />
Questo orientamento incontrò critiche severe da economisti più o meno<br />
influenzati dal neopositivismo. P.es. Terence Hutchison negli anni ‘30 osservò<br />
che le clausole ceteris paribus che si associavano gli asserti teorici erano così<br />
numerose da rendere inapplicabili (e quindi prive di senso empirico) le teorie<br />
economiche. Negli anni 50 Fritz Machlup e Milton Friedman argomentarono che<br />
gli economisti devono predire con esattezza solo i prezzi e le quantità, cioè i dati<br />
di mercato misurabili, ignorando tutto ciò che esorbita da questi. In questo<br />
strumentalismo esasperato ogni ipotesi che non venga ricondotta<br />
all’econometria viene giudicata irrilevante. Ma questo sembra in contrasto con la<br />
prassi corrente, inclusa quella di Friedman, in cui molte ipotesi, anche nel<br />
linguaggio causale che Friedman rifiuta, vengono mantenute anche quando sono<br />
falsificate dai dati di mercato. Non c’è da stupirsi se questa pluralità di<br />
atteggiamenti ha portato a una proliferazione di studi metodologici, che<br />
occupano orami quasi una metà della letteratura economica. Seguendo la<br />
classificazione di Hausman, gli orientamenti emersi si possono classificare in<br />
quattro categorie.<br />
a) T. Hutchison e Marc Blaug (1992) hanno difeso una posizione<br />
neopopperiana. Si noti che Popper è stato considerato, non si sa se correttamente,<br />
l’alter ego filosofico dell'economista F. von Hayek. Uno dei problemi più<br />
imbarazzanti del popperismo è il fatto che normalmente una teoria h è sottoposta<br />
al tribunale dell’esperienza insieme ad altre assunzioni c1…cn, ragione per cui<br />
ciò che viene falsificato non è mai h ma la congiunzione h & c1…cn. (problema<br />
di Duhem). In economia è particolarmente difficile stabilire quali elementi di<br />
questa congiunzione sono effettivamente falsificati. Non stupisce che sia stata<br />
accolta con favore quindi la metodologia dei programmi di ricerca di Lakatos,<br />
che propone un cocktail di Popper e Kuhn , ammorbidendo i criteri di<br />
falsificazione.<br />
b) In fuga dalle difficoltà metodologiche, alcuni metodologi si sono allontanati
dalla filosofia della scienza, coltivando una “antimetodologia” : l’attenzione va<br />
alla retorica del linguaggio economico (Weintraub) e alle caratteristiche<br />
sociologiche della pratica economica (D.W. Hands). D. McClosky (1985) ha<br />
detto che gli economisti devono solo badare alla propria retorica, cioè al modo in<br />
cui si influenzano reciprocamente. è la versione economica di Rorty.<br />
c) Allo stesso modo in cui W. Salmon negli ultimi anni ha sviluppato la tesi<br />
secondo cui al di sotto dei fenomeni esistono realmente “meccanismi causali”<br />
che la scienza mira a scoprire, autori come Tony Lawson (1997) e Uskali Maki<br />
(1990) hanno teorizzato un realismo causale, che Maki riscontra nella storia del<br />
pensiero economico. N. Cartwright difende l’importanza del ragionamento<br />
causale nell’economia e nell’econometria, anche se con un atteggiamento non<br />
realista<br />
d) Un’altra corrente è quella che si rifà alla concezione strutturalista delle teorie<br />
di Suppes, Sneed, Stegmuller secondo cui una teoria scientifica non è una<br />
costruzione assomatica ma è una struttura consistente di un nucleo algebrico<br />
matematiche associabile a un certo insieme di applicazione.<br />
Stando a Hausman pare che si rilevi una schizofrenia metodologica per cui,<br />
nonostante le varie professioni di fede, la metodologia seguita in pratica è<br />
sostanzialmente quella di Mill. Se è così, però, la metodologia che di fatto viene<br />
applicata, non quella che viene professata, è compatibile con quella delle<br />
scienze naturali avanzate, e si apre il compito di formulare esattamente una<br />
metodologia unificante.<br />
Un' area in grande sviluppo nella quale si incontrano filosofia, economia e<br />
matematica è la trattazione economica dei temi della preferenza e della scelta
trattabile nell'ambito della c.d. Teoria delle decisioni. Gli economisti adottano<br />
spesso l’idealizzazione per cui si rappresentano le credenze di un soggetto come<br />
quozienti di scommessa in condizioni di conoscenza completa o incompleta . C’è<br />
uno studio economico delle funzioni di utilità, dove l’utilità è il prodotto della<br />
probabilità del verificarsi di un evento per il guadagno ottenuto con il<br />
verificarsi dello stesso. Questi studi si saldano con i metodi della teoria dei<br />
giochi, fondata da von Neumann e Morgenstern e sviluppata da matematici come<br />
Nash. A parte la fecondità dell’interscambio tra economia e matematica su questi<br />
temi, bisogna tener conto che le strategie studiate da questi scienziati poggiano<br />
su alcune norme più o meno esplicite come : “bisogna massimizzare l’interesse<br />
atteso”, “bisogna evitare una perdita certa in un sistema di scommesse” ecc.<br />
Questo riapre una questione che inizialmente si è data per risolta accogliendo la<br />
tesi di Weber della avalutatività delle scienze umanosociali. In economia questo<br />
problema acquista significato particolare data la sua interazione con la politica.<br />
E' quasi scontato in economia identificare il benessere con la soddisfazione<br />
delle proprie preferenze egoistiche. Apparentemente questo sembra un<br />
postulato neutro; di fatto però implica che non si ha benessere se non come<br />
perseguimento di preferenze egoistiche, il che sembra avere una connotazione<br />
valutativa in quanto esclude altre definizioni diverse di benessere che potrebbero<br />
essere plausibili in contesti politici ed etici diversi. A volte, si potrebbe<br />
sostenere, le preferenze egoistiche non sono garanzia di benessere né per sé né<br />
per altri. Si pensi a un ragazzo che vuole andare in motorino senza casco perché<br />
tale è la sua preferenza e perché è convinto che questo sia il suo vantaggio. La<br />
sua convinzione potrebbe essere falsa, anzi di fatto lo è.<br />
Va inoltre osservato che il comportamento degli uomini reali non è<br />
invariabilmente egoistico, anche se le manifestazioni di altruismo potrebbero<br />
essere risultato di un calcolo più o meno consapevole. Ci sono animali, non solo<br />
uomini, che si sacrificano per salvare la specie, e sembra che questo sia scritto<br />
nel codice genetico (incidentalmente, in contrasto con la teoria di Darwin<br />
secondo cui tutti i nostri geni sono funzionale al vantaggio individuale). Sarebbe
al proposito utile studiare il comportamento umano con l’ausilio delle scienze<br />
della vita.<br />
Nonostante le apparenze,economia sembra dunque avere dei risvolti valutativi<br />
che mancano in altre discipline umanosociali (come la psicologia) e sono assenti<br />
dalle scienze naturali.E' un problema aperto sapere se questo aspetto<br />
comprometta o no la sua legittima aspirazione a costituirsi come scienza.<br />
[BIBLIOGRAFIA ESSENZIALE IN ITALIANO<br />
J. Hicks, Analisi causale e teoria economica, Il Mulino, Bologna, 1981<br />
E. Nagel, La struttura della scienza, Feltrinelli, Milano, 1968,cap.xiii<br />
G.H. von Wright, Spiegazione e comprensione, Il Mulino, Bologna, 1971<br />
P.Barrotta e T.Raffaelli, Epistemologia ed Economia, UTET, Torino,1998<br />
M.C.Galavotti e G.Gambetta (a cura di), Epistemologia ed economia, CLUEB,<br />
Bologna, 1988<br />
M.Weber, La metodologia delle scienze storicosociali . Einaudi, Torino, 1958]
VIIL’INTELLIGENZA ARTIFICIALE E LA <strong>SCIENZA</strong> COGNITIVA<br />
§1. Si può iniziare con un breve excursus storico. Negli anni ‘30 un problema<br />
sentito era quello di definire rigorosamente il concetto di algoritmo, cioè<br />
(intuitivamente) di una procedura di calcolo che applicando in modo<br />
deterministico un numero finito di istruzioni dà un risultato univoco in tempo<br />
finito. Gödel per aprire la strada al suo celebre teorema definì un insieme di<br />
funzioni, dette ricorsive primitive, che rappresentavano algoritmi basilari da<br />
considerare il nocciolo della teoria della computazione, nel senso che ogni<br />
procedura di calcolo avrebbe dovuto essere definita a partire da queste.<br />
Negli anni 3637 a Cambridge Alan Turing seguì un’altra via: quella di<br />
definire una macchina calcolatrice ideale di elementare semplicità progettata per<br />
il calcolo di funzioni aritmetiche, di cui tutte le macchine calcolatrici concrete<br />
apparissero come casi specifici.<br />
Per avere una macchina di Turing (MT) bisogna disporre di un linguaggio<br />
con un alfabeto finito di simboli che sia in grado di generare un numero<br />
infinito di formule. Queste formule, che la macchina è destinata a elaborare, sono<br />
stampate su un nastro infinito che attraversa la macchina. Il nastro è diviso in<br />
celle e la macchina esamina una cella alla volta mediante una testina sensibile.<br />
La MT può fare solo quattro cose: 1)cancellare un simbolo su una casella e<br />
scriverne un altro al suo posto; 2)muovere la testina di un posto a destra; 3)<br />
muovere la testina di un posto a sinistra; 4)fermarsi. La macchina inoltre<br />
memorizza le operazioni compiute e quindi ha stati di memoria diversi ad ogni<br />
passo.
Ogni macchina di Turing è caratterizzata dall’insieme di istruzioni che<br />
descrivono il suo programma. Queste istruzioni sono rappresentate come<br />
quadruple di forma n1n2n3n4 che si leggono così: se sei nello stato di<br />
memoria n1 e leggi il simbolo n2, fai l’operazione n3 e vai nello stato n4 . Il<br />
funzionamento della macchina è deterministico: la macchina non procede per<br />
sorteggi o “a casaccio” in nessun punto del processo.<br />
In termini concreti una MT si compone di un corpo centrale che può assumere<br />
stati diversi, ha un' unità di lettura e un' unità di scrittura che possono anche<br />
coincidere, poste in modo da ispezionare le caselle del nastro illimitato, e un<br />
meccanismo in grado di spostare il nastro a sinistra e a destra di un certo<br />
numero di posizioni. Il calcolo è una successione finita di applicazioni delle<br />
istruzioni partendo da una posizione fissata.<br />
Un esempio semplice di MT è una macchina che partendo da certe formule<br />
numeriche come input calcola come output il valore delle usuali funzioni<br />
aritmetiche (addizione, moltiplicazione ecc). Quando un problema è risolto –cioè<br />
quando è stato calcolato il valore della funzione la MT si ferma, mentre la<br />
mancata fermata (il preseguire all’infinito) indica la mancata soluzione del<br />
problema.<br />
La c.d. tesi di ChurchTuring afferma che ogni funzione algoritmica (funzione<br />
ricorsiva) è calcolabile da una macchina di Turing e, viceversa, ogni funzione<br />
Turingcalcolabile è una funzione algoritmica. In particolare, ogni computer<br />
costruibile è un esempio particolare di macchina di Turing. Questa tesi (che ha la<br />
forma di una congettura) nonostante gli sforzi per trovare dei controesempi, è<br />
considerata ancor oggi valida.<br />
Secondo un punto di vista diffuso, le operazioni di un uomo che calcola si<br />
possono pensare come operazioni eseguibili da una macchina di Turing. Cosa<br />
implica questo asserto? Si vuole dire che il pensiero umano è meccanizzabile?<br />
Oppure, conversamente, che tutti i calcolatori si possono considerare come<br />
oggetti “pensanti” di tipo speciale? Possiamo dire sensatamente che le<br />
macchine pensano? Turing a questo proposito suggeriva un test (test di Turing)<br />
mirante a stabilire se una macchina può imitare un uomo al punto di ingannare<br />
un interrogante che non sappia se l’autore di una certa performance è un uomo<br />
o una macchina. Turing era ottimista sul futuro della computer science; riteneva<br />
infatti che nel giro del XX secolo il 70% della macchine avrebbero superato il<br />
test di Turing. Tale ottimismo può dirsi incoraggiato del fatto che oggi ci sono
macchine scacchiste in grado di battere grandi campioni.<br />
Ma il teorema di Gödel, secondo molti, suggerisce che esistano operazioni<br />
razionali della mente umana che non sono rappresentabili in termini meccanici.<br />
Nel 1938 Alonzo Church dimostrava che la logica dei quantificatori non è<br />
decidibile, e cioè che c’è un numero arbitrariamente grande di formule di cui non<br />
possiamo dire in linea di principio se sono o meno teoremi del calcolo. La logica<br />
assiomatizzata di Frege quindi non è in grado di risolvere in modo meccanico<br />
tutti i problemi esprimibili nel linguaggio. Il teorema di Church afferma che non<br />
è in linea di principio possibile costruire una macchina che risponda a tutte le<br />
domande esprimibili in linguaggio logico, il che sembra comportare una<br />
limitazione intrinseca alle capacità delle macchine di Turing.<br />
La macchina di Turing non è in grado di calcolare tutte le funzioni possibili,<br />
come è chiaro da una semplice considerazione. Ciò che è interessante è che la<br />
definizione astratta data della macchina di Turing consente di identificare una<br />
speciale macchina di Turing, detta Macchina di Turing Universale (MTU), che<br />
“simula”, per così dire, le altre macchine di Turing. Infatti, dato che ogni<br />
macchina di Turing è identificata dall’insieme delle sue istruzioni ( che sono<br />
quadruple di simboli), tali insiemi di istruzioni possono essere rappresentate<br />
univocamente da un numero naturale , e così diventare elementi dell’input della<br />
MTU. Questo vuol dire che la MTU può anche parlare di se stessa, e acquista le<br />
virtù dell’autodipendenza o autoriferimento. Incappa quindi in difficoltà tipo<br />
quella del mentitore. Poniamole questo semplicissimo problema:<br />
“Non ti fermerai? ”. I casi sono due: o la macchina si ferma o non si ferma. Se<br />
la macchina si ferma, risponde affermativamente alla domanda , e se non si<br />
ferma , risponde negativamente alla stessa domanda. Quindi se si ferma vuol<br />
dire che è vero che non si ferma e se non si ferma vuol dire che è falso che non<br />
si ferma, quindi è vero che si ferma. Questo è il tipico esempio di un problema<br />
insolubile, cioè di una funzione non computabile.<br />
Questo risultato faceva fallire da un lato il sogno leibniziano di trovare una<br />
macchina che risolva tutti i problemi, dall’altro gettava ombra su alcune vecchie<br />
teorie filosofiche, come quella di Hobbes, secondo cui pensare è calcolare.<br />
Quando Hobbes scriveva, non c’erano né macchine sviluppate né una<br />
psicologia sviluppata né una logica sviluppata. Ma tutti gli elementi per<br />
un’analisi scientifica (extrafilosofica) della mente cominciavano ad essere<br />
abbondantemente disponibili negli anni 80. Non c’è da stupirsi se nasceva in
questi anni un filone di studi sulla natura della mente umana che si collocava a<br />
cavallo tra la filosofia tradizionale e altre discipline che in modi diverse<br />
studiavano la mente. Negli anni 8090 la continua interazione tra le discipline<br />
che entravano in gioco nella c.d. “philosophy of mind” diventava così complessa<br />
da configurare una disciplina autonoma, a cui è stato dato il nome di scienza<br />
cognitiva. Altri preferiscono parlare di scienze cognitive (al plurale) perché al<br />
momento questa disciplina si presenta ancora come un accorpamento di diverse<br />
discipline integrate, in particolar modo la linguistica, la filosofia, la psicologia<br />
cognitiva e naturalmente l’informatica. Non manca l’apporto di discipline a<br />
carattere tecnologico come la robotica. L’elemento unificante della scienza<br />
cognitiva consiste nel concepire i processi mentali come fatti computazionali e<br />
nella visione naturalistica della mente. I confini tra i vari settori non sono netti :<br />
ciò che conta è la sinergia interdisciplinare. Basti pensare al modo in cui la<br />
robotica ha influenzato gli studi sulla percezione visiva grazie alla creazione di<br />
apparecchi e protesi.<br />
Può essere utile ritornare alla già vista influenza del neopositivismo sulla<br />
psicologia, che ha portato allo sviluppo del comportamentismo, che riduceva<br />
inizialmente ogni fenomeno alla coppia stimolorisposta. Come abbiamo visto, il<br />
comportamentismo liberalizzato ammetteva l’uso di termini teorici per dare un<br />
senso agli stati interni. Nel 1948 Tolman, per render conto del comportamento<br />
dei topi nei labirinti, introduceva la nozione di mappa cognitiva dell’ambiente,<br />
cioè di qualcosa che va oltre il comportamento osservabile e al meccanismo<br />
stimolorisposta. In quegli anni cominciò ad affermarsi l’idea della mente<br />
come sistema di elaborazione di informazioni, per cui le entità teoriche<br />
descrivevano stati di un dispositivo di calcolo: è chiaro che la tesi di Church<br />
Turing, nonostante i limiti visti, suggeriva fortemente la costruzione di modelli<br />
meccanici per ogni forma di calcolo anche non numerico , suggerendo una<br />
concezione computazionale della mente Si noti : a) che l’impostazione<br />
computazionale consente di sviluppare una nozione di mente compatibile con<br />
la visione fisicalista del mondo. b)che i programmi implementati nei<br />
calcolatori digitali possono funzionare come simulazione di processi cognitivi.<br />
Si noti che le spiegazioni computazionali della mente si allontanano dallo<br />
schema di HempelOppenheim. Un algoritmo o un programma non coincidono<br />
con insiemi di leggi nel senso di Hempel. Siamo di fronte a modelli della<br />
mente,e bisognerebbe quindi ampliare la concezione della spiegazione in modo
da dare legittimità all’idea di spiegazione mediante modelli.<br />
Da queste idee si sviluppava molto naturalmente il cosiddetto funzionalismo<br />
(legato in particolare al nome di H.Putnam) secondo cui ciò che identifica gli<br />
stati computazionali non è il supporto fisico (hardware), ma il rapporto degli<br />
stati tra loro. Quindi la mente si può pensare non come una sostanza materiale<br />
ma come base delle relazioni mentali tra stati fisici. Questo è diventato il punto<br />
di vista “ufficiale” delle scienze cognitive, banalizzato nello slogan:<br />
mente:software = cervello :hardware.<br />
E' ovvio che, alla luce dei limiti visti della tesi di Turing, ci sono state<br />
opposizioni a questo punto di vista, che –per usare un vecchio linguaggio nega<br />
l’irriducibilità dello spirito alla materia. J.R.Lucas e R.Penrose hanno utilizzato il<br />
teorema di Gödel per contrastare l’idea che la mente sia rappresentabile come un<br />
computer. “C’è una formula che non è dimostrabile meccanicamente ma che noi<br />
possiamo vedere essere vera”, dice Lucas. Ma secondo i funzionalisti ci sono<br />
degli equivoci su questo punto. Il teorema di Gödel in effetti può essere inteso<br />
in due modi:1)dimostra che questo enunciato esiste indipendentemente dalla<br />
mente umana oppure 2) dimostra che per ogni teoria coerente e completa esiste<br />
un algoritmo che genera un enunciato che è vero nel modello dei numeri naturali<br />
ma non è dimostrabile. (Questo presupponendo la tesi di Church che identifica<br />
funzioni ricorsive e funzioni Turingcalcolabili). Se è così, il procedimento di<br />
generazione dell’enunciato in questione è in definitva meccanizzabile, contro<br />
quanto sostiene Lucas.<br />
Torniamo dunque alla plausibilità del concepire la mente umana come un<br />
computer . Come si vede leggendo il celebre “Gödel, Escher, Bach” di<br />
Hofstadter, questo è il punto di vista quasi ufficiale su questo argomento. Eppure<br />
i dubbi sono legittimi e vanno presi in considerazione.<br />
Per tornare a un punto connesso: si vuole allora dire che le macchine pensano?<br />
Una volta qualcuno chiese a McCarthy – l’inventore dei linguaggi di<br />
programmazione LISP se un termostato avesse credenze. Lui rispose sì. Le<br />
credenze sono “qui fa troppo freddo “, “qui fa troppo caldo”, “qui si sta bene”.<br />
Ci sono due argomenti, quello della Terra Gemella di Hilary Putnam e quello<br />
della Stanza Cinese di Ronald Searle, che sono stati elaborati per criticare la<br />
tesi che gli stati mentali sono stati computazionali.<br />
Terra Gemella. Immaginiamo un pianeta gemello della terra in cui tutto è come
da noi salvo che l’acqua non è H 2 0 ma qualcos’altro (ossido di deuterio). Un mio<br />
gemello identico vuole bere acqua simultaneamente a me nella terra gemella.<br />
Siamo ambedue nello stesso stato computazionale, ma non nello stesso stato<br />
mentale, perché il contenuto dei due stati è differente e potremmo essere delusi<br />
bevendo deuterio anziché acqua.<br />
Stanza Cinese. L’informatico Roger Schank ha creato programmi progettati per<br />
simulare la lettura e la comprensione di una storia. R. Searle nega che la<br />
macchina comprende e risponde alle domande sula storia. Immaginiamo un<br />
soggetto chiuso in una stanza che ignora il cinese ma riceve dei messaggi in<br />
cinese , riceve un foglio di domande in cinese e dispone di un insieme di regole<br />
per produrre scritti cinesi in risposta al secondo foglio. Lui si comporta<br />
esattamente come un computer, e supera il test di Turing senza capire nulla. Se<br />
le macchine pensano, mancano dei poteri causali della mente che assicurano la<br />
caratteristica ritenuta distintiva dell'attività mentale umana, che nella tradizione<br />
filosofica ( scolastica medioevale, Brentano, Husserl) si chiama intenzionalità.<br />
La psicologia del senso comune è quel corpo di conoscenze e di<br />
generalizzazioni che si basa sull’attribuzione di credenze e desideri a se stessi e<br />
agli altri, con lo scopo di spiegare i comportamenti umani.<br />
La cosiddetta TCRM (Teoria Computazionale Rappresentazionale della<br />
Mente) proposta da J. Fodor si propone come una mediazione tra il<br />
funzionalismo del primo Putnam e psicologia del senso comune. L’idea di Fodor<br />
è che pensare vuol dire manipolare un linguaggio speciale , il mentalese<br />
(linguaggio della mente): p.es. credere che p significa avere nella mente una<br />
certa proposizione del mentalese che sta in certi rapporti definiti con altre<br />
proposizioni del mentalese.
Avverso a Fodor è l’eliminativismo: una forma moderna del materialismo e<br />
del comportamentismo, ma compatibile con il funzionalismo, che ritiene che la<br />
psicologia del senso comune sia sbagliata e vada eliminata in una scienza matura<br />
(Patricia Churchland).<br />
Il dibattito sulle immagini mentali essenzialmente pittoriche per alcuni,<br />
essenzialmente proposizionali per altri illustra significativamente gli sviluppi<br />
della scienza cognitiva. Solo nel 1996 questa controversia filosofica venne<br />
corroborata con dati derivati dalle neuroscienze (Kosslyn). Nello stesso tempo le<br />
neuroscienze si avvicinavano alle scienze cognitive, dando vita alle neuroscienze<br />
cognitive. Negli anni 80 c’ è stato un revival di modelli connessionisti, in cui ci<br />
si allontanava dai modelli computazionali tradizionali per introdurre modelli<br />
computazionali ispirati all’architettura neuronale. L’interazione tra scienze<br />
cognitive e scienze biologiche è tuttora in pieno sviluppo.<br />
Una tendenza emersa negli ultimi due decenni riguarda anche l’influenza di<br />
fattori ambientali (sociali ma anche fisici e biologici); si parla di “cognizione<br />
situata”, che riguarda anche la percezione derivata dall’ambiente. L’accento in<br />
questo caso è più sulla ricezione che sull’ elaborazione; si guarda al<br />
comportamento reattivo di animali molto semplici, come p.es. gli insetti, per<br />
costruire robot (etologia cognitiva di Wilson e Keil,1999).<br />
Accanto allo scambio interdisciplinare con la biologia e la zoologia abbiamo<br />
anche l’interazione con l’antropologia. Il relativismo culturale degli anni 6070<br />
è stato chiaramente marginalizzato in quanto le scienze cognitive presuppongono<br />
l’invarianza della mente umana rispetto ai fattori ambientali: valga al proposito<br />
la tesi Chomskiana del carattere innato delle facoltà linguistiche. C’è stata una<br />
ripresa del concetto, considerato fuori moda, di natura umana. Sulla stessa onda
si possono considerare le spiegazione evoluzionistiche dei comportamenti<br />
cognitivi e si possono sviluppare anche modelli computazionali del processo<br />
evolutivo (evolutionary computation e vita artificiale).<br />
Si è avuto anche una ripresa di interesse per la coscienza e per le emozioni,<br />
categorie dimenticate o trascurate nella fase iniziale. Si distingue tra coscienza<br />
cognitiva e coscienza fenomenica. La seconda riguarda la capacità di un agente<br />
di accedere ai propri stati qualitativi (qualia: “i modi in cui le cose ci<br />
sembrano”), mentre la prima riguarda la capacità di rappresentare gli stati<br />
mentali ai fini della pianificazione delle proprie azioni.<br />
Dal punto di vista metodologico, la coscienza cognitiva non è problematica.<br />
Uno stato mentale è sempre caratterizzato dalle sue relazioni funzionali con gli<br />
altri stati mentali, catturabili con gli strumenti del paradigma funzionalista. La<br />
coscienza fenomenica invece sembra essere una proprietà intrinseca dello stato<br />
stesso, irrelato con gli altri ( questo sembra evidenziato da esperimenti mentali<br />
come quello della stanza cinese). La sperimentabilità “in prima persona” è un<br />
problema che riguarda qualsiasi spiegazione scientifica della mente. Thomas<br />
Nagel nega che in terza persona si possa cogliere il fenomeno della coscienza, e<br />
secondo Colin McGinn c’è un’impossibilità di principio per la mente umana di<br />
comprendere il fenomeno della coscienza e a fortiori di spiegarlo. Sembra quindi<br />
sfuggire alle prese della scienza cognitiva. Si fa valere al proposito l’approccio<br />
del materialismo eliminativista di Churchland , mentre secondo Daniel Dennett,<br />
oggi esponente di spicco del funzionalismo, quello che chiamiamo coscienza<br />
fenomenica è un coacervo di fenomeni eterogenei che di fatto non esiste, anche<br />
se ciò rende difficile capire come sia sperimentabile in prima persona.<br />
Dunque il funzionalismo sembra nonostante tutto il paradigma dominante nella<br />
scienza cognitiva. Ma ritorniamo a valutare le alternative proposte al modello<br />
della mente come macchina di Turing. Negli ultimi anni è nata una nuova<br />
nozione di computazione non Turing.<br />
Gödel ha sostenuto a più riprese che la tesi di Turing secondo cui la mente è<br />
rappresentabile come una TM è non conclusiva in quanto viene tralasciato il<br />
fatto che la mente non è un oggetto statico ma in costante sviluppo. La rilevanza<br />
attribuita alle osservazioni di Gödel dipende dall’indiscussa autorità di Gödel<br />
stesso. Gödel coglie un aspetto di particolare rilevanza: nel comprendere e<br />
nell’usare termini astratti entrano in gioco termini sempre più astratti. Sebbene a
ogni stadio il numero dei termini astratti possa essere finito (e anche il numero<br />
degli stati mentali distinti, come asserisce Turing), nel corso dell’applicazione<br />
della procedura esso potrebbe convergere all’infinito: qualcosa del genere<br />
sembra accadere nel processo di formazione di assiomi dell’infinito sempre più<br />
forti nella teoria degli insiemi o nella costruzione della gerarchia dei numeri<br />
transfiniti di Cantor.<br />
Gödel sembra ritenere che questa procedura mentale non sia una procedura<br />
meccanica, e non possa essere eseguita da un automa finito. Sembrano quindi<br />
che possano esserci forme di intelligenza “non computazionale”, che vanno oltre<br />
le procedure meccaniche finite di Turing. Nello stesso tempo, come abbiamo già<br />
osservato a proposito di Lucas e Penrose, non si può negare un carattere<br />
algoritmico a procedure siffatte.<br />
Se è così chiediamoci:<br />
i. Come descrivere il carattere di queste forme di intelligenza non meccanica?<br />
ii. I processi mentali che vanno oltre le procedure meccaniche presentano una<br />
forma di calcolo che va oltre una computazione meccanica effettiva?<br />
iii. Come possiamo rimpiazzare la dicotomia “calcolo meccanico /non<br />
meccanico” con la descrizione di procedure di maggiore generalità che includano<br />
sia la computazione meccanica sia quella non meccanica?<br />
Secondo Gödel dunque alcune procedure mentali eseguite dalla mente umana<br />
non soddisfano le condizioni di finitezza e determinazione richieste dall’analisi<br />
di Turing sull’esecuzione di procedure meccaniche. L’ipotesi di Gödel avvalora<br />
la tesi secondo cui ci possono essere funzioni calcolabili ma non Turing<br />
computabili, il che farebbe pensare all’ abbandono della tesi di ChurchTuring.<br />
In base a quant già detto, un primo esempio di tale sorta di funzioni sarebbe<br />
costituito da una funzione calcolabile dalla mente umana tramite una procedura<br />
che comporta l’uso di termini astratti in base al loro significato, funzione che non
può essere computata mediante una procedura puramente meccanica. Se si<br />
potesse esibire chiaramente una simile funzione, il risultato sosterrebbe una tesi<br />
antialgoritmica e antimeccanica sulla mente umana. Si tratterebbe infatti di una<br />
funzione che è definibile costruttivamente, computabile dalla mente umana, ma<br />
non sarebbe Turingcomputabile.<br />
La tesi di Turing secondo cui ciò che può essere calcolato da un essere umano<br />
idealizzato che segua una routine di passi elementari è MTcomputabile<br />
potrebbe essere affinata precisando la nozione stessa di calcolatore. Di qui la tesi<br />
di Robert Gandy secondo cui “ciò che può essere calcolato da un dispositivo<br />
meccanico deterministico è computabile”. Si tratta di una generalizzazione della<br />
tesi di Turing, in cui i meccanismi considerati hanno limitazioni di carattere<br />
fisico: una condizione di finitezza (un limite inferiore) sulle dimensioni delle<br />
componenti elementari (o atomiche) e una condizione di località, cioè un limite<br />
superiore sulla velocità di propagazione dei segnali, la velocità della luce. Un<br />
passo oltre le macchine ideali di Gandy sono i ‘calcolatori quantistici’. Sembra<br />
allora ragionevole spingersi fino alla tesi più generale secondo cui “ciò che può<br />
essere calcolato da un dispositivo fisico (deterministico o indeterministico) è<br />
computabile”.<br />
Un calcolatore quantistico, essendo un dispositivo fisico in grado di eseguire<br />
algoritmi quantistici che non hanno analogo classico, potrebbe rappresentare un<br />
nuovo modello di algoritmo. Con questo ci spingiamo alle frontiere della<br />
ricerca, perché i calcolatori quantistici stanno attualmente passando dalla fase di
progettazione a quella concreta. Il vantaggio dei calcolatori quantistici è la loro<br />
impressionante velocità, dato che lavorano in parallelo e non linearmente. Il poco<br />
che si può dire circa il rapporto con la mente umana si condensa in una<br />
congettura di Roger Penrose: “Il comportamento non computazionale del<br />
cervello umano potrebbe dipendere da fenomeni di tipo quantistico”.<br />
Restano aperti diversi interrogativi collaterali:<br />
a)Un calcolatore quantistico è ancora una macchina di Turing? Secondo Deutsch,<br />
dal momento che tutti i processi paralleli possono essere in linea di principio<br />
linearizzati, non si fuoriesce comunque da quanto enunciato dalla tesi di Church<br />
Turing.<br />
b) Ci sono aspetti non computazionali nel pensiero umano: si tratta di fenomeni<br />
non computazionali quantistici ?<br />
c) Un sistema fisico quantistico è simulabile da un computer quantistico?<br />
Finora non abbiamo accennato al fatto che tra gli aspetti non computazionali<br />
del pensiero umano dobbiamo porre un aspetto che secondo alcuni è ciò che<br />
caratterizza la specie umana dalle altre specie animali: la creatività. Non è<br />
azzardato dire che il tema della creatività è quello su cui tutte le concezioni<br />
computazionaliste della mente hanno dovuto misurarsi, con esiti la cui<br />
importanza oggi non è facile da valutare..<br />
§ 3 . La centralità acquistata dalla scienza cognitiva è dovuta al fatto che l’<br />
informatica è diventata la disciplina trainante nei confronti delle cosiddette<br />
scienze formali e in parte della stessa fisica. Si può addirittura sostenere che<br />
l’informatica ha cambiato il volto della stessa filosofia. Dobbiamo a Paul<br />
Thagard la nascita della cosiddetta filosofia computazionale.
Da un lato, la presenza del WorldWideWeb è una novità di un certo rilievo<br />
perché mette a disposizione degli utenti un’enciclopedia illimitata, e questo<br />
vale anche per tutto il materiale filosofico. Ogni filosofo americano oggi ha una<br />
sua pagina personale e mette in rete i propri lavori scavalcando la distribuzione<br />
di materiale cartaceo. Ci sono insegnamenti “virtuali” di filosofia ecc. Ma il<br />
problema è sapere qual è il contributo effettivo che l’informatica ha dato alla<br />
discussione filosofica. I computers, per quanto in sè siano perfettamente stupidi,<br />
sono programmati per fare cose che gli uomini non possono fare, o almeno non<br />
possono fare con la stessa velocità e lo stesso grado di infallibilità. Prescindendo<br />
dalle questioni poste dalla scienza cognitiva, i computers simulano la mente<br />
umana e pertanto presentano elementi nuovi per la valutazione di classiche<br />
questioni filosofiche.<br />
Pensiamo ad alcuni problemi squisitamente metodologici, per esempio al<br />
problema dell’abduzione. Come si ricorderà, l’abduzione è un tipo di inferenza<br />
ampliativa (un tempo confusa con l’induzione), che consente in passare<br />
dall’explanandum all’explanans, cioè da ciò che si deve spiegare ai dati<br />
esplicativi. I dati esplicativi possono essere leggi ( come le leggi di Keplero,<br />
che spiegano le varie posizioni dei pianeti) oppure fatti singolari che nel caso<br />
più comune offrono una spiegazione causale dell' explanandum . L’ inferenza<br />
abduttiva è l’inferenza alla miglior spiegazione e spesso viene classificata in due<br />
tipi: abduzione creativa (che crea le ipotesi esplicative) e abduzione selettiva<br />
(che seleziona tali ipotesi). L' abduzione selettiva è basata, si ritiene, su metodi<br />
razionali dominabili: si sceglie l’ipotesi più economica, più informativa ecc. ,
oppure si applica quello strumento prezioso che è il teorema di Bayes, per cui<br />
conoscendo il valore probabilistico di E dato C (Pr(E|C)), di E e di C si può<br />
calcolare la probabilità di C dato E Pr(C|E)) e la si può confrontare con Pr(C'|<br />
E), Pr(C”|E) ecc. con l'obiettivo di scegliendo l'ipotesi più probabile.<br />
L’abduzione creativa è stata in genere considerata intrattabile con metodi<br />
formali, essendo ritenuta oggetto della psicologia della ricerca. Tuttavia a<br />
partire dagli anni 80 l’ingegneria ha offerto degli automi in grado di compiere<br />
scoperte, o almeno di simularle. DENDRAL (1980) scopriva la struttura<br />
molecolare del campione avendo come input i dati spettroscopici e<br />
METADENDRAL scopriva qualcosa di più: le regole che spiegano il processo di<br />
frammentazione dei campioni. Il programma BACON 1 ha riscoperto la terza<br />
legge di Keplero, la legge di Ohm e la legge di Boyle Mariotte con una<br />
procedura datadriven, cioè confrontando le formule con i dati empirici assunti<br />
come inputs.<br />
Nei suddetti programmi l'elaborazione partiva comunque da un insieme di dati<br />
scelti dal programmatore. In effetti sembra ci sia una contraddizione nell’idea<br />
stessa di un automa creativo, non diversamente da come sembra ci sia una<br />
contraddizione nell’idea stessa di un automa che produce sequenze casuali<br />
(random sequences): come può esserci un insieme di regole per produrre una<br />
sequenza che per definizione è irregolare? Ma la cosiddetta Intelligenza<br />
Artificiale (AI) non poteva non raccogliere anche questa sfida. Già nel 1987<br />
venivano implementati programmi in grado di simulare le scoperte scientifiche<br />
usando come spazio di ricerca tutte le possibile formule esprimenti correlazioni
tra variabili I tentativi in questa direzione sono ormai oggetto di copiosa<br />
letteratura. Può essere utile ricordare qui che ci sono risultati recentissimi anche<br />
per le scoperte che ormai vengono spesso chiamate serendipiane. Che significa?<br />
Una scoperta è serendipiana quando è stata ottenuta in modo preterintenzionale,<br />
quando cioè il ricercatore era alla ricerca di qualcos’altro o addirittura di<br />
qualcosa di opposto (v. scoperta della penicillina da parte di Pasteur). In questi<br />
casi è chiaro che la scoperta è impossibile senza l’intuito e le genialità del<br />
ricercatore stesso.<br />
Campos e Figueiredo (2002) hanno realizzato un software, MAX, che per<br />
quanto non crei ipotesi serendipiane è uno strumento per la serendipidità. Per<br />
cogliere il punto, si pensi alla distinzione tra la ricerca di informazione in<br />
Internet guidata da uno scopo preciso come si fa normalmente usando un<br />
motore di ricerca e il “navigare in Internet” a casaccio, che offre il terreno<br />
fertile per la scoperta serendipiana. MAX si propone di offrire stimoli<br />
interessanti e inattesi al ricercatore: il Modulo di Formulazione di Suggerimenti<br />
di MAX ha come scopo la ricerca deliberata di occasioni per il lateral thinking.<br />
Il programma è in grado di definire una misura di somiglianza tra documenti, in<br />
modo da assemblare documenti divergenti. Gli autori concludono che “fare<br />
programmi per la serendipità è possibile”.<br />
Le procedure informatiche entrano in gioco a diversi stadi della ricerca<br />
abduttiva. In primo luogo, anche se non sono in grado di produrre un ventaglio di<br />
ipotesi che sia automaticamente candidato al successo, sono in grado di produrre<br />
combinatoriamente, sulla base di informazioni predeterminate, un numero
estremamente alto di ipotesi, e in ogni caso più alto di quello che qualsiasi<br />
operatore umano è in grado di formulare. In secondo luogo sono in grado di<br />
individuare ipotesi logicamente equivalenti e di scegliere, a parità di contenuto,<br />
quelle sintatticamente più semplici semplificando il repertorio delle ipotesi di<br />
base. In terzo luogo, sono in grado di calcolare rapidamente le conseguenze delle<br />
ipotesi assunte e di eliminare le ipotesi in conflitto rispetto ai dati empirici con<br />
una velocità non consentita all’operatore umano.<br />
Il ruolo della creatività umana non è stato finora messo in discussione dalla<br />
programmazione abduttiva: anche perché qualunque programma si possa<br />
scrivere per il più sofisticato dei computers è, in ultima analisi, un prodotto della<br />
stessa creatività umana.<br />
[BIBLIOGRAFIA ESSENZIALE IN ITALIANO<br />
R.Cordeschi e V.Somenzi (a cura di) La filosofia degli automi, Boringhieri,<br />
Torino 1986<br />
D. R Hostadter, Gödel , Escher, Bach, Adelphi ,Milano, 1985<br />
L.Magnani, Ingegnerie della conoscenza. Introduzione alla filosofia<br />
computazionale, Marcos y Marcos, Milano, 1997<br />
D. Marconi, Filosofia e scienza cognitiva, Laterza,Bari,2001.<br />
S.Nannini, L’anima e il corpo. Un’introduzione storica alla filosofia della<br />
mente, Laterza, Bari, 2002<br />
P.Thagard, La mente. Introduzione alla scienza cognitiva (a cura di L. Magnani),<br />
Guerini, Milano, 1996]