Categoria: Filosofia

FILOSOFIA E SCIENZA MODERNA – Capo 7°

 

 
La teoria dei quanta e la struttura della materia.
 
 
 
 

La più antica filosofia greca, da Talete agli Atomisti, cercando il principio unificatore dell’universale mutabilità delle cose, aveva formulato il concetto di materia cosmica, una sostanza universale che soggiace a tutte le trasformazioni, da cui tutte le cose particolari sorgono e in cui tutte di nuovo si trasformano. Questa materia fu in parte identificata con qualche elemento specifico, come l’acqua, l’aria la terra o il fuoco; soltanto in parte, poiché essa non aveva altro attributo tranne quello di essere il materiale di cui tutte le cose sono fatte.
Più tardi, nella filosofia di Aristotele, si pensò alla materia come ad un elemento della relazione tra forma e materia. Tutto ciò che noi percepiamo nel mondo dei fenomeni che ci circonda, non è di per sé una realtà, ma solo una possibilità, una potentia, la quale esiste solo per mezzo e in virtù della forma.
Nel processo naturale, l’”essenza”, come Aristotele la chiama, passa, da semplice possibilità, mercè la forma, in attualità.
La materia di Aristotele non è certamente una materia specifica, come l’acqua o l’aria, ne è, semplicemente, spazio vuoto; è genere di substrato corporeo indefinito, incorporante la possibilità di trasformarsi in attualità per mezzo della forma. Gli esempi tipici di questa relazione tra materia e forma nella filosofia di Aristotele sono i processi biologici, in cui la materia si forma per diventare organismo vivente e attività formatrice e costruttrice dell’uomo. La statua è potenzialmente nel marmo, prima che le dia forma lo scultore.
Successivamente, bisogna giungere alla filosofia di Descartes, nella quale la materia fu essenzialmente pensata come qualcosa di opposto allo spirito. Erano i due aspetti complementari del mondo, “materia” e “spirito” o, come li esprime Cartesio, la res extensa e la res cogitans.
Poiché i nuovi principi metodici della scienza naturale, specialmente della meccanica, escludevano ogni influenza dei fenomeni corporei sulle forze spirituali, la materia di questo periodo è “materia formata”, interpretandosi in tal modo il processo di formazione come una catena causale di interazioni meccaniche. Ciò ha perduto la sua connessione con l’anima vegetativa della filosofia aristotelica, e perciò il dualismo fra materia e forma non è più rilevante. E’ questo il concetto di materia che costituisce di gran lunga il componente più importante del nostro uso attuale della parola “materia”.
Infine, nella scienza naturale del diciannovesimo secolo, ha avuto importanza un altro dualismo, il dualismo tra materia e forza. La materia è ciò su cui possono agire delle forze, oppure la materia può produrre delle forze. Per esempio, la materia produce la forza di gravità e questa forza agisce sulla materia. Materia e forza sono due aspetti distintamente diversi del mondo corporeo.
Fintanto che le forze possono essere forze formative, questa distinzione si riavvicina alla distinzione aristotelica di materia e forma. D’altra parte, nello sviluppo più recente della fisica moderna, questa distinzione fra materia e forza è completamente abbandonata, giacché ogni campo di forza contiene energia e proprio perciò costituisce materia. Ad ogni campo di forza appartiene un tipo specifico di particelle elementari aventi essenzialmente le stesse proprietà di tutte le altre unità atomiche della materia.
Quando la scienza naturale investiga il problema della materia, può farlo soltanto attraverso lo studio delle forme della materia. L’infinita varietà e mutabilità delle forme della materia dev’essere l’oggetto immediato dell’investigazione, e gli sforzi devono essere diretti a trovare delle leggi naturali, dei principi unificatori che possono seguire di guida in questo immenso campo. Perciò la scienza naturale – e specialmente la fisica – ha per un lungo periodo concentrato il proprio interesse sull’analisi della struttura della materia e delle forze responsabili di questa struttura.
Dal tempo di Galileo il metodo fondamentale della scienza naturale è stato l’esperimento. Questo metodo ha reso possibile il passaggio dall’esperienza generale all’esperienza specifica, ai singoli eventi caratteristici, la natura dei quali non poteva venir studiata in modo diretto se non dall’esperienza generale. Per studiare la struttura della materia era necessario eseguire degli esperimenti con la materia. Bisognava sottoporre la materia a delle condizioni estreme per studiare le trasformazioni che in essa possono avvenire, nella speranza di trovare i suoi aspetti fondamentali, quelli che persistono, nonostante tutti gli apparenti cambiamenti.
Nei primi tempi della scienza naturale, fu questo l’oggetto della chimica, e questo sforzo portò abbastanza rapidamente al concetto di “elemento chimico”. Una sostanza che non potesse più essere dissolta o disintegrata da nessuno dei mezzi a disposizione dei chimici – ebollizione, combustione, dissoluzione, mescolanza con altre sostanze, eccetera – venne considerata un elemento. L’introduzione di questo concetto fu un primo ed importantissimo passo verso la conoscenza della struttura della materia.
L’enorme varietà delle sostanze fu almeno ridotta a un numero comparativamente piccolo di sostanze più fondamentali, gli “elementi”, e fu possibile così stabilire un certo ordine fra i vari fenomeni della chimica. La parola “atomo” venne usata di conseguenza per designare la più piccola unità di materia appartenente ad un elemento chimico, mentre la più piccola particella di un composto chimico poteva venire raffigurata come un piccolo gruppo di atomi diversi. La particella più piccola dell’elemento “ferro”, ad esempio, era un atomo di ferro, e la più piccola particella d’acqua la molecola d’acqua, consisteva in un atomo di ossigeno e due atomi di idrogeno.
Il passo successivo e quasi di uguale importanza fu la scoperta della conservazione della massa nei processi chimici. Ad esempio, quando l’elemento carbone si trasforma per combustione in biossido di carbonio, la massa del biossido di carbonio è uguale alla somma delle masse del carbone e dell’ossigeno prima del processo.
Fu questa la scoperta che diede un significato quantitativo al concetto di materia: indipendentemente dalle sue qualità chimiche, la materia può essere misurata per la sua massa.
Durante il successivo periodo, principalmente nel diciannovesimo secolo, un gran numero di nuovi elementi chimici venne scoperto; ai nostri tempi questo numero ha superato il centinaio. Questo sviluppo chimico mostrò inequivocabilmente chiaro che il concetto di elemento chimico non aveva ancora raggiunto il punto da cui è possibile intendere l’unità della materia.
Era una situazione poco soddisfacente ammettere che esistessero moltissimi tipi di materia, qualitativamente diversi e senza alcuna connessione tra loro.
All’inizio del diciannovesimo secolo una certa prova di connessione tra i diversi elementi fu trovata nel fatto che i pesi atomici di molti elementi apparivano spesso essere multipli di interi di un’unità più piccola con peso atomico vicino a quello dell’idrogeno. La somiglianza nel comportamento chimico di vari elementi costituì un altro sintomo operante nella stessa direzione. Ma soltanto la scoperta di forze molto più potenti di quelle applicate nei processi chimici poteva realmente stabilire la connessione tra i diversi elementi e portare, perciò, ad una più stretta unificazione della materia.
Queste forze furono effettivamente trovate nel processo radioattivo scoperto nel 1896 da Becquerel. Successive investigazioni ad opera di Curie, Rutherford ed altri rivelarono la trasmutazione di elementi nel processo radioattivo. Le particelle alfa vengono emesse in questi processi, come frammenti degli atomi, come energie circa un milione di volte più grandi dell’energia di una singola particella atomica in un processo chimico. Queste particelle poterono quindi essere usate come nuovi strumenti per investigare l’intima struttura dell’atomo.
Il risultato degli esperimenti di Rutherford sulla dispersione del raggi alfa costituì il modello nucleare dell’atomo nel 1911. Il tratto più importante di questo ben noto modello era la separazione dell’atomo in due parti nettamente diverse: il nucleo atomico e gli strati elettronici che lo attorniano.
Il nucleo al centro dell’atomo occupa solo una frazione estremamente piccola dello spazio riempito dall’atomo (il suo raggio è circa centomila volte più piccolo di quello dell’atomo) ma contiene quasi interamente la sua massa. La sua carica elettrica positiva, che è un multiplo intero della cosiddetta “carica elementare” determina il numero di elettroni che lo circondano (l’atomo, nel suo complesso, dev’essere elettricamente neutro) e le forme delle loro orbite.
La distinzione fra il nucleo atomico e gli strati elettronici fornì subito una spiegazione più appropriata del fatto che, per la chimica, gli elementi chimici sono le unità ultime della materia, mentre forze molto più forti sono richieste per mutare gli elementi gli uni negli altri.
Il legame chimico tra atomi vicini è dovuto ad una interazione degli strati elettronici, e le energie di questa interazione sono relativamente piccole.
Un elettrone che sia accelerato in un tubo di scarica da un potenziale di soli pochi volt, ha energia sufficiente per eccitare gli strati elettronici all’emissione di radiazioni, o per distruggere il legame chimico di una molecola.
Ma il comportamento chimico dell’atomo, sebbene dipenda dal comportamento dei suoi strati elettronici, è determinato dalla carica del nucleo. Bisogna cambiare il nucleo se si vogliono modificare le proprietà chimiche, e ciò richiede delle energie circa un milione di volte più grandi.
Il modello nucleare dell’atomo, se viene pensato come un sistema obbediente alle leggi della meccanica di Newton, non potrebbe spiegare la stabilità dell’atomo. Come è stato messo in rilievo in un capitolo precedente, solo l’applicazione della teoria dei quanta a questo modello, attraverso l’opera di Bohr, potè render conto del fatto che, ad esempio, un atomo di carbonio, dopo essere stato in interazione con altri atomi o dopo avere emesso una radiazione, rimane, alla fine, sempre un atomo di carbonio, con gli stessi strati elettronici di prima. Questa stabilità potrebbe venir spiegata semplicemente da quegli aspetti della teoria dei quanta che impediscono una semplice descrizione oggettiva, nello spazio e nel tempo, della struttura dell’atomo.
In questo modo si ebbe, finalmente, una prima base per la comprensione della materia. Ci si potè rendere conto delle proprietà chimiche e delle altre proprietà degli atomi, applicando lo schema matematico della teoria dei quanta agli strati elettronici.
Da questa base si fu in grado di estendere l’analisi della struttura della materia in due opposte direzioni: verso l’investigazione della interazione degli atomi e delle loro relazioni con unità più vaste, con molecole, cristalli od oggetti biologici; oppure verso l’investigazione del nucleo atomico e dei suoi componenti, tentando di penetrare fino all’unità estrema della materia.
La ricerca ha proceduto su entrambe le linee, nei passati decenni, e noi descriveremo, nelle pagine seguenti, il ruolo svolto in questi due campi dalla teoria dei quanta.
Le forze tra atomi vicini sono, principalmente, forze elettriche: l’attrazione fra cariche opposte e la repulsione fra cariche uguali. Gli elettroni sono attratti dai nuclei e si respingono fra loro. Ma queste forze agiscono, non secondo le leggi della meccanica newtoniana, ma secondo quelle della meccanica dei quanta.
Tutto ciò conduce a due diversi tipi di legami fra gli atomi. In un primo tipo l’elettrone di un atomo passa all’altro atomo, per riempire, ad esempio, uno strato elettronico pressoché completo. In questo caso tutti e due gli atomi sono finalmente carichi e formano quelli che i fisici chiamano ioni; e poiché le loro cariche sono opposte, essi si attraggono l’un l’altro.
Nel secondo tipo, un elettrone appartiene, in un modo che è caratteristico della teoria dei quanta, ad entrambi gli atomi. Servendosi della raffigurazione dell’orbita elettronica, si potrebbe dire che l’elettrone gira intorno ad entrambi i nuclei passando quantità di tempo corrispondenti nell’uno e nell’altro atomo. Questo secondo tipo di legame corrisponde a ciò che i chimici chiamano “legame di covalenza”.
Questi due tipi di forze, che possono trovarsi in ogni combinazione, sono la causa della formazione dei vari raggruppamenti di atomi, e sembrano, in ultima analisi, essere i responsabili di tutte le complicate strutture della materia che vengono studiate in fisica e in chimica.
La formazione dei composti chimici avviene attraverso la formazione di piccoli gruppi chiusi di atomi diversi, costituendo ogni gruppo una molecola del composto. La formazione dei cristalli è dovuta all’ordinarsi degli atomi in grate regolari. I metalli si formano quando gli atomi sono così strettamente stipati che i loro elettroni esterni possono abbandonare gli strati rispettivi e vagare attraverso l’intero cristallo. Il magnetismo è dovuto al moto rotatorio dell’elettrone, e così via.
In tutti questi casi il dualismo fra materia e forza può ancora essere mantenuto, giacché si possono considerare nuclei ed elettroni come frammenti di materia, tenuti insieme per mezzo delle forze elettromagnetiche. Mentre, in tal modo, la fisica e la chimica sono venute ad una quasi completa unificazione in relazione alla struttura della materia, la biologia ha a che fare con strutture di tipo più complicato e alquanto diverso. 
E’ vero che, nonostante l’interezza dell’organismo vivente, non è certamente possibile fare una netta distinzione fra materia animata e materia inanimata. Lo sviluppo della biologia ci ha fornito un gran numero di esempi attraverso i quali è possibile vedere in qual modo le specifiche funzioni biologiche sono compiute da grandi molecole speciali, o gruppi, o catene di tali molecole; e si è rilevata, nella biologia moderna, una tendenza crescente a spiegare i processi biologici come conseguenze delle leggi della fisica e della chimica.
Ma il genere di stabilità che si dispiega negli organismi viventi è di natura alquanto diversa dalla stabilità degli atomi e dei cristalli. E’ una stabilità del processo o della funzione, piuttosto che una stabilità della forma. Non ci può essere alcun dubbio che le leggi della teoria dei quanta svolgano una parte importante nei fenomeni biologici. Ad esempio, quelle forze specifiche della teoria dei quanta che possono esser descritte solo in modo impreciso dal concetto di valenza chimica, sono essenziali per l’intelligenza delle grandi molecole organiche e dei loro vari modelli geometrici; gli esperimenti sulle mutazioni biologiche prodotte dalla radiazione mostrano sia l’importanza delle leggi statistiche della teoretica quantica, come l’esistenza di meccanismi amplificatori.
La stretta analogia fra il funzionamento del nostro sistema nervoso e quello delle moderne calcolatrici elettroniche, mette ancora in evidenza l’importanza dei singoli processi elementari nell’organismo vivente.
Tutto ciò non prova, tuttavia, che la chimica e la fisica possano un giorno offrirci, congiunto al concetto di evoluzione, una descrizione completa dell’organismo vivente. I processi biologici devono essere maneggiati dallo scienziato sperimentatore con cautela molto più grande dei processi fisici e chimici. Come ha messo in rilievo Bohr, può essere benissimo che una descrizione dell’organismo vivente che possa essere detta completa dal punto di vista fisico, non possa essere data in quanto richiederebbe degli esperimenti che interferirebbero troppo violentemente con le funzioni biologiche.
Bohr ha illustrato una tale situazione affermando che in biologia noi abbiamo a che fare con manifestazioni di possibilità di quella natura cui noi stessi apparteniamo, piuttosto che con risultati di esperimenti che possono essere compiuti da noi. La situazione di complementarietà a cui questa formula allude, costituisce una tendenza nei metodi della moderna ricerca biologica che, da un lato, fa pieno uso di tutti i metodi e i risultati della fisica e della chimica, mentre, dall’altro lato, è basata su concetti che si riferiscono a quelle caratteristiche della natura organica che non sono contenute nella fisica o nella chimica, come il concetto stesso di vita.
Fin qui abbiamo seguito l’analisi della struttura della materia in una direzione: dall’atomo alle strutture più complicate costituite da una molteplicità di atomi; dalla fisica atomica alla fisica dei corpi solidi, alla chimica ed alla biologia. Ora dobbiamo volgerci verso la direzione opposta e seguire la linea di ricerca che va dalle parti esterne dell’atomo alle parti interne del nucleo, alle particelle elementari. Questa linea ci condurrà forse alla comprensione dell’unità della materia.
Non dobbiamo temere, in questo caso, di distruggere strutture caratteristiche con i nostri esperimenti. Quando ci si pone il compito di trovare l’unità intima della materia, noi dobbiamo sottoporre la materia stessa alle maggiori forze possibili, alle condizioni più estreme per vedere se ogni sostanza può, in definitiva, essere trasformata in qualsiasi altra sostanza.
Un primo passo in questa direzione fu l’analisi sperimentale del nucleo atomico.
Nel periodo iniziale di questi studi, che riempirono approssimativamente i primi tre decenni del nostro secolo, gli unici strumenti disponibili per compiere esperimenti sul nucleo furono le particelle alfa emesse dai corpi radioattivi. Con l’aiuto di questa particelle, Rutherford, nel 1919, riuscì a trasmutare nuclei di elementi leggeri; potè, per esempio, trasformare un nucleo di azoto in un nucleo di ossigeno, aggiungendo la particella alfa al nucleo di azoto ed espellendone, nello stesso tempo, un protone.
Fu questo il primo esempio di una serie di processi su scala nucleare i quali, similmente ai processi chimici, condussero alla trasmutazione artificiale degli elementi.
Il successivo sostanziale progresso fu, com’è ben noto, l’accelerazione artificiale dei protoni, per mezzo di congegni ad alta tensione, ad energie sufficienti a produrre la trasmutazione nucleare. Erano necessari, a questo scopo, voltaggi di circa un milione di volt, e Cockcroft e Walton riuscirono, nel loro primo esperimento decisivo, a trasmutare nuclei dell’elemento litio in quelli dell’elemento elio. Questa scoperta aprì una direzione di ricerca completamente nuova, che può essere denominata fisica nucleare nel senso proprio del termine, e che condusse assai presto ad una conoscenza qualitativa della struttura del nucleo atomico.
La struttura del nucleo è, in realtà, semplicissima. Il nucleo atomico consiste di due soli tipi di particelle elementari. Una di queste è il protone, il quale non è altro, nello stesso tempo, che il nucleo dell’idrogeno, e l’altra è definita neutrone, una particella avente su per giù la massa del protone, ma che è elettricamente neutra. Ogni nucleo può essere caratterizzato dal numero di protoni e di neutroni in cui consiste. Il normale nucleo di carbonio, ad esempio, consiste di sei protoni e di sei neutroni.
Ci sono altri nuclei di carbonio, in numero meno frequente, definiti isotopici rispetto ai primi, che consistono di sei protoni e sette neutroni, ecc. Si raggiunse così una descrizione della materia in cui, invece di diversi elementi chimici, bastavano soltanto tre unità fondamentali: il protone, il neutrone e l’elettrone.
Tutta la materia consiste di atomi, ed è perciò costituita con queste tre fondamentali pietre miliari.
Non si trattava ancora dell’unità della materia, ma era certo un gran passo verso l’unificazione e – cosa forse ancora più importante – verso la semplificazione.
C’era, naturalmente, ancora molta strada da fare, dalla conoscenza dei due fondamentali elementi costitutivi del nucleo, ad una comprensione piena della sua struttura. Si trattava di un problema alquanto diverso dal problema corrispondente riguardante gli strati atomici esterni, il quale era stato risolto verso il 1925.
Negli strati elettronici erano ben conosciute le forze fra le particelle, ma era necessario trovarne le leggi dinamiche,ed esse furono trovate nella dinamica dei quanta.
Nel nucleo, si poteva supporre che le leggi dinamiche fossero proprio quelle della meccanica dei quanta, ma non erano conosciute in anticipo le forze agenti tra le particelle. Era necessario derivarle dalle proprietà fondamentali dei nuclei. Ad oggi questo problema non è stato completamente risolto.
Le forze, probabilmente, non hanno una forma semplice come quella delle forze elettrostatiche nelle cortecce atomiche, e quindi la difficoltà matematica di calcolare le proprietà di forze complicate, e l’imprecisione degli esperimenti, rendono difficile il progresso. Ma una intelligenza qualitativa della struttura del nucleo è stata definitivamente raggiunta. Restava quindi il problema ultimo, quello dell’unità della materia.
Queste pietre miliari fondamentali – il protone, il neutrone e l’elettrone – sono unità ultime e indistruttibili di materia, atomi nel senso inteso da Democrito, senza alcuna relazione, tranne quella delle forze che tra di loro agiscono, o non sono invece che forme diverse dello stesso tipo di materia? Un attacco sperimentale sferrato in questo senso richiede un concentramento di forze ed energie sulle particelle atomiche molto più imponente di quello che è stato necessario per investigare il nucleo atomico. Giacché le energie raccolte nei nuclei atomici non sono così grandi da fornirci uno strumento valido per tali esperimenti, il fisico deve fare assegnamento o sulle forze di dimensione cosmica o sulla ingegnosità ed abilità dei tecnici.
Effettivamente, progressi si sono fatti su entrambe le linee. Nel primo caso il fisico fa uso della cosiddetta radiazione cosmica. I campi elettromagnetici della superficie delle stelle, estendendosi su spazi immensi, sono capaci, in determinate circostanze, di accelerare le particelle atomiche cariche, gli elettroni ed i nuclei. Questi ultimi, a causa della loro maggiore inerzia, sembrano avere maggiore probabilità di restare a lungo nel campo di accelerazione, e quando finalmente lasciano la superficie della stella per entrare nello spazio vuoto, hanno già viaggiato attraverso potenziali di molte migliaia di milioni di volt. Può verificarsi una ulteriore accelerazione nei campi magnetici interstellari; in ogni caso sembra che i nuclei restino trattenuti a lungo nello spazio della galassia, da vari campi magnetici, e riempiono alla fine questo spazio con quella che viene chiamata radiazione cosmica.
Questa radiazione raggiunge la terra dall’esterno e consiste di nuclei, praticamente di ogni tipo; idrogeno ed elio e molti elementi più pesanti, con delle energie che vanno da cento o mille milioni di elettroni – volt, fino, in casi più rari, a milioni di volte questa cifra.
Quando le particelle di questa radiazione cosmica penetrano nell’atmosfera terrestre, esse colpiscono atomi di azoto o di ossigeno dell’atmosfera e possono colpire gli atomi di qualsiasi apparecchiatura sperimentale esposta alla radiazione.
L’altra linea della ricerca consiste nella costruzione di grandi macchine acceleratici, il cui prototipo fu il cosiddetto ciclotrone costruito da Lawrence in California, verso il ‘trenta. L’idea ispiratrice di queste macchine è di far girare un gran numero di volte le particelle in un cerchio, per mezzo di un grande campo magnetico, in modo da ricevere un nuovo stimolo acceleratore dai campi elettrici, ad ogni nuova traiettoria.
Macchine che raggiungono energie di alcune centinaia di milioni di elettroni – volt sono in uso in Gran Bretagna, e per mezzo della cooperazione di dodici Paesi europei, una grande macchina di questo tipo è stata costruita, com’è noto, a Ginevra.
Gli esperimenti eseguiti per mezzo della radiazione cosmica, o dei grandi acceleratori, hanno rilevato nuovi interessanti aspetti della materia – elettrone, protone e neutrone -, sono state trovate nuove particelle elementari che possono venir create durante il corso di questi processi ad altissime energie, per scomparire poi di nuovo, dopo breve tempo.
Le nuove particelle hanno proprietà simili alle vecchie, tranne la loro instabilità. Anche le più stabili hanno all’incirca la durata di un milionesimo di secondo, ed altre ancora mille volte più brevi. Attualmente sono conosciute circa venticinque nuove particelle elementari; delle quali la più recente è il protone negativo.
Questi risultati sembrano, a prima vista, allontanarci dall’idea dell’unità della materia, giacché il numero delle sue fondamentali unità sembra essere cresciuto di nuovo al numero dei diversi elementi chimici. Ma non sarebbe questa una impressione esatta. Gli esperimenti hanno mostrato, nello stesso tempo, che le particelle possono essere create da altre particelle, o semplicemente dalla energia cinetica di tali particelle, e possono di nuovo disintegrarsi in altre particelle. Realmente, gli esperimenti hanno mostrato la completa mutabilità della materia.
Tutte le particelle elementari possono, ad energie sufficientemente alte, essere trasmutate in altre particelle, o possono semplicemente venir create dall’energia cinetica, o risolversi in questa, ad esempio, in radiazione. Ed è questa la prova finale dell’unità della materia.
Tutte le particelle elementari sono fatte della stessa sostanza, che può essere chiamata energia, o materia universale; sono soltanto forme diverse in cui la materia può manifestarsi.
Se confrontiamo questa situazione con i concetti aristotelici di materia e forma, possiamo dire che la materia di Aristotele, che è pura potentia, dovrebbe essere paragonata al nostro concetto di energia, che passa all’attualità per mezzo della forma quando viene creata la particella elementare.
La fisica moderna non è attualmente soddisfatta d’una descrizione soltanto qualitativa della struttura fondamentale della materia; essa deve cercare, sulla base di accurate investigazioni sperimentali, di ottenere una formulazione matematica di quelle leggi naturali che determinano le “forme” della materia, le particelle elementari e le loro forze.
Una netta distinzione tra materia e forza non può essere fatta in questa parte della fisica, giacché ogni particella elementare non solo produce delle forze e subisce l’azione di forze, ma rappresenta, nello stesso tempo, un certo campo di forza. Il dualismo teoretico quantico di onde e particelle fa apparire la stessa entità sia come materia che come forza.
 
Tutti i tentativi di trovare una descrizione matematica delle leggi concernenti le particelle elementari sono partiti, fin qui, dalla teoria quantistica dei campi d’onda. Il lavoro teoretico intorno a teorie di questo tipo cominciò nei primi anni dopo il ‘trenta. Ma le prime serie investigazioni in questa direzione rivelarono serie difficoltà, le cui radici affondavano nella combinazione della teoria dei quanta con quella della relatività speciale.
Sembrerebbe, a prima vista, che le due teorie, la teoria dei quanta e la teoria della relatività, si riferiscano a due aspetti così diversi della natura, da non aver praticamente nulla a che fare l’una con l’altra, e che sia possibile servirsi dello stesso formalismo per venire incontro alle esigenze di entrambe. Un esame più attento, tuttavia, mostra che le due teorie interferiscono in un punto e che da questo punto sorgono tutte le difficoltà.
La teoria della relatività speciale ha rilevato una struttura dello spazio e del tempo alquanto diversa dalla struttura generalmente assunta dalla meccanica newtoniana. Il tratto più caratteristico di questa nuova struttura è l’esistenza di una velocità massima che non può essere sorpassata da alcun corpo vivente, o segnale viaggiante: la velocità della luce.
In conseguenza di ciò, due eventi in punti distanti non possono avere alcuna connessione causale immediata se han luogo in tempi tali per cui un segnale luminoso in partenza nell’istante in cui accade l’evento nel punto uno, raggiunge l’altro punto solo quando l’altro evento si è già verificato, e viceversa. In tal caso gli eventi possono dirsi simultanei. Giacché nessuna azione di qualsivoglia tipo può pervenire in tempo dall’evento che ha luogo nel punto uno, all’altro evento che ha luogo nell’altro punto, i due eventi non sono connessi da alcuna azione causale.
Per questo motivo nessuna azione a distanza, del tipo, ad esempio, delle forze gravitazionali della meccanica newtoniana, era compatibile con la teoria della relatività speciale. La teoria doveva sostituire tale azione con azioni da punto a punto; da un punto a punti che si trovavano ad una vicinanza infinitesimale. Le espressioni matematiche più naturali per azioni di questo tipo erano le equazioni differenziali per onde o per campi che fossero invarianti per la trasformazione di Lorentz. Tali equazioni differenziali escludono qualsiasi azione diretta fra eventi “simultanei”.
Perciò la struttura dello spazio e del tempo espressa nella teoria della relatività speciale, implicava una linea di confine assolutamente marcata fra la regione della simultaneità, in cui nessuna azione poteva venir trasmessa, e le altre regioni, in cui poteva aver luogo un’azione diretta da evento a evento.
D’altra parte, nella teoria dei quanta, le relazioni d’indeterminazione pongono un limite definito alla precisione con cui posizioni e momenti, o tempo ed energia, possono essere misurati simultaneamente. Siccome una linea di confine assolutamente marcata significa una precisione assoluta rispetto alla posizione nello spazio e nel tempo, i momenti o le energie devono essere completamente indeterminati, oppure debbono aversi di fatto, con stragrande probabilità, momenti ed energie con valori alti ad arbitrio. Perciò, qualsiasi teoria che cerchi di rispondere contemporaneamente alle esigenze della relatività speciale e della teoria dei quanta, porterà a delle inconsistenze matematiche, a forti divergenze nelle regioni delle altissime energie e degli altissimi momenti.
Questa serie di conclusioni può sembrare forse non strettamente convincente, giacché ogni formalismo del tipo qui preso è molto complicato e potrebbe forse offrire alcune possibilità matematiche per evitare il conflitto fra la teoria dei quanta e la relatività. Ma fin qui gli schemi matematici escogitati condussero, di fatto, a divergenze, cioè a contraddizioni matematiche, oppure non vennero incontro a tutte le esigenze delle due teorie. Ed è stato facile osservare come le difficoltà provennero tutte realmente dal punto ora discusso.
Il modo in cui gli schemi matematici convergenti non risposero alle esigenze, o della teoria della relatività, o di quella dei quanta, fu di per sé stesso interessantissimo. Uno schema, ad esempio, se interpretato in termini di eventi effettivi nello spazio e nel tempo, portava ad una specie di inversione del tempo. Esso predirebbe dei processi in cui improvvisamente, in qualche punto dello spazio, vengono create delle particelle la cui energia viene fornita più tardi da qualche altro processo di collisione fra particelle elementari, in qualche altro punto.
I fisici, in base ai loro esperimenti, sono convinti che in natura non avvengono processi di questo tipo, non almeno se i due processi sono separati da distanze spaziali e temporali misurabili.
Un altro sistema matematico cercò di evitare le divergenze attraverso un processo matematico definito di rinormalizzazione; parve possibile spingere gli infiniti del formalismo in un luogo dove non potessero ostacolare lo stabilirsi di relazioni ben definite fra quelle quantità che possono essere direttamente osservate.
Questo schema ha effettivamente portato ad un progresso assai sostanziale nella elettrodinamica quantica, giacché esso dà ragione di alcuni interessanti particolari dello spettro dell’idrogeno che in precedenza non erano stati compresi. Un’analisi più serrata, tuttavia, di questo schema matematico, ha fatto scorgere la probabilità che quelle quantità che nella teoria dei quanta normale debbono essere interpretate come probabilità, possano in certe circostanze diventare negative nel formalismo della rinormalizzazione. Ciò impedirebbe un uso consistente di quel formalismo per la descrizione della materia.
La soluzione finale di queste difficoltà non è stata ancora trovata. Emergerà un giorno dalla raccolta di materiale sperimentale via via più preciso sulle diverse particelle elementari, la loro creazione ed il loro annichilimento, e sulle forze agenti in esse.
Ricercando possibili soluzioni delle difficoltà, si potrebbe forse ricordare che tali processi con inversione temporale, di cui si è parlato sopra, non potrebbero essere esclusi sul piano sperimentale se avessero luogo soltanto in ristrettissime dimensioni di spazio e di tempo, fuori della portata di misurazione del nostro attuale apparato sperimentale. Si sarebbe naturalmente riluttanti ad accettare tali processi con inversione del tempo, se potesse presentarsi, in uno stadio più avanzato della fisica, la possibilità di seguire sperimentalmente tali eventi e nello stesso senso in cui si seguono i normali eventi atomici. Ma qui l’analisi della teoria dei quanta e della relatività può ancora aiutarci a considerare il problema sotto una nuova luce.La teoria della relatività è connessa con una costante universale naturale: la velocità della luce. Questa costante determina la relazione fra lo spazio e il tempo, ed è perciò implicitamente contenuta in ogni legge naturale che debba rispondere ai requisiti dell’invarianza di Lorentz. Il nostro linguaggio naturale ed i concetti della fisica classica possono applicarsi soltanto a fenomeni per cui la velocità della luce può essere considerata come praticamente infinita. Quando nei nostri esperimenti ci avviciniamo alla velocità della luce, dobbiamo essere preparati a risultati che non possono essere interpretati in base a quei concetti.
 
La teoria dei quanta è connessa con un ‘altra costante universale della natura, il quantum di azione di Planck. Una descrizione oggettiva di eventi nello spazio e nel tempo è possibile soltanto quando abbiamo a che fare con oggetti o con processi su scala comparativamente larga, dove la costante di Planck può essere considerata come infinitamente piccola.
Quando, nei nostri esperimenti, ci avviciniamo alla regione dove il quantum d’azione diventa essenziale, entriamo in tutta quella serie di difficoltà, rispetto all’uso dei concetti usuali, di cui si è discusso nei primi capitoli di questo testo.
Deve esistere una terza costante universale in natura. Ciò è ovvio in base a semplici ragioni: le costanti universali determinano la scala della natura, le quantità caratteristiche che non possono essere ridotte ad altre quantità.
Sono necessarie almeno tre unità fondamentali per costituire una serie completa di unità. Ciò appare assai chiaramente da convenzioni, come l’uso del sistema c.g.s. (centimetro, grammo, secondo) da parte dei fisici. Una unità di lunghezza, una di tempo ed una di massa sono sufficienti a formare una serie completa; ma sono necessarie, al minimo, tre unità.
Si potrebbero anche sostituire con unità di lunghezza, di velocità, di energia. Ma almeno tre unità fondamentali sarebbero necessarie.
Ora, la velocità della luce e la costante d’azione di Planck forniscono due soltanto di queste unità. Ce ne dev’essere una terza, e soltanto una teoria che contenga questa terza unità potrebbe forse farci pervenire alla determinazione delle masse e di altre proprietà delle particelle elementari.
Giudicando dalla conoscenza che abbiamo ora di queste particelle, il modo più appropriato di introdurre la terza costante universale sarebbe l’assunzione di una lunghezza universale il cui valore dovrebb’essere all’incirca (…..) cm, che è alquanto più piccolo di quello dei raggi dei nuclei atomici leggeri. Quando, partendo da queste tre unità, si forma un’espressione che corrisponde, nelle sue dimensioni, ad una massa, il suo valore ha l’ordine di grandezza delle masse delle particelle elementari.
Se partiamo dall’idea che le leggi della natura contengono realmente una terza costante universale nella dimensione della lunghezza e nell’ordine di (…..), allora dovremmo aspettarci di poter applicare i nostri concetti usuali soltanto a regioni dello spazio e del tempo che siano grandi rispetto alla costante universale. E dovremmo attenderci fenomeni d’un carattere qualitativamente diverso, quando nei nostri esperimenti ci avviciniamo a regioni nello spazio e nel tempo più piccole dei raggi nucleari.
Il fenomeno dell’inversione temporale, di cui si è discusso, e che fin qui è risultato soltanto da considerazioni teoretiche come una possibilità matematica, potrebbe perciò appartenere a queste minimissime regioni.
Se così è, esso non potrebbe mai essere osservato con procedimenti che ne permettessero la descrizione nei termini di concetti classici. Tali processi, finchè possono essere osservati e descritti nei termini della fisica classica, seguirebbero sempre l’ordine usuale del tempo.
Ma tutti questi problemi costituiranno materia per la ricerca futura di fisica atomica.
Si può sperare che lo sforzo combinato degli esperimenti nelle regioni delle alte energie e dell’analisi matematica, condurrà un giorno alla intelligenza piena dell’unità della materia.
Il termine “intelligenza completa” significherebbe che le forme della materia, date nel senso della filosofia aristotelica, apparirebbero come risultati, come soluzioni di uno schema matematico chiuso, esprimente le leggi naturali della materia.
 

FILOSOFIA E SCIENZA MODERNA – Capo 6°

 

PARTE QUARTA
 
I concetti della scienza definiti nettamente riguardo alle loro connessioni
 
 

E’ stato detto prima che i concetti della scienza naturale possono qualche volta essere nettamente definiti riguardo alle loro connessioni. Questa possibilità venne affermata, per la prima volta, nei Principia di Newton, ed è proprio per questa ragione che l’opera di Newton ha esercitato la sua enorme influenza sull’intero gruppo della scienza naturale nei secoli che seguirono la sua opera.
Newton comincia i suoi Principia con un gruppo di definizioni e assiomi che sono così reciprocamente connessi da poterli definire un “sistema chiuso”. Ogni concetto può essere rappresentato con un simbolo matematico, e le connessioni con i diversi concetti sono quindi rappresentate da equazioni matematiche espresse per mezzo di simboli.
La struttura matematica del sistema assicura contro l’eventuale insorgere di contraddizioni. In tal senso i modi possibili dei corpi sotto l’influenza delle forze agenti sono rappresentati dalle soluzioni possibili delle equazioni. Il sistema di definizione e di assiomi che può essere scritto in una serie di equazioni matematiche è considerato come descrivente una struttura eterna della natura, non dipendente da uno spazio o da un tempo particolari.
La connessione fra i diversi concetti del sistema è così stretta che non si potrebbero in generale mutare uno qualsiasi dei concetti senza distruggere l’intero sistema.
Per questa ragione il sistema di Newton fu, per molto tempo, considerato definitivo e il compito assegnato agli scienziati futuri sembrò essere soltanto quello dell’estensione della meccanica di Newton a più ampi campi dell’esperienza. Effettivamente la fisica si sviluppò lungo quelle linee, per circa due secoli.
Fino a questo punto il programma avviato dalla meccanica newtoniana era stato portato innanzi in modo pienamente consistente ed aveva condotto alla comprensione d’un vasto campo d’esperienza. La prima difficoltà sorse sulle discussioni sul campo elettromagnetico, nell’opera di Faraday e di Maxwell.
Nella meccanica newtoniana la forza di gravitazione era stata considerata come un dato, non come un oggetto di ulteriori studi teoretici. Nell’opera di Faraday e Maxwell, invece, lo stesso campo di forza divenne oggetto di investigazione; i due fisici volevano sapere come questo campo di forza variava in funzione dello spazio e del tempo. Cercarono perciò di stabilire equazioni di moto per i campi, e non propriamente per i corpi su cui i campi agiscono.
Tale mutamento riesumò un punto di vista che era stato sostenuto da molti scienziati prima di Newton. Un’azione poteva, così sembrava, essere trasferita da un corpo ad un altro corpo soltanto quando i due corpi si toccavano, ad esempio per urto o per frizione. Newton aveva introdotto una nuovissima e stranissima ipotesi ammettendo una forza che agiva a grande distanza. Ora, nella teoria dei campi di forza si poteva tornare all’idea più antica che l’azione si trasferisce da un punto ad un altro punto adiacente, soltanto col descrivere il comportamento dei campi in termini di equazioni differenziali. Si trovò che ciò era realmente possibile, e perciò la descrizione dei campi elettromagnetici che veniva offerta dalle equazioni di Maxwell sembrò una soluzione soddisfacente del problema della forza.
Si era quindi introdotto un reale mutamento nel programma aperto dalla meccanica newtoniana.
Gli assiomi e le definizioni di Newton si riferivano ai corpi e ai loro movimenti, ma con Maxwell i campi di forza sembrarono acquistare lo stesso grado di realtà che avevano i corpi nella teoria di Newton.
Questa concezione non fu, com’è naturale, facilmente accolta; e per evitare un tale cambiamento del concetto di realtà sembrò plausibile paragonare i campi elettromagnetici con i campi di deformazione o di forza elastica, le onde di luce della teoria di Maxwell con le onde sonore dei corpi elastici. Perciò molti fisici credettero che le equazioni di Maxwell si riferissero realmente alle deformazioni di un campo elastico, che essi definirono “etere”; e questo nome venne dato semplicemente per indicare che il campo era così leggero e sottile che poteva penetrare nell’altra materia e non poteva essere né visto, né percepito. Non era questa, tuttavia, una spiegazione molto soddisfacente, giacché non riusciva a spiegare l’assenza completa di onde di luce longitudinali.
Alla fine, la teoria della relatività mostrò in modo esauriente che il concetto dell’etere come sostanza, cui si riferivano le equazioni di Maxwell, doveva essere abbandonato. Gli argomenti non possono essere qui discussi, ma il risultato fu che i campi dovevano essere considerati come una realtà indipendente.
Un ulteriore e ancora più sorprendente risultato della teoria della relatività speciale, fu la scoperta di nuove proprietà dello spazio e del tempo, o meglio di una relazione fra lo spazio e il tempo mai conosciuta prima e che non esisteva nella meccanica newtoniana.
Sotto l’influsso di tale completamente nuova situazione, molti fisici giunsero alla seguente e alquanto avventata conclusione: la falsità della meccanica newtoniana. La realtà prima è il campo, e non il corpo, e la struttura dello spazio e del tempo è descritta correttamente dalle formule di Lorentz e di Einstein, e non dagli assiomi di Newton; la meccanica di Newton poteva costituire, in molti casi, una buona approssimazione, ma doveva ora essere migliorata per fornire una più rigorosa descrizione della natura.
Dal punto di vista che abbiamo finalmente raggiunto nella teoria dei quanta, tale affermazione potrebbe apparire come una descrizione assai imperfetta della situazione attuale. Primo, essa ignora il fatto che moltissimi esperimenti per i quali i campi sono misurati, sono basati sulla meccanica newtoniana. Secondo, che questa non può essere migliorata: può soltanto essere sostituita con qualche cosa di essenzialmente diverso.
Lo sviluppo della teoria dei quanta c’insegna che la situazione dovrebbe, piuttosto, essere descritta nei termini seguenti: dovunque i concetti della meccanica newtoniana possono essere usati per descrivere eventi naturali, le leggi formulate da Newton sono perfettamente corrette e non possono essere migliorate. Ma i fenomeni elettromagnetici non possono venire descritti adeguatamente con i concetti della meccanica newtoniana.Perciò anche le speranze che avevano accompagnato l’opera degli scienziati dai tempi di Newton in poi dovevano trasformarsi.
Evidentemente, nella scienza, il progresso non poteva essere conseguito servendosi delle leggi note della natura per spiegare in nuovi fenomeni. In alcuni casi i nuovi fenomeni da osservare poterono essere compresi soltanto per mezzo di nuovi concetti adatti ad essi, così come i concetti di Newton lo erano agli eventi meccanici.
Tali nuovi concetti si poterono ancora connettere in un sistema chiuso e rappresentare con simboli matematici. Ma, procedendo la fisica, o più generalmente la scienza naturale, in questo modo, sorse la questione: qual è la relazione che passa fra le diverse serie di concetti? Se, per esempio, gli stessi concetti o le stesse parole che appaiono in due serie diverse sono diversamente definiti riguardo al loro rapporto ed alla rappresentazione matematica, in che senso i concetti rappresentano la realtà?
Questo problema sorse non appena fu scoperta la teoria della relatività speciale. I concetti di spazio e di tempo appartenevano sia alla meccanica newtoniana che alla teoria della relatività. Ma nella teoria newtoniana spazio e tempo erano indipendenti; nella teoria della relatività erano connessi per mezzo della trasformazione di Lorentz. In tal caso particolare si potè dimostrare che le affermazioni della teoria della relatività si avvicinavano a quelle della meccanica newtoniana nel limite in cui tutte le velocità del sistema erano piccolissime in paragone alla velocità della luce. Si potrebbe da ciò concludere che i concetti della meccanica newtoniana non potrebbero essere applicati ad eventi in cui si verificano velocità paragonabili alla velocità della luce. Si era così finalmente trovata una limitazione essenziale della meccanica newtoniana, che non poteva venir scoperta partendo dalle serie coerente di concetti, né dalla semplice osservazione di sistemi meccanici. Perciò la relazione fra due diversi sistemi coerenti di concetti richiede sempre una molto attenta investigazione.
 
Prima di addentrarci in una discussione generale di qualcuna di tali serie chiuse e coerenti di concetti, e sulle loro possibili relazioni, forniremo una breve descrizione di quelle serie che sono state, sino ad ora, definite in fisica. Sarà possibile distinguere quattro sistemi che hanno già raggiunto la loro forma definitiva.
 
La prima serie, la meccanica newtoniana, è stata già discussa. E’ adatta per la descrizione di tutti i sistemi meccanici, del moto dei fluidi e della vibrazione elastica dei corpi; comprende l’acustica, la statica e l’aerodinamica.
Il secondo sistema chiuso di concetti si formò nel corso del diciannovesimo secolo, in rapporto con la teoria del calore.
Per quanto la teoria del calore potè alla fine essere connessa con la meccanica attraverso lo sviluppo della meccanica statistica, non corrisponderebbe a verità considerarla come una parte della meccanica. Infatti, la teoria fenomenologica del calore si serve d’un certo numero di concetti che non hanno alcuna corrispondenza nelle altre branche della fisica, come: calore, calore specifico, entropia, energia libera, ecc.
Se da questa descrizione fenomenologica si passa ad una interpretazione statistica, considerando il calore come una energia distribuita statisticamente fra moltissimi gradi di libertà dovuti alla struttura atomica della materia, il calore allora non è più connesso con la meccanica di quanto non lo sia con l’elettrodinamica o con altre parti della fisica.
Il concetto centrale di tale interpretazione è il concetto di probabilità, strettamente connesso con il concetto d’entropia nella teoria fenomenologica. Oltre che di questo concetto, la teoria statistica del calore abbisogna del concetto di energia.
Ma qualsiasi serie coerente di assiomi e di concetti della fisica, conterrà necessariamente i concetti di energia, di momento in momento angolare, nonché la legge per la quale queste quantità debbono, sotto certe condizioni, essere conservate. Ciò accade se la serie coerente è intesa a descrivere certi aspetti della natura che sono validi in tutti i tempi e in tutti i luoghi; in altre parole, aspetti che non dipendono dallo spazio e dal tempo o, come dicono i matematici, sono invarianti, anche se sottoposti a traslazioni spaziali o temporali, alla rotazione nello spazio e alle trasformazioni di Galileo o di Lorentz. Perciò la teoria del calore può essere combinata con qualsiasi degli altri sistemi concettuali chiusi.
Il terzo sistema chiuso di concetti e di assiomi ha origine nei fenomeni dell’elettricità e del magnetismo, ed ha conseguito la sua forma finale nel primo decennio del ventesimo secolo attraverso l’opera di Lorentz, Einstein e Minkowski. Esso comprende l’elettrodinamica, la relatività speciale, l’ottica, il magnetismo, e può esservi inclusa la teoria di de Broglie sulle onde di materia di tutti i diversi tipi di particelle elementari, ma non la teoria ondulatoria di Schrodinger.
Infine, il quarto sistema coerente è essenzialmente la teoria dei quanta, quale è stata descritta nei primi due capitoli. Suo concetto fondamentale è la funzione di probabilità o la “matrice statistica” come i matematici la definiscono.
Comprende la meccanica quantica e ondulatoria, la teoria degli spettri atomici, la chimica e la teoria delle altre proprietà della materia, come la conduttività elettrica, il ferromagnetismo, ecc.
Le relazioni tra queste quattro serie di sistemi concettuali possono essere indicate nel modo seguente:
La prima serie è contenuta nella terza come nel caso limite in cui la velocità della luce può essere infinitamente grande, ed è contenuta nel quarto come nel caso limite in cui la costante d’azione di Planck può essere considerata infinitamente piccola. La prima, e in parte la terza serie appartengono alla quarta come un a priori necessario per la descrizione degli esperimenti.
La seconda serie può essere connessa con qualsivoglia altre tre serie, e ciò suggerirebbe la possibilità di una quinta serie, di cui la prima, la terza e la quarta potrebbero costituire i casi limite. Questa quinta serie potrebbe un giorno essere ritrovata in connessione con la teoria delle particelle elementari.
Abbiamo omesso da questa enumerazione la serie dei concetti connessi con la teoria della relatività generale, giacchè essa non ha forse ancora conseguito la sua forma finale. Ma va sottolineato che essa è nettamente diversa dalle altre quattro serie.
Dopo questo breve esame possiamo tornare al problema più generale: quali debbono essere considerati i tratti caratteristici di un sistema chiuso di assiomi e definizioni. Forse il tratto più importante è la possibilità di trovare per esso una valida rappresentazione che deve dare la garanzia che il sistema non contiene contraddizioni. Il sistema deve poi essere idoneo a descrivere un ampio campo di esperienza.
La grande varietà di fenomeni del campo dovrebbero corrispondere al gran numero di soluzioni delle equazioni nella rappresentazione matematica. Il limiti del campo possono generalmente venir derivati dai concetti, i quali non sono esattamente definiti nella loro relazione con la natura, nonostante l’esatta definizione dei loro possibili rapporti.
Le limitazioni verranno perciò determinate dall’esperienza, considerato il fatto che i concetti non consentono una descrizione completa dei fenomeni osservati.
 

[Top]

FILOSOFIA E SCIENZA MODERNA – Capo 5°

 

PARTE TERZA
 
 
 
Raffronto delle dottrine di Kant
con la fisica moderna
 
 
 
Reinterpretazione dell’”a priori” kantiano
 
 
 
 

Venendo ora al raffronto delle dottrine di Kant con la fisica moderna, appare a prima vista che il suo giudizio centrale dei giudizi sintetici a priori è stato completamente ambientato, nel nostro secolo, nelle scoperte attuali. La teoria della relatività ha mutato le nostre concezioni sullo spazio e sul tempo, delle quali non si ha traccia delle forme a priori kantiane. La legge di causalità non è più applicata nelle teorie dei quanta e la legge di conservazione della materia non risulta più vera per le particelle elementari.
Questa proposizione, che appare del tutto rivoluzionaria, dà la misura dell’aspetto rivoluzionario delle scoperte della fisica moderna. Per di più i concetti a priori che Kant considerava come una indiscutibile verità, non sono più accolti nel sistema scientifico della fisica moderna.
Essi formano, tuttavia, parte essenziale di questo sistema, in un senso alquanto diverso. Nella discussione della teoria dei quanta è stato messo in rilievo che noi usiamo i concetti classici nel descrivere la nostra attrezzatura sperimentale e, più in generale, nel descrivere quella parte del mondo che non appartiene all’oggetto dell’esperimento. L’uso di questi concetti, includenti spazio, tempo e causalità, è in effetti la condizione per osservare gli eventi atomici, i quali, in questo senso, appaiono “a priori”.
Ciò che Kant non aveva previsto era che questi concetti a priori potessero essere le condizioni per la scienza e avere nello stesso tempo un’aria di limitata applicabilità. Quando facciamo un esperimento dobbiamo assumere una catena causale di eventi che conduce all’evento atomico attraverso l’apparecchiatura sperimentale, fino all’occhio dell’osservatore; se non si ammettesse tale catena causale nulla si potrebbe conoscere circa l’evento atomico.
Dobbiamo tuttavia ricordare che la fisica classica e la causalità hanno solo un’area limitata di applicabilità. Questo è stato il paradosso fondamentale della teoria dei quanta, che non poteva essere previsto da Kant. La fisica moderna ha trasformato l’affermazione di Kant riguardante la possibilità dei giudizi sintetici a priori, da metafisica in pratica. I giudizi sintetici a priori hanno, di conseguenza, il carattere d’una verità relativa.
In questa reinterpretazione l’”a priori” kantiano è connesso indirettamente con l’esperienza in quanto è stato formato attraverso lo sviluppo della mente umana in un passato remotissimo.
Il biologo Lorentz ha una volta confrontato il concetto a priori con quelle forme di comportamento che sono chiamate, negli animali, forme ereditarie o schemi innati. E’ difatti plausibile che per certi animali primitivi, spazio e tempo siano diversi da ciò che Kant definisce la nostra intuizione pura dello spazio e del tempo. Essa può appartenere soltanto alla specie “uomo”, ma non al mondo come indipendente dall’uomo.
La fisica moderna è stata, in questo caso, adottata come esempio per controllare i risultati di alcuni importanti sistemi filosofici del passato. Ciò che abbiamo appreso, specialmente dalla discussione sulle filosofie di Cartesio e di Kant, può forse essere espresso nel modo seguente: non ogni concetto o parola che si siano formati in passato attraverso l’azione reciproca fra il mondo e noi, sono in realtà esattamente definiti rispetto al loro significato; vale a dire, noi non sappiamo fino a qual punto essi possono venire applicati ad un ampio settore dell’esperienza interna od esterna, ma non conosciamo praticamente i limiti della loro applicabilità. Questo è vero anche nel caso di concetti più semplici e più generali come, ad es. “esistenza” e “spazio – tempo”. Perciò non sarà mai possibile, con la pura ragione, pervenire a qualche verità assoluta.
I concetti possono, tuttavia, essere nettamente definiti riguardo ai loro rapporti. Questo è ciò che avviene quando i concetti divengono parte di un sistema di azione e di definizioni che possono essere applicabili rispetto a quel campo d’esperienza. Ma i limiti di applicabilità non saranno, in generale, noti, almeno in modo preciso.
Anche se ci siamo resi conto del fatto che il significato di un concetto non è mai definito con precisione assoluta, alcuni concetti formano una parte integrale dei metodi scientifici, poichè essi rappresentano, per il presente, il risultato finale dello sviluppo del pensiero umano nel passato, anche nel passato più remoto; essi possono anche essere ereditati e sono, in ogni caso, strumenti indispensabili per compiere opera scientifica ai nostri tempi. In questo senso essi possono essere considerati, praticamente, a priori. Ma ulteriori limitazioni alla loro applicabilità potranno essere scoperte in futuro.
Riconsiderando le diverse serie di concetti che sono state formate nel passato, e quelle che verosimilmente potrebbero venir formate nel futuro, nel tentativo di aprirci la nostra strada nel mondo per mezzo della scienza, vediamo che esse appaiono in base all’incremento che nella serie assume l’elemento soggettivo.
La fisica classica può venir considerata come quella idealizzazione per cui noi parliamo del mondo come di qualcosa di interamente separato da noi stessi. Le prime tre serie corrispondono a questa idealizzazione. Soltanto la prima serie si accorda pienamente con l’”a priori” della filosofia kantiana.
Infatti, dato che la prima serie è costretta a salire una linea ben definita, ha perciò un carattere d’assoluta necessità, ed è impossibile immaginare, in essa, delle eccezioni. Per questo motivo essa deve essere “a priori”, così come stabilisce il concetto kantiano.
Nella quarta serie, quella della teoria dei quanta, l’uomo, quale soggetto della scienza, viene pienamente chiamato in causa dalle domande che sono rivolte alla natura nei termini a priori della scienza umana.
La teoria dei quanta non permette una descrizione completamente oggettiva della natura.
In Biologia, può essere importante far rilevare che le domande vengono poste dal genere uomo, che appartiene esso stesso alla famiglia degli organismi viventi; in altre parole, che noi già sappiamo che cosa è la vita anche prima di averla scientificamente definita. Non sarebbe forse opportuno speculare sulla possibile struttura delle serie di concetti che non si sono ancora formate.
Quando si confronta quest’ordine con le più vecchie classificazioni che appartengono ai primi stadi della scienza naturale, si vede che il mondo è stato ora diviso, non in diversi gruppi di oggetti, ma in diversi gruppi di connessioni.
In un periodo più antico della scienza si distinguevano, ad esempio, come gruppi diversi, minerali, piante, animali, uomini. Tali oggetti venivano assunti, secondo i vari gruppi, come di comportamento di forze diverse. Noi sappiamo ora che si tratta sempre della stessa materia, degli stessi vari componenti chimici, i quali possono appartenere a qualsiasi oggetto, a minerali come ad animali o a piante; anche le forze che agiscono fra le diverse parti della materia sono infine le stesse in ogni genere di oggetti.
Ciò che può essere distinto è il tipo di connessione che principalmente importa in un certo fenomeno. Per esempio, quando parliamo dell’azione di forze chimiche, noi intendiamo indicare un tipo di rapporto più complicato ed in ogni caso diverso da quello espresso nella meccanica newtoniana. Il mondo appare così come un complicato tessuto di eventi, in cui rapporti di diverso tipo si alternano, si sovrappongono e si combinano determinando la struttura del tutto.
Quando noi rappresentiamo un gruppo di nessi con un sistema chiuso e coerente di contatti, di assiomi, di definizioni e di leggi, rappresentate a loro volta da uno schema matematico, noi abbiamo, di fatto, isolato e idealizzato questo gruppo di nessi, allo scopo di una chiarificazione. Ma anche se in questo modo viene raggiunta la chiarezza completa, non si sa con quale esattezza la serie di concetti descriva la realtà.
Queste idealizzazioni possono essere considerate come una parte del linguaggio umano che si è formato dall’azione reciproca fra noi e il mondo, una risposta umana alla sfida della natura.

[Top]

FILOSOFIA E SCIENZA MODERNA – Capo 4°

 

La teoria dei quanta.
 
 
 
L’origine della teoria dei quanta è connessa con un fenomeno che non è apparentemente legato alla fisica atomica. Qualsiasi pezzo di materia, quando viene riscaldato, comincia a diventare luminoso e si fa, alle temperature alte, rovente ed incandescente. Il colore non dipende molto dalla temperatura. Il fenomeno si spiega con le leggi già note sulle radiazioni della luce, e non sarebbe possibile descrivere in termini semplici le difficoltà che si incontrano riferendoci a tali leggi. Esse non conducevano a risultati sensibili.
Quando Planck, nel 1895, si interessò a questo problema, cercò di spostarlo dalla radiazione in genere, all’atomo radiante. Tale spostamento non eliminò nessuna delle difficoltà, ma semplificò l’interpretazione dei fatti, i quali portarono alla scoperta di una nuova legge, detta appunto “di Planck, sulla radiazione”.
La corretta interpretazione fisica riguarda l’atomo radiante, secondo cui esso si comporta come un oscillatore capace di emettere soltanto separati quanta di energia: un risultato quindi del tutto diverso da quanto si sapeva dalla fisica classica. Questo risultato portò alla comprensione di una formula secondo cui l’energia dentro l’atomo poteva essere emessa, o assorbita, soltanto in quanta separati di energia.
L’idea che l’energia potesse essere emessa o assorbita soltanto in quanta separati di energia era così nuova, che non poté inserirsi nella struttura tradizionale della fisica. Un tentativo, fatto da Planck, di conciliare la nuova ipotesi con le antiche leggi sulle radiazioni, fallì nei suoi punti essenziali. Ci vollero cinque anni per muovere il prossimo passo in quella direzione. Questa volta fu il giovane Albert Einstein a non avere paura d’allontanarsi ulteriormente dai vecchi concetti. C’erano due problemi per i quali poteva servirsi delle nuove idee. Uno era il cosiddetto “effetto fotoelettrico”, l’emissione di elettroni da metalli sotto l’influenza della luce. Gli esperimenti, specialmente quelli di Lenard, avevano dimostrato che l’energia degli elettroni emessi non dipendeva dall’intensità della luce, ma soltanto dal suo colore o, per essere più precisi, dalla sua frequenza, La cosa non poteva spiegarsi sulla base della teoria tradizionale delle radiazioni.
Einstein poté interpretare le osservazioni intendendo le ipotesi di Planck nel senso che la luce consiste di quanta di energia viaggianti nello spazio. L’energia di un quantum di luce dovrebbe, secondo le supposizioni di Planck, essere uguale alla frequenza della luce moltiplicata per la costante di Planck.
L’altro problema riguardava il calore specifico dei corpi solidi. La teoria tradizionale portava, per il calore specifico, a dei valori che, per le alte temperature, si accordavano con le osservazioni, mentre ne discordavano per quelle basse. Di nuovo Einstein mostrò che tale comportamento poteva essere spiegato applicando l’ipotesi quantistica delle vibrazioni elastiche degli atomi nel corpo solido. Questi due risultati contrassegnarono un grandissimo progresso, poiché rivelavano la presenza del “quantum d’azione di Planck” – come viene denominata questa costante tra i fisici – in molti fenomeni che immediatamente non avevano nulla a che fare con la radiazione termica.
Essi rivelarono, contemporaneamente, il carattere profondamente rivoluzionario della nuova ipotesi, giacché il primo di essi condusse a una descrizione della luce completamente diversa dalla tradizionale teoria ondulatoria. La luce potrebb’essere spiegata, o come consistente di onde elettromagnetiche, secondo la teoria di Maxwell, oppure di quanta di luce, pacchetti di energia.
Frattanto, gli esperimenti di Ruthendorf avevano portato nuova luce sulla struttura dell’atomo. Nel 1911 le osservazioni di Ruthendorf sulla interazione dei raggi A penetrati nella materia, si risolsero nella costruzione del suo famoso modello atomico.
L’atomo è raffigurato come consistente di un nucleo, caricato positivamente e che contiene quasi l’intera massa dell’atomo, e di elettroni che girano intorno al nucleo come i pianeti girano intorno al Sole. Il legame chimico fra atomi di diversi elementi è spiegato come una interazione fra gli elettroni esterni degli atomi limitrofi, non ha direttamente a che fare col nucleo atomico.
Il nucleo determina il comportamento chimico dell’atomo, per mezzo della sua carica, la quale determina, a sua volta, il numero degli elettroni nell’atomo neutro. Inizialmente questo modello di atomo non fu in grado di spiegare quello che è il tratto più caratteristico dell’atomo, la sua enorme stabilità. Nessun sistema planetario che segua le leggi della meccanica newtoniana ritornerebbe alla sua configurazione originale dopo una collisione, o interazione in un legame chimico.
La spiegazione di questa insolita stabilità venne fornita da Bohr nel 1913, per mezzo dell’applicazione dell’ipotesi quantistica di Planck. Se l’atomo può modificare la propria energia soltanto per quanta separati d’energia, ciò deve significare che l’atomo può esistere soltanto in stati stazionari separati, dei quali il più basso è il suo stato normale. Perciò, dopo qualsiasi tipo di interazione, l’atomo tornerà sempre, alla fine, al suo stato normale.
Con questa applicazione della teoria dei quanta al modello atomico, Bohr potè, non solo spiegare la stabilità dell’atomo, ma anche, in taluni casi semplici, dare una interpretazione teoretica delle righe degli spettri emessi dagli atomi, se stimolati da una scarica elettrica o dal calore.
La sua teoria si appoggiava su una combinazione di meccanica classica circa il moto degli elettroni e di condizioni quantiche, che vennero sovrapposte ai movimenti classici per definire gli stati stazionari separati dal sistema.
Una formulazione matematica consistente di queste condizioni fu data, più tardi, da Sommerfeld. Bohr era conscio del fatto che le condizioni quantiche distruggono, in qualche modo, la consistenza della meccanica newtoniana. Nel caso semplice dell’atomo di idrogeno si poterono calcolare, con la teoria di Bohr, le frequenze della luce emessa dall’atomo, e l’accordo con le osservazioni fu completo. Tuttavia queste frequenze erano diverse dalle frequenze orbitali e dalle loro armoniche degli elettroni ruotanti intorno al nucleo, il che mostrò subito che la teoria era ancora piena di contraddizioni. Pure essa conteneva la parte essenziale della verità. Spiegava qualitativamente il comportamento chimico degli atomi ed i loro spettri a righe; la esistenza di stati separati stazionari venne verificata dagli esperimenti di Franck e di Hertz, di Stern e di Garlach.
La teoria di Bohr ha aperto una nuova linea di ricerche. La gran quantità di materiale sperimentale raccolto dalla spettroscopia in vari decenni era ora utilizzabile per ricavarne spiegazioni sulle strane leggi quantiche governanti i moti degli elettroni nell’atomo. Anche molti esperimenti chimici si poterono utilizzare allo stesso scopo. E’ da questo periodo che i fisici appresero a formulare con esattezza i problemi; e formulare esattamente i problemi significa spesso essere già a mezza strada dalla loro soluzione.
Ma quali erano questi problemi? Praticamente avevano tutti a che fare con le strane, evidenti, contraddizioni fra i risultati di esperimenti diversi. Come poteva essere che la frequenza del moto orbitale dell’elettrone nell’atomo presentasse una frequenza diversa da quella della radiazione emessa? Come poteva essere, se la stessa radiazione che produce le frange d’interferenza deve consistere di particelle in movimento?
Ma se l’idea del moto orbitale si fosse rivelata inesatta, cosa sarebbe dovuto accadere, allora, degli elettroni che fan parte dell’atomo? Si possono ben vedere gli elettroni muoversi in una camera a nebbia, e qualche volta venire espulsi dall’atomo. Perché non dovrebbero muoversi anche all’interno dell’atomo?
E’ vero che essi potrebbero starsene a riposo nello stato normale dell’atomo, lo stato di minima energia. Ma ci sono molti stati di energia più alta, in cui il guscio elettronico ha un movimento angolare. In quel caso gli elettroni non possono essere in stato di quiete. Si potrebbero moltiplicare esempi del genere. Si troverebbe sempre che ogni tentativo di descrivere i fatti atomici nei termini tradizionali della fisica conduce a delle contraddizioni.
Gradualmente, durante i primi anni del terzo decennio del secolo, i fisici si familiarizzarono con queste difficoltà, acquistarono una certa conoscenza dei campi in cui potevano verificarsi, ed impararono ad evitare le contraddizioni. Sapevano quale fosse la descrizione corretta d’un evento atomico per l’esperimento speciale che era in discussione. Ciò non era sufficiente per dar forma a un quadro consistente di ciò che accade in un processo quantico, ma modificava la mentalità dei fisici in modo da farli in qualche modo penetrare nello spirito della teoria dei quanta. Perciò, anche molto tempo prima che si avesse una solida formulazione della teoria dei quanta, si sapeva più o meno quale sarebbe stato il risultato di ogni esperimento.
Si discuteva frequentemente su quelli che venivano definiti esperimenti ideali. Tali esperimenti servivano per trovare una risposta a problemi altamente critici, e non aveva importanza se essi potevano o meno effettivamente essere eseguiti. Naturalmente importava che, in linea di principio, l’esperimento fosse eseguibile, ma la tecnica poteva essere estremamente complicata.
Questi esperimenti ideali potevano essere assai utili per illuminare certi problemi. Se non c’era accordo tra i fisici sul risultato d’un esperimento ideale, era spesso possibile escogitare un altro esperimento simile, ma più semplice, che era possibile condurre a termine, così che la risposta sperimentale contribuiva in modo essenziale alla chiarificazione della teoria dei quanta.
L’esperienza più strana di quegli anni fu che i paradossi della teoria dei quanta non scomparvero durante questo processo di chiarificazione; al contrario, essi divennero ancora più marcati e appassionanti. Ci fu, ad esempio, l’esperimento di Compton sulla diffusione dei raggi X. Dai primi esperimenti sull’interferenza della luce diffusa appariva indubbio che la diffusione ha luogo essenzialmente nel modo seguente: l’onda della luce incidente fa vibrare un elettrone del raggio, secondo la frequenza dell’onda; l’elettrone oscillante emette allora un’onda sferica della stessa frequenza e in conseguenza di ciò produce luce diffusa.
Tuttavia Compton trovò, nel 1923, che la frequenza dei raggi X diffusi era diversa dalla frequenza del raggio X incidente. Questo mutamento di frequenza potrebbe essere formalmente spiegato considerando la diffusione come conseguenza di un urto fra un quantum di luce ed un elettrone. L’energia di un quantum di luce muta durante l’urto, e giacchè la costante di Planck moltiplicata per la frequenza, dovrebbe corrispondere all’energia del quantum di luce, anche la frequenza dovrebbe essere cambiata.
Ma che cosa avviene in questa interpretazione dell’onda luminosa? I due esperimenti, quello sull’interferenza della luce diffusa e l’altro, sulla mutazione di frequenza della luce diffusa, apparivano contraddittori, senza alcuna possibilità di compromesso.
Da questo momento molti fisici si convinsero che queste evidenti contraddizioni appartenevano alla struttura intrinseca della fisica atomica.
Perciò, nel 1924, de Broglie, in Francia, cercò di estendere il dualismo fra la descrizione ondulatoria e quella corpuscolare alle particelle elementari della materia, prima di tutti gli elettroni. Egli mostrò che una certa onda di materia potrebbe “corrispondere” ad un elettrone in movimento. Non era allora chiaro che cosa, in quel rapporto, significasse la parola “corrispondere”. Ma de Broglie suggerì che la condizione quantica della teoria di Bohr avrebbe dovuto essere interpretata come un’affermazione riguardante le onde di materia. Un onda ruotante intorno a un nucleo può soltanto, per ragioni geometriche, essere un’onda stazionaria; e il perimetro dell’orbita dev’essere un multiplo intero della lunghezza dell’onda. In questo modo l’idea di de Broglie connetteva la condizione quantica, che era sempre stata un elemento estraneo nella meccanica degli elettroni, con il dualismo fra onde e corpuscoli.
Nella teoria di Bohr la discrepanza fra la frequenza orbitale calcolata degli elettroni e la frequenza della radiazione emessa doveva essere interpretata come una limitazione al concetto dell’orbita elettronica. Questo concetto, del resto, era apparso incerto fin dal principio. Per le orbite più alte, tuttavia, gli elettroni dovrebbero muoversi a grande distanza dal nucleo, così come appare quando si vedono muoversi in una camera a nebbia. E’ lì che si dovrebbe parlare di orbite elettroniche.
Appariva perciò molto convincente che, per queste orbite più alte, le frequenze della radiazione emessa si avvicinassero alla frequenza orbitale, o alle sue armoniche più alte. Anche Bohr aveva già suggerito, nei suoi primi scritti, che le intensità delle righe spettrali emesse si approssimano alle intensità delle corrispondenti armoniche. Questo principio di corrispondenza si era dimostrato molto utile per il calcolo approssimativo delle intensità delle corrispondenti armoniche e di quello delle intensità delle righe spettrali. In questo modo si aveva l’impressione che la teoria di Bohr desse una descrizione qualitativa e non quantitativa di ciò che accade dentro l’atomo; che qualche nuovo lineamento del comportamento della materia venisse espresso qualitativamente dalle condizioni quantiche, connesse a loro volta con il dualismo fra onde e corpuscoli.
Un primo e molto interessante passo verso una reale comprensione della teoria dei quanta venne fatta da Bohr nel 1924; egli cercò di risolvere l’evidente contrasto fra il quadro ondulatorio e quello corpuscolare con il concetto di onda di probabilità. Le onde elettromagnetiche furono interpretate, non come onde “reali”, ma come onde di probabilità, di cui l’intensità determina in ogni punto la probabilità dell’assorbimento (o emissione indotta) di un quantum di luce ad opera di un atomo in quel punto. Questa idea portò alla conclusione che non è necessario che le leggi della conservazione dell’energia e del momento siano vere per il singolo evento, poiché sono soltanto leggi statistiche e vere soltanto nel senso d’una media statistica. Tale conclusione non era tuttavia esatta, ed i rapporti fra l’aspetto ondulatorio e quello corpuscolare della radiazione si fecero ancora più complicati.
Ma lo studio di Bohr mise in luce un tratto essenziale della giusta interpretazione della teoria dei quanta. Il concetto di onda di probabilità era assolutamente nuovo nella fisica teoretica d’origine newtoniana.
Probabilità, in matematica, o in meccanica statistica, significa un’affermazione sul nostro grado di conoscenza della situazione effettiva. Gettando i dadi noi non conosciamo i minuti particolari del moto delle nostre mani che determinano la caduta dei dadi, e perciò diciamo che la probabilità che venga un determinato numero è di uno contro sei. L’onda di probabilità, di Bohr, tuttavia, significa qualcosa di più di questo; essa significa una tendenza verso qualche cosa. Era una versione quantitativa del vecchio concetto di “potenza” della filosofia aristotelica. Introduceva qualche cosa che stata a metà fra l’idea d’un evento e l’evento reale, uno strano tipo di realtà fisica a metà strada fra la possibilità e la realtà.
Più tardi Bohr raccolse quest’idea dell’onda di probabilità e diede una chiara definizione della quantità matematica nel formalismo, che doveva essere interpretata come onda di probabilità. Non era un’onda tridimensionale, come le onde elastiche o le onde radio, ma un’onda in uno spazio a configurazione pluridimensionale, e perciò una quantità matematica piuttosto astratta.
Ci si avvicinò alla soluzione finale per due strade diverse. L’una, fu un aggiramento della questione. Invece di chiedersi: come si può esprimere, con i mezzi matematici conosciuti una data situazione sperimentale? Ci si pose l’altra domanda: è vero, forse, che possono sorgere in natura soltanto situazioni sperimentali tali da poter essere espresse nei termini del formalismo matematico?
L’assunto che ciò fosse vero portava a delle limitazioni nell’uso di quei concetti che, da Newton in poi, avevano costituito la base della fisica classica. Si poteva parlare della posizione e della velocità di un elettrone come nella meccanica newtoniana e si potevano osservare e misurare tali quantità. Ma era impossibile determinare simultaneamente l’una e l’altra di queste quantità, a piacere e con grande precisione. In realtà il prodotto di quelle due inesattezze risultò non essere altro che la costante di Planck divisa per la massa della particella. Si potrebbero formulare simili relazioni per altre situazioni sperimentali. Esse vengono comunemente definite relazioni d’incertezza o principi di indeterminazione. S’apprendeva così che i vecchi concetti si adattano alla natura solo imprecisamente.
L’altra via d’approccio fu il concetto di complementarietà di Bohr. Schrodinger aveva descritto l’atomo non come un sistema di un nucleo ed elettroni, ma come un sistema di un nucleo ed onde di materia. Anche questa immagine delle onde di materia conteneva un elemento di verità. Bohr considerò le due immagini – quella corpuscolare e quella ondulatoria – come due descrizioni complementari della stessa realtà. Ognuna delle due descrizioni può essere solo parzialmente vera, e sono necessarie delle limitazioni all’uso della teoria corpuscolare, così come di quella ondulatoria, in quanto né l’una né l’altra possono evitare delle contraddizioni. Se si tien conto di questi limiti, che possono essere espressi per mezzo di contraddizioni d’incertezza, le contraddizioni scompaiono.
Così, fin dalla primavera del 1927, si ha una interpretazione consistente della teoria dei quanta, che è frequentemente chiamata “interpretazione di Copenhagen”. Questa interpretazione riceveva il collaudo decisivo nell’autunno del 1927.
L’interpretazione di Copenhagen, nella teoria dei quanta, fa parte di un paradosso. Qualsiasi esperimento fisico, sia che si riferisca ai fenomeni della vita quotidiana o ad eventi atomici, dev’essere descritto nei termini della fisica classica. I concetti della fisica classica formano il linguaggio per mezzo del quale descriviamo la preparazione dei nostri esperimenti e ne esprimiamo i risultati. Non possiamo, né dobbiamo, sostituire questi concetti con altri. Tuttavia l’applicazione di questi concetti risulta limitata dalle relazioni d’incertezza. Dobbiamo tener presente questa limitata area di applicabilità di concetti classici mentre li applichiamo, ma non possiamo, e non dovremmo, sforzarci per migliorarli.
Per una migliore comprensione di questo paradosso è utile confrontare il procedimento per giungere alla interpretazione teorica d’un esperimento rispettivamente nella fisica classica e nella teoria dei quanta.Nella meccanica newtoniana, ad esempio, noi possiamo cominciare col misurare la posizione e la velocità del pianeta di cui ci accingiamo a studiare il movimento. Il risultato dell’osservazione viene tradotto in termini matematici derivando i numeri per le coordinate e i movimenti del pianeta dall’osservazione. Poi vengono usate le equazioni del moto per derivare, da questi valori delle coordinate e dei movimenti in un dato tempo, i valori delle coordinate o di qualsiasi altra proprietà del sistema per un qualsiasi punto successivo nel tempo. In tal modo l’astronomo può predire le proprietà del sistema per un qualsiasi momento nel futuro. Può, ad esempio, predire il tempo esatto di una eclisse di luna.
Nella teoria dei quanta il procedimento è leggermente diverso. Potremmo, ad esempio, interessarci al moto di un elettrone dentro una camera a nebbia e potremmo determinare con diversi tipi d’osservazione la posizione iniziale e la velocità dell’elettrone. Ma questa determinazione non sarà precisa. Conterrà, perlomeno, le inesattezze derivanti dalle relazioni d’incertezza e probabilmente errori più grandi dovuti alle difficoltà dell’esperimento.
E’ la prima di queste inesattezze che ci permette di tradurre il risultato dell’osservazione nello schema matematico della teoria dei quanta. Si scrive una funzione di probabilità che rappresenta la situazione sperimentale al momento della misurazione, includendo anche i possibili errori della misurazione.
Questa funzione di probabilità rappresenta la risultante di due fattori, in parte un dato di fatto e in parte la nostra conoscenza di un dato di fatto.
Rappresenta un dato di fatto in quanto assegna l’unità di probabilità (vale a dire la piena certezza) alla situazione iniziale: l’elettrone che si muove con la velocità osservata nella posizione osservata. “Osservata”, significa osservata nei limiti dell’esattezza dell’esperimento.
Rappresenta una nostra conoscenza in quanto un altro osservatore potrebbe forse determinare con maggior precisione la posizione dell’elettrone.
L’errore contenuto nell’esperimento non rappresenta – almeno in certa misura – una proprietà dell’elettrone, ma una nostra deficienza nella conoscenza dell’elettrone. Anche questa deficienza di conoscenza è espressa nella funzione di probabilità.
Nella fisica classica si potrebbe, con una investigazione accurata, considerare anche l’errore d’osservazione. Si otterrebbe come risultato una distribuzione di probabilità per i valori iniziali delle coordinate e delle velocità e quindi qualche cosa di molto simile alla funzione di probabilità della meccanica quantica. Manca, nella fisica classica, soltanto la necessaria incertezza dovuta alle relazioni d’incertezza.
Quando la funzione di probabilità nella teoria dei quanta è stata determinata al momento iniziale dell’osservazione, è possibile, dalle leggi della teoria dei quanta, calcolare la funzione di probabilità per ogni tempo successivo e quindi la probabilità di una misurazione che dia un valore specifico della quantità misurata. Possiamo, ad esempio, prevedere la probabilità di trovare l’elettrone in un tempo successivo ad un dato punto della camera a nebbia.
Bisognerebbe però sottolineare che la funzione di probabilità non rappresenta di per sé un corso di eventi svolgentisi nel corso del tempo. Rappresenta soltanto una tendenza per gli eventi e per la nostra conoscenza di essi. La funzione di probabilità può essere connessa con la realtà soltanto se si adempie una condizione essenziale: se vien fatta una nuova misurazione per determinare una certa proprietà del sistema. Soltanto allora la funzione di probabilità ci permette di calcolare il risultato probabile della nuova misurazione. Il risultato della misurazione sarà allora espresso in termini di fisica classica.
Perciò, l’interpretazione teoretica di un esperimento richiede tre stadi distinti: A. traduzione della situazione sperimentale iniziale in una funzione di probabilità; B. accompagnamento di questa funzione lungo il corso del tempo; C. determinazione di una nuova misurazione del sistema il cui risultato può poi essere calcolato dalla funzione di probabilità.
Per il primo punto è condizione necessaria la determinazione delle relazioni d’incertezza. Il secondo punto non può venir descritto in termini di concetti classici; non vi è alcuna descrizione possibile di ciò che accade al sistema fra l’osservazione iniziale e la nuova misurazione. E’ soltanto nella fase C che noi passiamo di nuovo dal “possibile “ al “reale”.
Il primo passo è possibile se la relazione d’incertezza viene fatta dopo l’osservazione. La posizione dell’elettrone sarà nota con la precisione fornita dalla lunghezza d’onda del raggio. Può essere che l’elettrone, precedentemente la soluzione, si trovasse in uno stato di quiete, e che all’atto della osservazione almeno un quantum di luce del raggio abbia attraversato il microscopio ed abbia deviato dall’elettrone. Perciò l’elettrone ha ricevuto un urto dal quantum di luce, ha mutato il momento della sua velocità; e si può dimostrare come l’indeterminazione di questo momento è grande abbastanza da garantire la validità delle relazioni di indeterminazione. Non ci sono, perciò, difficoltà relative al punto A.
Contemporaneamente, si può facilmente vedere che non c’è alcun modo di osservare l’orbita dell’elettrone intorno al nucleo.
La seconda fase mostra un pacchetto d’onde che si muove, non intorno al nucleo, ma allontanandosi dall’atomo, perché il primo quantum di luce ha colpito l’elettrone proiettandolo via dall’atomo. E’ il momento del quantum di luce del raggio gamma, molto più grande del momento originario dell’elettrone anche se la lunghezza d’onda del raggio gamma è molto più piccola. Perciò il primo quantum di luce è sufficiente a proiettare l’elettrone fuori dall’atomo, e non è possibile osservare più di un punto dell’orbita dell’elettrone.
L’osservazione che segue la terza fase mostrerà l’elettrone che si allontana.
Non esiste assolutamente alcuna possibilità di descrivere ciò che accade tra due osservazioni consecutive.
Può essere certo allettante dire che l’elettrone deve essere stato in qualche posto fra le due osservazioni, e che perciò deve aver descritto un certo percorso, o un’orbita, anche se può risultare impossibile sapere quale sia. Nella fisica classica questo sarebbe un argomento ragionevole, ma nella teoria dei quanta costituirebbe un uso improprio di linguaggio che, come vedremo dopo, non può essere giustificato.
Lasciamo per ora aperta la questione: se questa cautela sia da mettere in relazione al modo con cui si dovrebbe parlare degli eventi atomici, o in relazione agli eventi stessi; se si riferisca, cioè, all’epistemologia o all’ontologia. In ogni caso dobbiamo essere molto cauti sull’uso delle parole, quando si tratta di affermazioni riguardanti il comportamento delle particelle atomiche.
In realtà, non è affatto necessario parlare di particelle. Per molti esperimenti è molto più conveniente parlare di onde di materia; ad esempio, di onde di materia stazionarie intorno al nucleo atomico.
Una definizione del genere contraddirebbe l’altra definizione, se non si prestasse attenzione ai limiti forniti dalle relazioni d’incertezza. Tenendo conto dei limiti, la contraddizione è evitata. L’uso del termine “onde di materia” è conveniente, ad esempio, quando si tratta della radiazione emessa dall’atomo. Attraverso le sue frequenze e le sue intensità ci dà notizia sulla distribuzione della carica oscillante nell’atomo; e in questo caso la raffigurazione ondulatoria si avvicina molto di più alla verità che non la raffigurazione corpuscolare.
Perciò Bohr si fece sostenitore dell’uso di entrambe le raffigurazioni, che egli definì “complementari” l’una dell’altra. Naturalmente, le due concezioni si escludono a vicenda, poiché una cosa non può essere nello stesso tempo un corpuscolo (vale a dire una sostanza limitata in un piccolissimo volume) ed un’onda (vale a dire un campo che si propaga per un ampio spazio). Ma l’una può essere il complemento dell’altra, per ritornare poi alla prima: Otteniamo, infine, la giusta impressione dello strano genere di realtà che si nasconde dietro gli esperimenti atomici.
Bohr fa uso, in molti punti, del concetto di “complementarietà” nella interpretazione della teoria dei quanta. La conoscenza della posizione di una particella è complementare alla conoscenza della sua velocità o del suo momento. Se conosciamo la prima con molta precisione, possiamo non conoscere con altrettanta precisione la seconda; tuttavia, per conoscere il comportamento del sistema è necessario conoscere l’una e l’altra.
La descrizione spazio – temporale degli eventi atomici è complementare alla loro descrizione deterministica. La funzione di probabilità obbedisce ad un’equazione di moto, in modo analogo alle coordinate della meccanica newtoniana; i suoi mutamenti nel corso del tempo sono completamente determinati dall’equazione della meccanica quantica, ma non permettono una descrizione nello spazio e nel tempo. L’osservazione, d’altro lato, rafforza la descrizione nello spazio e nel tempo, ma spezza la continuità determinata della funzione di probabilità, modificando la nostra conoscenza del sistema.
In generale, il dualismo fra due diverse descrizioni della stessa realtà non costituisce più una difficoltà quando sappiamo, dalla formulazione matematica della teoria, che non possono sorgere contraddizioni. Il dualismo tra due rappresentazioni complementari, ondulatoria e corpuscolare, è anche chiaramente espresso nella flessibilità dello schema matematico. La sua espressione formale è analoga a quella della meccanica classica, con equazioni di moto per le coordinate ed i momenti dei corpuscoli. Ma, con una semplice trasformazione, essa può essere riscritta a guida di una equazione ondulatoria per un’ordinaria onda di materia a tre dimensioni. Perciò, questa possibilità di servirsi di diversi quadri complementari trova riscontro nelle diverse trasformazioni dello schema matematico; da ciò non sorge alcuna difficoltà per l’interpretazione di Copenhagen della teoria dei quanta.
 
Tutto il discorso fatto fin qui è servito a dimostrare che si può procedere seguendo l’interpretazione di Copenhagen, senza andare incontro a difficoltà per quanto riguarda la compatibilità del discorso medesimo.
Ma il nostro scopo non si riduce soltanto alla comprensione di questa interpretazione, esso riguarda la comprensione dell’interpretazione quando ci si pone la famosa domanda: "che cosa veramente accade in un elemento atomico"? Quindi l’interpretazione di Copenhagen non si esaurisce qui; lo scopo vero è la comprensione di questa interpretazione e di rispondere a ciò che veramente accade in un elemento atomico.
Si è detto prima che il risultato di una osservazione è una funzione di probabilità; ciò vuol dire che non possiamo oggettivare una osservazione, ovvero che non possiamo descrivere ciò che accade fra questa osservazione e quella che ne segue. Ciò è come se noi avessimo introdotto un elemento soggettivo nella teoria, come se intendessimo dire: ciò che accade dipende dal nostro modo di osservare, o dal fatto che se volessimo discutere questo problema ci invischieremmo in difficoltà irrisolvibili.
A questo punto è conveniente prendere in esame il seguente esperimento ideale: ammettiamo che una piccola sorgente di luce monocromatica venga irradiata verso uno schermo nero che contiene due piccoli buchi. Il diametro dei buchi può essere alquanto più grande della lunghezza d’onda della luce, ma la distanza che li separa sarà molto più grande. Ad una certa distanza dietro lo schermo, una lastra fotografica registra la luce incidente.
Se si descrive questo esperimento nei termini della teoria ondulatoria, si dice che l’onda primaria penetra attraverso i due buchi; ci saranno delle onde sferiche secondarie partenti dai buchi che interferiscono reciprocamente, e l’interferenza produrrà una traccia caratteristica di intensità variante sulla lastra fotografica.
L’annerirsi della lastra costituisce un processo quantico, una reazione chimica prodotta dai singoli quanta di luce. Perciò deve essere anche possibile descrivere l’esperimento in termini di quanta di luce.
Se fosse possibile dire ciò che accade al singolo quantum di luce fra la sua emissione dalla sorgente luminosa ed il suo assorbimento nella lastra fotografica, si potrebbe ragionare come segue: il singolo quantum di luce può passare attraverso il primo buco, o attraverso il secondo.
Se passa attraverso il primo buco la sua probabilità di essere assorbito in un certo punto della lastra fotografica non può dipendere dal fatto che il secondo buco sia chiuso od aperto. La distribuzione di probabilità su una lastra sarà la stessa che se fosse aperto solo il primo buco. Se si ripete l’esperimento molte volte, si mettono insieme tutti i casi in cui il quantum di luce ha attraversato il primo buco, e l’annerirsi della lastra dovuto a questi casi corrisponderà a quella della distribuzione di probabilità.
Se si considerano soltanto quei quanta di luce che attraversano il secondo buco, l’annerirsi dovrebbe corrispondere a una distribuzione di probabilità derivata dal presupposto che soltanto il secondo buco sia aperto. L’annerimento totale, perciò, dovrebbe rappresentare esattamente la somma dell’annerimento nei due casi; in altre parole, non dovrebbe esserci alcuno schema d’interferenza. Perciò, l’affermazione che ciascun quantum di luce dev’essere passato attraverso il primo, o attraverso il secondo buco, è problematica e conduce a delle contraddizioni.
Questo esempio mostra chiaramente che il concetto della funzione della probabilità non permette una descrizione di ciò che accade fra due osservazioni. Qualsiasi tentativo di formulare una tale descrizione porterebbe a delle contraddizioni, il che sta a significare che il termine “avviene” è limitato all’osservazione.
Ora, si tratta di un risultato molto strano, giacchè sembra indicare che l’osservazione gioca un ruolo decisivo nell’evento e che la realtà varia a seconda che noi la osserviamo, o no.
Per rendere più chiaro questo punto dobbiamo analizzare il processo dell’osservazione più da vicino.
Per cominciare, è importante ricordare che nella scienza naturale ciò che ci interessa non è l’universo come un tutto, includente noi stessi, , ma il fatto che la nostra attenzione si dirige verso una parte dell’universo e fa di quella l’oggetto dei nostri studi. Nella fisica atomica questa parte è, generalmente, un oggetto piccolissimo, una particella atomica o un gruppo di particelle, qualche volta qualcosa di molto più grande.
Ma la dimensione non conta. Ciò che importa è che una gran parte dell’universo, inclusi noi stessi, non appartiene all’oggetto.
Ora, l’interpretazione teoretica di un esperimento comincia con i due passi di cui si è parlato. Nel primo passo dobbiamo descrivere il dispositivo dell’inserimento, combinato eventualmente con una prima osservazione in termini di fisica classica, traducendo codesta descrizione in termini di probabilità. Questa funzione di probabilità segue le leggi della teoria dei quanta, e il suo mutarsi continuo nel corso del tempo può venir calcolato dalle condizioni iniziali; questo è il secondo passo.
La funzione di probabilità combina insieme elementi oggettivi ed elementi soggettivi. Essa contiene affermazioni sulle possibilità, o meglio sulle tendenze (“potentia”, nella filosofia aristotelica): queste affermazioni sono completamente oggettive, non dipendono da nessun osservatore; e contiene osservazioni sulla nostra conoscenza del sistema, le quali sono, naturalmente, soggettive, in quanto possono essere diverse per osservatori diversi. In casi ideali l’elemento soggettivo nella funzione di probabilità può essere praticamente trascurabile se confrontato con quello oggettivo. I fisici parlano allora di un “caso puro”.
Quando passiamo poi all’osservazione, il cui risultato dovrebbe essere previsto dalla teoria, è molto importante rendersi conto che il nostro oggetto deve entrare in contatto con l’altra parte del mondo, cioè con l’apparato sperimentale, l’unità di misurazione ecc., prima o almeno nel momento dell’osservazione.
Questo significa che l’equazione del moto per la funzione di probabilità deve ora contenere l’influenza dell’interazione con lo strumento di misurazione. Tale influenza produce un nuovo elemento d’indeterminazione, giacché il dispositivo per misurare è necessariamente descritto nei termini della fisica classica; una simile descrizione contiene tutte le incertezze concernenti la struttura microscopica del dispositivo che noi conosciamo dalla termodinamica, e poiché il dispositivo è connesso con il resto del mondo, esso contiene, di fatto, le incertezze della struttura macroscopica del mondo intero. Queste incertezze possono essere definite “obiettive”, in quanto sono semplicemente una conseguenza della definizione, nei termini della fisica classica, e non dipendono dall’osservatore. Possono anche essere definite “soggettive” in quanto si riferiscono alla nostra incompleta conoscenza del mondo.
Dopo che questa interazione ha avuto luogo, la funzione di probabilità contiene l’elemento oggettivo della tendenza e l’elemento soggettivo della conoscenza incompleta, anche se sia prima trattato d’un “caso puro”.
Per questa ragione il risultato dell’osservazione non può essere generalmente previsto con certezza; ciò che può essere previsto è la probabilità di un certo risultato dell’osservazione, e questa affermazione sulla probabilità può essere controllata ripetendo l’esperimento molte volte.
La funzione di probabilità non deve, come fa il procedimento normale della meccanica newtoniana, descrivere un certo evento, ma deve, almeno durante il processo d’osservazione, descrivere un complesso di eventi possibili.
L’osservazione stessa modifica in modo discontinuo la funzione di probabilità; essa sceglie, fra tutti gli eventi possibili, quello che realmente ha avuto luogo. Poiché, seguendo l’osservazione, la nostra conoscenza del sistema è andata trasformandosi in modo discontinuo, anche la sua rappresentazione matematica ha subito un continuo mutamento. E giungiamo così alla definizione del “salto quantico”.
E’ certo che la nostra conoscenza può cambiare improvvisamente, e questo fatto giustifica l’uso del termine “salto quantico”.
Perciò il passaggio dal “possibile” al “reale” ha luogo durante l’atto d’osservazione. Se desideriamo descrivere ciò che accade in un evento atomico, dobbiamo aver ben presente che la parola “accade” può essere applicata soltanto all’osservazione e non a ciò che accade fra due osservazioni. Essa si applica all’atto fisico e non a quello psichico dell’osservazione, e noi possiamo dire che il passaggio dal “possibile” al “reale” si verifica non appena l’interazione dell’oggetto e del dispositivo di misurazione, e quindi del resto del mondo, è entrata in gioco; ciò non è connesso con l’atto di registrazione del risultato ad opera della mente dell’osservatore.
Il mutamento discontinuo della funzione di probabilità ha luogo, tuttavia, con l’atto di registrazione, poiché è il mutamento discontinuo del nostro conoscere all’istante della registrazione che si rispecchia nel mutamento discontinuo della funzione di probabilità.
A questo punto è possibile domandarsi in quale momento possiamo dire di essere pervenuti ad una descrizione oggettiva del mondo, in particolare del mondo atomico, o almeno alle parti di esso senza alcun riferimento a noi stessi. Possiamo dire che entro ampi limiti vi siamo già pervenuti.
Noi sappiamo che la città di Roma esiste, sia che la vediamo, sia che non la vediamo; si potrebbe pertanto affermare che la fisica classica è proprio quella idealizzazione per cui noi parliamo delle varie parti del mondo senza riferimento a noi stessi.
L’interpretazione di Copenhagen è ancora d’accordo con questo ideale? Si può dire che la teoria dei quanta corrisponde a questo ideale nel modo più ampio possibile. Indubbiamente la teoria dei quanta non contiene dei veri e propri tratti soggettivi, non rende la mente del fisico una parte dell’elemento atomico, ma prende le mosse dalla divisione del mondo in oggetto e resto del mondo, e dal fatto che, almeno per il resto del mondo, ci serviamo dei concetti classici per la nostra descrizione. E’ una divisione arbitraria e, storicamente, una diretta conseguenza del nostro metodo scientifico; l’uso dei concetti classici è, infine, una conseguenza del modo generale di pensare degli uomini. Ma ciò implica già un riferimento a noi stessi, e quindi la nostra descrizione non è completamente obiettiva.
 
[Top]

FILOSOFIA E SCIENZA MODERNA – Capo 3°

 

 
PARTE SECONDA
 
 
La fisica moderna:
relatività, teoria dei quanta,
 
la materia secondo le idee della teoria dei quanta
 
 

 
Relatività.
 
Nel campo della fisica moderna la teoria della relatività ha svolto un ruolo importantissimo. Fu in relazione ad essa che venne riconosciuta, per la prima volta, la necessità di un cambiamento dei principi fondamentali della fisica. Perciò una discussione di quei problemi che sono stati da essi sollevati ed in parte risolti, appartiene in modo essenziale alla nostra trattazione delle implicazioni filosofiche della fisica moderna.
In un certo senso si può dire che – contrariamente che per la teoria dei quanta – lo sviluppo della teoria della relatività, dal definitivo riconoscimento delle difficoltà, alla loro soluzione, ha richiesto soltanto un periodo brevissimo.
La ripetizione dell’esperimento di Michelson ad opera di Morley e di Miller, nel 1904, fu la prima prova esatta dell’impossibilità di scoprire il moto translazionale della Terra con metodi ottici, e la dissertazione decisiva di Einstein appariva meno di due anni dopo. D’altra parte, l’esperimento di Morley e Miller ed il saggio di Einstein furono soltanto i passi finali di uno sviluppo che era cominciato molto tempo prima e che può venire sintetizzato sotto il titolo: “elettrodinamica dei corpi in movimento”.
 
L’elettrodinamica dei corpi in movimento rappresenta un settore importante della fisica, da quando sono stati costruiti gli elettromotori.
Una grossa difficoltà si era introdotta, tuttavia, in questo argomento, dalla scoperta di Maxwell sulla natura elettromagnetica delle onde luminose. Queste onde differiscono per una priorità essenziale dalle altre onde, per esempio dalle onde sonore: esse sembrano potersi propagare nello spazio vuoto.
Quando un campanello suona in un recipiente in cui è stato fatto il vuoto, il suono non perviene all’esterno. La luce, invece, attraversa con tutta facilità lo spazio vuoto. Si pensò, perciò, che le onde luminose potessero venire considerate come onde elastiche d’una leggerissima sostanza chiamata etere invisibile e impercettibile, che riempiva lo spazio svuotato d’aria, come pure lo spazio in cui si trovavano altre materie, come l’aria o il vetro.
L’idea che le onde elettromagnetiche potessero essere una realtà di per sé, in piena indipendenza da qualsivoglia altro corpo, non passò in quel tempo per la mente dei fisici. Giacché codesta sostanza ipotetica, l’etere, sembrava penetrare gli altri corpi, sorse il problema: cosa accade se quei corpi, o quella materia, vengono messi in movimento? Partecipa (essa) a questo movimento? E se così avviene, come si propaga l’onda di luce nell’etere in movimento?
Esperimenti indicativi intorno a questo problema sono difficili per la ragione seguente: le velocità dei corpi in movimento sono generalmente estremamente piccole se confrontate con la velocità della luce. Per cui il movimento di quei corpi può produrre soltanto effetti piccolissimi, proporzionali al rapporto tra le velocità del corpo e la velocità della luce, o a una potenza più alta di quel rapporto. Vari esperimenti compiuti da Rowland, Rontgen ed Eichenwald permisero la misura di tali effetti con una precisione corrispondente alla potenza prima del rapporto. La teoria degli elettroni sviluppata da Lorentz nel 1895 poté descrivere tali effetti in modo pienamente soddisfacente. Ma allora gli esperimenti di Michelson, Morley e Miller determinarono una situazione nuova.
Per ottenere effetti più vistosi e perciò risultati più precisi, parve meglio eseguire gli esperimenti su corpi dotati di altissima velocità. La Terra si muove intorno al Sole con la velocità di circa 20 miglia al secondo. Se l’etere è in quiete rispetto al Sole e non si muove con la Terra, allora questo veloce moto dell’etere rispetto alla Terra dovrebbe farsi sentire nel caso d’un mutamento della velocità della luce. Questa velocità dovrebb’esser diversa in dipendenza del fatto che la luce si propaghi in direzione parallela oppure perpendicolare alla direzione del moto dell’etere.
Anche se l’etere dovesse parzialmente muoversi con la Terra, dovrebbe aversi un certo effetto dovuto a ciò che può chiamarsi “vento d’etere”, e questo effetto dovrebbe probabilmente dipendere dall’altezza del livello sul mare da cui viene eseguito l’esperimento.
Un calcolo circa l’effetto prevedibile mostrava che questo sarebbe stato molto piccolo, risultando esso proporzionale al quadrato del rapporto fra la velocità della Terra e quella della luce, ed era perciò necessario eseguire con estrema precisione gli esperimenti sull’interferenza dei due fasci di luce viaggianti paralleli o perpendicolari al moto della Terra.
Il primo esperimento di questo genere, eseguito da Michelson nel 1881, non era stato sufficientemente accurato. Ma anche successivi tentativi non rivelarono il minimo segno dell’effetto che ci si attendeva. Specialmente gli esperimenti di Morley e Miller nel 1904, poterono venir considerati come la prova definitiva che non esisteva alcun effetto dell’aspettato ordine di grandezza.
Questo risultato, per strano che fosse, s’incontrava con un altro punto che era stato discusso dai fisici qualche tempo prima. Nella meccanica newtoniana si realizza un certo “principio di relatività” che può essere descritto nei seguenti termini: se in un certo sistema di riferimento il moto meccanico dei corpi segue le leggi della meccanica newtoniana, altrettanto avviene allora per qualsiasi altro sistema di riferimento che sia in moto uniforme non rotatorio rispetto al primo sistema.
In altre parole, un moto uniforme di traslazione di un sistema non produce effetti meccanici di sorta e non può perciò essere rivelato in base a tali effetti. Tale principio di relatività – così sembrava ai fisici – non appariva però valido in ottica o in elettrodinamica. Se il primo sistema è in riposo rispetto all’etere, gli altri sistemi non lo sono, e perciò il loro moto rispetto all’etere dovrebbe venir rilevato per mezzo di effetti del tipo considerato da Michelson. Il risultato negativo dell’esperimento di Morley e Miller nel 1904 fece rivivere l’idea che tale principio di relatività potesse esser valido in elettrodinamica come lo era per la meccanica newtoniana.
C’era, d’altra parte, un vecchio esperimento fatto da Fizeau nel 1851, che sembrava contraddire il principio di relatività. Fizeau aveva misurato la velocità della luce in un liquido in movimento. Se il principio di relatività era esatto, la velocità totale della luce in un liquido in movimento avrebbe dovuto essere data dalla somma della velocità del liquido e dalla velocità della luce del liquido in riposo. Ma ciò non si verificava. L’esperimento di Fizeau mostrò che la velocità totale era alquanto più piccola.
Tuttavia, i risultati negativi di tutti i più recenti esperimenti per riconoscere il movimento “rispetto all’etere” spinsero i fisici teorici e i matematici del tempo a cercare delle interpretazioni matematiche che conciliassero l’equazione ondulatoria della propagazione della luce con il principio di relatività. Lorentz suggerì, nel 1904, una trasformazione matematica che soddisfaceva a questa esigenza. Egli dovette avanzare l’ipotesi che i corpi in movimento si contraggono nella direzione del moto, secondo un fattore dipendente dalla velocità del corpo, e che in diversi schemi di riferimento ci sono diversi tempi “apparenti” che, in molte guise, prendono il posto del “tempo reale”. In questo modo egli fu in grado di proporre qualcosa che rassomigliava al principio di relatività: la velocità “apparente” della luce era la stessa in ogni sistema di riferimento. Tali idee vennero discusse da Poincaré, Fitzgerald ed altri fisici.
Il passo decisivo, tuttavia, venne compiuto col saggio di Einstein del 1905 in cui egli considerava il tempo “apparente” della trasformazione di Lorentz, come il tempo “reale” ed aboliva ciò che Lorentz aveva chiamato il tempo “reale”. Ciò costituì una trasformazione delle basi stesse della fisica.
Per compiere questo passo non ci fu bisogno di null’altro, nella rappresentazione matematica della natura. Ma in base a questa nuova interpretazione  la struttura dello spazio e del tempo erano mutate e molti problemi della fisica apparivano in una luce nuova. Il parametro “etere”, ad esempio, poteva venire abolito. Giacché tutti i sistemi di riferimento che sono in moto di translazione uniforme l’uno rispetto all’altro sono equivalenti per la descrizione della natura, perde ogni significato l’affermazione che c’è una sostanza, “l’etere”, che è in riposo in uno soltanto di questi sistemi. Tale “sostanza” non è, in effetti, necessaria, ed è molto più semplice dire che le onde luminose si propagano nello spazio vuoto e che i campi elettromagnetici sono una realtà di per sé e possono esistere nello spazio.
Ma il cambiamento decisivo si verificava nella struttura dello spazio e del tempo. E’ molto difficile descrivere questo cambiamento nei termini del linguaggio comune, senza far uso della matematica, poiché le parole comuni “spazio” e “tempo” si riferiscono ad una struttura dello spazio e del tempo che è, in realtà, una idealizzazione ed una super-semplificazione della struttura reale. Ma dobbiamo tuttavia tentare di descrivere la nuova struttura e possiamo forse farlo nel modo seguente:
Quando noi usiamo il termine “passato”, noi comprendiamo tutti quegli eventi che potremmo conoscere almeno in via di principio, dei quali avremmo potuto sentir parlare almeno all’ingrosso.
In modo analogo comprendiamo col termine “futuro” tutti quegli eventi che noi potremmo influenzare, almeno in via di principio. Non è facile, per uno che non sia fisico, capire perché queste definizioni dei termini “passato” e “futuro” dovrebbero essere quelle più convenienti. Ma è facile constatare che esse corrispondono, con molta precisione, all’uso che, dei termini, facciamo comunemente.
Usando i termini in questo modo, risulta da molti esperimenti che il contenuto del “futuro” o del “passato” non dipende dallo stato di moto o da altre proprietà dell’osservatore. Questo è vero sia nella meccanica che nella teoria della relatività di Einstein.
Ma la differenza è questa: nella teoria classica accettiamo l’assunto che futuro e passato sono separati da un intervallo temporale infinitamente breve, che noi possiamo chiamare il momento presente. Nella teoria della relatività apprendiamo che la situazione è diversa: futuro e passato sono separati da un intervallo finito di tempo, la lunghezza del quale dipende dalla distanza dell’osservatore. Qualsiasi azione può propagarsi soltanto ad una velocità minore od uguale alla velocità della luce. Perciò un osservatore, in un dato istante, non può né conoscere, né influenzare eventi distanti che abbiano luogo tra due tempi caratteristici. Uno di questi tempi è l’istante in cui un segnale luminoso viene emesso dal punto in cui avviene l’evento, per raggiungere l’osservatore nel momento dell’osservazione.
L’altro tempo è l’istante in cui un segnale luminoso, fornito dall’osservatore nell’istante dell’osservazione, raggiunge il punto dell’evento. L’intero intervallo temporale fra questi due istanti, può considerarsi come il tempo “presente” per l’osservatore, nell’istante della osservazione. Qualsiasi evento realizzato tra i due tempi caratteristici può essere definito “simultaneo” all’atto dell’osservazione.
L’uso della frase “può essere definito” mette in rilievo un’ambiguità della parola “simultaneo”, dovuta al fatto che questo termine si è formato con l’esperienza della vita quotidiana, in cui la velocità della luce può essere considerata come praticamente infinita. 
[E’ questo l’esempio di un caso di messa in dubbio di una conoscenza fisica “a priori”, di tipo kantiano.] (N.d.R.).
Effettivamente, in fisica, questo termine può essere anche definito in modo leggermente diverso, ed Einstein, nei suoi scritti, ha usato questa seconda definizione:
Quando due eventi accadono nello stesso punto dello spazio simultaneamente, noi diciamo che essi coincidono; così, il termine non è più ambiguo. Immaginiamo ora tre punti nello spazio giacenti su una retta in modo che il punto intermedio abbia la stessa distanza dai due punti estremi. Se accadono ai due punti estremi due eventi in tempi tali che i segnali luminosi partenti dagli eventi coincidono quando raggiungono il punto mediano, possiamo definire i due eventi come simultanei. Questa definizione è più precisa della prima.
Una delle conseguenze più importanti, di ciò, è che se due eventi sono simultanei per un osservatore, essi possono non essere tali per un altro osservatore, se questi è in moto rispetto al primo osservatore.
La connessione tra le due definizioni può essere stabilita dall’affermazione che ogni volta che due eventi sono simultanei nel primo senso del termine, si può sempre trovare un sistema di riferimento per cui essi sono simultanei anche nel secondo senso.
La prima definizione del termine “simultaneo” sembra corrispondere più da vicino all’uso che se ne fa nella vita quotidiana, poiché il problema se due eventi sono simultanei non dipende, nella vita quotidiana, dal sistema di riferimento. Ma in entrambe le definizioni relativistiche il termine ha acquistato una precisazione che manca nel linguaggio della vita familiare.
Nella teoria dei quanta i fisici dovettero apprendere piuttosto presto che i termini della fisica classica descrivono la natura solo in modo impreciso, che la loro applicazione è limitata dalle leggi quantiche e che perciò si dovrebbe essere assai cauti nel loro uso. Nella teoria della relatività i fisici hanno cercato di cambiare il significato delle parole della fisica classica, per rendere i termini più precisi, in modo da adattarli alla nuova situazione.
La struttura dello spazio e del tempo che è stata portata alla luce dalla teoria della relatività, ha prodotto molte conseguenze in diverse parti della fisica. L’elettrodinamica dei corpi in movimento può venir subito derivata dal principio di relatività. Il principio stesso può essere formulato come una legge assolutamente generale della natura, che si riferisce, non solo alla elettrodinamica o alla meccanica, ma a qualsiasi altro gruppo di leggi: che le leggi assumono la stessa forma in tutti i sistemi di riferimento i quali sono diversi l’uno dall’altro soltanto per un moto di traslazione uniforme; sono invarianti di fronte alla trasformazione di Lorentz.
La conseguenza, forse più importante, del principio di relatività, è l’inerzia dell’energia. Giacché la velocità della luce è la velocità limite che possa mai esser raggiunta da qualsivoglia corpo materiale, è facile vedere che è più difficile accelerare un corpo che già si muove a forte velocità, che un corpo in quiete.
L’inerzia è venuta crescendo con l’energia cinetica. Ma, in modo assolutamente generale, ogni tipo di energia, secondo la teoria della relatività, porterà un contributo all’inerzia, vale a dire alla massa, e la massa appartenente ad una determinata quantità di energia è proprio questa energia divisa per il quadrato della velocità della luce.
Quindi, ogni energia, porta sempre con sé una massa, anche se ad un’energia cinetica piuttosto grande s’accompagni soltanto una massa piccolissima; ed è per questa ragione che la connessione fra massa ed energia non era mai stata osservata prima.
Le due leggi della conservazione della massa e della conservazione dell’energia perdono la loro validità separata e sono combinate in un’unica legge che può essere definita la legge della conservazione dell’energia o della massa. Anni fa, quando la teoria della relatività fu formulata, quest’ipotesi della equivalenza di massa ed energia sembrò costituire una completa rivoluzione nella fisica, e c’erano ancora scarse prove sperimentali in favore di essa.
Ai nostri tempi noi vediamo, in molti esperimenti, quante particelle elementari possono essere create dall’energia cinetica, e come tali particelle vengano annientate per dar vita a delle radiazioni; perciò il trasmutarsi dell’energia nella massa e viceversa, non ci suggerisce nulla di inusuale.
L’enorme liberazione di energia nell’esplosione atomica è ancora un’altra e più spettacolare prova della validità dell’equazione di Einstein. Ma qui possiamo aggiungere un appunto critico storico.
E’ stato qualche volta affermato che le enormi energie delle esplosioni atomiche siano dovute ad una trasmutazione diretta della massa in energia, e che si è stati in grado di prevedere queste energie soltanto sulla base della teoria della relatività. Ciò costituisce, nondimeno, un fraintendimento.
L’enorme quantità di energia utilizzabile contenuta nel nucleo atomico, era nota dal tempo di Becquerel, Curie e Rutherdorf sui corpi radioattivi. Ogni corpo radioattivo, come il Radio, produce una quantità di calore, disintegrandosi, circa un milione di volte superiore al calore emesso in un processo chimico per una uguale quantità di materia.
La sorgente di energia nel processo di fissione dell’uranio è proprio la stessa che nella scomposizione alfa del Radio, cioè essenzialmente la repulsione elettrostatica delle due parti in cui il nucleo è separato. Perciò l’energia di una esplosione atomica deriva direttamente da questa sorgente e non da una trasformazione della massa in energia. Il numero delle particelle elementari con massa di riposo finita non decresce durante l’esplosione. E’ vero, però, che le energie di legame delle particelle del nucleo atomico si fan sentire con le loro masse e perciò la liberazione dell’energia è in questo modo indirettamente connessa anche con mutamenti che si verificano nelle masse dei nuclei.
L’equivalenza di massa ed energia – oltre la grande importanza che ha in fisica – ha sollevato anche problemi concernenti antichissime questioni filosofiche. E’ stata, infatti, tesi comune a molti sistemi filosofici del passato, che la sostanza, o materia, non può essere distrutta. Nella fisica moderna, tuttavia, molti esperimenti hanno dimostrato che nelle particelle elementari, come ad esempio positroni ed elettroni, possono essere annichiliti e trasmutati in radiazione. Significa questo che quegli antichi sistemi filosofici sono stati smentiti dalla moderna esperienza e che gli argomenti da essi addotti ci han portato all’errore?
Sarebbe certamente una conclusione imprudente ed ingiustificata, giacché i termini “sostanza” e “materia”, nella filosofia antica e medioevale, non possono essere semplicemente identificati con il termine “massa” della fisica moderna. Se si volesse esprimere la nostra esperienza moderna nel linguaggio delle filosofie più antiche, si potrebbero considerare massa ed energia come due diverse forme della stessa “sostanza” e mantenere perciò l’idea della indistruttibilità della sostanza.
D’altra parte, non si può certo dire che si faccia un gran guadagno ad esprimere la conoscenza moderna in linguaggio classico. I sistemi filosofici del passato si formarono sul volume di conoscenze disponibili al loro tempo e sulle linee di pensiero cui tali conoscenze avevano portato. Non ha senso aspettarsi che i filosofi di molte centinaia d’anni fa abbiano previsto lo sviluppo della fisica moderna o della teoria della relatività. Perciò i concetti cui i filosofi furono condotti durante il processo di chiarificazione intellettuale, molto tempo addietro, non possono verosimilmente adattarsi a fenomeni che possono essere osservati soltanto con gli elaborati strumenti tecnici del nostro tempo.
 
Ma prima di affrontare la discussione sulle implicazioni filosofiche della teoria della relatività è necessario illustrare i suoi ulteriori sviluppi.
L’ipotetica sostanza “etere”, che aveva svolto un ruolo così importante nelle prime discussioni sulla teoria di Maxwell nel diciannovesimo secolo, era stata abolita – come è stato detto prima – dalla teoria della relatività. Ciò viene espresso qualche volta dicendo che l’idea dello spazio assoluto è stata abbandonata. Ma una simile affermazione dev’essere accettata con molta cautela. E’ vero che non ci si può fondare su un sistema speciale di riferimento in cui la sostanza “etere” sia in stato di quiete, e che possa pertanto meritare il nome di “spazio assoluto”. Ma sarebbe errato affermare che lo spazio ha ora perduto tutte le sue proprietà fisiche. Le equazioni di moto, per corpi materiali o per campi, assumono tuttavia forma diversa in un sistema di riferimento “normale”. L’esistenza di forze centrifughe in un sistema ruotante prova – per quanto almeno si riferisce alla teoria della relatività del 1905 e del 1906, l’esistenza di proprietà fisiche dello spazio che consentono la distinzione tra un sistema ruotante ed uno non ruotante.
Questo può apparire non soddisfacente da un punto di vista filosofico dal quale si preferirebbe attribuire proprietà fisiche soltanto a entità fisiche, come corpi materiali o campi, e non allo spazio vuoto. Ma per quanto si riferisce alla teoria dei processi elettromagnetici o dei moti meccanici, questa esistenza di proprietà fisiche dello spazio vuoto è soltanto una descrizione di fatti che non può essere discussa.
 
Un’attenta analisi di questa situazione, fatta circa dieci anni dopo, nel 1916, condusse Einstein ad una importantissima estensione della teoria della relatività, che è chiamata generalmente, teoria della “relatività generale”. Prima di addentrarci nella esposizione dei più importanti principi di questa nuova teoria, può essere utile dire poche parole sul grado di certezza su cui possiamo fare assegnamento circa l’esattezza di queste due parti della teoria della relatività. La teoria del 1905 e del 1906 è fondata su un gran numero di fatti bene accertati: sugli esperimenti di Michelson e Morley, ed altri dello stesso tipo, sull’equivalenza della massa e dell’energia in innumerevoli processi radioattivi, sulla dipendenza della durata dei corpi radioattivi dalla loro velocità, etc. Questa teoria appartiene, perciò, ai principi fondamentali della fisica moderna e non può venir messa in discussione nella presente situazione.
Per la teoria della relatività generale, l’evidenza sperimentale è molto meno convincente, poiché scarsissimo è il materiale sperimentale. Esistono soltanto poche osservazioni astronomiche che permettano un controllo dell’esattezza degli assunti. Tutta questa teoria, perciò, è più ipotetica della prima.
 
La pietra angolare della teoria della relatività generale è la connessione fra inerzia e gravità. Misure molto precise hanno mostrato che la massa d’un corpo come sorgente di gravità è esattamente proporzionale alla massa, come misura per l’inerzia del corpo. Anche le più accurate misure non hanno mai rilevato alcuna deviazione a questa legge.
Se la legge è generalmente vera, le forze gravitazionali possono essere messe allo stesso livello delle forze centrifughe o di altre forze che si generavano come reazione all’inerzia.
Giacché le forze centrifughe apparivano dovute a proprietà fisiche dello spazio vuoto, come era stato detto prima, Einstein si volse all’ipotesi che anche le forze gravitazionali sono dovute a proprietà dello spazio vuoto. Si trattava d’un passo importantissimo che spingeva subito a farne un altro di uguale importanza. Noi sappiamo che le forze di gravità sono prodotte dalle masse. Le forze centrifughe in un sistema ruotante devono essere prodotte dalla rotazione (relativa al sistema) di masse forse molto distanti.
Per eseguire il programma tracciato in queste poche proposizioni, Einstein dovette collegare le idee fisiche in esse implicite con lo schema matematico di geometria generale sviluppato da Reinmann. Poiché le proprietà dello spazio sembravano mutare continuamente con i campi gravitazionali, la sua geometria doveva venire paragonata alla geometria delle superfici curve, dove la linea retta della geometria euclidea dev’essere sostituita con la linea geodetica, la linea della distanza più breve, e dove la curvatura cambia continuamente.
Einstein riuscì infine a fornire una formulazione matematica della connessione fra la distribuzione delle masse ed i parametri determinanti della geometria. Era, fino ad un’altissima approssimazione, identica alla teoria della gravitazione convenzionale, ed era inoltre in grado di predire alcuni interessanti effetti, che erano proprio al limite della misurabilità: ad esempio, l’azione della gravità della luce.
Quando della luce monocromatica è emessa da una stella pesante, i quanta di luce perdono energia movendosi attraverso il campo gravitazionale della stella; ne deriva uno spostamento verso il rosso della linea spettrale emessa. Non v’è ancora alcuna prova sperimentale di questo spostamento verso il rosso, come ha mostrato chiaramente la discussione sugli esperimenti di Freundlich. Ma sarebbe anche prematuro concludere che gli esperimenti contraddicano la predizione della teoria di Einstein. Un fascio di luce che passi vicino al sole deve essere deflesso dal suo campo gravitazionale.
La deflessione è stata provata sperimentalmente da Freundlich, nel giusto ordine di grandezza; ma se la deflessione si accorda quantitativamente con il valore predetto dalla teoria di Einstein, non è stato ancora deciso.
La miglior prova per la validità della teoria della relatività generale sembra essere la precessione del moto orbitale del pianeta Mercurio, che in effetti coincide mirabilmente con il valore predetto della teoria.
Per quanto la base sperimentale della relatività generale sia ancora piuttosto ristretta, la teoria contiene idee della più grande importanza.
Per tutto l’intero periodo che va dai matematici dell’antica Grecia al diciannovesimo secolo, la geometria euclidea era stata considerata come evidente; gli assiomi di Euclide venivano considerati come il fondamento di qualsiasi geometria matematica, un fondamento che era al di fuori d’ogni discussione. Poi, nel diciannovesimo secolo, i matematici Bollai e Lobachewsky, Gauss e Reinmann, scoprirono che era possibile inventare nuove geometrie che potevano venire sviluppate con la stessa precisione matematica di quella euclidea; perciò i problemi su quale fosse la geometria corretta assunsero un carattere puramente empirico.
Ma fu soltanto attraverso l’opera di Einstein che la questione poté essere realmente assunta dai fisici. La geometria discussa nella teoria della relatività generale non si riferiva soltanto allo spazio tridimensionale, ma al molteplice, quadrimensionale costituito di spazio e di tempo.
La teoria stabiliva una connessione fra la geometria in questo molteplice, e la distribuzione delle masse nel mondo. Perciò questa teoria sollevò in forma completamente nuova i vecchi problemi sul comportamento dello spazio e del tempo in scala più vasta; essa potrebbe suggerire delle risposte fornite dal controllo delle osservazioni.
Di conseguenza, vennero ripresi molti vecchi problemi filosofici che avevano occupato la mente dell’uomo fin dalle prime fasi della filosofia e della scienza. Lo spazio è finito o infinito? Che cosa c’era prima dell’inizio del tempo? Che cosa accadrà alla fine del tempo? O non esiste né principio, né fine?
Tali domande avevano trovato diverse risposte nelle varie filosofie e religioni. Nella filosofia di Aristotele, per esempio, lo spazio vitale dell’universo era finito (per quanto infinitamente divisibile).
Lo spazio era dovuto alla estensione dei corpi, era connesso con i corpi: non c’era spazio dove non c’erano corpi. L’universo era costituito dalla Terra, dal Sole con i pianeti e dalle stelle; un numero di corpi finito. Oltre la sfera delle stelle non c’era spazio; perciò lo spazio dell’universo era finito.
Nella filosofia di Kant tale questione apparteneva alle cosiddette “antinomie” – domande che non potevano ottenere risposta giacché due diversi argomenti portavano a risultati opposti – . Lo spazio non può esser finito poiché noi non possiamo immaginare per esso una fine; in qualsivoglia punto dello spazio perveniamo, possiamo sempre immaginare di poter procedere oltre. Nello stesso tempo lo spazio non può essere infinito, poiché lo spazio è qualche cosa che noi possiamo immaginare (altrimenti la parola “spazio” non si sarebbe potuta formare) e noi non riusciamo ad immaginare uno spazio infinito.
Per questa seconda tesi l’argomento di Kant non è stato riprodotto letteralmente. La frase “lo spazio è infinito” significa per noi qualche cosa di negativo: noi non possiamo pervenire al termine dello spazio. Per Kant ciò significa che l’infinità dello spazio è effettivamente data, che essa esiste in un senso che, però, possiamo difficilmente riprodurre. Il risultato di Kant è che una risposta razionale alla domanda se lo spazio sia finito o infinito non può essere data, poiché l’universo non può essere oggetto della nostra esperienza nella sua totalità.
Una situazione simile può incontrarsi riguardo al problema della infinità del tempo. Nelle “Confessioni” di Sant’Agostino, ad esempio, la questione assume la forma seguente: che cosa faceva Dio prima che egli creasse il mondo? Agostino non è soddisfatto della risposta scherzosa: “Dio era affaccendato a preparare l’inferno per quelli che fanno delle domande stupide”. Sarebbe, egli dice, una risposta troppo a buon mercato, ed egli si sforza di sottoporre il problema ad una analisi razionale. Il tempo passa soltanto per noi. E’ atteso da noi in quanto futuro, è trascorrente come momento presente ed è da noi ricordato come passato. Ma Dio non è nel tempo: per lui mille anni sono come un giorno, ed un giorno è come mille anni.
Il tempo è stato creato insieme con il mondo, appartiene al mondo, perciò non esisteva tempo prima che l’universo esistesse. Per Dio l’intero universo è dato tutto insieme. Non c’era tempo prima che Egli creasse il mondo.
E’ ovvio che in affermazioni del genere la parola “creasse” fa subito sorgere tutte le principali difficoltà. Questa parola, così com’è comunemente intesa, significa che qualche cosa che prima non era è venuta ad essere, ed in questo senso essa presuppone il concetto del tempo. E’ perciò impossibile definire in termini razionali ciò che potrebbe essere il significato della frase “il tempo è stato creato”. Questo fatto ci ricorda di nuovo quella lezione, già spesso discussa, che abbiamo appresa dalla fisica moderna: che ogni parola o concetto, per chiari che possano sembrare, hanno soltanto una campo limitato di applicabilità. Nella teoria della relatività generale si può rispondere a questa domanda circa l’infinità dello spazio e del tempo sopra una base empirica.
Se la connessione fra la geometria quadrimensionale nello spazio e nel tempo, e la distribuzione delle masse nell’universo è stata data correttamente dalla teoria, allora le osservazioni astronomiche sulla distribuzione delle galassie nello spazio c’informano circa la geometria dell’universo come un tutto. Per lo meno si possono costruire “modelli” dell’universo, rappresentazioni cosmologiche, le cui conseguenze possono essere messe a confronto con i fatti empirici.
In base alle attuali conoscenze astronomiche non è possibile distinguere in modo preciso tra vari modelli possibili. Può essere che lo spazio riempito dall’universo sia finito. Ciò non significherebbe che in qualche posto ci sono i limiti dell’universo. Significherebbe soltanto che procedendo sempre più lontano in una direzione dell’universo si finirebbe col tornare al punto da cui si era partiti. La situazione sarebbe simile a quella che si realizza nella geometria bidimensionale sulla superficie della Terra, dove noi, partendo da un punto in direzione Est, torniamo allo stesso punto provenendo dall’Ovest.
Rispetto al tempo, sembra esserci qualcosa di simile ad un principio. Molte osservazioni ci parlano d’un inizio dell’universo, quattro miliardi di anni or sono: esse sembrano almeno rivelarci che in quel tempo tutta la materia dell’universo era concentrata in uno spazio molto più piccolo di quello di oggi, e si sarebbe poi espansa da quel piccolo spazio a differenti velocità; lo stesso periodo di quattro miliardi di anni si ricava da osservazioni molto diverse (per esempio, dall’età dei meteoriti e dei metalli sulla Terra, ecc.), e sarebbe perciò difficile trovare un’interpretazione essenzialmente diversa da quest’idea d’origine.
Se essa fosse esatta, vorrebbe dire che prima di questo periodo il concetto di tempo avrebbe dovuto subire mutamenti essenziali.
Allo stato attuale delle osservazioni astronomiche, non è possibile rispondere a queste domande su una solida base empirica. Anche per il tempo la teoria della relatività generale poggia su un ristretto fondamento sperimentale e dev’essere considerata molto meno certa della cosiddetta teoria della relatività speciale espressa dalla trasformazione di Lorentz.
Anche limitando le discussioni su quest’ultima teoria, non c’è dubbio che la teoria della relatività ha mutato profondamente le nostre concezioni sulla struttura dello spazio e del tempo. La cosa che più ci colpisce in questi cambiamenti, non è forse la loro speciale natura, ma il fatto che essi siano stati possibili.
La struttura dello spazio e del tempo che era stata definita da Newton come la base della sua descrizione matematica della natura, era semplice e consistente, e corrispondeva assai strettamente all’uso dei concetti di spazio e di tempo nella vita quotidiana. Questa corrispondenza era di fatto così stretta che le definizioni di Newton potrebbero essere considerate come la precisa formulazione matematica di questi concetti comuni.
Prima della teoria della relatività, sembrava assolutamente ovvio che degli eventi potessero venire ordinati nel tempo, indipendentemente dalla loro posizione nello spazio. Noi sappiamo ora che ciò è determinato, nella vita quotidiana, dal fatto che la velocità della luce è più elevata di qualsiasi altra velocità riscontrabile nell’esperienza pratica; ma tale restrizione non era naturalmente conosciuta a quel tempo. Ed anche se noi ora la conosciamo, ci è difficile immaginare che l’ordine temporale degli eventi debba dipendere dalla loro posizione nello spazio.
La filosofia di Kant attrasse più tardi l’attenzione sul fatto che i concetti di spazio e di tempo appartengono alla nostra relazione con la natura, non alla natura stessa; che noi potremmo descrivere la natura stessa senza far uso di quei concetti. Di conseguenza, quei concetti sono, in un certo senso “a priori”, sono la condizione primaria e non il risultato dell’esperienza, e si pensava che non potessero essere alterati da nuove esperienze. Perciò, la necessità del mutamento apparve come una grande sorpresa. Era la prima volta che gli scienziati apprendevano quanto cauti si dovesse essere nell’applicare i concetti di vita quotidiana all’esperienza raffinata della moderna scienza sperimentale.
Persino la precisa e consistente formulazione di questi concetti nel linguaggio matematico della meccanica di Newton o l’accurata analisi che se ne fa nella filosofia kantiana, non avevano offerto protezione sufficiente contro l’analisi critica resa possibile da misurazioni estremamente esatte.
Questo ammonimento si mostrò più tardi estremamente utile nello sviluppo della fisica moderna, e sarebbe certo stato ancora più difficile intendere la teoria dei quanta se il successo della teoria della relatività non avesse ammonito i fisici contro l’uso acritico dei concetti assunti dalla vita quotidiana o dalla fisica classica.

[Top]

FILOSOFIA E SCIENZA MODERNA – Capo 2°

PARTE PRIMA

 
    Dalla filosofia di Cartesio alla prima parte
   della dottrina di Kant
 
      attraverso la filosofia dei primi filosofi empirici
   Locke, Berkeley e Hume
 

 
 
      Filosofia e Scienza.
 
 
Il primo grande filosofo di questo periodo di ripresa della scienza e della filosofia fu Renato Cartesio, che visse nella prima metà del diciassettesimo secolo.
Le sue idee più importanti per lo sviluppo della filosofia e del pensiero scientifico e filosofico sono contenute nel suo Discorso sul metodo. Basandosi sul dubbio e sul ragionamento logico, egli si sforza di trovare un fondamento completamente nuovo e assolutamente consistente per un sistema filosofico. Non accetta come base la rivelazione e si rifiuta di accettare acriticamente quanto percepito dai sensi. Così, comincia con il suo metodo del dubbio. Investe con il suo dubbio ciò che i nostri sensi ci dicono, i risultati del nostro ragionamento e perviene infine alla sua famosa affermazione: cogito, ergo sum. Non posso dubitare della mia esistenza, giacché essa è conseguenza del fatto che sto pensando. 
Dopo aver stabilito in questo modo l’esistenza dell’ Io, egli passa a provare l’esistenza di Dio essenzialmente secondo le linee della filosofia scolastica.
L’esistenza del mondo deriva infine dal fatto che Dio mi ha dato una forte inclinazione a credere nell’esistenza del mondo ed è semplicemente impossibile che Dio abbia voluto ingannarmi. Questo è il punto di partenza, non è un principio fondamentale, e Cartesio intende che ciò che noi conosciamo nel mondo esterno è meno certo di ciò che noi conosciamo nel nostro intelletto. Ma già il suo punto di partenza, con il triangolo Io – Dio – Mondo, semplifica in modo pericoloso il nostro ragionamento. Dio è separato sia dall’ Io, sia dal Mondo. Dio in realtà è talmente innalzato sopra il Mondo e sopra gli uomini che finisce con l’apparire soltanto come un punto comune di riferimento che stabilisce una relazione fra l’Io e il Mondo. In questo discorso è essenziale che l’Io non possa essere realmente separato dal Mondo ed è altresì essenziale che Dio sia nel mondo.
Insomma, Cartesio, con il suo metodo filosofico cercò di formulare per la prima volta un orientamento del pensiero umano che era già apparso durante il Rinascimento, in Italia e nella Riforma.
Ne seguì una ripresa per la matematica e un notevole interessamento per la religione personale. Il crescente interesse per la matematica favorì un sistema filosofico che prendeva lo spunto dal ragionamento logico e cercava con questo metodo di arrivare a delle verità che possedessero gli stessi caratteri di certezza matematica. D’altra parte, la res cogitans e la res extensa erano considerate come assolutamente diverse nella loro essenza.
La posizione che aveva condotto la partizione cartesiana riguardo alla res extensa può venire denominata realismo metafisico. Il Mondo, vale a dire il complesso delle cose estese, esiste. Ciò va distinto dal realismo pratico e le diverse forme del realismo possono essere descritte nel modo seguente: noi “oggettiviamo” un’affermazione, se pretendiamo che il suo contenuto non dipenda dalla condizione sotto la quale può essere verificata. Il realismo pratico sostiene che ci sono delle affermazioni che possono essere oggettivate, il realismo dogmatico pretende che non ci siano osservazioni riguardanti il mondo materiale che non possano essere oggettivate. Il realismo dogmatico non è, come vediamo ora, una condizione necessaria per la scienza naturale, ma essa, nel passato, ha svolto un ruolo molto importante nello sviluppo della scienza. Il realismo metafisico svolge un passo più in là del realismo dogmatico, affermando che le cose esistono realmente. Questo è infatti ciò che tentò di dimostrare Cartesio con l’aforisma “Dio non può averci ingannato”.
La difficoltà del realismo metafisico venne subito sentita, dopo Cartesio e divenne il punto di partenza della filosofia empiristica e del positivismo.
I tre filosofi che possono essere considerati come i più rappresentativi della prima filosofia empiristica sono Locke, Berkeley e Hume.
Locke sostiene, contrariamente a Cartesio, che ogni conoscenza è, in definitiva, fondata sull’esperienza. L’esperienza è costituita dalla sensazione e dalla percezione delle operazioni compiute dalla nostra mente. Conoscenza, afferma Locke, è la percezione dell’accordo o del disaccordo di due idee.
Il passo successivo venne compiuto da Berkeley: se effettivamente tutta la nostra conoscenza deriva dalla percezione, risulta priva di senso l’affermazione che le cose esistono realmente; una volta data la percezione non si può fare alcuna differenza se le cose esistono, o non esistono. Perciò, essere percepito equivale all’esistere.
La critica al realismo metafisico espressa dalla filosofia empirista è certamente giustificata come l’uso acritico del termine “esistenza” ed è assai dubbio se guadagniamo alcunché adottando le percezioni, invece delle cose, come elementi della realtà.
La tesi filosofica che ogni conoscenza è, in definitiva, basata sull’esperienza, ha condotto, alla fine, ad un postulato riguardante la chiarificazione logica di ogni affermazione della natura; tale postulato poteva apparire giustificato nel periodo della fisica classica, ma in seguito, abbiamo appreso che esso non può essere formulato.
Una sintesi di queste linee di pensiero, che ebbero inizio, l’una con Cartesio, l’altra con Locke e Berkeley, venne tentata nella filosofia di Kant, che fu il fondatore dell’idealismo critico tedesco. La parte della sua opera che interessa per un confronto con il risultato della fisica moderna è contenuta nella sua “Critica della ragion pura”. Egli affronta il problema: se la conoscenza è fondata soltanto sull’esperienza o può provenire da altre fonti; ed arriva alla conclusione che la nostra conoscenza è in parte “a priori” e non ricavata dall’esperienza, nello stesso tempo, distingue fra proposizioni “analitiche” e proposizioni “sintetiche”. Le proposizioni analitiche derivano semplicemente dalla necessità logica e negarle implicherebbe contraddizione. Le proposizioni che non sono analitiche vengono chiamate sintetiche.
Qual è, secondo Kant, il criterio della conoscenza “a priori”? Kant è d’accordo nell’ammettere che ogni conoscenza comincia con l’esperienza, ma aggiunge che non sempre deriva dall’esperienza.
E’ vero che l’esperienza c’insegna che una certa cosa ha la tale e tal altra proprietà, ma non ci dice che essa non potrebb’essere diversa. Perciò, se una proposizione è caratterizzata dal carattere della necessità, essa dev’essere “a priori”.
L’esperienza non dà mai ai suoi giudizi il carattere dell’universalità. Ad esempio, la proposizione “il sole sorge ogni mattina” significa che noi non conosciamo, per il passato, alcuna eccezione a questa regola e che ci aspettiamo che continui a valere per il futuro. Ma è impossibile immaginare eccezioni alla regola. Se un giudizio, perciò, ha un carattere d’assoluta necessità, se è impossibile immaginare delle eccezioni, esso dev’essere “a priori”. Un giudizio analitico è sempre “a priori”. (Si intende: analisi che sia già stata compiuta dalla natura, non da compiere noi. N.d.R.). 
Anche se un bambino apprende l’aritmetica giocando con delle palline, non ha poi bisogno di riferirsi all’esperienza per sapere che “due più due fa quattro”. La conoscenza empirica è, d’altra parte, conoscenza sintetica.
Ma sono possibili giudizi sintetici “a priori”? Kant ne dà una prova adducendo degli esempi in cui i giudizi su esposti sembrano realizzarsi. Egli trova che ciò si verifica nel campo della meccanica di Newton. Ciò viene confermato anche da altre prove, come vedremo. Ma altre prove, come vedremo ancora, non sono confermabili da ricerche ulteriori nel campo della fisica moderna.
Prima di porre a confronto queste dottrine di Kant con i risultati della fisica moderna, dobbiamo menzionare quella parte della sua opera cui faremo riferimento nelle pagine seguenti. La spinosa questione se le cose esistono realmente, che aveva dato origine alla filosofia empirica, si presentò anche nella speculazione kantiana.

[Top]

FILOSOFIA E SCIENZA MODERNA – Capo 1°

ROCCO FEDELE

 
 
FILOSOFIA E SCIENZA MODERNA
 
 
Frammenti di un’opera postuma
a cura di Argentina Di Sipio Fedele
 

  
   
PREMESSA
 
      
Tra le ultime fatiche alle quali pose mano il prof. Rocco Fedele e che lo videro impegnato fino agli ultimi istanti della sua vita, è da annoverare anche un interessante studio intitolato “Filosofia e Scienza moderna”.
Il lavoro, rimasto inedito per l’improvvisa scomparsa dell’Autore, è stato dato alle stampe a mie spese, in edizione tipografica non commerciabile, nel 1997, mantenendo la stesura originaria del dattiloscritto.
Esso, pertanto, denota inevitabilmente il carattere di incompletezza, quale può rappresentare un lavoro chiaramente ancora in fase di correzione e di sistemazione.
Ciò nonostante, abbiamo ritenuto utile pubblicarlo ugualmente, come opera postuma, in segno di affetto verso l’Autore e come omaggio a quanti lo hanno apprezzato e amato come professore, provveditore e uomo di cultura.
Lo studio, come sottolinea lo stesso prof. Rocco Fedele in una memoria rinvenuta tra le pagine del dattiloscritto, “può servire come testo modernissimo degli ultimi due anni di Filosofia per i licei scientifici”. Esso permette di mettere in evidenza l’enorme distanza fra la Filosofia che arriva fino a Kant e quella che ad essa si ricollega con la fisica moderna.
Mentre la Fisica del primo Kant, che risale alla fine del ‘Settecento, è di fatto quella che si insegna attualmente nelle nostre scuole superiori, la Fisica moderna è completamente diversa. Certo, è difficile per il filosofo raffrontarla con quella parte che è legata alla fisica moderna, ma, “secondo me – scrive l’Autore – è necessario, poiché non si può ignorare quanto è ormai indissolubilmente legato alle scoperte del nostro secolo”. Con occhio lungimirante, quasi a precorrere i tempi, il prof. Fedele pone, con questo lavoro, una questione che, come lui stesso precisa “specie in questo momento che si elaborano i nuovi programmi nelle nostre scuole superiori, riveste notevole importanza”.
Con la pubblicazione di quest’opera crediamo di aver pienamente esaudito uno degli ultimi desideri dell’Autore, quello cioè di dare alle stampe il volume, che solamente un destino crudele gli negò di provvedervi personalmente, come pure desiderava ardentemente.
Da ultimo, ci sia concesso di ringraziare vivamente quanti si sono adoperati fattivamente in questa nostra non lieve fatica della stampa del volume. In modo particolare, siamo infinitamente riconoscenti ad Antonino Burattini e Fabio Toccaceli per la loro cortese disponibilità e la preziosa collaborazione che ci hanno fornito.
Nutriamo la convinzione che anche quest’ultimo studio del prof. Rocco Fedele, per il suo contenuto, la profondità dei temi toccati ed il carattere di estrema modernità, non mancherà di suscitare l’interesse e l’apprezzamento degli studiosi ed in tale convinzione ci accingiamo a licenziarlo alle stampe, con la non malcelata soddisfazione di aver compiuto un atto doveroso quanto meritevole.
Argentina Di Sipio Fedele.
 
                      ____________
 
Rocco Fedele appunta la medaglia d’oro della 
Provincia di Ancona alla dott.ssa Maria Montessori.
 
 

 

FILOSOFIA E SCIENZA MODERNA
 
         PRESENTAZIONE
 
 
 
Fu in relazione alla teoria della relatività che venne riconosciuta, per la prima volta, la necessità di un cambiamento dei principi fondamentali della fisica. Si può dire addirittura che attraverso la relatività si manifestò in maniera chiara l’inizio di una rivoluzione della scienza moderna. Proprio nella teoria della relatività e successivamente nella teoria dei quanta hanno avuto luogo i cambiamenti più radicali riguardo al concetto di realtà, ed è nella teoria dei quanta, nella sua forma finale, che si sono concentrate le nuove idee della fisica atomica.
Le norme e la complicatissima attrezzatura sperimentale necessaria alla ricerca della fisica nucleare rivela un altro impressionante aspetto di questa parte della scienza moderna. Ma nei riguardi della fisica sperimentale la fisica nucleare rappresenta l’estrema estensione di un metodo di ricerca che ha determinato lo sviluppo della scienza moderna fin dai tempi di Alessandro Volta. In modo analogo, la scoraggiante complicazione matematica di alcune parti della teoria dei quanta non rappresenta che l’estrema conseguenza dei metodi di Newton e di Maxwell. Ma il mutamento nel concetto di realtà che si manifesta nella teoria dei quanta non è una semplice continuazione del passato scientifico; esso appare come una vera rottura nella struttura storica della scienza in sé.
Il carattere rivoluzionario della nuova teoria della conoscenza appare chiaro, non tanto in riferimento alla scoperta dei principi a priori di Kant, che è già di per sé una scoperta rivoluzionaria che ha aperto un definitivo capitolo nella storia del pensiero, quanto al fatto che essa si caratterizzava sulla necessità di essere a priori.
E’ stato per la prima volta precisato che, ad esempio, la proposizione “il sole sorge ogni mattina” significa che noi non conosciamo, per il passato, alcuna eccezione a questa regola e che ci aspettiamo che continui per il futuro. Ma ora è possibile immaginare eccezioni alla regola. Se tuttavia il giudizio ha un carattere di assoluta necessità, se è impossibile immaginarvi delle eccezioni, esso dev’essere a priori.
 
Venendo ora al raffronto delle dottrine di Kant con la fisica moderna, appare a prima vista che il suo concetto centrale dei giudizi sintetici a priori è stato completamente annientato dalle scoperte del nostro secolo. La teoria della relatività ha mutato le nostre concezioni sullo spazio e sul tempo, ha rivelato, in effetti, aspetti del tutto nuovi dello spazio e del tempo, di cui non si ha traccia delle forme a priori kantiane. La legge di causalità non è più applicata nelle teorie dei quanta e la legge di conservazione della materia non risulta più vera per le particelle elementari.
Questa proposizione, che appare del tutto rivoluzionaria, dà la misura dell’aspetto rivoluzionario delle scoperte della fisica moderna. Per di più, i concetti a priori che Kant considerava una indiscutibile verità, non sono più accolti nel sistema scientifico della fisica attuale.
Essi formano, tuttavia, parte essenziale di questo sistema, in un senso alquanto diverso. Nella discussione della teoria dei quanta è stato messo in rilievo che noi usiamo i concetti classici nel descrivere la nostra attrezzatura sperimentale e, più in generale, nel descrivere quella parte del mondo che non appartiene all’oggetto dell’esperimento.
L’uso di questi concetti, includenti spazio, tempo e causalità, è, in effetti la condizione per osservare gli eventi atomici, in questo senso a priori. Ciò che Kant non aveva previsto era che questi concetti a priori potessero essere le condizioni per la scienza e avere, nello stesso tempo, un’area di limitata applicabilità.
Quando facciamo un esperimento dobbiamo assumere una catena causale di eventi che conduce all’evento atomico attraverso l’apparecchiatura sperimentale fino all’occhio dell’osservatore; se non si ammette questa catena causale, nulla si potrebbe conoscere circa l’evento atomico.
Dobbiamo tuttavia ricordare che la fisica classica e la causalità hanno solo un’area limitata di applicabilità. Questo è stato il paradosso fondamentale della teoria dei quanta che non poteva essere previsto da Kant. La fisica moderna ha trasformato l’affermazione di Kant circa la possibilità di giudizi sintetici a priori, da metafisica in pratica.
I giudizi sintetici a priori hanno, di conseguenza, il carattere di una verità relativa.
 
In questa reinterpretazione l’”a priori” kantiano è connesso indirettamente con l’esperienza, in quanto è stato formato attraverso lo sviluppo della mente umana in un passato remotissimo. Il biologo Lorentz ha una volta confermato il concetto a priori con quelle forme di comportamento che sono chiamate negli animali forme ereditarie o schemi innati. E’ difatti plausibile che, per certi animali primitivi, spazio e tempo siano diversi da ciò che Kant chiama la nostra intuizione pura dello spazio e del tempo. Essa può appartenere soltanto alla specie “uomo”, ma non al mondo come indipendente dall’uomo. La fisica moderna è stata, in questo caso, adottata come esempio per controllare i risultati di alcuni importanti sistemi filosofici del passato.
Ciò che abbiamo appreso specialmente dalla discussione delle filosofie di Cartesio e di Kant, può forse essere espresso nel modo seguente: non ogni concetto o parola che si siano formati nel passato attraverso l’azione reciproca fra il mondo e noi, sono in realtà esattamente definiti rispetto al loro significato; vale a dire, noi non sappiamo fino a qual punto essi possono venire applicati ad un ampio settore dell’esperienza interna od esterna, ovvero non conosciamo praticamente i limiti della loro applicabilità. Questo è vero anche nel caso di concetti più semplici e più generali come “esistenza” e “spazio e tempo”. Perciò non sarà mai possibile, con la pura ragione, pervenire a qualche verità assoluta.
I concetti possono, tuttavia, essere nettamente definiti riguardo ai loro rapporti. Questo è ciò che avviene quando essi divengono parte di un sistema di azione e di definizioni applicabili a un vasto campo d’esperienza. Cosa che ci aiuterà a trovare la nostra strada rispetto a quel campo d’esperienza. Ma i limiti di applicabilità non saranno in generale noti, almeno in modo preciso.
 
Anche se ci siamo resi conto che il significato di un concetto non è mai definito con precisione assoluta, alcuni concetti formano parte integrante dei metodi scientifici, giacché essi rappresentano, per il presente, il risultato finale dello sviluppo e del pensiero umano nel passato, anche nel passato più remoto. Essi, tuttavia, possono anche essere ereditati e sono in ogni caso strumenti indispensabili per compiere opera scientifica ai nostri tempi. In questo senso possono essere considerati praticamente a priori, sebbene ulteriori limitazioni alla loro applicabilità potranno essere scoperte in futuro.
 
Riconsiderando le diverse serie di concetti che sono state formate nel passato e quelle che, verosimilmente, potranno venir formate nel futuro, nel tentativo di aprirci la nostra strada nel mondo per mezzo della scienza, vediamo che esse appaiono in base all’incremento che, nella serie, assume l’elemento soggettivo.
La fisica classica può venir considerata come quella idealizzazione, per cui noi parliamo del mondo come di qualcosa interamente separato da noi stessi. Le prime tre serie corrispondono a questa idealizzazione. Soltanto la prima serie si accorda pienamente con l’”a priori” della filosofia kantiana. Infatti, dato che la prima serie è costretta a salire una linea ben definita, ha perciò un carattere di assoluta necessità ed è impossibile immaginare delle eccezioni, esso deve essere “a priori”, così come stabilisce l’”a priori” kantiano.
Nella quarta serie, quella della teoria dei quanta, l’uomo quale soggetto della scienza viene pienamente chiamato in causa nelle domande che sono rivolte alla natura nei termini a priori della scienza umana. La teoria dei quanta non permette una descrizione pienamente oggettiva della natura. In biologia può essere importante far rilevare che le domande vengono poste dalla specie uomo, che appartiene essa stessa al genere degli organismi viventi, in altre parole che noi già sappiamo che cosa è la vita anche prima di averla scientificamente definita. Non sarebbe forse opportuno speculare sulla possibile struttura delle serie di concetti che non si sono ancora formate.
 
Quando si confronta quest’ordine con le più vecchie classificazioni che appartengono ai primi stadi della scienza naturale, si vede che il mondo è stato ora diviso, non in diversi gruppi di oggetti, ma in diversi gruppi di connessioni.
In un periodo più antico della scienza si distinguevano, ad esempio, come gruppi diversi, minerali, piante, animali, uomini. Tali oggetti venivano assunti, secondo i vari gruppi, come di comportamento da forze diverse. Noi sappiamo ora che si tratta sempre della stessa materia, degli stessi vari componenti chimici che possono appartenere a qualsiasi oggetto, a minerali come ad animali o a piante; anche le forze che agiscono fra le diverse parti della materia sono infine le stesse in ogni genere di oggetti. Ciò che può essere distinto è il tipo di connessione che principalmente importa in un certo fenomeno.
Per esempio, quando parliamo dell’azione di forze chimiche, noi intendiamo indicare un tipo di rapporto più complicato ed in ogni caso diverso da quello espresso nella meccanica newtoniana. Il mondo appare così come un complicato tessuto di eventi, in cui rapporti di diverso tipo si alternano, si sovrappongono e si combinano determinando la struttura del tutto.
 
Quando noi rappresentiamo un gruppo di nessi con un sistema chiuso e coerente di concetti, di assiomi, di definizioni e di leggi, rappresentate a loro volta da uno schema matematico, noi abbiamo isolato ed idealizzato questo gruppo di nessi allo scopo di una chiarificazione. Ma anche se in questo modo viene raggiunta la chiarezza completa, non si sa con quale esattezza la serie di concetti descriva la realtà.
Queste idealizzazioni possono essere considerate come una parte del linguaggio umano che si è formato dall’azione reciproca fra noi e il mondo, una risposta umana alla sfida della natura. Sotto questo rispetto possono essere paragonate ai diversi stili d’arte, per esempio, dell’architettura o della musica.
Uno stile d’arte può anche essere definito con una serie di regole formali applicate al materiale di quell’arte particolare. Può essere che codeste regole non siano rappresentate nel senso stretto del termine da una serie di concetti e di equazioni matematiche, ma i loro elementi fondamentali sono in stretta relazione con gli elementi essenziali della matematica. Eguaglianza ed ineguaglianza, ripetizione e simmetria, certe strutture di gruppo svolgono un ruolo fondamentale sia nell’arte che nella matematica. In genere, è necessario il lavoro di più generazioni per sviluppare quel sistema formale che più tardi è chiamato lo stile dell’arte, dai suoi semplici inizi alla pienezza di forme elaborate che caratterizza il suo stato maturo. L’interesse dell’artista si concentra su codesto processo di cristallizzazione, in cui il materiale artistico assume, attraverso la sua azione, le forme varie che hanno avuto inizio con i primi concetti formali di questo stile.
Dopo il raggiungimento della perfezione, l’interesse deve di nuovo affievolirsi, perché la parola “interesse” significa: essere con qualche cosa, partecipare al suo processo vitale, e qui il processo è pervenuto al suo termine.
Anche qui la questione di fondo, cioè a qual punto le regole formali dello stile rappresentino quella realtà vitale che è manifestazione propria dell’arte che non può esser deciso partendo dalle regole formali. L’arte è sempre una idealizzazione: l’ideale è diverso dalla realtà – almeno dalla realtà delle ombre, come avrebbe detto Platone – ma l’idealizzazione è necessaria per intenderla.
 
Questo confronto fra le diverse serie di concetti della scienza naturale con i diversi stili dell’arte possono essere intesi come prodotti arbitrari dello spirito umano. Sosterrebbe, infatti, il filosofo che, nella scienza naturale, quelle diverse serie di concetti che rappresentano la realtà oggettiva, sono state insegnate a noi dalla natura; in nessun caso possono dirsi arbitrarie, e sono una conseguenza della nostra sempre crescente conoscenza della natura.

[Top]

FILOLAO bibliografia

 

 
La presente bibliografia si limita a lavori editi prima del 1966 e non comprende le opere di storia generale elencate nei precedenti saggi di questa serie,
 
ACRI F.  Dialoghi di Platone volgarizzati da F. Acri. Fedone. Milano. Ed. milanese, 1913.
 
ADKINS A.W.H.  La morale dei greci da Omero ad Aristotele. Bari, Laterza, 1964.
 
ADORNO F.  La filosofia antica. Milano, Feltrinelli, 1962.
 
ALTHEIM F.  Dall’antichità al medioevo.  Firenze, Sansoni, 1961.
 
ANDRISSI G.L.  La storia del Cielo. Roma, 1937.  Su alcuni punti controversi della filosofia antica. Scientia, 72, 1942.
 
ARON R.  Dimension de la Conscience historique. Paris, Plön, 1961.
 
BACHELLIER M.H Les conséquences religieuses dr la guerre du Péloponnése.  Tesi di laurea, Lille, 1964.
 
BADIAN F.  Studies in Greek and Roman History.  Oxford, Blakwell, 1964.
 
BIDEZ J.  La biographie d’Empedocle. Gand, 1894.
 
BILINSKI H.  L’antico oplite corridore di Maratona. Leggende o realtà. Roma, A. Signorelli, 1959.  L’ agonistica sportiva nella Grecia antica: azpetti sociali e ispirazioni letterarie  Accademia polacca di Scienze eLettere. Biblioteca di Roma. c. 12.
 
BLASERNA P.   La teoria del suono nei suoi rapporti con la musica.  Milano, 1875.
 
BODRERO E.   Il principio fondamentale del problema di Empedocle. Roma, 1905.
 
BOECKH A.  De Platonico systemate.calestium globorum et de vera indole astronomiae Philolaocae.  Heidelberg, 1910.  Philolaos  der Pythagoreers Lehren nebst der Brucchstűcken seines Werken.  Berlin, 1919.
 
BONNARD A.  La civiltà greca.  Milano, 1961.
 
BOWEA C.M.   L’ esperienza greca. Milano, Il Saggiatore, 1961.
 
BOYANCE’  P.  Sur la vie Pythagoricienne.  Revue des studes grecques. 52, 1939.
 
BRONOWSKI  J., MAZLISH  B.   La tradizione intellettuale dell’ Occidente.  Milano, Edizioni si Comunità, 1963.
 
BRUGNOLI G.   Recensione de l’Agonistica sportiva nella Grecia antica,  di B. Bilinski. Rivista di cultura classica e medioevale, III, 3, 1961.
 
BURCKHARDT  J.   Fragments historiques. Traduzione in francese di Maurice Chevalier. Genève. Droz, 1965.
 
BURKERT  W,   Weisheit  und wissenschaft studien zu Pythagoras,  Philolaos und Platon.  Nurnberg, 1962.
 
BURNET J.  Early Greek Philosophy.  London, 1914.
 
BURY G.B.   History of Greece.  London, 1952.  Storia della libertà di pensiero. Milano, Feltrinelli, 1959.
 
CANTARELLA  R.    Storia della letteratura greca.  Milano. Nuova Accademia, 1962.
 
CAPPARELLI V.  La sapienza di Pitagora.  Padova, 1944.
 
CARBONARA C,  La filosofia greca. I presocratici. Napoli, Libreria Scientifica Editrice, 1964.
 
CATAUDELLA Q.  Storia della letteratura greca,  Torino, S.E.I., 1959. I frammenti dei presocratici. Padova, CEDAM, 1958.
 
CAVAIGNAC  E.  L’ économie grecque.  Paris, 1951.
 
CHAIGNET A. E.  Pithagore et la philosophie  phythagocienne.  Paris, 1873.
 
CHATELET F.  La naissance de l’ histoire.  Paris, Ed. de Minuit,  1962.
 
CHERNISS H.   Aristotle’s criticism of  Presocratic Philosophy.  Baltimore, 1935.
 
CIACERI  E.   Orfismo e pitagorismo nei loro rapporti politico – sociali. Atti dell’Accademia di Archeologia.  n.s. XII  1932, p.  209  sgg.
 
CORNFORD  F.M.   Mysticisn and Science in the Pythagorean tradition.  Classical Quarterly,  16, 1922.
 
CORSSEN P.  Die Sprengung des pythagorischen Bundes. Philologus. 71, 1912.
 
COVOTTI A.  I Presocratici Saggi.  Napoli, 1934.
 
DELATTE  A.  Essai sur la politique pythagoricienne. Liège, Paris, 1929.
 
DETIENNE M.  Homère, Hèsiode, et Pythagore, Poesie et Philosophie dans le pythagorisme ancien.  Bruxelles, Berchem. Collection Latomus, 1962.
 
DIELS  H.  Doxoprapni graeci. Leipzig. 1897;  Elementum. Leipzig. 1899;  Poetarum philosophorum fragmenta. 1901;  Aristotelica,  Hermes, 40, 1905;   Antike Technik.  Leipzig – Berlin, 1914 – 1920.
 
DODDS  E.  I greci e l’irrazionale. Berkeley 1951. Tras, Ital.  La Nuova Italia, 1959.
 
ENRIQUES DE SANTILLANA  G.  Storia del pensiero scientifico, I. Bologna, 1932.
 
FALQUI  E.  Per una cronistoria dei canti orfici.  Firenze, Vallecchi, 1960.
 
FERRARI  S.  La scuola e la filosofia pitagoriche. Rivista italiana di Filosofia, 5, 1890. I, pp. 53 – 74.
 
FIORE  I.  Le esplorazioni geografiche dei greci.  Firenze, Sansoni, 1960.
 
FRAJESE  A.  Attraverso la storia della matematica. Roma, 1961.
 
FRANK  E.  Plato und die sogenannten Pythagoreer. Halle, 1923.
 
FRITZ  K.  Pythagorean politics in Southern Italy.  New York, 1940.
 
GENTILE  G.  Storia della filosofia dalle origini a Platone. Firenze, Sansoni, 1961.
 
GERNET  G,  VERNANT  J.  L’evolution des idées en Chine et en Grèce , des VI au II siècle avant notre ète. Buletin G. Budé, oct. 1954.
 
GEVAERT  F. A.  Histoire et théorie de la musique de l’Antiquité.  Gand, 1875 – 1881,
 
GIANNELLI  G.  Culti e miti della Magna Grecia. Contributo alla storia più antica delle colonie greche in Occidente. Firenze, Sansoni, 1963.
 
GIGANTE  M.  Diogene Laerzio. Vite dei filosofi. Bari, Laterza, 1962.
 
GOMPERZ  Th.  Pensatori greci.  Storia della filosofia antica.  Firenze, La Nuova Italia, 1962.
 
GROTE  G.  History of Greece.  London, 1888.
 
HEATH  T.L.   History of Greeks mathematics. I.  Oxford, 1921.
 
HEIDEL  W.A.  Notes of Philolaus.  American Journal of Philology.  22, 1911.  The eroic age of Science,  Baltimore, 1933.
 
HUMPHREYS  S.L.  Il commercio in quanto motivo della colonizzazione greca dell’ Italia e della Sicilia.  Rivista storica italiana. vol. LXXVII  2,  1965.
 
JAEGER  W.  la teologis dei primi pensatori greci.  Firenze, La Nuova Italia, 1960.
 
JUNGE  G.  Von Hippasus bis Philolaus. Das Irrationale und die geometrischen Grundbegriffe.  Class. et Med. 1958, pp. 41 – 72.
 
KRANZ  W.  Vorsokratisches.  I. – II. 1934.
 
KUCHARSKY  P.  Etude sur la doctrine pythagoricienne de la Tétrade. Paris, 1932.
 
LALOY  L.  Aristoxène de Tarente disciple d’Aristote et la musique de l’ antiquitè.  Paris, 1904.
 
LASCARIS COMMENO   C.  et  DE GUADAN  A.M.  Contribuciòn a la historia de la difusion del Pitagorismo.  Rev. de Fil. del Instituto  Luis Vives. 15, 1956.
 
LEVY  J. P.   L’ economie antique. Press. Univ. de Fr., 1964.
 
LIRIS M.me  M. E.  née LARDY .   La  société  attique au VI siècle d’ apres des vases à figurines noires. Tesi di laurea, Clermont Ferrand, 1964.
 
LORIA G.  Le scienze esatte nell’antica Grecia.  Milano. 1914.
 
MADDALENA  A,  Sulla cosmologia ionica, da Talete ad Eraclito. Studi.  Padova, CEDAM, 1940.  Pitagorici.  Bari, Laterza, 1854.  Ionici, testimonianze e frammenti.  Firenze, La Nuova Italia, 1863.
 
MARENGHI  G.  Aristotele. Problemi di fonazione e di acustica,  Napoli, Libreria Scient. Ed. 1962.
 
MARTIN  Th.  Hipothèses astronomique de Philolaos. Boll. dibibliograf. e di storia delle Scienze  Nat. Fis.  5, 1872, pp. 127 – 157-
 
MILHAUD  G,  Les philosophes géometrès de la Grèce. Platon st ses predécésséurs.  Paris, 1900.
 
MONDOLFO  R.  Sui frammenti di Filolao.  Riv. Fil. 1937  IX.  La comprensione del soggetto umano nell’antichità classica.  Firenze, La Nuova Italia, 1958.  L’ infinito nel pensiero dell’ antichità classica.  –  Il pensiero antico. – Problemi e metodi di ricerca nella storia della filosofia. –  Momenti del pensiero Greco e Cristiano.  Firenze, Napoli, 1964.
 
MULLACH.  Fragmenta Philosophorum graecorum. Paris, 1880-81.
 
OLIVIERI A.   Osservazioni sulle dottrine di Filolao.  –  Il pitagorico Milone, crotoniate. –  Democede di Crotone. –  Alcmeone di Crotone. – Civiltà greca nell’ Italia meridionale.  Riv. Ind. Ital. 1921. – Napoli, 1931. pp. 81-89; – 99-105; – 107-145.
 
PASQUINELLI  A.   I presocratici. Frammenti e testimonianze.  . I. La filosofia ionica.  Pitagora e l’antico pitagorismo. Senofane, Eraclito, La filosofia eleatica.  Torino, Einaudi. 1962.
 
PETTAZZONI  R.   La religione nella Grecia antica.  Torino,  Einaudi, 1954.
 
PIGHI  G.B.  Aristixeni:  Rhythmoca.  (con traduzioni di G.B. Pighi). Bologna. Patron, 1959.
 
PRATO.  Storia della cultura greca.  Firenze, La Nuova Italia.
 
PRETI  G,  I presocratici.  1942.
 
RIVAUD  A.  Le Système astroninique de Platon.  Rev. d’ Hist. de la Philos.  1928, pp. 1 – 26.
 
ROBIN  A.  Storia del pensiero greco.  Torino, Einaudi, 1951.
 
ROSTAGNI  A.  Pitagora e i pitagorici in Timeo.  Atti  Acc. Sc. Torino, 1914. La vita e l’opera di Pitagora, secondo Timeo.  –  Le vicende della Scuola pitagorica secondo Timeo. Atti  Acc. Sc. Torino, 49.  1914, pp. 373 – 395.  Il verbo di Pitagora.  Torino, 1924.  Classicità e spirito moderno.  Torino, Einaudi, 1939.
 
SCHIAPARELLI  G,   I precursori di Copernico nell’ antichità.  –  Scritti sulla storia dell’astronomia antica.  I. Bologna, 1925.
 
SOLMSEN  F.  A heliocentric interpretation of the Timaeus.  Classical  Weekly 1943-1944, pp. 187 – 188.   Aristotle’s  system in the phisical world, a comparison with his predecessors . New York, Ithaca, 1960.
 
STARR  C.G.   Le origini della civiltà greca.  Eoma, Edizioni dell’ Ateneo, 1964.
 
TANNERY  P.  La geometrir grecque. Paris, 1887.  Sur un fragment de Philolaos.  Archiv  der Gesch. d. Phil.  2, 1889.  pp.  379 – 386.  Du rôle de la musique grecque dans de le développement de la mathématique pure.  Bibliotheca Mathematica. II. 3. 1902.  A propos des fragments philolaiques sur la musique.  Revue de Philolog. 28. 1904, pp. 233 – 249.   Pour lì histoire de la Science Helléne.  Paris, 1930.
 
TIMPANARO- CARDINI M.  Il cosmo di Filolao.  Riv. St. Filos. I. 1946, pp. 322 – 333.   Su alcuni passi controversi di Platone e Aristotele.  La parola del passato, 1955, pp. 20 – 40.
 
UNTERSTEINER  A.  Storia della musica.  Milano, Hoepli, 1910.  Parmenide.  Firenze, la Nuova Italia.
 
WOODHEAD  A, G.   The Greek of the West. London, 1962.
 
ZELLER  E.  Pythagoras und die Pythagorassage.  Leipzig, 1865.  Die Philosophie der Griechen. I. 1.  Lipsia, 1010.
 
ZEPPI.  Studi sulla filosofia presocratica.  Firenze. La Nuova Italia.  
 
[Top]

FILOLAO – Note 4

 

100.  v. note 5, 6.
 
101.  Sesto.  Adv. math.  VII., 126.
 
102.  Sesto.   Adv. math.  VII., 92.
 
103.  Stobeo.  ecl.  I.  proem. coroll.  3, p. 16, 20 W. Passo tradotto dalla Signora Maria Timpanaro Cardini Fil. b 11.
 
104.  Giamblico.  V.P.  266.
 
105.  Proclo.   Eucl. prolog. II. p. 66. 14;  Ptolomeo.  Harm. 1, 13. Si veda : Timpanaro Cardini, opera citata II. pag. 297 sgg.

 

[Top]

FILOLAO – Note 3

 

54.  Aristotele.  Metaph. A 3, 984  a 7;  Simplicio. ln Phys.  p. 23, 33;  Ezio. I. 5, 5;  (T.C. 5  18 a 7).
 
55.  Isocrate.  XV, 268   (T.C. 14 (36) a 6).
 
56,  Aristotele.  Metaph. A 3,  983  b .6;  Simplicio.  Phis.  21, 23  M 1  a 12-13.
 
57.  Simplicio .   Phys.  24, 13;  Galeno.  in Hipp. de hum. I.  1 M (11) b3.
.
58.  Aristotele.  Metaph. A 3  984  a 7:  Simplicio, Phys.  28, 33;  Teofrasro.  Phys. Opin. fr 1 D 475.
 
59.  Ezio. I. 3, 11, passo tradotto da Quintino Cataudella, op. cit. o. 140.
 
60.  Simplicio.  De caelo  615, 13  A
 
61.  Aristotele.  Phys.  T 4, 203 B 6.
 
62.  Augustino.  C. D.  VIII, 2.
 
63.  Diogene L. II, 2.
 
64.  Ezio. III,  5,  10.
 
65.  Schol. Arat. p. 516, 27. M.
 
66.  Teodoreto.  4,  5,   (da Ezio):  Stobeo.  Ecl.  I. 10 12;   Olimpiodoro.   De arte sacra, 24.
 
67.  Simplicio.  Phys.  22, 23;  Ipolito.  Ref.  I. 16.
 
68.  Diogene. IX, 57.
 
69.  Aristotele.  De gen. et con.,  A 6  322  b  12.
 
70.  Ezio.  II. 3,  8;  Seneca.  Nat. quaest.  II. 20.
 
71.  Seneca.  Nat.  quaest.  IV, a 2, 26 sgg.
 
72.   Aristotele.  Metaph.  A 3  784  a  7;  Simplicio.  in Phis. 23, 33;  Ezio I. 5,  5,  ( T.C.  5 (18) A  7).
 
73.  Isocrate XV.,  268.
 
74.  Isocrate. X75V., 268  (T.C.  14 (36) a 6.
 
75.  Ezio.  II., 5, 3.  (T.C. Fil. a 18.
 
76.  Ezio II.,  6, 5, da Teofrasto, Phys. opin.  (T.C.  Fil. a 15).
 
77.  Timpanaro-Cardini. op. cit. II. p. 99, in nota. Aetio  in II, 6, 5  attribuisce a Pitagora la teoria che fa derivare i  quattro elementi da quattro dei corpi solidi, mentre dal quinto, il dodecaedro, si è formata la sfera dell’universo.
 
78.  Timone. (In Gellio III. 17, 4;  Diogene J. III. 9:  Giamblico V, p. 199 (T.C. Fil. a 8.
 
79.  Diogene L. III., 6. (R.C. Fil. a 5).
 
80.  Diodoro.  (in fragm. 554).
 
81.  Giamblico. V. P. 88, 246  (T.C. 5  (18) a 4.
 
82.  A. Maddalena, op. cit. p. 46.
 
83.  Giamblico.  in Nicom.  118,  23.  (T.C. Fil.  a  24).
 
84.  Schol. Plat. Phaed. 108 D  (T.C. 5 (18) a 12).
 
85.  Teone di Smirne. p. 59, 4 Hiller  (T.C.  5 (18) a 13).
 
86.  Boezio.  Inst. mus.  II. 19.
 
87.  T.C. 5 (18) a 14.
 
88.  Boezio.  Inst. mus,  III. 5. (T.C. Fil. a 26).
 
89.  Porfirio.  in Ptolem. V., p. 91;  Proclo. in Tim. p. 189. 18;  (T.C. Fil. a 25,26).
 
90.  Proclo. in Tim. II. p. 189, 18 Dielh. . in riferimento a Platone, Timeo 13  b – d.
 
 91.   Ezio.  II. 20, 12.
 
92.  T.C. a 18. Brano tradotto dalla Signora Maria Timpanaro Cardini.
 
93.   Achille.  Isag. 19.
 
94.  Ezio.  ii. 20. 
 
95.  Erodoto. I.  32.
 
96.  Erodoto.  III.  129.
 
97.  Calcidio.  In Tim.  p. 729
 
98.  Anonimi londinesi.  19, 8.
 
99.  Zeller – Mondolfo.  op. cit.  II, p. 430.
[Top]