centro risorse per la didattica
Risorse per area disciplinare:   
Homepage
La redazione
 
Ricerca
Iscriviti alla news
Le newsletter
 
Attualità
Percorsi
Novità
Recensioni
 
Disabilità
Lavagna Interattiva
 
La tua segnalazione
Il tuo giudizio
 
Cataloghi in rete
 
DIDAweb
 

risorse@didaweb.net
 

  Cerca nel web:
Se sei un utilizzatore della toolbar di Google, puoi aggiungere anche il nostro pulsante:
Centro Risorse
  SCHEDA RISORSA

Condividi questa risorsa didattica
Fisica
Tecnologia
Il rinnovamento scientifico del XX secolo, meccanica quantistica, principio di indeterminazione. LA RIVOLUZIONE RELATIVISTICA E QUANTISTICA

Lingua: Italiana
Destinatari: Alunni scuola media superiore
Tipologia: Ipermedia

Abstract:

LA RIVOLUZIONE RELATIVISTICA E QUANTISTICA NEL DIBATTITO EPISTEMOLOGICO DEL XX SECOLO

  

La crisi della meccanica classica e lo sviluppo della nuova fisica relativistica e quantistica hanno introdotto nel dibattito epistemologico una nuova e complessa generazione di problemi, o anche semplicemente riproposto, sia pure a volte in una nuova prospettiva, tematiche filosofiche che sembravano essere tramontate. I nuovi concetti della fisica del XX secolo non rappresentano solo una sfida al senso comune, ma mettono in discussione le tradizionali soluzioni epistemologiche intorno alla conoscenza umana, alle sue possibilità e ai suoi limiti.

 

Introduzione storica

 

A partire dalla nascita della scienza moderna si è imposto nella cultura occidentale un modello predittivo della conoscenza umana. Intendiamo dire, con questo concetto, che per mezzo di teorie fisiche, espresse per mezzo della matematica, si possono fare previsioni esatte sugli eventi futuri, oltre a spiegare le vere cause dei fenomeni.

La fisica di Newton, o meccanica classica, rappresenta indubbiamente il massimo successo del modello predittivo della scienza moderna. Fin dalla pubblicazione dei Principia (1687), e per i due secoli successivi, le osservazioni e le evidenze sperimentali, in relazione ai più diversi fenomeni astronomici e fisici, confermarono le previsioni rese possibili dalla leggi matematiche della dinamica e della gravitazione universale. Accanto alla fisica Newton poneva, in relazione di mutuo soccorso, la sua metafisica. Egli credeva che il mondo avesse una struttura razionale, perché creato da un Dio saggio e intelligente; per cui l'uomo, combinando il ragionamento matematico con l'analisi sperimentale dei fenomeni empirici, è in grado di scoprire le leggi naturali che ne regolano il funzionamento. Le leggi fisiche sono appunto concepite come regole che la natura deve osservare, perché poste da Dio, e costituiscono dunque le vere cause dei fenomeni.

Tutto ciò non vuol dire che agli occhi di Newton tutto fosse conoscibile dalla scienza: <<hypotheses - aveva scritto - non fingo>>. Il fisico non può conoscere l'origine e la fine del mondo, né può conoscere l'essenza delle cose; può solo sapere come si verificano i fenomeni naturali, senza sapere il perché, cioè il fine delle cose. La gravità, ad esempio, è una forza che agisce a distanza, e in modo istantaneo, su tutte le masse dell'universo secondo una proporzione inversa al quadrato delle distanze. Per il fisico è necessario e sufficiente descrivere come la gravità agisce sui corpi. Sarebbe improprio invece voler conoscere perché esiste la gravità, o tentare di rispondere alla domanda "che cos’è la gravità essenzialmente?". Solo Dio potrebbe saperlo: ma la sua mente è insondabile per l'uomo.

A Newton non sfuggiva la grave difficoltà d'immaginare quale realtà fisica soggiacesse ad un'azione a distanza istantanea, capace di far sentire la sua influenza sulle enormi distanze di un universo infinito. Nonostante ciò egli era un realista: esiste un mondo oggettivo, indipendente dal soggetto e dalla sua peculiare situazione, che può essere efficacemente descritto (con verità) da spiegazioni causali proprie della scienza matematica della natura, induttiva e sperimentale.

Lo scopo fondamentale della fisica classica è spiegare causalmente l'azione delle forze sulle particelle che compongono il cosmo, e descrivere il loro moto reciproco con l'ausilio di equazioni matematiche. Dalle tre leggi della dinamica e dalla legge di gravitazione si ricavano le equazioni del moto, che consentono di prevedere in riferimento alla tre dimensioni dello spazio e al fluire unidimensionale del tempo le traiettorie dei corpi.

Consideriamo due importantissimi concetti della fisica classica, come della filosofia. Il principio di causalità, che assume l'esistenza di un legame tra la causa e l'effetto, è posto a fondamento di ogni ordinamento della natura, e quindi di ogni scienza. Il rapporto tra la causa (antecedente) e l'effetto (conseguente) è fondato sulla convinzione che tutto ciò che esiste, esiste in virtù di una causa, e - in senso forte - che niente potrebbe accadere per caso, senza una ragione. La ricerca delle cause di un fenomeno è dunque lo scopo della filosofia naturale. Le leggi di Newton si presentano come spiegazioni causali dei fenomeni ed hanno una portata universale, poiché valgono per tutte le particelle del cosmo. Nella II Regola della filosofia sperimentale dei Principia di Newton si esprime il principio dell'uniformità della natura, secondo cui le medesime cause producono gli stessi effetti. Le leggi di Newton sono pertanto leggi deterministiche, in quanto ciò che accade è causato da leggi universali e necessarie.

Sulla base delle leggi della dinamica e della gravitazione di Newton si stabiliscono legami deterministici tra i corpi, secondo il principio di una connessione necessaria tra causa ed effetto, esprimibili mediante le equazioni del moto. Se infatti si conoscono tutte le forze che agiscono su un corpo, la sua quantità di moto, la posizione occupata nello spazio e nel tempo allora le equazioni relative ammettono sempre una soluzione: il moto di un corpo è esattamente descritto, per il passato, il presente e il futuro da tali equazioni. Nell'universo newtoniano niente accade per caso, ma tutto è necessario in quanto soggetto alle leggi deterministiche della natura. Il mondo fenomenico, descritto dalle equazioni deterministiche del moto, è conoscibile con certezza, almeno in via di principio.

Possiamo fare un esempio. Date le leggi del moto di Newton, è possibile prevedere con grande precisione il moto che si produrrà dopo che una palla A avrà colpito una palla B su un tavolo da bigliardo. Naturalmente si dovranno conoscere con esattezza anche tutte le condizioni iniziali, le masse dei due corpi, l'attrito del tavolo, e cioè tutte le circostanze (cause) che determinano l'urto e le sue conseguenze (effetti). Poiché il moto è soggetto a leggi deterministiche, se si fosse in possesso di queste esatte nozioni, si potrebbe, ben prima dell'esperimento reale, prevedere esattamente la quantità di moto e la posizione nello spazio delle palle A e B dopo l'urto. Se dunque l'universo soggiace a leggi di natura deterministiche, conoscendo la posizione e la quantità di moto (massa x velocità) di tutte le particelle, e tutte le condizioni iniziali relative, sarebbe possibile dallo stato presente del cosmo prevederne esattamente il futuro.

Per comprendere le nozioni newtoniane di spazio e tempo, fondamentali per le equazioni deterministiche del moto, consideriamo la traiettoria di un corpo in movimento nella meccanica classica. Una particella in moto nello spazio occupa sempre una posizione ben definita, secondo le tre dimensioni costruite sugli assi x, y e z, e pure è ben definita la quantità di moto. In ogni istante di tempo in cui possiamo suddividere la traiettoria della particella, le proprietà del suo stato di moto sono esattamente definibili. Newton sviluppò il calcolo delle flussioni, o analisi infinitesimale, proprio per poter misurare per ogni istante di tempo, per quanto piccolo, il moto di una particella nello spazio. E' necessario perciò considerare, con maggiore profondità, le nozioni newtoniane di spazio e tempo, senza le quali la meccanica classica non potrebbe calcolare il moto.

Le equazioni di Newton descrivono infatti come le masse mutano nel tempo la loro posizione nello spazio. Poiché, come avevano mostrato Galileo e prima ancora Nicola d'Oresme, tutti i moti uniformi sono relativi, e quindi possiamo riferire il moto di un corpo solo relativamente ad un altro corpo, non esiste un esperimento che ci consenta di stabilire se, ad esempio, dati due corpi in moto rettilineo uniforme, uno di questi sia in moto o in quiete, o tutti e due siano in moto o in quiete assolutamente. La fisica di Newton accetta il principio galileiano di relatività per i moti rettilinei uniformi, sicché nel suo universo non possono esistere sistemi di riferimento realmente in quiete (o inerziali). Se poniamo due astronavi in moto una verso l'altra con moto uniforme, nessuno dei due astronauti a bordo potrebbe percepire il proprio movimento, e ciascuno dei due, rispettivamente, considererebbe la sua posizione in quiete e in moto quella dell'altro. D'altra parte nessun strumento di misura meccanico, posto a bordo delle due astronavi, potrebbe rivelarne il moto, cioè potrebbe misurare le loro velocità, indipendentemente da un sistema di riferimento, assolute o relative. Mentre sarebbe misurabile, e percepibile, un cambiamento della quantità di moto, cioè un'accelerazione. Newton, tuttavia, credette di aver trovato il modo per misurare, in via di principio, il moto di un corpo con velocità uniforme. Egli suppose l'esistenza di uno spazio assoluto, vuoto, tridimensionale, invisibile, non modificabile dalle masse e fermo rispetto al loro moto. Era così possibile misurare il moto uniforme di un corpo rispetto a questo spazio assoluto. Lo spazio di Newton è dunque una sostanza estesa all'infinito, una proprietà di questo mondo, indipendente dal moto delle particelle e non influenzato in qualche modo da queste. Ecco la celebre definizione newtoniana dei Principia: <<lo spazio assoluto, per sua natura senza relazione ad alcunché di esterno, rimane sempre uguale e immobile>>.

Ogni corpo occupa nello spazio assoluto una posizione determinata ed unica, e due corpi possono occupare lo stesso spazio, ma solo in tempi diversi. Il tempo misura così la successione e la simultaneità degli eventi nello spazio. E come lo spazio, anche il tempo assoluto di Newton viene concepito in termini matematici: è composto da una seria continua di istanti, disposti in un'unica dimensione. Il tempo è per Newton una realtà fisica, universale e assoluta, non alterabile dai corpi e dal loro moto. Esso fluisce, inesorabile, istante dopo istante, e permette di misurare in modo assoluto il moto dei corpi. Questo concetto di tempo dà un significato fisico alle nozioni di simultaneità e successione, e consente di misurare eventi che hanno luogo in punti distinti dello spazio. Questa è la celebre definizione newtoniana: <<Il tempo assoluto, vero , matematico, in s‚ e per sua natura senza relazione con alcunché di esterno, scorre uniformemente>>.

Il tempo e lo spazio assoluti sono così importanti nell'economia della meccanica classica e della sua metafisica che Newton finirà per pensarli come il "sensorio" di Dio (sensorium dei).

La fisica di Newton risultò, man mano che i suoi principi si applicarono allo studio dei casi empirici, così efficace nella spiegazione e nella previsione dei fenomeni naturali che durante l'età dei Lumi il suo metodo divenne un modello esemplare di conoscenza vera (episteme).

Tuttavia, oltre al vasto consenso, il metodo, la fisica e la metafisica di Newton trovarono degli oppositori. Un critico molto acuto della filosofia sperimentale di Newton fu il vescovo Berkeley nel Trattato sui principi della conoscenza umana (1710). Il suo empirismo radicale (esse est percipi) lo condusse non solo al solipsismo, concezione gnoseologica che nega l'esistenza delle cose al di fuori dell'atto mentale della percezione, ma a profonde analisi critiche del calcolo infinitesimale, delle nozioni di moto, spazio e tempo assoluti della meccanica classica.

Un altro avversario di Newton, Leibniz, credeva che i concetti di spazio e tempo assoluti fossero inintelleggibili da un punto di vista logico e metafisico, e indifendibili da quello strettamente fisico. Dal suo punto di vista lo spazio e il tempo non sono sostanze o proprietà della natura, ma sono piuttosto idee o nozioni, per quanto confuse, della nostra mente.

E' necessario ricordare l'analisi fatta da Hume, nel Trattato sulla natura umana (1735), e condotta sulla base dell'assunto empiristico che tutta la conoscenza umana deriva dalle sensazioni, di alcune nozioni chiave del metodo newtoniano. Benché Hume stesso si ritenesse un seguace di Newton, e anzi volesse estendere il metodo induttivo e sperimentale, rivelatosi così fecondo in fisica, allo studio della natura umana, la sua analisi risultò piuttosto corrosiva nei confronti del determinismo causale e dell'idea, ad esso connessa, di una conoscenza induttiva certa dei fenomeni naturali.

Hume assumeva inoltre un deciso atteggiamento antimetafisico. Infatti se i concetti fondamentali della scienza sono costruiti a partire dalle sensazioni, è impossibile assegnare ad essi un significato assoluto, valevole oltre l'esperienza. Ciò è vero sia per le sensazioni sia per le idee astratte della meccanica, come spazio, tempo e moto. Queste idee hanno fatto di Hume uno dei più influenti precursori del positivismo.

Kant condivise l'atteggiamento antimetafisico di Hume e pensava, con gli Illuministi, che la fisica matematica di Newton fosse l'unica conoscenza vera raggiungibile dall'uomo. Ma pensava anche che siffatta conoscenza fosse possibile solo grazie alle forme della mente umana, che sono date a priori. L'oggetto della scienza, per divenire da cosa in sé a cosa per noi, deve conformarsi a tali forme a priori del soggetto. Questa concezione, detta idealismo trascendentale, pone un momento reale ed uno ideale nel processo di costituzione della conoscenza oggettiva, e per tale via l'intelletto umano è il legislatore della natura.

Il tempo è definito da Kant come un concetto intuitivo che consente di collocare gli oggetti dell'esperienza secondo un ordine di simultaneità e di successione; e questo concetto si presenta come una grandezza infinita da cui possiamo ritagliare parti più piccole. <<L'infinità del tempo non significa se non che tutte le quantità determinate di tempo sono possibili solo come limitazioni di un tempo unico, che stia a loro fondamento>>. Solo presupponendo un siffatto concetto di tempo <<è possibile rappresentarsi che qualcosa sia nello stesso tempo (simultaneamente) o in tempi diversi (successivamente)>>. E' questo un concetto di tempo di tipo matematico, che fonda la possibilità di costruire giudizi sintetici a priori in aritmetica, simile a quello che troviamo nella fisica di Newton. Con una sola, ma grande differenza: il tempo inteso come una grandezza infinita non è una proprietà delle cose, una sostanza del mondo, è invece una forma a priori della sensibilità umana, una struttura della mente per mezzo della quale intuiamo gli oggetti empirici secondo un ordine di simultaneità e di successione.

Anche lo spazio è, secondo Kant, una forma a priori della nostra sensibilità. Questo concetto intuitivo è definito in termini matematici, in accordo con la fisica di Newton, <<come una grandezza infinita data>> in cui rappresentiamo, fuori di noi, gli oggetti della nostra esperienza, ma non può essere considerato una sostanza o proprietà del mondo. Questo concetto di spazio fonda la possibilità di costruire i giudizi sintetici a priori della geometria tridimensionale euclidea.

La nostra mente è inoltre dotata di concetti intellettuali, o categorie a priori, per mezzo dei quali ordiniamo la nostra esperienza sensibile. Il principio fondamentale della scienza della natura <<tutto ciò che accade ha la sua causa>>, esprimibile come il principio di causalità, è un giudizio sintetico a priori prodotto dal nostro intelletto. Il principio della connessione necessaria della causa con l'effetto non è, come pensavano Hume e gli empiristi, un'idea formata nella mente per abitudine dalla continua esperienza dei fenomeni. Infatti, secondo Kant, prima ancora che ci sia dato un oggetto, è presente nella nostra mente come concetto a priori il nesso di causa, senza il quale la stessa esperienza non sarebbe possibile. Così in ogni legge di natura saranno presenti dei nessi causali, in quanto il principio di causalità è condizione necessaria, o trascendentale, per poter pensare gli oggetti d'esperienza. E' il nostro intelletto a pensare l'oggetto empirico secondo il principio universale di causalità, e in tal modo Kant dà un sostegno al determinismo della fisica classica, e per contro risponde allo scetticismo di Hume: non potrebbe mai darsi alla nostra esperienza un post hoc prima di un propter hoc.

Alla base del grandioso edificio della fisica classica troviamo, secondo Kant, dei principi sintetici a priori, estensivi della conoscenza e dal carattere necessario, che sono il sigillo della vera scienza. L'idealismo trascendentale fu oggetto di critiche da parte del positivismo ottocentesco, fecondato dall'evoluzionismo darwiniano. Dal punto di vista evoluzionistico, infatti, la conoscenza umana appare soggetta ad un processo di adattamento all'ambiente naturale.

Consideriamo in breve la posizione di Ernst Mach, fisico, storico e filosofo della scienza tra i più influenti nell'età della crisi della fisica classica. La riflessione epistemologica di Mach si svolge a partire dalla distinzione fra soggetto e oggetto propria dell'idealismo. Tuttavia il dualismo cognitivo che contrappone il fatto fisico all'evento psichico, letto alla luce dell'evoluzionismo darwiniano, non può più essere sostenuto. Scrive Mach che <<in un sereno giorno d'estate all'aperto il mondo insieme al mio io mi apparve come una quantità di sensazioni compatta>>. Poiché la conoscenza è un processo di adattamento all'ambiente le sensazioni, così come i più complessi concetti della fisica, sono il risultato di una indissolubile unità dell'elemento fisico e psichico, ed hanno valore esclusivamente empirico, soggetto al principio di economia del pensiero. Nella sua Mechanik (1883) Mach respinse l'approccio metafisico, ma anche gli aspetti della fisica di Newton che valicavano i confini di quella esperienza pura che aveva teorizzato. Le nozioni di spazio e tempo assoluto non hanno alcun significato e sono inutili per la scienza.

 

 

La crisi della meccanica classica e la relatività di Einstein

 

Le prime gravi difficoltà della meccanica di Newton si manifestarono a partire dalla seconda metà dell'Ottocento, con la comparsa della teoria elettromagnetica e della termodinamica.

La fisica di Newton, con la sua la forza di gravità che agisce a distanza istantaneamente, sembrava incompatibile con la nuova teoria di Faraday e Maxwell, che descriveva l'azione esercitata dalle forze elettromagnetiche sul moto delle cariche elettriche. La teoria prediceva l'esistenza di onde elettromagnetiche, che sostituiscono le particelle puntiformi della meccanica, che si propagano nello spazio, non più concepito in termini newtoniani (assolutamente vuoto e insensibile all'azione delle forze), ma pensato come una specie di fluido, per quanto invisibile, detto etere. La velocità di trasmissione delle forze, cioè di propagazione delle onde elettromagnetiche nell'etere, era stata predetta dalla teoria con un valore di circa 300.000 km/s. Poiché vari esperimenti precedenti avevano stabilito la velocità della luce nel vuoto proprio con un valore di circa 300.000 Km/s, si comprese che la luce visibile era composta di onde elettromagnetiche, generate dal moto di particelle elettricamente cariche, che si propagano nello spazio come vibrazioni del mezzo etereo, o moto ondulatorio. La teoria prevedeva l'esistenza di altri tipi di onde elettromagnetiche, poi effettivamente scoperte: le onde radio. Tutte le onde elettromagnetiche si propagano alla stessa velocità, che dipende dalla frequenza e dalla lunghezza d'onda.

Il Secondo Principio della termodinamica conteneva una concezione del tempo che implicava processi fisici irreversibili. Questi processi sembravano incompatibili sia con la teoria di Newton che con quella di Maxwell. Per la meccanica classica il tempo ha una sola dimensione, ma non ha una direzione privilegiata. La successione degli eventi, misurata dal fluire del tempo, può scorrere indifferentemente verso il futuro o verso il passato.

Per contro il Secondo Principio afferma che in ogni sistema energetico chiuso ci sarà un aumento di entropia, passaggio dall'ordine al disordine, fino al raggiungimento dell'equilibrio termico. Secondo la teoria termodinamica dunque il tempo è asimmetrico, scorre in una direzione privilegiata e misura processi irreversibili.

Neppure la teoria del campo elettromagnetico di Maxwell appariva compatibile coi processi irreversibili della termodinamica. Infatti non si riusciva a comprendere la ragione del fatto che, se è vero il Secondo Principio, la materia non ceda tutta la sua energia all'etere (sotto forma di calore) per mezzo di onde elettromagnetiche. Il tentativo di superare questo conflitto tra la termodinamica e l'elettromagnetismo ha prodotto la rivoluzionaria teoria della meccanica quantistica.

La rivoluzione relativistica fu invece il prodotto del sempre più evidente contrasto tra la descrizione del moto delle particelle elettricamente cariche nei campi di Maxwell e la descrizione del moto secondo le leggi della meccanica di Newton. La fisica classica conteneva il principio della relatività del moto, ed anche la nozione di un moto assoluto, intesa come possibilità - mai sperimentalmente verificata - di poter misurare il moto uniforme di un corpo rispetto allo spazio e al tempo assoluti. Per la teoria elettromagnetica il campo elettrico genera un moto di attrazione e di repulsione delle cariche, cioè un flusso di cariche (quelle dello stesso segno si respingono, quelle di segno diverso si attraggono) detto corrente elettrica. Una corrente elettrica induce un campo magnetico. Ora se applichiamo il principio della relatività del moto ai fenomeni elettromagnetici, dovremmo notare che la velocità delle cariche elettriche dipende dal sistema di riferimento dell'osservatore. Dato un certo sistema di riferimento l'osservatore vedrà la carica in moto, dato un altro la vedrà in quiete. Il primo osservatore constaterà allora l'esistenza di un certo fenomeno, cioè la formazione di un campo magnetico; il secondo osservatore non vedrà nulla.

Per quanto con la teoria elettromagnetica di Maxwell fosse possibile operare trasformazioni matematiche, grazie soprattutto al lavoro di Lorentz, tra un sistema di riferimento e un altro, queste trasformazioni non erano compatibili con le leggi del moto di Newton. Infatti una qualunque onda elettromagnetica viaggia alla velocità della luce di 300.000 Km/s, velocità che rimane costante come tutti gli esperimenti avevano confermato. Ora se questa velocità rimane costante per qualunque sistema di riferimento, comunque trasformato, allora c'è evidente violazione del principio di Galileo e di Newton della relatività del moto uniforme.

Se questi sono i fatti, sarà vera la teoria elettromagnetica di Maxwell, col suo principio della costanza della velocità della luce, o sarà vera la meccanica classica di Newton, col suo principio della relatività del moto?

Se fosse vero il principio di relatività classica, la velocità della luce dovrebbe variare in relazione al sistema di riferimento dell'osservatore. Eppure l'astronomo olandese De Sitter, osservando l'emissione elettromagnetica delle stelle doppie, aveva dimostrato che la velocità della luce non dipende dalla velocità della sorgente. Sembrava un colpo mortale per il principio di relatività classica. La meccanica classica si trasforma da un sistema di riferimento ad un altro mediante il teorema di addizione W = v + w. Supponiamo che un vagone ferroviario viaggi sulle rotaie con velocità uniforme v, che un passeggero corra, nella stessa direzione di marcia del treno, all'interno del vagone stesso con velocità uniforme w. Ora rispetto ad un osservatore immobile rispetto alla banchina della stazione quale sarà la velocità W del passeggero in corsa sul treno? La velocità W sarà data dalla somma di v + w. Rispetto all'osservatore infatti il passeggero ha il suo moto proprio, più il moto del vagone sul quale poggia i piedi.

Se il principio di relatività del moto uniforme fosse vero la velocità della luce dovrebbe variare al variare del moto dell'osservatore, cioè rispetto al suo sistema di riferimento. Per il teorema di addizione infatti un'onda elettromagnetica, come la luce, la cui sorgente fosse posta su un vagone ferroviario con moto uniforme v, dovrebbe viaggiare rispetto ad un osservatore immobile sulla banchina della stazione con la velocità W = c + v. La velocità sarebbe superiore alla velocità della luce c (300.000 Km/s), e ciò violerebbe una legge di natura: ecco una palese contraddizione tra due leggi di natura, il principio della relatività galileiano e il principio della costanza della velocità della luce. Infatti la velocità della luce per un osservatore seduto all'interno del vagone sarà di 300.000 km/s, mentre, come dimostrato, per l'osservatore posto sulla banchina dovrebbe essere superiore (se l'impulso viaggiasse in direzione contraria al moto del vagone per l'osservatore sulla banchina la velocità della luce sarebbe minore di 300.000 km/s). Dunque rispetto ad un sistema di riferimento la velocità della luce avrà un certo valore, rispetto ad un altro sistema di riferimento avrà un altro valore ancora. Tuttavia le leggi di natura dovrebbero essere valide, per esser tali, per tutti i sistemi di riferimento: in questo caso la legge di propagazione della luce nel vuoto, violando di conseguenza il principio di relatività del moto uniforme (che pure è un'altra legge universale di natura), dovrebbe essere uguale per tutti gli osservatori.

Alla fine dell'Ottocento fu possibile mettere a punto un esperimento per misurare il moto della Terra rispetto allo spazio assoluto e al tempo assoluto. Fino a quel momento nessuno era riuscito a congegnare un esperimento meccanico per misurare la velocità assoluta della Terra. Si poteva misurare solo il moto relativo rispetto al Sole, ai pianeti, e altri corpi celesti. Ma la nuova teoria elettromagnetica del campo consentiva di dare un senso all'idea di un moto assoluto nello spazio. La teoria prevedeva infatti l'esistenza di un fluido nello spazio, detto etere, e il suo principio della costanza della velocità della luce sembrava violare il principio della relatività del moto. La velocità assoluta della Terra si poteva misurare inviando nello spazio etereo segnali luminosi.

Nel 1887 due fisici americani, Michelson e Morley, effettuarono l'esperimento, poi ripetuto nel 1904 da Morley e Miller. I risultati furono negativi. Non era possibile misurare il moto assoluto della Terra rispetto all'etere per mezzo di onde elettromagnetiche come la luce. Era un risultato clamoroso! In primo luogo era evidente che l'etere di Maxwell non esisteva. In secondo luogo, a meno di credere che la Terra fosse ferma nello spazio - e ciò era ritenuto assurdo 300 anni dopo Keplero e Galileo -, il risultato sperimentale metteva in evidenza l'esistenza di gravi errori nelle stesse basi della fisica classica. Un errore poteva scaturire dall'apparente contraddizione tra il principio della relatività del moto e il principio della propagazione della luce.

Sarà la rivoluzione relativistica di Einstein a permetterci di capire perché l'esperimento di Michelson e Morley era fallito. Nel 1905, quando come fisico lavorava all'Ufficio brevetti di Berna, Einstein trovò la soluzione. Dimostrò che si poteva salvare sia il principio della relatività del moto, sia il principio della costanza della velocità della luce a patto di rinunciare a ciò che si riteneva immutabile: lo spazio e il tempo assoluti.

Einstein dimostrò la relatività della simultaneità, cioè del tempo, con un argomento deduttivo, un esperimento ideale. Collochiamo una sorgente di luce esattamente al centro di un vagone ferroviario, predisposta in modo da emettere due impulsi nel medesimo tempo, uno verso la testa e uno verso la coda del treno. Il passeggero A, seduto al centro del vagone nella stessa posizione della sorgente, lascia partire contemporaneamente i due impulsi di luce in direzione opposta mentre, con moto uniforme, il treno attraversa la stazione. Sulla banchina è in attesa, nel punto B, un osservatore. I due raggi di luce iniziano la corsa verso le due estremità del vagone esattamente quando il centro del vagone, e il passeggero A con la sorgente di luce, passa davanti all'osservatore B. Sia il passeggero A che l'osservatore B hanno la funzione di misurare il tempo impiegato dai due raggi per raggiungere le due estremità del vagone. Il passeggero A vedrà che i due raggi raggiungeranno le estremità del vagone nello stesso tempo (simultaneamente), perché percorrono lo stesso spazio con la medesima velocità di 300.000 Km/s. L'osservatore B vedrà un altro fenomeno. Infatti i due impulsi viaggiano in direzione opposta alla stessa velocità di 300.000 Km/s, tuttavia il suo sistema di riferimento non è come nel primo caso costituito dal treno in moto uniforme, ma dalla banchina della stazione. L'osservatore B è dunque in quiete rispetto al treno, e allora misurerà come un raggio arrivi prima dell'altro alle due estremità del vagone. Infatti se il treno si muove rispetto all'osservatore B da sinistra verso destra, allora l'impulso di sinistra - pur procedendo con la stessa velocità di quello di destra - percorrerà rispetto a B meno spazio. D'altra parte l'impulso di sinistra dovrà percorrere più spazio. Poiché l'impulso di sinistra percorre uno spazio minore arriverà prima dell'impulso di destra. In tal modo è evidente che i due osservatori, con due diversi sistemi di riferimento, non potranno vedere l'evento nello stesso tempo. Ciò che per uno di loro (A) è simultaneo, per l'altro (B) è successivo. Dunque il tempo cambia a seconda dell'osservatore.

Sarebbe inesatto supporre che il passeggero A veda correttamente il fenomeno, mentre l'osservatore B si stia ingannando o sogni. Entrambi hanno ragione: la relatività einsteiniana dimostra appunto che non esistono sistemi di riferimento privilegiati. Per usare le parole dello stesso Einstein diciamo che <<gli eventi che sono simultanei rispetto alla banchina non sono simultanei rispetto al treno e viceversa (relatività della simultaneità); ogni corpo di riferimento (sistema di coordinate) ha il suo proprio tempo particolare: un'attribuzione di tempo è fornita di significato solo quando ci venga detto a quale corpo di riferimento tale attribuzione si riferisce>>. Con il suo esperimento mentale Einstein dimostrò che non esiste affatto contraddizione tra il principio della relatività del moto e la legge di propagazione della luce, purché si renda relativo il fluire del tempo. Questo fluire del tempo aumenta o decresce, accelera o rallenta a seconda del sistema di riferimento dell'osservatore, e della sua velocità relativa.

Un analogo ragionamento si può fare per lo spazio, che si allunga e si accorcia, si estende o si contrae secondo il sistema di riferimento dell'osservatore, e la sua velocità relativa. Supponiamo infatti che il passeggero A misuri, col suo metro, a partire dal centro la distanza fra questo e rispettivamente le due estremità del vagone. Poiché il passeggero è a bordo di un treno in moto uniforme la misura Aq e Ap risulterà esattamente uguale. Ora se i due segmenti Aq e Ap vengono misurati dalla banchina, rispetto alla quale si muovono di moto uniforme, e dove è in quiete l'osservatore B, si otterrà lo stesso risultato? Per effettuare questa misura sarebbe necessario determinare i punti q' e p' proiettati sulla banchina, mentre il treno sta passando. Questa misura deve essere fatta in un determinato tempo t, esattamente quando lungo la banchina passano i punti q e p segnati sul vagone. Ora il tempo dell'evento t è stabilito dalla lettura delle posizioni delle lancette di un orologio posto in vicinanza dell'evento. Ma il tempo è relativo al sistema di riferimento, e quindi l'evento t misurato sul treno sarà diverso da quello misurato sulla banchina. Se è così allora la lunghezza del segmento Aq e Ap può essere differente se misurata dal treno o dalla banchina. Einstein connetteva così in un'unica situazione sperimentale lo spazio e il tempo.

Per riassumere possiamo affermare che Einstein dimostrò che la meccanica classica si basava su due assunti errati: 1) che la misura del tempo fra gli eventi fosse indipendente dal moto dell'osservatore; 2) che la misura dello spazio fra due punti di un sistema di riferimento fosse indipendente dal moto dell'osservatore. Se si lasciano cadere questi due assunti, le contraddizioni fra il principio di relatività galileiana e il principio della costanza della velocità della luce scompaiono, perché non varrebbe più il teorema d'addizione. In tal modo Einstein estese la validità del principio di relatività della meccanica classica (corpi rigidi) ai fenomeni elettromagnetici. Grazie alle regole di trasformazione della sua teoria era possibile trasformare un sistema di riferimento in un altro senza violare la legge di propagazione della luce, la cui velocità c non varia per nessun evento dell'universo. Le leggi di natura sono invarianti e valgono per tutti gli osservatori dell'universo, mentre lo spazio e il tempo dei fenomeni sono relativi al moto (sistema di riferimento) in cui si trova un determinato osservatore. Ne consegue che occorre rivedere profondamente le leggi della dinamica di Newton: queste in senso forte non possono più essere considerate descrizioni vere dei fenomeni naturali. La nuova teoria che sostituisce la dinamica di Newton sarà chiamata teoria della relatività speciale, o ristretta.

Se il moto è relativo, la velocità della luce sembrerebbe dover variare a seconda del moto dell'osservatore. Tuttavia sappiamo dall'elettromagnetismo e dall'esperienza che la propagazione della luce è costante. Non rimane dunque che considerare lo spazio e il tempo come variabili di ogni sistema di riferimento. Infatti la velocità della luce (velocità = quantità di spazio percorsa nell'unità di tempo) può essere considerata costante nei diversi sistemi di riferimento solo se lo spazio e il tempo variano a seconda del moto relativo degli osservatori.

Si potrebbe pensare a questo punto che la relatività metta in crisi il principio di causalità. Ma non è così. Questo principio rimane valido, è parte delle leggi d'invarianza della relatività speciale. Apparentemente potrebbe verificarsi che, se un evento A è causa dell'effetto B, un osservatore in moto abbia una tale velocità da vedere prima l'effetto B che la causa A. Questo osservatore invertirebbe il nesso causale, e in tal caso dovremmo concludere che il principio di causalità non è valido. Ma le leggi relativistiche proibiscono che si possa mai verificare un caso siffatto: nessuna informazione può viaggiare più velocemente della luce, così vedremo sempre prima le cause e poi gli effetti. Per questo possiamo dire che la relatività di Einstein rimane una teoria classica: è deterministica e usa il principio di causalità.

Nel pensare lo spazio e il tempo come relativi, Einstein mostrava di aver appreso la lezione del positivismo machiano. Poteva fare a meno del moto assoluto, perché questo concetto non ha alcun significato sperimentale (o euristico) nell'ambito di una scienza costruita sulla base del principio di economia. Se il giovane Einstein era in debito verso il positivismo machiano, nella sua epistemologia non mancava una venatura di realismo. Infatti egli non accettava le finzioni della fisica classica; non ammetteva ad esempio la realtà fisica dei sistemi di riferimento inerziali. Einstein si domandava, a differenza di Newton, che cosa sia la gravità o perché ci sia equivalenza tra carica gravitazionale e massa inerziale.

Proprio il realismo può aver condotto Einstein a non credere più all'azione a distanza della gravitazione newtoniana. Se è vera la teoria della relatività speciale, col suo principio della costanza della velocità della luce, allora questa è incompatibile con la forza di gravità di Newton che agisce istantaneamente a distanze infinite. Egli lavorò al problema per diversi anni, nel 1915 aveva in mano la soluzione: la teoria della relatività generale. I princìpi della relatività speciale venivano estesi ai moti accelerati, mentre in origine si riferivano ai soli moti uniformi (che rappresentano sempre delle idealizzazioni). Poiché tutte le masse sono soggette alla forza di gravità, e quindi sono accelerate (non sono mai realmente in moto uniforme, o inerziale), le leggi relativistiche vengono fatte valere per l'intero universo.

Per Einstein la forza di gravità di Newton non esiste, le masse non si muovono perché attratte dalla forza di gravità, piuttosto si muovono in un campo gravitazionale, simile al campo elettrico. Le masse si attraggono perché curvano lo spazio-tempo, e seguono così il percorso più breve, la geodetica. Il fluire del tempo è determinato dalla massa (e quindi dall'energia), così come lo spazio viene deformato dalla massa (energia): maggiore è la massa, più lo spazio è deformato e più rallenta il fluire del tempo. La relatività ristretta metteva in discussione la natura intuitiva del concetto di tempo. Ora la stessa sorte toccava all'idea intuitiva dello spazio tridimensionale euclideo. Lo spazio di Newton veniva infatti sostituito con una nuova geometria dello spazio, un continuo spazio-temporale a quattro dimensioni. La geometria del cosmo è non-euclidea. Così Einstein dava un significato fisico alla geometria di Riemann, e poneva fine alle discussioni sui fondamenti della geometria euclidea e alle dispute epistemologiche sul carattere convenzionale della conoscenza umana, tenute tra la fine dell'Ottocento e l'inizio del Novecento.

 

 

La rivoluzione quantistica, l’indeterminismo e la natura della realtà.

 

La teoria einsteiniana della relatività, per quanto lontana dal senso comune e per quanto avesse messo in discussione i concetti fondamentali della meccanica di Newton, è ancora una teoria classica a causa del suo determinismo. Ed è ancora una teoria realistica, in quanto considera le leggi di natura indipendenti dall'osservatore. All'inizio del Novecento prese avvio una nuova prospettiva di ricerca, oltre a quella relativistica, che si concluse con l'edificazione della teoria quantistica della materia. Questa teoria distrusse completamente l'edificio della fisica classica, e sostituì il determinismo con l'indeterminismo, la spiegazione causale con la spiegazione probabilistica, e introdusse l'osservatore come soggetto non meramente passivo nelle leggi della fisica.

Era sempre più evidente, all'inizio del nostro secolo, l'incongruenza tra la termodinamica e la nuova teoria atomica della materia. Il Secondo Principio della termodinamica implicava la necessità per un qualunque corpo di raggiungere un equilibrio termico con l'ambiente. E un corpo caldo perde il suo calore (energia) disperdendolo nell'ambiente. In generale l'assorbimento o la dispersione del calore da parte di un corpo veniva spiegato nei termini della teoria del campo di Maxwell. Poiché il campo ha natura continua, l'assorbimento o l'emissione di energia (calore) da parte di un corpo è un processo che dovrebbe manifestare una gradualità infinita. Tuttavia i tentativi di descrivere come un corpo ideale - perfettamente assorbente e detto corpo nero - acquisti o perda energia, secondo i principi della termodinamica e dell'elettromagnetismo, fallirono. Anzi erano andati incontro ad un esito assurdo: se attraverso un campo continuo c'è emissione di energia allora tale perdita sarà illimitata. Dagli atomi dovrebbe fluire una quantità infinita di energia nel campo di radiazione, risultato assurdo e contraddetto dall'esperienza.

Nell'anno 1900 Max Planck, fisico tedesco, introdusse una prima soluzione del problema: era l'inizio dell'età dei quanti. Planck dimostrò che lo scambio energetico tra materia e radiazione avviene in modo discreto, e non in modo continuo come si era fino ad allora supposto. L'energia viene assorbita o irradiata secondo quantità definite, e i loro multipli esatti, dette quanta. L'energia di un quantum dipende dalla frequenza (v) e da una costante (h), poi detta di Planck (E=hv).

Nel 1905 Einstein pubblicò uno studio sull'effetto fotoelettrico - cioè la proprietà che ha una superficie metallica di emettere elettroni quando viene colpita dalla luce - dopo aver compreso un aspetto importante della materia, legato al quanto di Planck. L'effetto fotoelettrico non poteva essere spiegato nei termini della fisica classica, né dell'elettromagnetismo. Einstein utilizzò il quanto di Planck per spiegare questo fenomeno: suppose che la luce non fosse costituita, come pensava Maxwell, da un'onda elettromagnetica che si propaga nel campo, un campo continuo, ma che fosse piuttosto un'entità quantizzata, cioè discreta o particellare, che chiamò fotone. Secondo la fisica classica la luce raggiunge gli atomi del metallo e ne distacca gli elettroni. Poiché la luce era concepita come un'onda si supponeva che l'energia degli elettroni liberati nell'effetto fotoelettrico dipendesse dall'intensità della forza della luce incidente. Per Einstein era evidente invece che l'emissione di energia dipende dalla frequenza della luce incidente sulla lastra metallica. Infatti per la teoria di Planck l'energia è determinata direttamente dalla frequenza, per cui aumentando la frequenza cresce anche l'energia degli elettroni. La luce non poteva essere intesa come un'onda continua di energia, ma come una corrente discontinua. La luce non è un'onda, ma una particella.

Dal tempo della scoperta di Thomson (1897) degli elettroni si credeva che l'atomo fosse una sostanza diffusa nello spazio, capace di contenere queste particelle con carica negativa al suo interno. E' il modello atomico della torta (plum-pudding). Nel 1911 Rutherford, dopo aver studiato lo scattering delle particelle alfa, propose un nuovo modello atomico, quello del sistema solare. Se la massa con carica fosse diffusa nello spazio, come supponeva il precedente modello, le particelle alfa avrebbero di ben poco deviato la loro traiettoria, dopo l'urto con l'atomo. Senonché l'evidenza sperimentale aveva dimostrato che, quando con le particelle alfa si bombardano gli atomi, queste spesso rimbalzano, come se quasi tutta la carica fosse concentrata in un punto. Egli propose perciò di considerare la carica positiva come il nucleo dell'atomo e l'elettrone con carica negativa come un suo satellite orbitale.

Questo modello atomico poneva però un problema insolubile per la fisica classica, e la precipitava verso la crisi finale. Se un elettrone gira intorno al suo nucleo, come la Terra gira intorno al Sole, dovrebbe subire, per la meccanica classica, una costante accelerazione. Inoltre, sempre per le leggi della fisica classica, l'elettrone, mentre gira attorno al nucleo, dovrebbe emettere radiazione, cioè energia, secondo una frequenza eguale a quella orbitale. Ma se perde energia, l'orbita dell'elettrone si avvicinerà progressivamente al nucleo. E tale instabilità non avrebbe fine se non quando ci sarà il collasso dell'elettrone nel nucleo. Questo però non accade mai.

Nel 1913 un giovane fisico danese, Niels Bohr, provò, alla luce della teoria dei quanti di Planck ed Einstein, a spiegare perché il collasso non si verificava. Bohr quantizzò l'orbita circolare dell'elettrone: la costante h di Planck misura la quantità angolare del moto orbitale. Il momento angolare è costituito da unità discrete, i quanti, e i loro multipli esatti (secondo la formula h/2 P greco). In sostanza il modello atomico di Bohr supponeva che un elettrone occupasse un'orbita il cui momento angolare aveva sempre valori discreti, e ogni altra orbita che potenzialmente poteva essere occupata dall'elettrone aveva un momento angolare che era sempre un multiplo esatto del precedente. Ogni elettrone ha uno stato fondamentale, corrispondente al quanto minimo di energia, e ciò spiega perché non cade mai nel nucleo, e se viene eccitato salta da un'orbita ad un'altra emettendo o assorbendo un fotone. Bohr descrisse con la sua teoria lo stato quantico dell'atomo più semplice, quello dell'idrogeno (E1-E2=hv). L'elettrone ruota intorno al nucleo secondo livelli determinati di energia, quindi l'orbita denota lo stato energetico dell'atomo. C'è uno stato di energia minimo oltre il quale l'elettrone non può cadere, e livelli energetici più elevati. L'elettrone emette o assorbe energia solo quando salta da un livello all'altro. Quando un elettrone salta da un'orbita più interna ad una più esterna assorbe un quanto di energia, cioè un fotone. Quando cade da un'orbita più esterna ad una più interna perde energia, ovvero emette un fotone. Tutto ciò è possibile perché le orbite dell'elettrone hanno sempre valori prefissati e discreti, non continui, e anche l'assorbimento o l'emissione di un fotone, o quanto di energia, avviene secondo valori così definiti. Con questa teoria Bohr riusciva a spiegare il mistero della discontinuità dello spettro della radiazione atomica (righe spettrali).

Nel 1923 il francese de Broglie, nella sua tesi di laurea, propose un modello matematico che descriveva un campo di radiazione elettromagnetica quantizzato. Ciò significa che le particelle, come gli elettroni, possono essere descritte come onde e la radiazione come particelle, cioè come unità discrete di energia (i calcoli di de Broglie permisero la scoperta della diffrazione ai raggi X). Così gli atomi e i loro componenti come l'elettrone, fino ad allora descritti in termini classici, cioè puntiformi come pianeti in orbita intorno al Sole, acquistarono una ben diversa connotazione. Tramontava l'atomo di Bohr, si sferrava un ulteriore colpo alla meccanica classica, e s'imponeva la necessità di trovare modelli descrittivi più adeguati per le orbite degli elettroni, non più incentrati sul modello del sistema solare per masse puntiformi.

Due fisici svilupparono indipendentemente fra loro metodi matematici diversi per descrivere lo stesso fenomeno, relativo alle orbite degli elettroni. Nel 1926 il fisico austriaco Erwin Schrodinger sviluppò un modello matematico, detto meccanica ondulatoria, che descriveva, sia pure in termini classici, l'evoluzione deterministica della, ora celebre, funzione d'onda psi: l'elettrone viene descritto come un'onda che nel medesimo tempo si trova in tutti i luoghi possibili della sua orbita. Il modello ebbe immediato successo, e sostituì l'atomo di Bohr.

Intanto, nel 1925, un giovane fisico tedesco, Werner Heisenberg, che lavorava con Bohr all'Istituto di Fisica di Copenaghen, aveva sviluppato la meccanica delle matrici. Per mezzo di un complesso formalismo matematico Heisenberg aveva introdotto la meccanica del discreto in fisica, capace di descrivere i livelli quantizzati di energia delle orbite elettroniche. La sua idea di fondo era che fosse impossibile descrivere la struttura atomica della realtà nei termini intuitivi della fisica classica, come se il mondo fosse effettivamente costituito o di onde o di particelle. L'analogia fra il mondo macroscopico e il mondo microscopico non sarebbe mai adeguata, per cui è necessario descrivere le orbite elettroniche in termini strettamente e astrattamente numerici.

Da un punto di vista matematico la funzione d'onda di Schrodinger ottenne maggiori consensi, rispetto alle matrici di Heisenberg, forse perché ancora legata ad una descrizione intuitiva di tipo classico della realtà, oltreché per la sua maggiore praticità. Tuttavia Paul Dirac, nel 1928, dimostrò che i due formalismi descrivevano lo stesso fenomeno fisico. Poco dopo, nel 1930, Max Born dimostrò inoltre, contro Schrodinger e a favore di Heisenberg, che la funzione d'onda psi della meccanica ondulatoria non descriveva un'onda reale, ma solo un'onda di probabilità. L'elettrone di Born non può avere una quantità di moto e una posizione ben definita, come vuole la meccanica classica, e non può neppure occupare tutti gli spazi della sua orbita, come vuole la meccanica ondulatoria. E' impossibile visualizzare in termini intuitivi l'orbita dell'elettrone. Tutto ciò che possiamo dire è che è più probabile trovare l'elettrone in un punto della sua orbita piuttosto che in un altro. La funzione d'onda psi esprime proprio questa conoscenza di tipo probabilistico, non più deterministico, e non ha vera realtà fisica.

Questa tesi di Born si accordava perfettamente con la filosofia di Heisenberg e Bohr, e con il celebre principio che lo stesso Heisenberg aveva enunciato nel 1927: il principio di indeterminazione o d'incertezza. Questo principio, che è fondamentale nella meccanica quantistica, stabilisce una relazione d'incertezza insita nel mondo atomico. Data una particella atomica è impossibile assegnare ad essa una quantità di moto e una posizione ben definita. Questi parametri non sono esattamente misurabili sulla base della conoscenza delle condizioni iniziali e dei princìpi della fisica classica. Ad esempio possiamo conoscere la quantità di moto dell'elettrone con molta precisione, ma allora la sua posizione nello spazio risulterebbe del tutto indeterminata, o viceversa. Non possiamo attribuire, con lo stesso grado di certezza, una posizione e una quantità di moto ben definite: l'elettrone non ha, o non sembra avere, queste due proprietà nello stesso tempo. L'indeterminazione può essere espressa in termini quantitativi secondo la nota formula di Heisenberg Dx Dp ^_ h, dove x è la posizione, p la quantità di moto e h la costante di Planck. Questa formula sta a significare che per oggetti il cui prodotto è circa come la costante di Planck - quindi oggetti del mondo atomico - vale questa relazione: se il valore di Dx è piccolo, allora sarà grande Dp, oppure se risulta grande Dp allora sarà piccolo Dx. Quindi tanto più si conosce con precisione la posizione, tanto più risulta incerta la quantità di moto e viceversa.

Heisenberg per illustrare questo principio propose un esperimento immaginario, detto del microscopio a raggi gamma. Per individuare con precisione la traiettoria nello spazio di un elettrone è indispensabile individuarne la posizione di partenza. Questa condizione iniziale potrebbe essere soddisfatta nel modo migliore utilizzando un microscopio con grandi lenti e illuminando l'elettrone con una luce di piccola lunghezza d'onda, come i raggi gamma. Ora quando i raggi gamma colpiscono l'elettrone, questo subisce un'accelerazione, così il suo moto sarà influenzato dalla semplice osservazione. Il moto di reazione dell'elettrone dipende dalla forza d'urto dei raggi gamma, e tanto più è piccola la lunghezza d'onda della luce, maggiore sarà la sua energia (per la relazione di Planck) e quindi più forte sarà l'urto. La violenza dell'urto non sarebbe un problema se si potesse conoscere la nuova quantità di moto e la nuova posizione dell'elettrone. Ma ciò è impossibile, perché per quanto dotati di microscopio con grandi lenti, al fine di osservare con maggiore precisione, dovremmo comunque conoscere l'angolo con cui il raggio gamma, dopo aver colpito l'elettrone, entra nel sistema ottico del nostro strumento di misura. Questo angolo tuttavia ci rimane ignoto: potremmo sapere con certezza solo che il raggio gamma è entrato nel microscopio, ma la sua traiettoria è inconoscibile. Potremmo usare un'altra strategia sperimentale: tentare di usare luce con una lunghezza d'onda più grande, per ridurre l'energia dell'urto, e una lente più piccola. La conseguenza sarà che otterremo un'immagine sfuocata dell'elettrone e pertanto sarà impossibile determinarne esattamente la posizione. In ogni caso saremo sempre di fronte ad una alternativa: è impossibile conoscere posizione e quantità di moto con la stessa precisione. Potremmo predisporre l'esperimento per conoscere al meglio la quantità di moto, ma allora perderemmo preziose informazioni sulla posizione, o viceversa.

Niels Bohr intorno al 1930, dopo lunghe discussioni con Heisenberg cominciate nel 1927, introdusse il principio di complementarità per interpretare questi strani fenomeni quantistici, così lontani dal senso comune e dalle nozioni classiche della fisica. Secondo il suo punto di vista, che poi divenne noto come l'interpretazione della scuola di Copenaghen della meccanica quantistica, l'incertezza non è dovuta alla grossolanità e all'imprecisione degli strumenti di misura utilizzati negli esperimenti atomici. L'incertezza è piuttosto il risultato dell'inevitabile connessione che si verifica nel processo di osservazione tra la realtà fisica e gli strumenti di misura classici, ed è pertanto una legge di natura. La posizione e la quantità di moto sono proprietà complementari della natura, per cui si può descrivere con precisione l'una o l'altra, entro i limiti delle relazione d'incertezza della formula di Heisenberg, senza che si manifesti alcuna contraddizione.

Secondo Bohr la natura è ricca di proprietà complementari. Ad esempio la meccanica quantistica stabilisce una relazione d'indeterminazione fra tempo ed energia: DE Dt ^_ h, che descrive l'impossibilità di conoscere con precisione il momento temporale e l'energia di un atomo, ad esempio nei processi di decadimento nucleare. Questo fenomeno quantistico sembrerebbe violare un altro principio della meccanica classica, quello della conservazione dell'energia. Un'altra proprietà complementare della natura è il dualismo onda-particella della luce, già messa in luce da de Broglie. Sebbene il problema fosse stato reso di attualità dallo strano comportamento delle onde elettromagnetiche di Maxwell che come la luce sembravano a volte manifestarsi come particelle, e dai fotoni di Einstein che per contro si comportavano come onde, il dibattito sulla questione della natura della luce risale almeno all'età classica della fisica.

Newton credeva che la luce avesse natura particellare. Ma all'inizio dell'Ottocento Thomas Young, col suo famoso esperimento delle due fessure, dimostrò invece che la luce è composta di onde.

Prendiamo due lastre (A e B), poniamole una dietro l'altra, sulla prima pratichiamo due fori. Partendo dall'assunto che la luce sia costituita da particelle, collochiamo una sorgente di luce davanti ai due fori. I fotoni emessi dalla luce della sorgente attraversano i due fori, mentre la superficie della lastra A riflette gran parte della luce, e colpiscono la lastra B collocata in fondo. Se la luce fosse una particella gli effetti visibili sulla lastra B dovrebbero essere simili a quelli che si vedrebbero se sparassimo con una mitragliatrice in direzione dei due fori: buona parte dei proiettili rimbalzerebbero sulla lastra A, quelli che passano attraverso i fori colpirebbero la lastra B solo nella stessa direzione d'entrata dei colpi. Un analogo fenomeno dovremmo vedere se la luce fosse costituita da particelle: due pennelli di luce si formerebbero sulla lastra B proprio dietro i due fori praticati sulla lastra A. Tuttavia nel caso della luce ciò non si verifica. Sulla lastra vediamo le figure d'interferenza: zone di luce si alternano con regolarità a zone d'ombra. Questo fenomeno può essere spiegato solo se supponiamo che la luce si comporta come un'onda. Dalla sorgente le onde di luce attraversano i due fori e arrivano sulla lastra B ricombinandosi: quando arrivano in accordo di fase si rafforzano, e in quel punto vediamo la luce, quando arrivano fuori fase si cancellano, e in quel punto c'è ombra.

Ma com'è possibile che il singolo fotone passi contemporaneamente nei due fori? Non è questo un fenomeno che supera i limiti intuitivi dalla comune rappresentazione della realtà? Supponiamo che qualcuno non sia del tutto convinto circa le proprietà ondulatorie della luce, e quindi voglia scoprire se un fotone passa in un foro o nell'altro. In tal caso l'osservatore si mette davanti ai due fori e osserva ciò che accade: vedrà effettivamente passare i fotoni attraverso i fori. Se è così allora la luce è una particella, poiché il singolo fotone passa o in un foro o nell'altro, a differenza dell'onda che ha geometria diffusa, e attraversa quindi entrambi i fori. Ma come è possibile che la luce sia un'onda ed anche una particella? La nostra concezione naturale, intuitiva e classica della realtà non ammette che un fenomeno abbia una natura così ambigua. Il fatto straordinario è che quando osserviamo i singoli fotoni attraversare i fori, le figure d'interferenza scompaiono. Tuttavia se dalla sorgente parte un fotone alla volta, e quindi questo attraversa necessariamente o un foro o l'altro, ma non osserviamo dove effettivamente esso passi, allora le figure d'interferenza ricompaiono. Ciò è veramente molto strano: se noi vogliamo osservare il comportamento ondulatorio della luce, allora vediamo effettivamente le onde (cioè le figure d'interferenza); se invece vogliamo osservare il comportamento particellare della luce, e tentiamo di scoprire la traiettoria esatta dei fotoni, allora le figure d'interferenza scompaiono. Forse che la natura dipende dal nostro modo di osservarla? Qual è la realtà del mondo dei quanti?

 

 

L’epistemologia nell’età dello spazio-tempo e dei quanti.

 

E' facile pensare come la relatività di Einstein, fin dal suo apparire, abbia introdotto nel dibattito epistemologico elementi di discussione molto forti, circa il ruolo dell'osservatore, lo status delle leggi naturali, il processo di formazione dei concetti scientifici e il loro valore. Lo stesso si può dire, a maggior ragione, per la meccanica quantistica. E' necessario inoltre immaginare quanto disorientamento abbia prodotto la comparsa delle due teorie. Per due secoli infatti la meccanica classica aveva avuto un grande successo nello spiegare i fenomeni; era considerata una teoria vera, un meraviglioso edificio eretto dall'intelligenza umana. Ora questa teoria si era dimostrata falsa, incapace di spiegare i fenomeni elettromagnetici e atomici. Al suo posto c'erano teorie che introducevano la relatività del tempo e dello spazio, l'indeterminazione quantistica, il dualismo onda-particella e altri "strani" fenomeni.

Einstein, ora è provato, fu profondamente influenzato dal positivismo e dal fenomenismo machiano. Mach aveva condotto un'analisi critica, storica ed epistemologica, dei concetti fondamentali della meccanica classica: egli giudicava impossibile una difesa dello spazio assoluto, del tempo assoluto, del moto assoluto e del moto inerziale. Questi concetti non potendo essere ricondotti alle sensazioni pure, in ciò consiste il fisicalismo di Mach, non possono avere un significato fisico. Sono inutili per la scienza naturale, sono concetti metafisici.

Era stato questo atteggiamento fisicalista a far vedere al giovane Einstein, allora seguace di Mach, ciò che altri fisici del suo tempo, assai famosi per le loro ricerche, non avevano visto: che per rendere compatibile la meccanica con l'elettromagnetismo era necessario abbandonare l'idea intuitiva, propria del senso comune, nonché assunto fondamentale della fisica classica, che spazio e tempo fossero indipendenti dal moto dei corpi. Mach, che allora occupava la cattedra di Filosofia della Scienza all'Università di Vienna, difese la teoria della relatività di Einstein.

A quel tempo la teoria della relatività divenne oggetto di controversie intorno la natura della conoscenza umana, s'impose la necessità di una revisione critica delle filosofie del passato. Inoltre sia fisici che filosofi si occuparono del problema dei fondamenti della nuova teoria. Nel 1917 Moritz Schlick, laureato in fisica a Berlino con Planck nel 1904, pubblicava Spazio e tempo nella fisica contemporanea, e nel 1918 una Teoria generale della conoscenza. Una delle tesi principali difese da Schlick era che la nuova teoria metteva in crisi l'idealismo filosofico, compreso l'apriorismo di Kant, poiché si era dimostrato che spazio e tempo dipendono dall'esperienza concreta dell'osservatore in un sistema di coordinate. Nel 1920 Hans Reichenbach, fisico e filosofo di Berlino, pubblica Relatività e conoscenza a priori, opera che sarà seguita da altre sullo stesso argomento. Nel 1921 Rudolf Carnap si laurea in fisica all'Università di Jena con una dissertazione Dello Spazio, pubblicata nei <<Kant Studien>>. Carnap e Reichenbach finirono per credere che il crollo della fisica di Newton avrebbe coinvolto anche l'idealismo trascendentale kantiano. Come Mach, erano schierati contro il giudizio sintetico a priori, e dal loro punto di vista la teoria di Einstein doveva essere la base per edificare una nuova teoria della conoscenza. Se questi intellettuali si battevano per un profondo rinnovamento dell'epistemologia, non mancava chi, come l'ultimo dei neokantiani della scuola di Marburgo Ernst Cassirer, cercava di mostrare che i recenti sviluppi della fisica fossero coerenti con il principio fondamentale del trascendentalismo: l'oggetto fisico non è semplicemente dato, ma piuttosto "costruito" dalle operazioni categoriali del soggetto conoscente.

L'opera di Schlick, apprezzata dallo stesso Einstein, conobbe un discreto successo, tanto che egli sarà chiamato, nel 1922, a ricoprire la cattedra che fu di Ernst Mach - morto nel 1916 - all'Università di Vienna. E a Vienna intorno a Schlick cominciarono a riunirsi periodicamente un gruppo di studiosi di varie discipline (fisici, filosofi, economisti, psicologi, sociologi, matematici), accomunati dall'interesse per l'epistemologia. Questo cenacolo intellettuale fu dedicato a Mach, perché questi uomini si ispiravano alla sua filosofia della scienza, e venne chiamato appunto "Associazione Ernst Mach", ma è ora noto soprattutto col nome di Wiener Kreis. Nel 1929 il Circolo di Vienna pubblicava il suo manifesto programmatico: La concezione scientifica del mondo. I redattori furono Hans Hahn (matematico), Otto Neurath (economista e sociologo) e Rudolf Carnap. I primi due erano soci fondatori del Circolo, mentre l'ultimo era arrivato all'Università di Vienna nel 1926.

Il programma del Circolo di Vienna era di sviluppare, nella cornice della logica matematica di Frege, Russell e Wittgenstein, un'epistemologia fenomenista e fisicalista sull'esempio dell'insegnamento di Mach, capace di tener conto della nuova scienza relativistica e quantistica. Lo spirito del Circolo è ben espresso dalla ricostruzione storica di Philipp Frank, fisico e filosofo, prima a Praga poi a Vienna, tra i maggiori esponenti di tale consorzio intellettuale. Secondo Frank lo spirito dei neopositivisti era il risultato della convergenza della crisi della fisica di Newton, dei successi della fisica relativistica e quantistica e del conseguente rifiuto della dottrina di Kant. Per Frank, Kant era nel giusto quando evidenziava il ruolo attivo, non meramente passivo, dell'intelletto umano nella scoperta scientifica. Tuttavia era ovvio sospettare che la nuova fisica mettesse in crisi l'idea kantiana dell'immutabilità delle forme a priori dell'esperienza. Era pertanto necessario, come scrisse, <<mettere il vino nuovo in otri nu

http://lgxserver.uniba.it/lei/sfi/bollettino/161_sassaroli.htm

Condividi questa risorsa didattica

I giudizi degli utenti

Assenti

Aggiungi il tuo giudizio    Precedenti risultati   


  Iscriviti alla news
Ricevi in posta elettronica le novità e una selezione di risorse utili per la didattica.

Iscriviti qui


Novità
Le ultime risorse per la didattica catalogate ed inserite nel nostro database.

ENGLISH LESSONS AND TESTS.

"Progresso e catastrofe" - In due parole tutto il Novecento Recensione al testo di Salvatore Natoli di UMBERTO GALIMBERTI

Percorsi
Proposte di selezioni e percorsi fra le risorse e i materiali in archivio.

Percorsi
Feste e calendari multiculturali.
Calendari solari e lunari, festività religiose e tradizionali delle diverse culture.

Percorsi
Steineriane
Le ''scuole nuove'' della pedagogia steineriana, contrassegnate dal paradosso di un’accettazione pratica e di un’ignoranza teorica da parte degli stessi utenti e degli operatori della scuola pubblica, tra ''fedeltà karmica'', incarnazioni di individualità che ritornano sulla terra, bambini indaco e apparente buon senso pedagogico.

  Ambiente virtuale collaborativo in evoluzione ideato e sviluppato da Maurizio Guercio è una iniziativa DIDAweb