You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
<strong>FISICA</strong> <strong>CLASSICA</strong><br />
IL MONDO CLASSICO<br />
L'IMPORTANZA DELLA SCIENZA GRECA<br />
La civiltà e la cultura della Grecia classica sono la culla della civiltà e della cultura occidentali<br />
moderne: è quanto spesso si sente dire. In un certo senso è proprio così. Se leggiamo i testi in cui<br />
gli antichi scienziati e filosofi greci espongono le loro teorie, il loro modo di argomentare è simile a<br />
quello degli scienziati contemporanei: cercano di giustificare le teorie in base all'esperienza,<br />
cercano di trarre le conseguenze logiche dalle proprie premesse, credono nella possibilità di<br />
comunicare e far comprendere il "sapere".<br />
Eppure, non sempre è stato così. In epoche precedenti - e anche in epoche successive - vi è stato chi<br />
pensava che il vero "sapere" potesse essere compreso e posseduto solo da pochi eletti: esso nasceva<br />
da "poteri" misteriosi, magici, non poteva essere formulato in maniera chiara e razionale, non<br />
poteva essere "scoperto" con la ricerca, ma solo tramandato dalla tradizione. I depositari del sapere<br />
erano i "sacerdoti" o gli "oracoli", i quali erano stati "iniziati" sin dall'infanzia a un sapere segreto e<br />
misterioso, non comunicabile alla "plebe", e assolutamente non criticabile da nessuno.<br />
Lo scienziato greco amava insegnare e discutere, si circondava di discepoli, amici e colleghi,<br />
criticava ed era criticato e - cosa straordinaria - ammetteva talvolta di essere in torto. Era insomma<br />
convinto della possibilità di giungere a conclusioni sulla natura del mondo che lo circondava<br />
mediante il ragionamento e le osservazioni.<br />
Ora, quando si parla di scienziato dell'antica Grecia non bisogna pensare al ricercatore specializzato<br />
dei tempi moderni. A quell'epoca non esistevano le discipline scientifiche come le conosciamo<br />
oggi: non si distingueva la fisica dalla chimica e dalla biologia. La physis era la "natura" in<br />
generale, considerata soprattutto come insieme di cose e di sostanze in reciproca interazione e in<br />
continuo mutamento. E lo scienziato greco voleva conoscere i princìpi delle cose e dei mutamenti<br />
osservati. Egli era un "amante del sapere" e per questo veniva chiamato "filosofo".<br />
Naturalmente, la parte della natura che affascinava maggiormente gli antichi era la volta celeste.<br />
Nelle notti serene, in assenza di lampioni e insegne, la volta celeste appariva in tutta la sua<br />
ricchezza e varietà di luci e colori. E le osservazioni diventarono via via sempre più precise e<br />
regolari. Per questo le più antiche scoperte scientifiche e i più antichi strumenti di osservazione<br />
riguardano l'astronomia.<br />
Tuttavia i filosofi greci cominciarono a occuparsi anche dei fatti e dei mutamenti che si<br />
presentavano sulla superficie terrestre e, così come avveniva per la volta celeste, cercavano di<br />
mettere ordine nella varietà delle cose e nella molteplicità dei mutamenti. E cercavano, quando era<br />
possibile, di mettere in relazione ciò che osservavano sulla volta celeste con ciò che avveniva sul<br />
nostro pianeta.<br />
Quindi il loro principale atteggiamento metodologico era quello di distinguere (la mela dalla pera, i<br />
metalli dalle rocce, ecc.) e poi riunificare (sono frutti, sono minerali, ecc.) ossia classificare.<br />
L'individuazione di analogie e di somiglianze consentiva di mettere nella stessa classe cose o<br />
mutamenti diversi. La scoperta di proprietà comuni a diverse sostanze permetteva di andare a<br />
cercare quali fossero gli elementi semplici, i princìpi materiali di cui erano fatte tutte le cose, i<br />
princìpi causali che le facevano mutare e le loro caratteristiche essenziali comuni o diverse. Questa<br />
tendenza alla differenziazione e all'unificazione è tipica della scienza greca, come è tipico di essa<br />
l'affidarsi alle differenze e alle analogie qualitative.<br />
Ma i greci furono anche studiosi di matematica e di logica e nelle loro teorie compare la distinzione<br />
tra ciò che è perfetto, o ideale, in quanto astratto, e ciò che "approssima" solamente tale<br />
comportamento ideale, in quanto concreto. Non solo, ma gli studi di logica portano a distinguere un<br />
ragionamento corretto da uno fallace, portano a sapere quello che è possibile dedurre e quello che<br />
non è possibile dedurre da certe premesse.<br />
1
Per tutti questi motivi, lo spirito dello scienziato greco è uno spirito laico (che non ammette dogmi<br />
e pregiudizi da accettare senza discutere) e nello stesso tempo uno spirito critico (che sottopone alla<br />
discussione razionale e al controllo fenomenologico) le idee proprie e quelle degli altri. Certo, in<br />
assenza di ipotesi quantitative più precise e, soprattutto, di adeguate capacità tecniche, mancavano<br />
quelle che noi oggi consideriamo le principali fonti di informazione sulla natura del mondo fisico,<br />
ossia gli esperimenti. Ma non per questo bisogna dimenticare che, in definitiva, lo scopo ultimo<br />
degli "amanti del sapere" era quello di separare le vaghe opinioni, le credenze ingenue dell'uomo<br />
comune, ossia la cosiddetta doxa, dalle conoscenze certe che l'osservazione, la riflessione razionale,<br />
la deduzione logica ci consentono di raggiungere, ossia la cosiddetta epistéme. E' così che, in<br />
pratica, nasce la scienza occidentale.<br />
LA RICERCA DI PRINCIPI UNIFICANTI<br />
La scuola ionica<br />
Gli albori di quella che noi consideriamo "scienza" greca possono essere fatti risalire alle opere dei<br />
cosiddetti naturalisti ionici, che produssero le loro teorie grosso modo tra il 650 e il 500 a.C. I più<br />
noti sono quelli appartenenti alla scuola di Mileto, ossia Talete (624-546 ca a.C.), Anassimandro<br />
(610-546 a.C.) e Anassimene (586-528 a.C.). Il nome "naturalisti" deriva appunto dal fatto che il<br />
loro atteggiamento tendeva a contrapporsi a quello dei sacerdoti e dei teologi poiché essi ritenevano<br />
che fosse giunto il momento di «sottoporre a violenza la natura affinché essa ci riveli i suoi<br />
segreti».<br />
La caratteristica principale della loro ricerca è il tentativo di individuare il principio unico, la<br />
sostanza o l'essenza da cui traggono origine tutte le cose. Essi cercavano in altre parole di trovare<br />
l'unità al di sotto e all'inizio (donde il termine "principio" ossia arché) della molteplicità di tutte le<br />
cose. Ora, per Talete tale principio era l'acqua, per Anassimandro era una sostanza primaria<br />
indefinita (l'apeiron), per Anassimene era l'aria. Queste idee si fondevano in modo suggestivo con<br />
le complesse teorie cosmologiche e cosmogoniche che essi proponevano che costituiscono, fino a<br />
Tolomeo, la cosmologia classica.<br />
La teoria dei quattro elementi<br />
Queste prime teorie generali furono sottoposte a severe critiche dai filosofi successivi, ma il seme<br />
era stato gettato: era legittimo cercare la spiegazione dei fenomeni e le cause ultime dei mutamenti<br />
in princìpi materiali, anche se in un quadro più ricco e articolato. In particolare, nel V secolo spicca<br />
la figura di Empedocle (490-430 ca a.C.), nativo di Agrigento, il quale propone la famosa teoria dei<br />
quattro elementi, che avrà, come vedremo, vita lunghissima. Per Empedocle infatti tutte le cose<br />
sono formate da quattro elementi primari, l'aria, l'acqua, la terra e il fuoco, che si combinano tra<br />
loro in varie proporzioni.<br />
E' interessante notare che i quattro elementi interagiscono tra loro con attrazioni e repulsioni,<br />
concepite come manifestazione rispettivamente di amore e di odio, e che queste attrazioni e<br />
repulsioni consentono di spiegare i mutamenti delle cose.<br />
PITAGORA E PLATONE<br />
I numeri come princìpi primi<br />
Nel VI secolo a.C. la matematica era già molto sviluppata, grazie ai contributi degli egiziani, degli<br />
assiri e dei babilonesi. Con Pitagora (ca 570-497 a.C.) e la sua scuola i numeri diventano princìpi<br />
delle cose in senso "fisico", in quanto unità essenziali che si compongono come dei punti materiali<br />
2
per produrre tutte le cose. Quindi lo studio della natura diventa studio delle proporzioni numeriche<br />
tra gli aspetti delle cose che si potevano contare e misurare.<br />
La perfezione delle idee matematiche e geometriche<br />
Le idee pitagoriche avrebbero avuto anch'esse lunga vita, ma l'influenza più importante sulla nascita<br />
della fisica moderna, in cui assume un ruolo centrale la descrizione matematica della natura, fu<br />
quella esercitata da Platone (427-347 a.C.). Per Platone solo il ragionamento matematico è in grado<br />
di condurci alla certezza ed è quindi il termine di riferimento ideale di ogni ragionamento. Ma non è<br />
solo questo il ruolo della matematica e della geometria: il fatto è che l'essenza ideale delle cose<br />
sensibili che ci circondano va ricercata nella loro forma geometrica e nei loro rapporti matematici.<br />
Per esempio, i quattro elementi di Empedocle corrispondono a composizioni di figure geometriche<br />
semplici che danno luogo a quattro poliedri regolari - il tetraedro (la terra), l'icosaedro (l'acqua), il<br />
cubo (l'aria), l'ottaedro (il fuoco). Al quinto poliedro regolare noto - il dodecaedro - deve<br />
corrispondere un'altra sostanza primordiale che forse riguarda la natura delle sfere celesti.<br />
L'ATOMISMO: DEMOCRITO ED EPICURO<br />
Atomi e vuoto<br />
Un altro ingrediente essenziale della fisica moderna è la concezione atomistica della materia. L'idea<br />
originale appartiene ancora una volta a un grande filosofo greco, Democrito (ca. 460-ca. 370 a.C.).<br />
La sua teoria è la prima teoria meccanica del mondo, in quanto egli vede tutte le cose esistenti come<br />
composte da minuscoli atomi, ossia minuscoli pezzi di materia che non potevano essere suddivisi in<br />
pezzi più piccoli (la parola "atomo" vuol dire "indivisibile"). Nello stesso tempo, per Democrito<br />
tutti i mutamenti devono essere ricondotti al semplice movimento degli atomi e agli inevitabili urti<br />
tra di loro. Per questo occorre immaginare che lo spazio in cui gli atomi si muovono sia vuoto, ossia<br />
privo di materia. Le cose, compresi la Terra, il Sole e i pianeti, sono quindi aggregati di atomi, e si<br />
sono prodotte casualmente, senza alcun intervento provvidenziale. Ovviamente, l'esigenza di<br />
spiegare la molteplicità delle sostanze e degli elementi spinge Democrito a considerare vari tipi di<br />
atomi, diversi per forma e per dimensione e diversi anche per le forze di attrazione e repulsione che<br />
si esercitano tra loro.<br />
Le idee di Democrito sarebbero state riprese da Epicuro (342-270 a.C.), nativo di Samo, e, in<br />
termini molto suggestivi, dal poeta latino Lucrezio (95-55 a.C.). Esse verranno a più riprese<br />
attaccate e condannate perché ritenute materialistiche, atee e immorali: tuttavia sarà proprio<br />
l'atomismo a caratterizzare maggiormente il volto moderno e attuale della fisica.<br />
LA <strong>FISICA</strong> DI ARISTOTELE<br />
Sulla fisica di Aristotele (384-322 a.C.) dovremo soffermarci di più per motivi che sono noti a tutti:<br />
il pensiero e la tradizione aristotelici rimasero infatti il punto di riferimento per tutti gli scienziati<br />
successivi fino all'inizio del Seicento. D'altra parte la dottrina aristotelica costituisce la prima<br />
grande sistemazione del sapere in tutti i suoi aspetti, da quello riguardante il mondo umano e<br />
naturale, a quello riguardante il cosmo nel suo complesso, fino agli aspetti più astratti della logica e<br />
del metodo scientifico.<br />
I princìpi esplicativi della metafisica aristotelica sono espressi in dicotomie:<br />
materia - forma,<br />
potenza - atto,<br />
sostanza - accidente.<br />
3
La materia del mondo "sublunare" è costituita dai quattro elementi, o essenze: acqua, aria, terra e<br />
fuoco. La materia delle sfere celesti (cosmologia classica) è costituita invece da una quintessenza,<br />
l'etere.<br />
La forma è ciò che permette di identificare gli oggetti materiali, ciò che assegna loro specificità e<br />
individualità. Qualsiasi oggetto esistente è quindi unità inscindibile di materia e forma proprio<br />
perché è qualcosa e non qualcos'altro. Le cose sono quindi unità inscindibili di materia e forma.<br />
Conoscere le cose equivale a riconoscere ciò che fa parte della loro "essenza", ossia della loro<br />
sostanza. Tutto ciò che non appartiene necessariamente a tale sostanza (ossia che non<br />
contraddistingue un oggetto come sua proprietà essenziale) è un accidente (per esempio il fatto che<br />
un uomo sia biondo o bruno). Il vero significato di una parola che designa una cosa sta nel concetto<br />
che ne abbiamo e che consente di identificarla in base alle sue proprietà essenziali. Per questo è così<br />
importante classificare le cose in base alle loro differenze qualitative.<br />
Ma gli oggetti mutano: un bambino diventa adulto, un fiore si trasforma in frutto, l'acqua si tramuta<br />
in ghiaccio. Il movimento nello spazio è solo un tipo particolare di mutamento. Il problema è: come<br />
possiamo comprendere il mutamento?<br />
Il mutamento: potenza e atto<br />
L'assioma basilare dell'interpretazione aristotelica del mutamento è che se un oggetto si trasforma o<br />
trasforma qualche suo aspetto, vuol dire che il risultato di questa trasformazione era già presente in<br />
potenza nell'oggetto stesso. Ciò che l'oggetto è ora è l'oggetto in atto, ed è ciò che l'oggetto era in<br />
potenza qualche tempo fa. E sicuramente, anche l'oggetto in atto è ancora qualcos'altro in potenza.<br />
Quindi la materia possiede in potenza le forme che in seguito possiederà in atto.<br />
Per ogni oggetto e per ogni cambiamento esistono allora in primo luogo due cause: la causa<br />
materiale e la causa formale. In virtù della causa materiale l'oggetto esiste come mera potenzialità,<br />
in virtù della causa formale l'oggetto esiste come questo oggetto e non un altro. Ma per divenire<br />
questo oggetto in atto, l'oggetto ha spesso bisogno di altre due cause: la causa efficiente e la causa<br />
finale. Le prime due cause esistono, per così dire, fuori dal tempo, le altre due agiscono, invece, nel<br />
tempo. La causa finale è l'azione del fine da raggiungere, prima che esso sia raggiunto: attraverso di<br />
essa l'oggetto assume questa forma e non quella, perché così raggiunge meglio il suo scopo (per<br />
esempio i polmoni hanno quella forma perché sono fatti per respirare). La causa efficiente è il<br />
mezzo che permette alla causa finale di agire, oppure che ne impedisce l'azione. Se un fiore è<br />
destinato a diventare frutto al fine di permettere la riproduzione della pianta, sarà fatto in modo da<br />
realizzare tale scopo: ma non lo potrà raggiungere senza l'ape, ossia la causa efficiente, che,<br />
succhiando il nettare, gli porta il polline di altri fiori.<br />
I quattro elementi, fuoco, terra, acqua e aria, nelle loro varie combinazioni, costituiscono la causa<br />
materiale di tutti gli oggetti sublunari: essi sono sostanze, in quanto hanno una forma che assegna<br />
loro qualità essenziali (caldo, freddo, secco, umido) in base alle quali hanno ciascuno specifiche<br />
proprietà.<br />
I movimenti o cambiamenti sono sostanziali (generazione e corruzione), qualitativi (essiccazione,<br />
riscaldamento, ecc.), quantitativi (aumento, diminuzione), locali (spostamento, allontanamento,<br />
avvicinamento, ecc.). I cambiamenti si dividono in violenti (che hanno bisogno di una causa<br />
efficiente) e naturali (che avvengono spontaneamente in base alla loro causa finale).<br />
In particolare, i cambiamenti locali naturali sono il moto verso il basso e il moto verso l'alto per le<br />
sostanze sublunari, a seconda che nella loro composizione prevalgano le sostanze pesanti (acqua e<br />
terra) o leggere (aria e fuoco), e il moto circolare, considerato come moto perfetto perché senza<br />
inizio né fine, per le sfere celesti e l'etere.<br />
Da questo punto di vista c'è una gerarchia dei moti: il moto rettilineo è un moto meno perfetto di<br />
quello circolare, dal momento che deve avere un inizio e una fine. La sostanza più perfetta, la<br />
cosiddetta "quintessenza", cioè l'etere, non può che avere un moto circolare. Comunque sia, il<br />
mondo della materia "bruta", quella dei sassi, dei mari, del fuoco e dell'aria, è un mondo di livello<br />
inferiore, in cui la sostanza è a livelli di minima complessità e in cui le tendenze e i cambiamenti<br />
4
sono i più banali essendo principalmente solo cambiamenti di luogo. Insomma, il moto locale non<br />
merita, dal punto di vista aristotelico, particolare attenzione e non vale la pena di costruirci sopra<br />
una scienza.<br />
Il movimento dei corpi<br />
"Fisica" per Aristotele significa "natura nel suo complesso", e quella che egli ci presenta è una<br />
filosofia della natura in cui non ha senso cercare di distinguere le discipline scientifiche a cui oggi<br />
siamo abituati. E' importante però estrarre da questa concezione globale e unitaria alcune<br />
considerazioni relative al movimento locale dei corpi, perché su di esse si sarebbe concentrata<br />
l'attenzione polemica dei fisici moderni. In particolare citiamo un famoso brano della Fisica:<br />
«Noi vediamo che lo stesso peso e lo stesso corpo si muovono più rapidamente per due cause; o<br />
perché è differente ciò attraverso cui l'oggetto passa (per esempio, se passa attraverso l'acqua o la<br />
terra, ovvero attraverso l'acqua e l'aria) oppure perché l'oggetto spostato, qualora gli altri fattori<br />
siano gli stessi, differisce per eccesso del peso o della leggerezza».<br />
Ora si vede immediatamente che Aristotele descrive qualcosa che è evidente per chiunque. Egli sta<br />
parlando di "proiettili", ossia di oggetti lanciati. E' evidente che la velocità del proiettile, a parità di<br />
sforzo per lanciarlo, sarà tanto maggiore quanto meno denso è il mezzo attraverso cui esso passa<br />
(una pallina da golf andrà più piano attraverso l'acqua che attraverso l'aria) e sarà tanto maggiore<br />
quanto più il proiettile stesso è denso (una pallina da ping pong andrà più piano di una pallina da<br />
golf). Il mezzo eserciterà comunque una resistenza e, a poco a poco, il moto naturale verso il basso<br />
tenderà a prevalere.<br />
Ma come faceva il sasso a muoversi in una direzione diversa da quella del moto naturale, anche<br />
quando aveva lasciato la mano che lo aveva lanciato? Il moto "violento" deve avere sempre una<br />
causa esterna. Aristotele immaginò che tale causa esterna dovesse essere cercata nel mezzo (nel<br />
caso specifico, l'aria) in cui il sasso si muoveva. L'aria, tendendo a rioccupare immediatamente lo<br />
spazio vuoto lasciato dietro di sé dal sasso durante il suo spostamento, finiva per spingerlo<br />
ulteriormente in avanti.<br />
La conclusione che Aristotele trae da questa visione è legittima: se pensiamo che la velocità del<br />
proiettile sia inversamente proporzionale alla densità del mezzo che esso deve attraversare, allora,<br />
nel vuoto, che ha densità nulla, la velocità del proiettile dovrebbe essere infinita! Quindi, secondo<br />
Aristotele, il vuoto non può esistere.<br />
I PRIMORDI DEL METODO SPERIMENTALE: ARCHIMEDE<br />
Oltre a essere un grandissimo matematico, Archimede (287-212 a.C.) viene considerato il prototipo<br />
dello scienziato sperimentale. Sono molti i dispositivi di cui è considerato l'inventore, dalla vite,<br />
alla vite senza fine, fino ai celebri specchi ustori che sarebbero stati usati nella difesa della natìa<br />
Siracusa. Ma i contributi alla statica e al problema del galleggiamento dei corpi sono senz'altro<br />
quelli più interessanti dal punto di vista fisico. Archimede è lo studioso della leva (tutti ricordano la<br />
celebre frase che gli viene attribuita: «Datemi un punto d'appoggio e vi solleverò il mondo»),<br />
dell'uso della bilancia e dell'equilibrio dei corpi pesanti (in relazione al quale formulò chiaramente<br />
il concetto di baricentro) e della spiegazione del galleggiamento dei corpi in base al principio della<br />
spinta detta, appunto, di Archimede: «I corpi solidi con un peso specifico maggiore del liquido in<br />
cui sono immersi cadranno in basso fino in fondo, e nel liquido saranno tanto più leggeri, di quanto<br />
pesa un volume di liquido uguale al loro volume».<br />
LA COSMOLOGIA <strong>CLASSICA</strong> FINO A TOLOMEO<br />
5
Che gli antichi vivessero "a contatto" del cielo stellato molto di più di quanto lo si faccia oggi è un<br />
fatto evidente. Le scarse e deboli sorgenti di illuminazione notturna li mettevano, nelle notti serene,<br />
al cospetto del grandioso mistero della volta celeste. E, non volendo ammettere che le stelle fossero<br />
distribuite a caso, videro nella disposizione e nel moto delle stelle altrettanti "segni" carichi di<br />
significato per i destini umani. A poco a poco gli dèi si spostarono dai boschi alle cime dei monti, e<br />
fino in cielo, da dove potevano esercitare con maggiore forza le loro "influenze".<br />
Ma furono anche esigenze pratiche, prima di tutto legate all'agricoltura e alla navigazione, che<br />
portarono a individuare con precisione i "momenti propizi" (per seminare, salpare, pescare,<br />
vendemmiare, ecc.) e quindi a scandire e misurare il tempo, stabilendo esattamente la durata dei<br />
cicli che si osservavano nel cielo e quindi sulla Terra: il giorno, il mese, l'anno e le sue stagioni.<br />
Tralasciamo le importanti acquisizioni dell'astronomia babilonese, egizia e dell'astronomia<br />
orientale, indiana e cinese e torniamo invece alla civiltà greca, ritrovando i "personaggi" di cui<br />
abbiamo parlato in precedenza, dato che l' "amore per il sapere" aveva come oggetto anche per i<br />
greci soprattutto la comprensione del mistero dell'universo.<br />
In primo luogo bisogna effettuare una distinzione, quella tra physis e kosmos. La physis è la<br />
"natura" nella sua molteplicità, vitalità spontanea, nella sua capacità di crescere e svilupparsi, nella<br />
sua caducità e mortalità; il kosmos è "ordine", proporzione, simmetria, stabilità, ed è ciò che è<br />
immutabile e immortale. Per questo l'astronomo greco viene chiamato mathematikos e l'astronomia<br />
è una branca della matematica.<br />
I primi grandi risultati dell'osservazione astronomica appartengono comunque alla scuola ionica. Si<br />
dice, sebbene sembra che non sia vero, che Talete stupì i suoi concittadini prevedendo l'eclissi di<br />
Sole che ebbe luogo nel 585 a.C. e che perciò divenne famoso come uno dei "sette savi". Ma la sua<br />
visione cosmologica si basa su una distinzione assoluta tra alto e basso, per cui la Terra ha bisogno<br />
di un supporto che la sostenga e, nella parte abitata, è sostanzialmente piatta. Anche Anassimandro<br />
immagina le terre abitate come la base superiore di un cilindro la cui altezza non supera un terzo<br />
della larghezza. Singolare è la sua concezione delle stelle: esse non sarebbero altro che fori praticati<br />
nel cerchione interno di grandi ruote, piene di fuoco, che ruotano costantemente intorno alla Terra.<br />
I pitagorici, impressionati dalla straordinaria regolarità dei moti celesti, indagarono sui rapporti<br />
numerici tra periodi e distanze, cercando correlazioni con gli accordi musicali (da loro nasce l'idea<br />
dell'armonia dell'universo). Una delle loro maggiori preoccupazioni era quella del Grande Anno,<br />
ossia del periodo di tempo minimo necessario affinché l'intero insieme di astri osservabili<br />
raggiungesse esattamente la stessa configurazione (ricordiamoci di 2001 Odissea nello spazio).<br />
Comunque sia, il grande contributo dei pitagorici sta nell'aver teorizzato la perfezione della sfera<br />
come forma tipica degli astri e quindi anche della Terra, sospesa al centro dell'universo (senza<br />
quindi più alcuna distinzione assoluta tra alto e basso), e del moto circolare, come movimento<br />
principale dei corpi della volta celeste.<br />
Il moto circolare<br />
La scuola platonica, e in particolare Eudosso di Cnido (391-338 a.C.), diedero all'universo classico<br />
la sua forma definitiva. Il problema era quello di ricondurre a moti circolari, perfettamente regolari,<br />
i moti "apparenti" osservati nel cielo. A questo scopo Eudosso costruì il suo universo fatto di sfere<br />
rotanti concentriche, le sfere celesti. La sfera delle stelle fisse racchiude l'intero universo e la durata<br />
della sua rotazione, la più regolare, è la durata del giorno siderale. Il Sole, la Luna e i pianeti, detti<br />
astri erranti, compiono però movimenti molto più complicati e allora, per Eudosso, il problema<br />
diventa quello di trovare quali e quante sfere celesti rotanti - e con quale collegamento tra di loro -<br />
si debbano ipotizzare per spiegare ciò che si osserva.<br />
Aristotele riprende la concezione dei platonisti e mantiene la distinzione tra cielo e Terra. Il moto<br />
circolare è proprietà "naturale" dei corpi celesti (e della quintessenza, l'etere) in quanto distinti dai<br />
corpi terrestri, composti dai quattro elementi, che si muovono di moto naturale rettilineo. La<br />
differenze "tecniche" con Eudosso stanno nel numero delle sfere celesti - che divengono ben 55 - e<br />
nell'assunzione che ciascuna abbia in sé il proprio motore.<br />
6
Nei secoli successivi ad Aristotele cambiano anche i centri della ricerca astronomica. Questi si<br />
spostano fuori dalla Grecia, a Rodi, a Pergamo e, soprattutto, ad Alessandria d'Egitto. A Rodi<br />
lavora quello che viene considerato il più grande astronomo di tutta l'antichità, Ipparco di Nicea<br />
(194-120 a.C.), al quale si deve la scoperta della precessione degli equinozi. Ad Alessandria<br />
avevano lavorato Euclide (vissuto intorno al 300 a.C.) e Aristarco di Samo (310-230 ca. a.C.), il<br />
primo sostenitore conosciuto di quello che poi sarebbe divenuto il sistema copernicano, con il Sole<br />
al centro dell'universo. Qui la ricerca diviene specialistica, con precisi metodi di osservazione e<br />
misura. E qui l'astronomia classica raggiunge il suo punto di massimo sviluppo con l'Almagesto di<br />
Tolomeo (ca. 100-170), nel quale la speculazione cosmologica lascia il posto alla precisione<br />
matematica e il sistema geocentrico riceve la sua formalizzazione più rigorosa, ma anche più<br />
complicata, per essere in perfetto accordo con le osservazioni. I pianeti, per esempio, non ruotano<br />
attorno alla Terra: questa è collocata in una posizione "eccentrica", ossia spostata rispetto al centro<br />
della rotazione dei pianeti. Nello stesso tempo, i pianeti non si muovono su un cerchio perfetto, ma,<br />
mentre ruotano sul cerchio, compiono anche un movimento circolare intorno ai punti del cerchio<br />
stesso, ossia compiono un epiciclo. Resta comunque l'ipotesi di fondo che ogni movimento celeste<br />
debba risultare dalla composizione di moti perfettamente circolari. Per questo vi sono corpi celesti<br />
"eccezionali", come per esempio le comete che, non rispettando le regole, sono stati per tutta la<br />
storia delle comete associati dalla credulità popolare all'idea di eventi altrettanto "eccezionali",<br />
quasi sempre disastri e calamità.<br />
ANTECEDENTI E PRESUPPOSTI<br />
LA RIVOLUZIONE SCIENTIFICA<br />
La scienza medioevale e il recupero del pensiero classico<br />
Tra il VI e l'XI secolo non si può parlare di scienza nel senso moderno del termine. La diffusione<br />
del cristianesimo faceva sì che l'attenzione intellettuale fosse interamente rivolta a problematiche<br />
ultraterrene e a polemiche teologiche (in cui si traducevano i contrasti politici e sociali). L'opera dei<br />
classici venne in pratica dimenticata e i pochi che continuavano a tradurla e a commentarla<br />
raramente erano in grado di comprenderla correttamente. Fu solo con la ripresa degli scambi con<br />
l'Oriente e il contatto con la cultura araba che, all'inizio del secondo millennio, ripresero a circolare<br />
le conoscenze di un tempo. Dall'XI al XIII secolo si assiste a una grande ripresa delle traduzioni dei<br />
classici, che diventano il nucleo centrale di una nuova cultura medioevale.<br />
Naturalmente l'autore classico che influì maggiormente sul risveglio di interesse verso i fenomeni<br />
naturali fu Aristotele. Ma il recupero di Aristotele fu molto più difficile e contraddittorio di quanto<br />
comunemente si pensi. La Chiesa non vedeva certo di buon occhio un filosofo essenzialmente laico,<br />
che non credeva nell'immortalità dell'anima, nella trasmutabilità delle sostanze, nella creazione<br />
dell'universo e dell'uomo. Non a caso i teologi "ortodossi" scatenarono una violenta campagna antiaristotelica,<br />
giungendo persino a vietare l'insegnamento della dottrina aristotelica nelle più<br />
importanti università europee. Ma questo atteggiamento chiuso e dogmatico ebbe anche l'effetto di<br />
stimolare le prime critiche alla fisica aristotelica, critiche che poi sarebbero state utilizzate per<br />
giungere a una sua modifica radicale.<br />
Per brevità, parleremo soltanto della concezione del moto dei "proiettili" (ossia degli oggetti<br />
lanciati in moto "violento", ossia in una direzione diversa da quella del loro moto "naturale"). Per<br />
Aristotele, come sappiamo, la tendenza a muoversi verso l'alto o verso il basso è una caratteristica<br />
essenziale dei corpi e non richiede spiegazione: la causa di tale moto è interna al corpo stesso.<br />
Invece, il moto di un sasso lanciato verso l'alto, finché è diretto verso l'alto, deve avere una causa<br />
"esterna" al sasso stesso, causa che, appunto, veniva identificata nella spinta dell'aria risucchiata<br />
nello spazio lasciato quasi vuoto dal sasso in movimento.<br />
7
La teoria dell'impetus<br />
A questa teoria venne opposta in epoca medioevale la cosiddetta teoria dell'impetus. Secondo<br />
Giovanni Buridano (ca. 1300-ca. 1358), uno dei principali sostenitori di questa teoria, l'impetus è<br />
una specie di "forza" incorporea che viene impressa al proiettile nel momento del lancio e che il<br />
proiettile tende a conservare durante il suo moto. Solo la resistenza del mezzo, quindi, è la causa del<br />
progressivo rallentamento del corpo nella direzione del lancio. Viceversa, nella caduta verso il<br />
basso, è come se il moto naturale comportasse un continuo aumento dell'impetus: in questo modo si<br />
poteva cominciare ad avere una spiegazione dell'accelerazione dei gravi verso il basso che, pur<br />
essendo stata notata da Aristotele, non aveva trovato alcuna spiegazione nella sua opera. Nello<br />
stesso tempo, si poteva immaginare che, se non vi fosse stato un mezzo resistente, il corpo avrebbe<br />
proseguito indefinitamente il suo moto nella direzione del lancio: una conclusione in cui molti<br />
hanno visto l'embrione di quello che poi sarà chiamato principio d'inerzia.<br />
Queste osservazioni hanno portato gli storici della scienza a rivalutare l'importanza della ricerca<br />
scientifica del tardo Medioevo. Precisiamo meglio la questione.<br />
Medioevo e rivoluzione scientifica<br />
Di solito si dice che la rivoluzione scientifica è caratterizzata da due idee generali:<br />
- la natura può essere descritta esattamente in modo matematico;<br />
- le leggi che descrivono il funzionamento della natura vanno scoperte e verificate attraverso<br />
l'esperimento.<br />
Ora, se la rivoluzione scientifica consistesse solo nell'affermazione di queste idee, quanto abbiamo<br />
detto finora ci farebbe dedurre che i legami degli scienziati del Cinquecento e del Seicento con il<br />
passato siano più forti di quanto ci si potesse immaginare e che di vera e propria "rivoluzione" non<br />
si può parlare.<br />
In primo luogo, il campo principale in cui avvenne la rivoluzione scientifica è l'astronomia, scienza<br />
assai sviluppata nell'antichità, al punto che Copernico poté basare tranquillamente la sua teoria<br />
rivoluzionaria sulle osservazioni compiute da Tolomeo. Nello stesso tempo Copernico, da<br />
scienziato rinascimentale qual era, pensava che il suo fosse il vero sistema del mondo perché era<br />
convinto che fosse quello del mondo antico, quando gli scienziati erano più vicini all'Età dell'Oro.<br />
Sappiamo inoltre che Keplero fu concepito alle 4,37 del 16 maggio 1571 e nacque alle 14,30 del 27<br />
dicembre, dopo una gravidanza durata 224 giorni, 9 ore e 53 minuti, perché queste informazioni<br />
sono contenute in un oroscopo scritto da Keplero stesso.<br />
D'altra parte, il sapere magico, le pratiche alchemiche, gli stessi problemi artigianali, pratici,<br />
quotidiani, si basavano sempre su processi di osservazione ed esperimento. Le pratiche<br />
astrologiche, cabalistiche, ermetiche avevano a fondamento l'idea pitagorica dell'essenza numerica<br />
della realtà e della sua organizzazione secondo princìpi spirituali in quanto geometrici. Ora, queste<br />
idee ebbero larga diffusione nel tardo Medioevo, e furono le basi degli aspetti metodologici<br />
essenziali della nuova visione del sapere che si sarebbe affermata con la rivoluzione scientifica.<br />
Nello stesso tempo la rivoluzione scientifica non sarebbe avvenuta senza le ricerche e le<br />
acquisizioni della meccanica, della matematica, della logica e dell'ottica medioevali.<br />
La scienza rinascimentale: Leonardo da Vinci<br />
Il fatto che la rivoluzione scientifica non sia stata un avvenimento brusco e improvviso lo si capisce<br />
anche prendendo in considerazione alcuni importanti scienziati di transizione. Quando si pensa a<br />
uno dei massimi geni della storia della cultura umana, si pensa a Leonardo da Vinci (1452-1519).<br />
La ricerca storica ha chiarito però che non si può considerare Leonardo come il prototipo dello<br />
scienziato o dell'ingegnere moderno: la sua importanza e la sua genialità si possono comprendere<br />
8
solo se Leonardo viene collocato nel suo tempo, ossia in un'epoca in cui l'idea stessa di scienza<br />
naturale era profondamente diversa dalla nostra. Allora si capisce anche che non è possibile<br />
separare il Leonardo artista dal Leonardo scienziato, e questo perché, all'epoca, scienza e arte erano<br />
entrambe considerate forme di conoscenza del mondo reale.<br />
Comunque sia, Leonardo è una figura di transizione. La sua attività di ricerca sulle armonie e sulle<br />
leggi naturali, che quasi sempre si traduceva in disegni, schizzi, appunti annotati con il suo<br />
straordinario metodo di scrittura "alla rovescia", è in primo luogo un'attività di assimilazione<br />
profonda di ciò che avevano scoperto e trattato gli scienziati dell'antichità classica e del Medioevo.<br />
Uno dei suoi interessi principali erano i problemi relativi alla statica e all'equilibrio meccanico (che<br />
trovavano poi applicazione nella sua attività di scultore): importanti e originali sono i suoi studi<br />
sulla determinazione del baricentro di solidi più o meno regolari.<br />
I suoi studi di idraulica, invece, sono rivolti principalmente alle applicazioni tecniche, ma<br />
contengono anticipazioni importanti sui concetti in grado di rappresentare il moto dei fluidi. Le idee<br />
di Leonardo circa la dinamica dei corpi si rifanno alla teoria dell'impetus. La pittura diviene poi il<br />
motivo principale di interesse per quanto riguarda i problemi dell'ottica, rispetto ai quali Leonardo<br />
apprezza l'importanza del contributo della scienza araba. Quindi, se si vuole a tutti costi trovare in<br />
Leonardo qualche anticipazione della scienza futura, la si può anche trovare: ma non è questo il<br />
senso complessivo della sua ricerca. Il suo è invece un lavoro di studio e rielaborazione del sapere<br />
che lo aveva preceduto, con l'eccezionale capacità di individuare alcuni dei temi centrali di quella<br />
che sarebbe stata la scienza del futuro.<br />
LA TRANSIZIONE ALLA <strong>FISICA</strong> MODERNA<br />
Si è detto che descrizione matematica e metodo sperimentale sembrano i due aspetti essenziali del<br />
nuovo ideale di scienza fisica affermato dalla rivoluzione scientifica. In realtà, occorre aggiungere<br />
un terzo aspetto, di importanza certamente non minore dei precedenti. Gli scienziati del Seicento<br />
infatti cominciarono a sostenere e diffondere anche una concezione generale del mondo materiale,<br />
che si può ricondurre alla seguente affermazione:<br />
- la natura è un enorme meccanismo o insieme di meccanismi, in cui regnano ordine e regolarità.<br />
Dire "meccanismo" vuol dire che, nella descrizione dei cambiamenti naturali, che era l'oggetto della<br />
fisica aristotelica, vanno privilegati quei cambiamenti che sono riconducibili al solo "moto locale",<br />
ossia al movimento nello spazio e nel tempo, dei corpi materiali. Da questo punto di vista, il<br />
meccanicismo della rivoluzione scientifica è soprattutto un ritorno all'atomismo classico. Tutta la<br />
realtà è concepita come riconducibile al moto e all'interazione di corpuscoli, troppo piccoli per<br />
essere visti a occhio nudo, che urtano, si spingono, premono gli uni sugli altri.<br />
Quando questa concezione si affermò e si diffuse, superando l'opposizione degli ambienti<br />
intellettuali che si rifacevano a concezioni magiche, occultistiche, spiritualistiche, animistiche,<br />
religiose, il destino della fisica in un certo senso fu segnato. Noi tratteremo tre personaggi chiave di<br />
questa "rivoluzione" che svolsero la propria opera di insegnamento e persuasione rispettivamente in<br />
Italia, Gran Bretagna e in Francia, e cioè Galileo Galilei (1564-1642), Francis Bacon (1561-1626),<br />
noto in Italia come Francesco Bacone, e René Descartes - che conosciamo come Cartesio - (1596-<br />
1650).<br />
Galileo Galilei<br />
Due sono i fattori che ebbero importanza decisiva nella formazione di Galileo: lo studio<br />
approfondito della matematica più avanzata del suo tempo e lo studio dell'astronomia. Sappiamo<br />
che i due campi erano profondamente collegati, ma questo legame assunse in Galileo il significato<br />
di una profonda connessione in natura tra discorso matematico e discorso fisico. Al tempo stesso<br />
Galileo maturò un profondo rispetto per l'esperienza, purché essa fosse "sensata", ossia non si<br />
9
limitasse all'osservazione superficiale, ma andasse al di là delle apparenze immediate nella ricerca<br />
della risposta a domande precise poste dallo scienziato che intendeva verificare le proprie ipotesi.<br />
Delle fondamentali scoperte astronomiche di Galileo tratteremo in seguito; parleremo per ora delle<br />
scoperte fisiche, tenendo però sempre presente che esse sono strettamente collegate alle ricerche in<br />
campo astronomico e ne costituiscono una specie di coronamento.<br />
Per Galileo il movimento spontaneo (ossia non alterato o indotto da particolari effetti disturbanti)<br />
dei corpi "semplici" era regolato da esatte leggi matematiche, non importa se essi fossero corpi<br />
celesti o corpi terrestri. Proprio per eliminare uno dei principali argomenti degli anti-copernicani<br />
contro il moto della Terra, Galileo intraprese le sue ricerche sulla caduta dei gravi. Il problema<br />
iniziale era il seguente: se la Terra si muove, allora un grave non può cadere esattamente nel punto<br />
della superficie della Terra che si trova nell'intersezione tra la verticale passante per il corpo e la<br />
superficie stessa.<br />
Per rispondere a questa obiezione, Galileo dovette escogitare il famoso principio di relatività del<br />
moto e il principio di composizione delle velocità. Se il corpo è lasciato cadere dalla cima di una<br />
torre e la Terra ruota, allora il corpo visto da un osservatore perfettamente immobile, posto fuori<br />
dalla Terra, non parte da fermo ma ha una velocità iniziale in direzione orizzontale. Il corpo<br />
eseguirà allora una traiettoria parabolica fino ai piedi della torre. Per un osservatore sulla Terra, che<br />
partecipa al moto di questa, il corpo parte da fermo e cade esattamente lungo la verticale. Del resto<br />
tutti sanno che se uno fa cadere corpi all'interno della cabina di una nave in movimento nel mare,<br />
questi corpi cadono esattamente lungo la verticale senza risentire del moto della nave.<br />
Galileo non effettuò mai le esperienze della caduta di gravi dalla cima della torre di Pisa. Egli<br />
sapeva bene che in condizioni normali le idee aristoteliche avevano una certa rispondenza con<br />
l'osservazione. Il suo obiettivo era mostrare le leggi del moto in assenza di fattori perturbanti, cioè<br />
in condizioni di caduta non così "naturali" come quelle considerate dagli aristotelici. Per questo,<br />
Galileo inventò il piano inclinato, dando luogo al primo vero esperimento moderno. Egli era<br />
convinto che si possono strappare alla natura i suoi segreti limitandosi a osservarla senza interagire<br />
con essa. Bisogna creare condizioni che, eliminando i fattori che la teoria giudica perturbanti,<br />
rendano, al tempo stesso, più agevoli le osservazioni. Facendo rotolare sfere lungo un piano<br />
inclinato, per Galileo - e questa era un'ipotesi piuttosto audace - la legge di caduta dei gravi non è<br />
essenzialmente alterata. In più le sfere hanno velocità e accelerazioni più piccole e quindi più<br />
facilmente misurabili. In questo modo diventa evidente che tutti i corpi cadono con la stessa<br />
accelerazione, indipendentemente dalla loro natura e dal loro peso, e che gli spazi da essi percorsi<br />
nella caduta sono proporzionali ai quadrati dei tempi impiegati per percorrerli.<br />
Francesco Bacone<br />
Francesco Bacone merita di essere ricordato non tanto per contributi scientifici particolari, quanto<br />
perché, soprattutto nei paesi anglosassoni, divenne uno dei punti di riferimento del nuovo modo di<br />
pensare e indagare la natura caratteristico della rivoluzione scientifica. Nelle sue opere viene<br />
teorizzata con chiarezza la differenza tra antico e moderno e il suo corollario: l'idea di progresso.<br />
Bacone è contro ogni principio di autorità, ossia contro l'idea che il prestigio di uno scienziato del<br />
passato debba far accettare acriticamente le sue tesi. L'uomo, con il suo ingegno e con la sua<br />
ricerca, basata soprattutto sull'osservazione e sull'esperimento, deve liberarsi dal passato e scoprire<br />
l'infinità di cose nuove che il mondo ci offre continuamente, proprio per migliorare<br />
progressivamente le sue condizioni di vita. L'obiettivo della nuova scienza è, per Bacone,<br />
«estendere più ampiamente i limiti del potere e della grandezza dell'uomo».<br />
Cartesio<br />
Nella sua discussione sulla caduta dei gravi, Galileo doveva ammettere che la velocità orizzontale<br />
che il corpo aveva all'inizio della caduta si conservava indefinitamente e che a essa si sovrapponeva<br />
10
in misura sempre crescente la velocità verticale dovuta alla gravità. In qualche modo veniva<br />
affermato un principio d'inerzia, ma Galileo non seppe dare a quest'idea un pieno sviluppo. Cartesio<br />
lo pose invece a fondamento della sua "filosofia della natura" nella forma di un principio universale<br />
di conservazione della quantità di movimento.<br />
Per lui, ogni corpo materiale conserva indefinitamente la sua velocità (o, meglio, il prodotto della<br />
sua massa per la sua velocità, la quantità di moto) a meno che non incontri un ostacolo, ovvero un<br />
altro corpo. Il mondo cartesiano è essenzialmente meccanico, da lui stesso paragonato a un<br />
orologio. Ed è un mondo che è assolutamente pieno di materia, dato che è la materia a produrre lo<br />
spazio e questo non esiste senza materia. In questo mondo i movimenti dei corpi si trasmettono da<br />
un corpo all'altro attraverso contatti diretti (per esempio, urti) o indiretti (per esempio, pressioni<br />
esercitate da mezzi interposti). In tutto questo insieme di urti e pressioni, solo una cosa è certa: la<br />
quantità di movimento si conserva, sempre. Dio ha dato solo la spinta iniziale: tutto il resto è andato<br />
avanti da solo.<br />
LA NUOVA FILOSOFIA MECCANICA<br />
Cartesio non è solo colui che elabora una concezione meccanica generale del mondo, ma è anche<br />
autore di importanti scoperte matematiche (tutti noi oggi usiamo le coordinate cartesiane, ossia x, y<br />
e z), e di importanti ricerche sperimentali in idrostatica (ricordiamo il diavoletto di Cartesio) e<br />
ottica, dove stabilì con esattezza le leggi della riflessione e della rifrazione della luce. La<br />
concezione meccanicista, pur essendo una concezione sicuramente "metafisica" (ossia, posta "al di<br />
sopra" della fisica) suggeriva ipotesi sulla natura di alcuni fenomeni che potrebbero oggi apparire<br />
molto fantasiose. Al tempo stesso, però, spingeva gli scienziati a effettuare esperimenti per<br />
verificarle. Tra queste ipotesi assumevano particolare interesse i modelli meccanici, che in qualche<br />
modo illustravano i processi nascosti che avrebbero potuto dar luogo a un fenomeno noto.<br />
Così, per esempio, Cartesio critica le teorie animistiche e spiritualistiche proposte dai suoi<br />
predecessori per interpretare i fenomeni magnetici, immaginando che tra i poli di una calamita ci<br />
sia un flusso continuo di materia tale da ricondurre le attrazioni e le repulsioni magnetiche a<br />
fenomeni dovuti al moto e alla collisione reciproca di invisibili particelle microscopiche.<br />
Ora, la filosofia meccanica cartesiana, proprio per evitare ogni forma di spiritualismo, aborriva ogni<br />
forma di azione a distanza e negava l'esistenza del vuoto. Contemporaneamente, aboliva ogni<br />
distinzione essenziale tra gli elementi naturali, in termini di qualità aristoteliche. Tutte le sostanze<br />
erano composte di corpuscoli materiali che differivano solo per forma e dimensioni. In particolare<br />
la leggerezza e la pesantezza non erano più proprietà assolute degli elementi, ma dipendevano solo<br />
dalla differenza relativa di densità o peso specifico tra i vari corpi o tra un corpo e il mezzo in cui<br />
esso era immerso. Per questo assunse particolare importanza la scoperta che anche l'aria ha un peso.<br />
La ricerca sperimentale<br />
Fu proprio per rendere evidente tale ipotesi che Evangelista Torricelli (1608-1647) costruì il primo<br />
barometro a mercurio. Col barometro egli dimostrava che il peso dell'aria sulla base dello strumento<br />
era controbilanciato dalla colonnina di mercurio. Era cioè il peso dell'aria a sollevare il mercurio e<br />
non il cosiddetto horror vacui degli scienziati precedenti. E per questo le pompe aspiranti non<br />
potevano sollevare l'acqua per più di dieci metri (dato che era il "peso" dell'aria a spingere l'acqua<br />
verso l'alto). Ora, però, se si riempiva un tubo di mercurio e poi se ne apriva un'estremità<br />
immergendola in un recipiente contenente mercurio, il mercurio usciva dal tubo fino a che non<br />
rimaneva una colonna di circa 76 cm. Cosa rimaneva nella parte superiore del tubo che prima era<br />
piena? Si creava forse il vuoto?<br />
Blaise Pascal (1623-1662) analizzò a fondo il problema e confermò definitivamente l'intuizione di<br />
Torricelli. Egli fece eseguire un esperimento cruciale facendo portare il barometro torricelliano in<br />
alta montagna: l'altezza della colonnina di mercurio diminuiva all'aumentare della quota proprio<br />
11
come ci si sarebbe dovuti aspettare nell'ipotesi che questa fosse una "misura" del peso dell'aria<br />
sovrastante. Queste ricerche portarono all'enunciazione del principio di Pascal, ossia del fatto che la<br />
pressione esercitata da un liquido sulla base di un recipiente non dipende dalla forma del recipiente<br />
né dalla quantità di liquido in esso contenuta, ma solo dall'altezza del liquido e dalla sua densità.<br />
Lo studio delle proprietà dell'aria proseguiva anche in Gran Bretagna. Qui Robert Boyle (1627-<br />
1691) indagò sperimentalmente sull'elasticità dell'aria, scoprendo l'omonima legge pV = cost. Egli<br />
supponeva che gli atomi dell'aria somigliassero a piccolissime molle che si accorciano o si<br />
allungano quando l'aria viene compressa o decompressa. Negli stessi anni Robert Hooke (1635-<br />
1703) studiava i problemi dell'elasticità dei corpi solidi e analizzava i fenomeni ottici, in particolare<br />
quelli in cui si produce la dispersione della luce.<br />
In Olanda Christiaan Huygens (1629-1695) approfondì gli studi di meccanica e costruì il primo<br />
orologio a pendolo, strumento importantissimo per la navigazione e la ricerca astronomica. In<br />
seguito passerà anch'egli a studi di ottica, divenendo uno dei primi sostenitori della teoria<br />
ondulatoria della luce.<br />
LA NASCITA DELLA <strong>FISICA</strong> <strong>CLASSICA</strong>: ISAAC NEWTON<br />
Isaac Newton nacque a Woolsthorpe, un piccolo villaggio del Lincolnshire, il 25 dicembre 1642.<br />
Diciannovenne, entrò nel Trinity College dell'università di Cambridge, dove compì senza problemi<br />
la normale carriera degli studenti particolarmente dotati: nel 1668 fu nominato Master of Arts. Nelle<br />
sue opere giovanili, Newton si dedicò all'analisi critica della fisica cartesiana, che intendeva<br />
sottoporre al vaglio del controllo sperimentale. Tra i suoi interessi vi erano anche i fenomeni ottici e<br />
in particolare la teoria dei colori. Fu Newton il primo a sostenere teoricamente e a dimostrare<br />
sperimentalmente che i colori prodotti da un prisma attraversato da un fascio di luce non sono<br />
"creati" dal prisma stesso, ma preesistevano "mescolati" all'interno della luce bianca, e che, quindi,<br />
la luce bianca è la somma di tutti i colori dello spettro.<br />
Ma Newton era interessato soprattutto ai fenomeni meccanici ed è la sua concezione meccanicoatomistica<br />
del mondo che lo porta ad allontanarsi sempre di più dalle concezioni cartesiane. Se il<br />
mondo cartesiano è un plenum di materia, il mondo newtoniano è essenzialmente costituito da<br />
atomi in movimento in uno spazio assoluto, che è prevalentemente vuoto. Gli atomi sono le<br />
particelle più piccole di materia e sono stati creati da Dio all'interno dello spazio e del tempo<br />
assoluti (che, secondo Newton, possono essere considerati «le quantità di esistenza» di Dio stesso),<br />
in modo tale che a certe porzioni di spazio corrispondano determinate proprietà primarie<br />
(impenetrabilità, mobilità, opacità, durezza, capacità di agire tra loro e sui nostri sensi). Ma la<br />
materia occupa una zona molto piccola nello spazio: celebre è la frase in cui sostiene che se tutti gli<br />
atomi della materia dell'universo fossero compressi fino a eliminare ogni spazio vuoto tra essi,<br />
allora tutta la materia dell'universo potrebbe essere racchiusa dentro un guscio di noce.<br />
Newton cominciò a occuparsi anche del problema della gravità. I suoi studi matematici e la sua<br />
messa a punto del calcolo infinitesimale lo mettevano in grado di cercare una spiegazione fisica<br />
delle leggi già formulate da Keplero sul moto dei pianeti. E questa spiegazione fu trovata con la<br />
famosa legge dell'inverso del quadrato che descrive l'attrazione gravitazionale. Comunque sia,<br />
l'applicazione di tale legge per la spiegazione dei moti presupponeva una serie di princìpi che<br />
dovevano valere in generale per ogni corpo soggetto ad attrazioni o repulsioni, ossia a forze. Con<br />
l'intento di formulare in modo chiaro questi princìpi Newton compilò i famosissimi Philosophiae<br />
naturalis principia mathematica, che furono pubblicati nel 1678 con l'imprimatur della Royal<br />
Society.<br />
Nei Principia sono formulate le tre famose leggi del moto che ancora oggi poniamo a fondamento<br />
della meccanica classica. Ma su di esse si basa un grandioso edificio teorico che vede la materia,<br />
inerte e passiva, messa in movimento da forze di varia natura. Questa visione si estende non solo a<br />
livello cosmologico, ma anche a livello microscopico (Newton fu anche alchimista e chimico) in<br />
base a un principio di analogia universale che rende il microcosmo simile al macrocosmo. Insomma<br />
il mondo di Newton è un mondo in cui corpi materiali, costituiti in definitiva da aggregati di atomi,<br />
12
interagiscono fra loro tramite forze. Queste forze sono descritte come agenti direttamente a distanza<br />
nello spazio vuoto, ma Newton non pretese mai che fossero le vere cause del moto. Egli pensava<br />
che l'intelletto umano non sarebbe mai potuto giungere alla conoscenza delle cause ultime che<br />
erano solo in mente dei: con le leggi delle forze l'uomo, non potendo andare oltre, si limitava a<br />
descrivere in modo matematico ciò che gli era rivelato dall'esperienza.<br />
Da Newton in poi il programma di ricerca della fisica diviene quello di ricondurre i fenomeni a<br />
manifestazioni dell'azione di forze tra i corpi materiali; e questo sarà il programma della fisica<br />
classica per più di un secolo fino a che non interverranno altri profondi cambiamenti.<br />
L'UNIVERSO INFINITO<br />
Il noto storico della scienza Alexandre Koyré ha descritto il senso profondo della rivoluzione<br />
scientifica nei titoli di due suoi famosi libri: Dal mondo del pressappoco all'universo della<br />
precisione e Dal mondo chiuso all'universo infinito. Egli faceva riferimento ovviamente alla nuova<br />
precisione matematica non solo nella descrizione dei fenomeni, ma anche nella costruzione degli<br />
strumenti e al cambiamento della visione del cosmo prodotta dagli astronomi a partire da<br />
Copernico.<br />
Il De revolutionibus orbium coelestium libri VI è pubblicato da Nicola Copernico (1473-1543)<br />
nell'anno della sua morte. Come abbiamo detto, la nuova teoria si muove ancora in un contesto<br />
rinascimentale e viene comunemente definita come "l'antica opinione pitagorica". Quasi tutti la<br />
consideravano solo un modello ipotetico, utile per effettuare calcoli e previsioni. Per questo la<br />
teoria di compromesso dell'astronomo danese Tycho Brahe (1546-1601) fu la più seguita fino alla<br />
metà del Seicento. Come Tolomeo, Tycho lasciava la Terra al centro dell'universo; e come Tolomeo<br />
pensava che attorno alla Terra girassero la Luna e il Sole; a differenza di Tolomeo però pensava che<br />
gli altri cinque pianeti ruotassero attorno al Sole.<br />
Giovanni Keplero (1571-1630) era uno straordinario misuratore delle posizioni degli astri, anche<br />
perché credeva fermamente nell'astrologia. Il suo contributo principale alla storia dell'astronomia fu<br />
la dimostrazione che i pianeti non eseguivano orbite perfettamente circolari intorno al Sole, ma<br />
percorrevano ellissi delle quali il Sole occupava uno dei fuochi. Le tre leggi di Keplero vengono<br />
presentate in ogni manuale di fisica e costituiscono la base su cui Newton avrebbe costruito la sua<br />
teoria della gravitazione universale. Ma Keplero non era ancora un filosofo meccanico: motivi<br />
pitagorici e platonici dominavano la sua opera, tanto che la "scoperta" a cui egli diede maggior<br />
valore fu quella da lui ritenuta capace di svelare il "mistero dell'universo". Secondo questa visione,<br />
le distanze tra i pianeti erano determinate dal fatto che le sfere planetarie erano intervallate da<br />
"solidi regolari" in uno schema in cui si susseguivano: sfera di Saturno, cubo, sfera di Giove,<br />
tetraedro, sfera di Marte, dodecaedro, sfera della Terra, icosaedro, sfera di Venere, ottaedro, sfera di<br />
Mercurio. Questa scoperta rivelava che Dio era un "geometra" e tutto ciò che aveva creato era<br />
espressione di ordine e armonia.<br />
Il cannocchiale di Galileo<br />
Ma le scoperte astronomiche più sensazionali, che portarono a un cambiamento generale di<br />
atteggiamento verso lo studio dei fenomeni celesti, furono quelle effettuate da Galileo. Nel 1609<br />
Galileo costruisce il suo cannocchiale: si apre un "mondo nuovo" alle ricerche dell'uomo.<br />
Ecco l'impressionante successione di scoperte permesse dal cannocchiale:<br />
- l'osservazione della Luna rivelò che essa era straordinariamente simile alla Terra, con montagne e<br />
valli, crateri e mari, altro potente argomento a favore dell'abolizione delle differenze tra Terra e<br />
cielo;<br />
- l'osservazione del cielo con il telescopio significava anche vedere innumerevoli nuove stelle, e<br />
quindi dedurre che le stelle non potessero essere tutte alla stessa distanza dalla Terra;<br />
13
- tra le nuove stelle, quattro corpi, piccoli ma molto luminosi, compivano movimenti stranamente<br />
irregolari vicino al pianeta Giove. In pochi giorni Galileo trovò la spiegazione: si trattava di quattro<br />
satelliti di Giove. E questo significava che crollava una delle obiezioni più potenti al sistema<br />
copernicano, ossia quella che sosteneva che se la Luna avesse girato intorno alla Terra e la Terra<br />
intorno al Sole, la Terra avrebbe dovuto "perdere per strada" la Luna durante il suo moto;<br />
- la scoperta delle fasi di Venere diede per Galileo il colpo fatale al sistema tolemaico, rivelandosi<br />
una prova decisiva a favore del sistema copernicano;<br />
- la scoperta delle macchie solari rese evidente come il Sole compisse una rotazione attorno al<br />
proprio asse.<br />
La storia di Galileo è troppo nota per essere qui riassunta in poche righe. Diciamo solo che la sua<br />
condanna fu dovuta essenzialmente a un duplice rifiuto: in primo luogo il rifiuto (fino all'abiura) di<br />
abbandonare il sistema copernicano e, in secondo luogo, il rifiuto di considerare il sistema<br />
copernicano come una semplice ipotesi matematica utile per "salvare i fenomeni" anziché una<br />
descrizione di ciò che avveniva realmente nell'universo.<br />
Concludiamo questo breve excursus con un accenno alle visioni contrapposte di Cartesio e Newton<br />
circa la natura e la struttura dell'universo. Per Cartesio - lo sappiamo - il vuoto non esiste. Quindi<br />
l'universo è pieno di materia, anche se questa materia non è accessibile all'osservazione. Non<br />
potendo esistere attrazioni a distanza, in cui Cartesio vedeva una inaccettabile componente<br />
spiritualistica, i pianeti erano trascinati nel loro moto da un enorme vortice di questa materia<br />
invisibile, al cui centro stava il Sole. Per Newton invece lo spazio assoluto è solo l'insieme dei posti<br />
dove può stare o non stare la materia. Non è che Newton giurasse sull'esistenza reale delle azioni a<br />
distanza, che per lui erano un modo di schematizzare i fenomeni: l'importante è che con la legge<br />
dell'attrazione gravitazionale si potevano prevedere matematicamente con esattezza le traiettorie<br />
ellittiche dei pianeti. Newton aveva dei dubbi sull'attrazione a distanza ma, come lui stesso diceva,<br />
«non faccio ipotesi», ossia non costruisco modelli di un ipotetico meccanismo che spieghi<br />
l'attrazione gravitazionale. Solo in alcuni suoi scritti meno "ufficiali" compare l'ipotesi, che ci<br />
rimanda ad Aristotele, dell'esistenza di un etere cosmico, composto di particelle che non hanno peso<br />
e che tendono a respingersi tra loro. L'attrazione gravitazionale sarebbe stata allora un effetto della<br />
spinta dell'etere, il quale tenderebbe a spostare i pianeti da zone in cui esso è più denso a zone in cui<br />
è meno denso.<br />
IL NEWTONIANESIMO DEL SETTECENTO<br />
IL DUALISMO TRA MATERIA E FORZA ALLA BASE DELLA SPIEGAZIONE<br />
<strong>FISICA</strong><br />
L'eredità che Newton lasciava ai suoi successori era problematica. Da un lato c'era la materia,<br />
composta di atomi, che per definizione era inerte e passiva. Dall'altro lato c'erano le forze, ossia la<br />
manifestazione misurabile di princìpi di attività che proprio per questo non potevano essere di<br />
natura materiale, ma rimandavano all'intervento diretto di Dio sul mondo.<br />
Ora, da un punto di vista fisico, il problema più importante era quello di ricondurre a questa<br />
semplice base interpretativa la molteplicità dei fenomeni naturali. In altre parole, come spiegare le<br />
differenze tra le azioni fisiche, meccaniche, elettriche, magnetiche, termiche, ottiche, che venivano<br />
osservate nella vita quotidiana e nei laboratori? Vi erano essenzialmente tre possibilità: o si<br />
postulavano differenti tipi di materia, o si postulavano differenti tipi di forza, o si consideravano<br />
entrambe le possibilità.<br />
Vedremo in seguito come queste diverse concezioni furono adottate e applicate dagli scienziati del<br />
Settecento.<br />
Tuttavia, il cambiamento più importante che avviene in questo secolo si può sintetizzare<br />
nell'affermazione: "nel Settecento nasce la fisica moderna". Infatti:<br />
14
- quella che all'inizio del secolo era un'attività eminentemente speculativa di alcuni "filosofi<br />
naturali" diviene alla fine del secolo un'attività altamente professionale e specializzata di studiosi<br />
che hanno avuto un'accurata formazione, soprattutto matematica, nelle università e nelle istituzioni<br />
scientifiche;<br />
- alla fine del secolo questa attività, a differenza di quanto avveniva all'inizio, viene finanziata dai<br />
governi, che cominciano ad apprezzare l'importanza delle sue applicazioni tecniche;<br />
- quella che era una descrizione semiqualitativa di molti fenomeni diviene una trattazione<br />
matematica rigorosa che richiede, come si è detto, una conoscenza profonda del calcolo<br />
infinitesimale;<br />
- quelle che erano dimostrazioni sperimentali volte soprattutto a mostrare effetti curiosi e<br />
sorprendenti di ogni genere, senza alcuna sistematicità, divengono esperimenti precisi, che si<br />
servono di strumenti di misura particolarmente sensibili (per esempio, termometri in grado di<br />
valutare variazioni di temperatura di un centesimo di grado, barometri capaci di misurare variazioni<br />
di pressione di un decimo di millimetro di mercurio, elettrometri in grado di misurare differenze di<br />
potenziale di un decimo di Volt, ecc.) per controllare teorie che predicono matematicamente in<br />
maniera esatta l'andamento di certi fenomeni.<br />
Insomma, alla fine del Settecento, le principali opere sistematiche che vogliono illustrare le<br />
conoscenze fisiche - soprattutto le enciclopedie e i dizionari di fisica - non riescono a essere più<br />
corte di cinque o sei volumi, e quasi sempre gli autori ammettono di non poter comunque essere<br />
esaurienti.<br />
LO SVILUPPO DELLA MECCANICA<br />
Quella che noi oggi chiamiamo meccanica "newtoniana" o meccanica "classica" fu delineata da<br />
Newton, ma arrivò a matura formulazione solo nella seconda metà del Settecento. A questo<br />
sviluppo contribuì naturalmente il progresso del calcolo infinitesimale che rivelò le straordinarie<br />
capacità di previsione della meccanica consentendo di delineare con estrema precisione il moto<br />
degli astri. Nello stesso tempo, proprio il moto degli astri metteva in evidenza la straordinaria<br />
stabilità e regolarità dei moti del sistema solare. Queste stabilità e regolarità erano spiegabili in base<br />
a un principio di conservazione, quello della quantità di moto, che era una diretta conseguenza delle<br />
leggi della meccanica.<br />
Se però si consideravano fenomeni relativi a meccanismi o a corpi che si trovano sulla Terra e che<br />
sono soggetti a inevitabili attriti, la quantità di moto sembrava svanire progressivamente. A poco a<br />
poco ci si rese conto che i vari tentativi di produrre un moto perpetuo, ossia un movimento capace<br />
di continuare indefinitamente, o addirittura di crescere nel tempo in modo da produrre effetti magari<br />
utilizzabili anche dal punto di vista pratico, erano necessariamente destinati al fallimento. Questa<br />
constatazione sembrava di nuovo riprodurre la contrapposizione tra caducità dei fenomeni terreni<br />
ed eternità dei fenomeni celesti.<br />
Leibniz e d'Alembert<br />
Fu Gottfried Wilhelm Leibniz (1646-1716) il primo a non accettare questo stato di cose, peraltro in<br />
aperta contrapposizione con lo stesso Newton, che credeva nell'inevitabile tendenza all'arresto di<br />
ogni movimento, e quindi nella necessità del continuo intervento di Dio per "mantenere in vita"<br />
l'universo. Leibniz sostenne, per altro solo in modo semiquantitativo, il principio di conservazione<br />
della forza viva di ogni movimento, da lui definita come il prodotto della massa del corpo per il<br />
quadrato della sua velocità. Per lui, la perdita di movimento dei corpi era solo apparente dato che la<br />
forza viva non veniva distrutta dall'attrito ma semplicemente si trasformava nella forza viva dei<br />
costituenti microscopici del corpo stesso.<br />
Ora, se consideriamo la capacità di produrre un effetto qualsiasi da parte di un corpo in moto (per<br />
esempio, la capacità di deformare un altro corpo urtandolo, o di spingerlo verso l'alto, ecc.), questa<br />
15
capacità è in effetti proporzionale alla forza viva del corpo e non alla sua quantità di moto. Per<br />
questo motivo Leibniz è considerato il grande progenitore di quello che poi sarebbe diventato il<br />
principio di conservazione dell'energia.<br />
Se però consideriamo l'urto tra due corpi, altrimenti liberi di muoversi, il principio della<br />
conservazione della forza viva vale solo quando l'urto è elastico, ma non quando l'urto è anelastico<br />
(ossia quando un corpo urta contro qualcosa di molle e si ferma), mentre il principio di<br />
conservazione della quantità di moto continua a valere in entrambi i casi. Questa discrepanza<br />
suscitò un lungo dibattito tra i sostenitori dell'uno o dell'altro dei due princìpi. La controversia fu<br />
risolta da Jean-Baptiste Le Rond d'Alembert (1717-1783), che può essere considerato il vero<br />
fondatore della meccanica razionale, con la semplice dimostrazione del fatto che entrambi i princìpi<br />
valevano in situazioni differenti e che la forza viva era il risultato dell'azione di una forza per un<br />
dato spazio, mentre la quantità di moto era il risultato dell'azione di una forza per un dato intervallo<br />
di tempo. Le due grandezze avevano quindi significati e contesti di applicazione differenti.<br />
Eulero e Lagrange<br />
Tra gli scienziati di questo periodo ricordiamo anche Leonhard Euler (1707-1783), da noi chiamato<br />
normalmente Eulero, e Giuseppe Luigi Lagrange (1736-1813) per l'approfondimento teorico e<br />
l'estensione del campo di applicazione della meccanica newtoniana. Fu infatti Eulero a enunciare<br />
chiaramente la seconda legge della dinamica nei termini oggi usuali, ossia come F = ma. Lagrange,<br />
da grande matematico qual era, fondò la cosiddetta meccanica analitica, che possiamo considerare<br />
come la formulazione più rigorosa e completa della meccanica classica. In particolare egli riuscì a<br />
dimostrare il teorema delle forze vive, facendo vedere che, nei fenomeni meccanici in cui è assente<br />
ogni forma di attrito, c'è una grandezza che si conserva e ha un valore costante durante tutto il moto<br />
del sistema.<br />
Problemi come questo, alla fine del secolo, non avevano più tanta rilevanza per le questioni<br />
astronomiche, ma assumevano grande importanza nello studio del funzionamento delle macchine,<br />
ossia di quei congegni, talvolta molto complicati, con i quali si cercava di sfruttare un agente<br />
motore - in genere, la caduta dell'acqua, o il vento - per ottenere un effetto utile (la rotazione di una<br />
macina, il funzionamento di una pompa, il movimento di un telaio, ecc.). Il fatto che fosse<br />
impossibile mantenere un moto perpetuo spingeva comunque tutti a pensare che qualcosa<br />
dell'azione dell'agente motore andasse inevitabilmente perduto a causa degli attriti e degli urti tra le<br />
parti della macchina. Le condizioni imposte da Lagrange diventavano un punto di riferimento<br />
ideale verso cui orientare la costruzione di macchine sempre più efficienti.<br />
L'ELETTROLOGIA: DAL DIVERTIMENTO ALLA <strong>FISICA</strong> MATEMATICA<br />
Il fenomeno in base al quale alcuni oggetti (soprattutto l'ambra, in greco électron), se strofinati,<br />
attirano altri oggetti (piume, polvere, ecc.) era noto fin dall'antichità. Verso la metà del Settecento i<br />
fenomeni elettrici diventarono uno degli argomenti più popolari della fisica. I cosiddetti<br />
"dimostratori" andavano in giro per le case, normalmente dei nobili e dei ricchi borghesi, e<br />
strofinando un lungo tubo di vetro elettrizzavano i capelli delle signore, facevano scoccare scintille<br />
(famoso era il cosiddetto "bacio elettrico", ossia la piccola ma pungente scintilla che scoccava tra le<br />
labbra accostate di due persone se una di loro era stata precedentemente "elettrizzata") e<br />
provocavano altri effetti curiosi e divertenti. Attratto da queste dimostrazioni, Benjamin Franklin<br />
(1706-1790) cominciò le sue ricerche che lo portarono a scoprire che i fulmini altro non sono che<br />
immani scariche elettriche. Ma l'importanza di Franklin per lo sviluppo dell'elettrologia sta<br />
soprattutto nel fatto che egli contribuì in modo decisivo - utilizzando la distinzione, già scoperta da<br />
Stephen Gray (1666-1737), tra conduttori e isolanti elettrici - all'idea che l'elettricità fosse un<br />
particolare tipo di materia fluida che poteva entrare o uscire dai corpi.<br />
16
Quest'idea fu raccolta dal tedesco Franz Ulrich Theodor Aepinus (1724-1802), il quale cominciò a<br />
pensare che la ricerca si dovesse occupare quantitativamente delle forze elettriche che si<br />
esercitavano tra le particelle del fluido elettrico. Nello stesso tempo, tutta la seconda metà del<br />
Settecento fu caratterizzata dal dibattito tra coloro che pensavano che l'elettricità fosse un unico<br />
fluido - sovrabbondante nei corpi carichi positivamente e carente in quelli carichi negativamente - e<br />
coloro che ritenevano invece che fosse costituita da due fluidi, uno positivo e uno negativo. Certo<br />
era che tra corpi carichi di elettricità di segno opposto si verificavano azioni attrattive, mentre tra<br />
corpi carichi di elettricità dello stesso segno si esercitavano azioni repulsive.<br />
Nel frattempo si sviluppava l'uso di potenti accumulatori di elettricità, come le cosiddette bottiglie<br />
di Leida (i prototipi dei moderni condensatori), e di potenti generatori di elettricità, le cosiddette<br />
macchine elettrostatiche, le quali sfruttando il continuo strofinio di dischi ruotanti di materiale<br />
isolante, erano capaci di generare differenze di potenziale di centinaia di migliaia di Volt e<br />
provocare scintille lunghe anche qualche decina di centimetri.<br />
Furono comunque le ricerche di Henry Cavendish (1731-1810) e di Charles-Augustin de Coulomb<br />
(1736-1806) a rendere l'elettrologia una branca della nascente fisica matematica. A loro si deve<br />
infatti la dimostrazione sperimentale (ottenuta tra il 1770 e il 1780) che le cariche elettriche si<br />
attraggono o si respingono con una forza proporzionale all'inverso del quadrato della distanza,<br />
proprio come l'attrazione gravitazionale. L'importanza di questa scoperta fu enorme perché diede<br />
origine all'idea di una profonda unità fra tutti i fenomeni fisici elementari.<br />
Una svolta altrettanto importante fu prodotta dall'invenzione della pila elettrica da parte di<br />
Alessandro Volta (1745-1827). La pila di Volta segna infatti l'inizio dello studio della corrente<br />
elettrica (le scariche elettriche che si studiavano in precedenza erano fenomeni di durata<br />
brevissima) e dell'idea che i fenomeni chimici (la pila è un congegno in cui avvengono reazioni<br />
chimiche) sono fenomeni in cui l'elettricità gioca un ruolo essenziale.<br />
IL PROBLEMA DEL CALORE: SOSTANZA O FORMA DI MOVIMENTO?<br />
L'altro campo di particolare interesse per gli sperimentatori e per i teorici del Settecento fu quello<br />
dei fenomeni termici. Bisogna subito dire che le ricerche in questo settore furono svolte<br />
fondamentalmente da chimici, essendo il calore un fattore che influenzava in modo evidente<br />
soprattutto le reazioni chimiche. Ma la chimica del Settecento non era poi tanto distinta dalla fisica,<br />
come avviene oggi. Per esempio, la differenza tra gli stati solido, liquido e aeriforme (o gassoso) di<br />
una sostanza (differenza prodotta in maniera determinante dal calore) era oggetto di studio sia di<br />
chimici sia di fisici.<br />
Ora, fin dal Seicento ci si era posti il problema della natura del calore. Boyle e Newton pensavano<br />
per esempio che il calore fosse l'effetto del movimento "insensibile" (ossia non visibile<br />
direttamente) degli atomi delle sostanze riscaldate - e questa era la teoria cinetica del calore.<br />
Cartesio invece pensava che il calore fosse una materia particolarmente "sottile", che egli chiamava<br />
aristotelicamente "materia del fuoco", che entrava o usciva dai corpi. La polemica tra i sostenitori<br />
dell'una o dell'altra teoria continuò per tutto il secolo.<br />
Ci limiteremo a raccontare brevemente le vicende decisive della storia del calore parlando di due<br />
scienziati che dedicarono gran parte della loro attenzione ai fenomeni termici. Il primo è Benjamin<br />
Thompson (1753-1814), un avventuriero americano, amante della fisica sperimentale, divenuto poi<br />
conte di Rumford soprattutto per le sue attività politiche in cui non mancarono operazioni di<br />
spionaggio; il secondo è Joseph Black (1728-1799), docente di chimica nelle principali università<br />
scozzesi.<br />
Rumford era un tenace sostenitore della teoria cinetica ed è noto per le sue ricerche sulla<br />
produzione di calore per attrito, un fenomeno che egli considerava decisivo per dimostrare che il<br />
calore poteva essere creato e quindi non poteva essere una sostanza. Importanti in questo senso<br />
furono le osservazioni relative all'enorme aumento di temperatura che si verificava allorché<br />
venivano alesate le bocche dei cannoni.<br />
17
Più sistematiche e meno qualitative furono le ricerche di Black, che invece risultarono decisive per<br />
l'affermazione, verso la fine del secolo, della teoria sostanziale del calore. I problemi di Black erano<br />
di due tipi: a) lo scambio di calore tra due corpi a diversa temperatura messi a contatto tra loro; b) la<br />
produzione dei passaggi di stato (da solido a liquido a gas e viceversa) di una sostanza riscaldata o<br />
raffreddata. Le sue scoperte furono di estrema importanza. In primo luogo egli si accorse che, nello<br />
scambio di calore tra due sostanze diverse, la stessa quantità di calore non produceva lo stesso<br />
aumento di temperatura in tutte le sostanze. Questo si poteva spiegare solo ammettendo che le<br />
diverse sostanze avessero una diversa recettività per il calore, o, come si dice oggi, un diverso<br />
calore specifico. In secondo luogo egli verificò che, quando una sostanza effettuava un passaggio di<br />
stato, per esempio veniva sciolto il ghiaccio riscaldandolo, la sua temperatura non variava anche se<br />
si continuava a fornire calore. In altre parole, il calore fornito diventava latente, ossia non poteva<br />
essere rilevato dal termometro.<br />
E' importante, per inciso, ricordare che nel 1769, l'ingegnere scozzese James Watt (1736-1819), che<br />
era in contatto appunto con Black, brevetta «un nuovo modo per diminuire il consumo di vapore e<br />
di combustibile nella macchina a vapore», ossia realizza in pratica la prima moderna macchina a<br />
vapore. E' la premessa della grande rivoluzione industriale, che avrebbe sconvolto il mondo<br />
europeo dando luogo alle grandi città e alle grandi fabbriche, dato che con la macchina a vapore si<br />
poteva disporre di grandi quantità di "potenza motrice" in qualsiasi luogo e non solo dove c'erano<br />
fiumi e cascate.<br />
La fisica francese<br />
Le osservazioni di Black erano difficilmente interpretabili attraverso una teoria cinetica, ma lo<br />
erano abbastanza facilmente con una teoria sostanziale. Ma il motivo dell'affermazione pressoché<br />
incontrastata della teoria sostanziale - o teoria del fluido calorico, come venne ufficialmente<br />
chiamata - alla fine del secolo fu di carattere prettamente metodologico. Con la rivoluzione francese<br />
e l'epoca napoleonica, la Francia divenne di fatto la potenza europea più avanzata, soprattutto dal<br />
punto di vista culturale. Le università francesi e le istituzioni collaterali, come l'Accademia di<br />
Francia e l'École Polytechnique (una vera e propria facoltà di ingegneria in senso moderno),<br />
fornivano una preparazione avanzatissima, soprattutto dal punto di vista matematico. In Francia,<br />
parallelamente ai grandi sviluppi dell'analisi matematica e della geometria analitica, si sviluppa la<br />
fisica matematica in senso moderno. Lo studio dei fenomeni fisici diventa essenzialmente<br />
quantitativo.<br />
Si trattava comunque di una generalizzazione e razionalizzazione della meccanica classica. Per<br />
spiegare un fenomeno fisico bisognava trovare la legge matematica del suo comportamento e questa<br />
legge si trovava quando si conoscevano le forze meccaniche tra i corpi in gioco.<br />
In questo contesto la fisica francese può essere definita come la fisica dei "fluidi imponderabili". I<br />
fisici francesi, infatti, risolvono il dualismo newtoniano tra materia e forza immaginando l'esistenza<br />
di diversi tipi di materia che, pur essendo distinti dalla "materia ponderabile" - quella cioè che<br />
forma la massa di una sostanza -, si combinano e si legano in qualche modo con questa, e sono<br />
responsabili dei vari fenomeni fisico-chimici non esclusivamente meccanici. In particolare esistono<br />
un fluido elettrico, un fluido magnetico, un fluido calorico, un fluido luminoso, responsabili<br />
rispettivamente dei fenomeni elettrici, magnetici, termici e ottici. L'importante è che le forze con<br />
cui le particelle di questi fluidi interagiscono tra loro e con le molecole della materia ponderabile<br />
siano descritte da semplici espressioni matematiche. In questo modo si può, in prospettiva, arrivare<br />
a prevedere le leggi matematiche di evoluzione di tutti i fenomeni.<br />
Il capo riconosciuto di questa scuola di pensiero fu Pierre-Simon de Laplace (1749-1827), a cui si<br />
deve l'enunciazione chiara dell'ideale di conoscenza perseguito dai fisici matematici francesi<br />
dell'epoca napoleonica. Lasciando nel 1814 il suo testamento spirituale Laplace afferma:<br />
«Dobbiamo considerare lo stato attuale dell'universo come l'effetto del suo stato anteriore e come la<br />
causa del suo stato futuro. Un'intelligenza che conoscesse, a un dato istante, tutte le forze da cui è<br />
animata la natura e la disposizione di tutti gli enti che la compongono e che inoltre fosse<br />
18
sufficientemente profonda da sottomettere tutti questi dati all'analisi, ebbene, essa abbraccerebbe in<br />
una stessa formula i movimenti dei più grandi corpi dell'universo e degli atomi più leggeri; per essa<br />
nulla sarebbe incerto e ai suoi occhi sarebbero presenti sia il futuro sia il passato. Lo spirito umano,<br />
nella perfezione che esso ha saputo dare all'astronomia, offre un pallido esempio di questa<br />
intelligenza. Le sue scoperte nella meccanica e nella geometria, insieme a quella della gravitazione<br />
universale, l'hanno messo in grado di abbracciare nelle stesse espressioni analitiche gli stati passati<br />
e futuri del sistema del mondo».<br />
LA NASCITA DELL'ASTRONOMIA MODERNA<br />
Le affermazioni di Laplace avevano a fondamento soprattutto gli enormi progressi compiuti<br />
dall'astronomia nel secolo appena trascorso. La teoria di Newton consentiva previsioni matematiche<br />
precise e si rivelò presto, in riferimento ai movimenti che avvenivano nel sistema solare, più<br />
efficace di quanto egli stesso aveva supposto. Edmund Halley (1656-1727) calcola infatti le orbite<br />
di alcune comete, scoprendo che sono normali corpi pesanti che compiono orbite molto allungate<br />
intorno al Sole. Egli scopre così che quelle apparse nel 1531, 1607 e 1682 sono in realtà una sola<br />
cometa e prevede che essa riapparirà nel 1758, cosa che puntualmente si verifica (purtroppo dopo la<br />
sua morte). Basta questo avvenimento a convincere tutto il continente europeo della straordinaria<br />
potenza della teoria di Newton e a sconfiggere definitivamente i cartesiani.<br />
Ma l'importanza di Halley non si esaurisce qui. Confrontando le posizioni di alcune stelle quali<br />
risultavano dai vecchi cataloghi astronomici con quelle appena osservate, si accorse che si erano<br />
spostate, sia pure di poco. Crollava così il mito delle stelle fisse e l'idea che esse fossero collocate<br />
su un'unica sfera. Oltre a questi spostamenti se ne scoprirono poi altri, regolari e periodici. James<br />
Bradley (1693-1762), controllando la posizione di una stella, scoprì che questa descriveva<br />
un'ellisse. Subito dopo si accorse che questo movimento era condiviso da tutte le stelle. La<br />
spiegazione del fenomeno fu trovata dallo stesso Bradley: era un effetto di moto apparente dovuto<br />
alla combinazione della velocità della luce proveniente dalle stelle e della velocità della Terra lungo<br />
la sua orbita. Il cosiddetto fenomeno dell'aberrazione astronomica fu la prima prova inconfutabile<br />
che il fatto che la Terra girasse intorno al Sole non era solo un'utile ipotesi.<br />
La precisione degli strumenti aumentava, i telescopi diventavano sempre più grandi e potenti e le<br />
scoperte cominciavano a susseguirsi con impressionante rapidità. Si scoprì che la Terra non era una<br />
sfera perfetta, ma era schiacciata ai poli; si fecero studi sulla coda delle comete che era sempre<br />
diretta nella direzione contraria a quella del Sole; si cominciò a intuire che le nebulose erano in<br />
molti casi composte da miriadi di stelle che i telescopi non riuscivano a distinguere.<br />
Il vero fondatore della moderna astronomia può essere considerato Friedrich Wilhelm Herschel<br />
(1738-1822) che, utilizzando giganteschi telescopi (l'ultimo dei quali aveva una distanza focale di<br />
12 m e impiegava uno specchio parabolico di un metro e mezzo di diametro), notevolmente<br />
perfezionati anche dal punto di vista ottico, si dedicò all'esplorazione sistematica del cielo nelle<br />
zone ancora inesplorate. In questo modo la notte del 13 marzo 1781 scopre un astro dalle singolari<br />
dimensioni e che compie un'orbita praticamente circolare: si tratta di Urano, il settimo pianeta del<br />
sistema solare. Così scoprirà anche i satelliti di Urano e di Saturno, osserverà le stelle doppie, altre<br />
nebulose prima sconosciute e altri grandi ammassi stellari.<br />
Le prime ipotesi cosmologiche<br />
Nel contempo cominciavano a essere formulate le prime ipotesi cosmologiche. Alcune di queste<br />
partivano dall'idea che la distribuzione delle stelle attorno al sistema solare non fosse uniforme in<br />
tutte le direzioni. In particolare, Johann Heinrich Lambert (1728-1777) fu il primo a teorizzare<br />
l'esistenza, nell'universo, di una gerarchia di oggetti: i sistemi planetari (come il sistema solare), gli<br />
ammassi di stelle, le galassie e gli insiemi di galassie. Fu Herschel, con le sue osservazioni<br />
sistematiche, a scoprire che il sistema solare si trova a sua volta all'interno di un enorme sistema di<br />
19
stelle, ossia di una galassia, la Via Lattea, la quale per altro ha una forma appiattita. Egli riconobbe<br />
pure la possibilità teorica che le galassie fossero più d'una e potessero essere considerate vere e<br />
proprie "isole di universo".<br />
Lo sviluppo della meccanica celeste fornisce infine gli strumenti teorici per effettuare previsioni<br />
sull'origine ed evoluzione del sistema solare. L'ipotesi più nota, sostenuta inizialmente dal giovane<br />
Immanuel Kant (1724-1804) e poi perfezionata da Laplace, è quella che attribuisce la nascita del<br />
sistema solare all'iniziale presenza di materia diffusa, in forma di nebulosa e animata da movimento<br />
rotatorio, in tutto lo spazio occupato dal sistema solare e alla successiva condensazione di questa<br />
materia in modo da formare il Sole e i pianeti.<br />
La meccanica celeste di Laplace vede ormai un universo animato dalle sole leggi meccaniche e in<br />
condizioni di grande stabilità, almeno per quanto riguarda il sistema solare. La distanza da Newton<br />
è ormai grande: questi aveva invece visto un universo in continua decadenza, il cui "mantenimento"<br />
richiedeva il continuo intervento divino. Si dice che, interrogato da Napoleone sul ruolo di Dio<br />
nella formazione e nella gestione di un universo così stabile e perfetto, Laplace abbia risposto:<br />
«Sire, io non ho avuto bisogno di tale ipotesi».<br />
LA SECONDA RIVOLUZIONE SCIENTIFICA<br />
DESCRIZIONE MATEMATICA E MODELLI TEORICI NELLA <strong>FISICA</strong><br />
DELL'OTTOCENTO<br />
Nel corso dell'Ottocento la fisica raggiunge un assetto istituzionale e metodologico simile a quello<br />
contemporaneo. La ricerca diviene attività altamente professionalizzata che si svolge soprattutto<br />
nelle università e nei laboratori a esse collegati: gli scienziati "amatori" con un proprio laboratorio<br />
privato tendono a scomparire. I fisici si organizzano in associazioni nazionali e internazionali, si<br />
riuniscono in congressi e tendono a stabilire norme "standard" per fissare il modo corretto di<br />
esporre e pubblicare le teorie e i risultati sperimentali, scegliere le unità di misura delle varie<br />
grandezze e via discorrendo.<br />
La novità più importante dal punto di vista dell'organizzazione accademica e di ricerca della<br />
disciplina è l'affermazione della fisica teorica come indirizzo autonomo di ricerca da porre accanto<br />
alle tradizionali fisica matematica e fisica sperimentale, affermazione riconosciuta istituzionalmente<br />
solo nella seconda metà del secolo.<br />
Dietro a questo cambiamento organizzativo c'era stata una profonda trasformazione nei contenuti e<br />
nei metodi della ricerca che alcuni hanno addirittura considerato una "seconda" rivoluzione<br />
scientifica.<br />
In linea generale, la fisica matematica era nata nell'ambito della gloriosa scuola di Laplace e si<br />
occupava soprattutto dei problemi matematici (lo sviluppo del calcolo infinitesimale, la soluzione<br />
delle equazioni differenziali, lo studio di altre forme di rappresentazione matematica) che potevano<br />
essere utili nella soluzione dei problemi fisici. La ricerca in fisica sperimentale, invece, era condotta<br />
spesso da scienziati molto abili nel costruire strumenti e nell'effettuare misure, ma dotati magari di<br />
una preparazione matematica appena sufficiente.<br />
Il limite di questi due tipi di ricerca era un atteggiamento che possiamo genericamente definire<br />
come conservatore. Infatti, da un lato, lo studio dei problemi matematici connessi all'indagine fisica<br />
non metteva quasi mai in discussione le teorie accettate, ma tendeva ad applicarle meglio e con<br />
maggior rigore; dall'altro, i fisici sperimentali cercavano di affinare i propri strumenti e migliorare<br />
la precisione delle loro misure ma non avevano le competenze matematiche per formulare teorie<br />
avanzate e innovative e si limitavano ai resoconti del lavoro effettuato in laboratorio, spesso senza<br />
una chiara prospettiva teorica.<br />
I nuovi fisici teorici, invece, sono studiosi che hanno una formazione matematica ricca ed<br />
estremamente approfondita, ma che non considerano fine a se stessa. Per loro la matematica è solo<br />
uno strumento per elaborare nuove idee, uno strumento che si può usare con audacia e<br />
20
spregiudicatezza. Sono convinti che, per fare fronte alla crescita delle conoscenze sperimentali,<br />
occorra immaginare nuovi oggetti fisici e nuove forme di interazione tra di essi. E per far questo<br />
essi costruiscono teorie e modelli, magari senza preoccuparsi troppo del loro rigore (a volte non<br />
pretendono nemmeno di essere logicamente coerenti), della loro completezza e, tanto meno, del<br />
fatto che essi siano in perfetto accordo con tutti i dati sperimentali. Sono audaci congetture,<br />
proposte per indagare nuove direzioni di esplorazione e nuovi punti di vista, che non accettano<br />
alcun vincolo metodologico e metafisico che limiti le possibilità di immaginazione.<br />
NUOVI FENOMENI SPERIMENTALI E NUOVE TEORIE<br />
La natura della luce<br />
Il declino della fisica dei fluidi imponderabili e dell'azione a distanza tra le ipotetiche particelle che<br />
li costituivano comincia nel campo delle teorie sulla natura della luce. Abbiamo detto che l'ipotesi<br />
della natura ondulatoria della luce era stata già avanzata alla fine del Seicento. Ma l'autorità di<br />
Newton prima e di Laplace poi aveva imposto l'idea che la luce fosse composta di particelle che si<br />
muovevano in linea retta. Già nel 1802 Thomas Young (1773-1829) aveva iniziato a studiare<br />
sistematicamente i fenomeni d'interferenza prodotti dal passaggio della luce proveniente da<br />
un'unica sorgente attraverso due fori molto piccoli e molto vicini tra loro. Ma solo nel 1816<br />
Augustin-Jean Fresnel (1788-1827) e Jean-François-Dominique Arago (1786-1853) effettuano i<br />
primi esperimenti sull'interferenza e la diffrazione della luce, decisamente probanti a favore della<br />
teoria ondulatoria.<br />
Ora, le difficoltà di questa teoria erano legate al fatto che si pensava che le onde luminose fossero<br />
analoghe alle onde acustiche, ossia fossero caratterizzate da oscillazioni longitudinali (che<br />
avvenivano cioè nella direzione della propagazione della luce). Fu Fresnel a immaginare che si<br />
potesse trattare di oscillazioni trasversali (ossia che avvenivano in direzione perpendicolare a quella<br />
di propagazione) offrendo così al contempo un'interpretazione dei fenomeni, già noti, di<br />
polarizzazione ottica.<br />
Ora il problema della natura della luce diventava il seguente: oscillazioni di che cosa? Le onde<br />
sonore erano vibrazioni dell'aria, le onde del mare erano oscillazioni dell'acqua, e le onde luminose?<br />
D'altra parte la luce arriva anche dalle stelle più lontane e sembra viaggiare nello spazio vuoto.<br />
L'idea di Fresnel, l'unica che fosse concepibile all'epoca, è che lo spazio interstellare non sia vuoto,<br />
ma contenga una materia sottilissima e impercettibile, capace di formare onde. Per dare un nome a<br />
questa materia la scelta non poteva che cadere su un termine antico: "etere". Così, da Fresnel in poi<br />
(almeno fino a Einstein) lo spazio, tutto lo spazio, è pieno di un etere luminifero in cui si propaga,<br />
sotto forma di onde, la radiazione luminosa.<br />
La nascita dell'elettromagnetismo<br />
Ma altre ricerche avrebbero presto messo in discussione lo schema delle azioni dirette a distanza. Il<br />
danese Hans Christian Oersted (1777-1851) scopre infatti nel 1820 un fenomeno che<br />
apparentemente non rientra nello schema. Un ago magnetizzato posto nelle vicinanze di un filo<br />
percorso da corrente non viene infatti né attratto né respinto dal filo, ma esegue una rotazione su se<br />
stesso tendendo a disporsi perpendicolarmente al filo. La scoperta è importante non solo perché non<br />
rientra nello schema delle attrazioni e repulsioni tra corpi dirette lungo la congiungente dei corpi<br />
stessi, ma perché indica che i fenomeni elettrici e quelli magnetici non sono così distinti come si<br />
pensava: nasce l'elettromagnetismo.<br />
Fu André-Marie Ampère (1775-1836) a rimettere parzialmente le cose a posto. Ma per farlo, egli<br />
dovette immaginare che il cosiddetto fluido magnetico non esistesse, e che il magnetismo dei corpi<br />
non fosse altro che il prodotto, al loro interno, di piccolissime correnti circolari, come se gli atomi<br />
fossero circondati da cariche elettriche in continua rotazione. Una corrente circolare per Ampère<br />
21
era equivalente a un magnete orientato in direzione a essa perpendicolare (il cosiddetto teorema di<br />
equivalenza di Ampère). Un corpo magnetizzato era allora un corpo in cui gli atomi non erano<br />
disposti disordinatamente ma erano in prevalenza disposti in modo che le loro correnti circolassero<br />
nella stessa direzione e in piani paralleli tra loro.<br />
Ne derivava che le azioni tra magneti e le azioni tra correnti e magneti erano riconducibili ad azioni<br />
tra correnti e correnti e che queste azioni potevano essere fatte rientrare nello schema delle<br />
attrazioni e delle repulsioni, stavolta però non tra particelle di fluidi ma tra elementi di corrente<br />
elettrica.<br />
Tenace oppositore di Ampère fu il grande fisico sperimentale inglese Michael Faraday (1791-1867).<br />
Faraday, ispirandosi ai dubbi dello stesso Newton, non credeva comunque nell'azione a distanza. Le<br />
sue ricerche sui fenomeni di induzione elettromagnetica (ossia sulle correnti prodotte dallo<br />
spostamento di magneti vicino a circuiti elettrici o viceversa, oppure dalle variazioni di corrente nel<br />
circuito stesso o in un circuito a esso vicino) e sulle correlate azioni meccaniche tra circuiti e<br />
magneti lo portarono a immaginare che queste azioni non avvenissero a distanza. La sua idea era<br />
che lo spazio fosse pieno di linee di forza. Queste linee non erano un modo di rappresentare<br />
geometricamente forze a distanza, ma, secondo Faraday, corrispondevano a qualcosa di fisicamente<br />
reale presente nello spazio stesso. Un argomento che egli usava a favore di questa ipotesi era quello<br />
di far vedere che tali linee di forza erano quasi sempre linee curve e non linee rette.<br />
La "scoperta" dell'etere e lo studio delle azioni elettromagnetiche portò a prendere in seria<br />
considerazione l'idea che le presunte azioni a distanza non fossero altro che azioni trasmesse<br />
attraverso un mezzo, ossia azioni a contatto, e che lo spazio fosse pieno di materia, con una<br />
conseguente rivalutazione del vecchio ideale cartesiano.<br />
LA SCOPERTA DELLA CONSERVAZIONE DELL'ENERGIA<br />
Uno degli eventi più rivoluzionari della fisica ottocentesca fu la scoperta della conservazione<br />
dell'energia. Vediamo perché. Torniamo alla vecchia questione della stabilità dell'universo e del<br />
sistema solare. La scoperta dell'etere suscitò subito il problema dell'eventuale resistenza che questo<br />
mezzo poteva opporre al moto dei pianeti. Per molti non si poteva più considerare il sistema solare<br />
come eternamente stabile: esso era invece soggetto a un inevitabile declino.<br />
In realtà, la nota impossibilità del moto perpetuo metteva tutti di fronte al fatto che le resistenze, gli<br />
attriti, gli urti anelastici non avrebbero mai potuto essere completamente eliminati. Il movimento, la<br />
forza viva, e la loro capacità di produrre effetti, erano evidentemente in continua diminuzione nei<br />
fenomeni terrestri e ora forse anche nei fenomeni astronomici. L'idea che comunque qualcosa si<br />
conservasse era quindi del tutto incompatibile con la normale evidenza empirica.<br />
Eppure questa idea cominciò a diffondersi verso la metà del secolo in una maniera sorprendente e<br />
tutto sommato apparentemente inspiegabile. Il fatto è che la scoperta dell'energia non può essere<br />
attribuita, come solitamente avviene, a un singolo scienziato: in realtà fu operata simultaneamente<br />
in diversi paesi da diversi scienziati che si occupavano di problemi diversi e che spesso non erano<br />
in comunicazione tra di loro. Se dovessimo elencare i nomi di coloro i quali - tra il 1830 e il 1850 -<br />
enunciarono qualcosa di simile al principio di conservazione dell'energia dovremmo fare nove o<br />
forse addirittura dodici nomi. In questo senso, è interessante illustrare una serie di fattori<br />
concomitanti.<br />
In primo luogo dobbiamo parlare della scoperta della correlazione tra le diverse forze, o i diversi<br />
agenti o "poteri" naturali.<br />
La fisica dei fluidi imponderabili tendeva a distinguere vari tipi di materia, attribuendo loro<br />
fenomeni diversi. Ma le ricerche della prima metà dell'Ottocento avevano mostrato che queste<br />
distinzioni non potevano essere così nette. Non solo i fenomeni elettrici non potevano essere tenuti<br />
separati da quelli magnetici, ma:<br />
- la pila elettrica, così come tutti i fenomeni elettrolitici, metteva insieme chimica ed elettricità;<br />
- nei fenomeni elettrolitici si produceva calore e quindi c'era un collegamento coi fenomeni termici;<br />
- anche la luce produceva calore e influenzava le reazioni chimiche;<br />
22
- il magnetismo influiva sulla propagazione della luce, ruotandone il piano di polarizzazione;<br />
- le scariche elettriche producevano effetti magnetici, effetti ottici, effetti termici, e via discorrendo.<br />
Questa serie di scoperte fece immaginare che il potere di produrre effetti proprio dei principali<br />
"agenti naturali" (ossia calore, luce, elettricità, magnetismo) non andasse perduto e che l'azione di<br />
un agente si potesse trasformare in quella di un altro in una misura in qualche modo "equivalente".<br />
Il passo decisivo fu compiuto allorché lo studio del funzionamento delle macchine, e in particolare<br />
delle macchine termiche (come la macchina a vapore), fece riprendere in considerazione l'idea che<br />
ciò che si perdeva - a causa degli attriti, ecc. - si ritrovasse sotto forma di calore. Bisognava però<br />
ammettere che il calore potesse essere creato dagli attriti. Ora, una sostanza (il fluido calorico) non<br />
poteva essere creata o distrutta: l'unica possibilità immaginabile era tornare alla vecchia idea che il<br />
calore fosse una forma di movimento. Ciò fu confermato dalle ricerche sul cosiddetto "calore<br />
radiante". A queste ricerche contribuì in maniera decisiva l'italiano Macedonio Melloni (1798-<br />
1854), il quale dimostrò che il calore radiante (poi riconosciuto come radiazione infrarossa) si<br />
propagava in modo ondulatorio proprio come la luce. Quindi, il calore radiante era anch'esso, come<br />
la luce, una forma di movimento dell'etere.<br />
Joule: calore ed effetto meccanico<br />
James Prescott Joule (1818-1889) cominciò a occuparsi di fenomeni elettrochimici e divenne subito<br />
un tenace assertore della correlazione tra azione chimica e azione elettrica. Nel corso di queste<br />
ricerche scoprì l'effetto che porta ancora il suo nome, ossia il fatto che il passaggio di corrente<br />
elettrica produce calore. Nello stesso tempo cominciò a studiare i primi motori elettrici cercando di<br />
valutarne il rendimento. Ora, quando si studiava il funzionamento di un motore o di una macchina,<br />
l'effetto "utile" veniva in genere valutato come effetto meccanico, detto anche semplicemente<br />
lavoro, e veniva misurato in termini di capacità di sollevare un peso per una certa altezza, ovvero di<br />
mettere qualcosa in movimento con una certa quantità di forza viva. Fu nel corso di queste ricerche<br />
che egli cominciò a pensare che l'azione elettrica o l'azione chimica si potessero convertire o in<br />
calore (che non poteva quindi che essere una forma di movimento) o in effetto meccanico (lavoro o<br />
forza viva) e che, a parità di azione elettrica, quanto più si produceva calore tanto meno si<br />
produceva effetto meccanico e viceversa. Se questo era vero, calore ed effetto meccanico erano due<br />
facce della stessa medaglia, ossia potevano convertirsi direttamente l'uno nell'altro: nelle macchine<br />
idrauliche e meccaniche la "potenza" meccanica perduta per attrito si trasformava in calore e,<br />
viceversa, nelle macchine termiche l'effetto meccanico prodotto derivava dal consumo di una<br />
quantità equivalente di calore.<br />
A questo punto la soluzione era a portata di mano: con ripetuti esperimenti, Joule dimostrò che<br />
facendo perdere per attrito la capacità di effettuare lavoro posseduta, per esempio, da un peso<br />
sollevato a una certa altezza e poi lasciato cadere, si otteneva sempre la stessa quantità di calore. In<br />
questo modo egli fu in grado di determinare quello che chiamò equivalente meccanico del calore.<br />
L'unica ipotesi fisica in grado di spiegare questa equivalenza era che il calore altro non fosse che<br />
forza viva trasferita ai movimenti microscopici del corpo riscaldato. Bisognava perciò tornare ad<br />
accettare la teoria cinetica del calore.<br />
Fu Hermann von Helmholtz (1821-1894) a dare una base teorica comune a tutte queste<br />
osservazioni. Egli riprese il teorema delle forze vive di Lagrange e postulò che esso fosse<br />
generalizzabile a tutti i fenomeni fisici, in quanto in ognuno di essi era identificabile una "forza di<br />
tensione" (quella che poi venne chiamata energia potenziale) e una "forza viva" (poi chiamata<br />
energia cinetica), la cui somma, considerando tutti i corpi che prendevano parte al fenomeno,<br />
rimaneva comunque costante. Il denominatore comune a tutti gli agenti naturali era dunque la loro<br />
capacità di produrre effetti utili. E' una capacità che si conserva, anche se talvolta si trasferisce a<br />
movimenti che non sono osservabili a occhio nudo, ma riguardano le particelle microscopiche di<br />
cui sono fatti i corpi, e che si rivelano solo come aumento di temperatura dei corpi stessi. Questa<br />
capacità di produrre effetti utili o, come si diceva, capacità di produrre lavoro, fu in seguito<br />
chiamata universalmente energia.<br />
23
LA NASCITA DELLA TERMODINAMICA<br />
La scoperta della conservazione dell'energia corrispondeva a un diffuso ottimismo sulle sorti del<br />
mondo: l'energia si rinnovava continuamente e ciò che era apparentemente perduto si ritrovava<br />
sotto altra forma e poteva teoricamente riconvertirsi nella forma originale. Questo ottimismo fu<br />
però di breve durata. Perché ci si rese quasi subito conto che i vari tipi di conversione tra le forme<br />
di energia non erano tutti equivalenti.<br />
Per capire come si verificò questa scoperta dobbiamo fare un passo indietro. Nel 1824, il giovane<br />
ufficiale del genio francese Sadi Carnot (1796-1832) aveva pubblicato un breve libro dal titolo<br />
Riflessioni sulla potenza motrice del fuoco e sulle macchine atte a sviluppare questa potenza. Era<br />
un piccolo trattato sui princìpi generali di funzionamento delle macchine termiche e in esso era<br />
contenuto l'embrione di quella che sarebbe diventata la termodinamica. Carnot metteva in luce<br />
aspetti del funzionamento delle macchine termiche che si sarebbero rivelati di estrema importanza.<br />
Egli diceva che, affinché sia possibile produrre "potenza motrice" (oggi diremmo lavoro<br />
meccanico) utilizzando il calore sprigionato dalla combustione di una sostanza, occorre poter<br />
disporre di una differenza di temperatura. In altri termini, una macchina termica può funzionare<br />
solo se accanto alla sorgente di calore, che si trova evidentemente a temperatura elevata, c'è un'altra<br />
sorgente che deve essere mantenuta a una temperatura più bassa della sorgente di calore. In genere,<br />
questa sorgente è proprio l'ambiente in cui la macchina lavora e la sua temperatura è appunto la<br />
normale temperatura ambiente. Ora, secondo Carnot, il calore produce lavoro proprio perché tende<br />
a "scendere", ossia a passare spontaneamente dalla sorgente calda a quella fredda.<br />
Di questo aspetto si era già accorto il grande fisico matematico Jean-Baptiste Fourier (1768-1830)<br />
che, nei suoi studi sulla propagazione del calore per conduzione termica, aveva notato questa<br />
tendenza spontanea: nel tempo, il calore tende a distribuirsi uniformemente in un corpo, finché tutte<br />
le sue parti si trovano alla stessa temperatura. Invece il processo inverso, ossia la concentrazione<br />
del calore in una parte del corpo (con il conseguente riscaldamento di questa parte e il<br />
raffreddamento delle altre) non si verifica mai spontaneamente in natura.<br />
Tuttavia, Carnot si era accorto che una macchina termica poteva anche funzionare al contrario.<br />
Poteva cioè utilizzare lavoro meccanico per far "salire" il calore dalla sorgente fredda alla sorgente<br />
calda e creare tra due corpi una differenza di temperatura che prima non c'era (se ci si pensa un<br />
attimo si vede subito che è proprio così che funzionano i frigoriferi). La conclusione era allora:<br />
disponendo di una differenza di temperatura si può produrre lavoro meccanico e, viceversa,<br />
disponendo di lavoro meccanico si può creare una differenza di temperatura.<br />
Con la scoperta dell'energia, fu subito chiaro che il lavoro prodotto da una macchina termica era il<br />
risultato della conversione di una equivalente quantità di calore: il calore si traformava in lavoro.<br />
Ma allora, a che serviva la differenza di temperatura? Perché non si può estrarre calore da un corpo<br />
qualsiasi, per esempio dal mare, e trasformarlo in energia utilizzabile? In fondo il calore è una<br />
forma di energia come le altre!<br />
La scoperta dell'entropia<br />
Di questo problema si occuparono due fisici, Rudolf Clausius (1822-1888) e William Thomson<br />
(1824-1907), in seguito nominato Lord Kelvin per i suoi meriti scientifici. Essi lo risolsero<br />
chiarendo che la sola legge di conservazione dell'energia non bastava a spiegare il funzionamento<br />
delle macchine termiche: bisogna ammettere la validità di una seconda legge, che da allora si<br />
chiamò seconda legge della termodinamica. Questa legge assumeva appunto che il calore non può<br />
passare spontaneamente dal freddo al caldo (nella versione di Clausius), ovvero non è possibile<br />
produrre lavoro utile raffreddando un corpo al di sotto della temperatura dei corpi circostanti (nella<br />
versione di Thomson).<br />
24
In altre parole essi ammettevano che certi processi fisici - chiamiamoli processi di prima specie -<br />
erano "naturali" e spontanei (per esempio, la dissipazione di energia meccanica per attrito con la<br />
conseguente produzione di calore oppure il passaggio di calore da corpi dalla temperatura più<br />
elevata a corpi dalla temperatura più bassa); invece altri processi - chiamiamoli di seconda specie -<br />
(quelli opposti ai precedenti, ossia la produzione di energia meccanica per consumo di calore,<br />
oppure il passaggio di calore da corpi dalla temperatura più bassa a corpi dalla temperatura più<br />
elevata) non avvenivano spontaneamente in natura, ma solo in condizioni particolari. Il punto è che,<br />
per far accadere un processo di seconda specie, bisognava sfruttare (come aveva detto Carnot) un<br />
processo spontaneo di prima specie: se, per esempio, non si sfrutta la tendenza spontanea del calore<br />
a equilibrare differenze di temperatura, la macchina termica non può funzionare. Quindi, i processi<br />
di seconda specie non possono avvenire se non sono "compensati" da processi di prima specie. Tra i<br />
processi naturali c'è una sostanziale asimmetria: i processi del primo tipo possono avvenire (e<br />
avvengono di fatto continuamente) da soli, i processi del secondo tipo no. Alla fine la bilancia<br />
pende inevitabilmente a favore dei processi di prima specie. E questo vuol dire che l'energia<br />
meccanica tende a "dissiparsi" in calore, il calore tende a "diffondersi" in maniera sempre più<br />
uniforme e tutti i corpi tendono ad assumere una temperatura uniforme, dopodiché non è più<br />
possibile ottenere energia in maniera utilizzabile e nessun ulteriore cambiamento è possibile in<br />
natura.<br />
Queste conclusioni portavano quindi a supporre una tendenza irreversibile verso quella che venne<br />
chiamata la "morte termica dell'universo". A una visione ottimistica favorita dalla scoperta della<br />
prima legge della termodinamica (ossia la legge di conservazione dell'energia estesa ai fenomeni in<br />
cui entrava in gioco anche il calore) si contrapponeva una visione pessimistica imposta dalla<br />
scoperta della seconda legge della termodinamica.<br />
Il grande merito di Clausius fu quello di rendere rigorose e quantitative le precedenti conclusioni<br />
generali. Egli infatti immaginò che vi fosse una misura del "cambiamento" comportato da ogni<br />
processo della prima e della seconda specie. La grandezza la cui variazione rappresentava questa<br />
misura venne da lui chiamata entropia (dal greco en tropé, "contenuto di cambiamento"). Ora, se<br />
nei processi di prima specie prendiamo questa variazione come positiva, ossia come aumento, e<br />
come negativa, ossia come diminuzione, se ne conclude che la seconda legge si riduce<br />
all'asserzione che complessivamente l'entropia dell'universo non può che aumentare. Quindi, delle<br />
due grandezze che descrivono lo stato di un sistema fisico, per quanto complesso, l'energia rimane<br />
costante, ma l'entropia tende comunque a crescere. E questa seconda tendenza mostra che l'universo<br />
è in continua evoluzione, ossia che il tempo fisico ha qualcosa in comune con il tempo psicologico,<br />
nel senso che sarà comunque impossibile tornare "indietro" nel tempo, che il "passato" è<br />
irrimediabilmente passato.<br />
LA TEORIA DEL CAMPO ELETTROMAGNETICO<br />
La grande trasformazione dell'interpretazione dei fenomeni elettromagnetici, che era cominciata<br />
con le ricerche di Oersted, Ampère e Faraday, fu portata a compimento, nella seconda metà<br />
dell'Ottocento, da James Clerk Maxwell (1831-1879), la cui attività spaziava in tutti i nuovi campi<br />
della fisica, dalla termodinamica alla teoria molecolare della materia, all'ottica,<br />
all'elettromagnetismo. Il suo metodo, basato su una profonda preparazione matematica, si traduceva<br />
in una continua costruzione di modelli di ciò che avrebbe potuto essere la realtà fisica, in modo da<br />
spiegare i fenomeni osservati.<br />
Appunto seguendo questo metodo, Maxwell arrivò alla seconda grande scoperta del secolo scorso,<br />
quella del cosiddetto "campo elettromagnetico". La sua idea riprendeva la tendenza di Faraday e di<br />
molti fisici dell'ambiente inglese a rifiutare l'azione a distanza. Cercando di individuare le proprietà<br />
di un'ipotetica sostanza che, riempiendo lo spazio tra corpi carichi, magneti e circuiti (quello che<br />
Maxwell chiamava il "campo" elettromagnetico), fosse responsabile delle azioni elettromagnetiche<br />
osservate, Maxwell pervenne nel 1861 a due risultati di estrema importanza. In primo luogo, le<br />
proprietà del "mezzo" che trasmette le azioni elettromagnetiche sono rappresentabili attraverso un<br />
25
sistema di equazioni (da allora in poi chiamate equazioni di Maxwell) che racchiudono tutti i<br />
risultati sperimentali fino ad allora conosciuti; in secondo luogo dalle proprietà dello stesso mezzo,<br />
e quindi dalle equazioni che rappresentavano il suo comportamento, era possibile dedurre che in<br />
esso si propagavano onde. Il fatto straordinario era che, calcolando teoricamente la velocità di<br />
queste onde, si otteneva un valore eccezionalmente prossimo a quello, ricavato sperimentalmente,<br />
della velocità della luce.<br />
La teoria elettromagnetica della luce<br />
La conclusione di Maxwell fu immediata: la luce consisteva in una propagazione ondulatoria nello<br />
stesso "mezzo" (anche da lui chiamato etere) che era responsabile della trasmissione delle azioni<br />
elettriche e magnetiche. Nasceva la teoria elettromagnetica della luce.<br />
Ma la tesi di Maxwell era solo un'ipotesi teorica. In fondo i fenomeni elettromagnetici potevano<br />
essere spiegati ugualmente bene da teorie basate sul concetto di azione a distanza. E della natura<br />
elettromagnetica della luce non c'era alcuna prova sperimentale. In effetti ci vollero più di vent'anni<br />
per arrivare a quella che fu ritenuta la conferma sperimentale della sua teoria. Fu lo scienziato<br />
tedesco Heinrich Rudolf Hertz (1857-1894) a ottenere le osservazioni sperimentali decisive in tal<br />
senso. Egli cominciò a studiare l'influenza di materiali dielettrici (ossia "isolanti") sull'azione<br />
elettrica tra circuiti quando questi materiali erano interposti fra tali circuiti e quando i circuiti erano<br />
percorsi da correnti oscillanti. A poco a poco si accorse che i suoi metodi di osservazione avrebbero<br />
permesso di rilevare se questa azione si propagava sotto forma di onde, che egli chiamò onde<br />
elettriche, anche quando tra i circuiti c'era solo l'aria. In pochi mesi, nel 1888, egli produsse la<br />
prova sperimentale che rivelava l'esistenza delle onde elettriche al di là di ogni ragionevole dubbio.<br />
La teoria di Maxwell poteva ritenersi confermata; le onde elettriche altro non erano che forme di<br />
radiazione identiche alla radiazione luminosa, anche se di lunghezza d'onda molto più grande.<br />
Ormai era chiaro che la radiazione elettromagnetica si estendeva in un ampio spettro, al cui estremo<br />
delle lunghezze d'onda molto piccole c'era la radiazione ultravioletta, seguita, per lunghezze d'onda<br />
via via crescenti, dalla radiazione visibile (ossia la luce), poi dalla radiazione infrarossa (il<br />
cosiddetto calore radiante), fino alle onde elettriche (da allora chiamate onde hertziane e poi<br />
radioonde) che potevano avere lunghezze d'onda molto grandi.<br />
I GRANDI SUCCESSI DELL'ASTRONOMIA DI POSIZIONE<br />
All'inizio dell'Ottocento, l'uso di telescopi sempre più potenti consentì l'esplorazione sistematica del<br />
cielo e la determinazione esatta della posizione dei vari astri. La cosiddetta astronomia di posizione<br />
raggiunse una precisione prima impensabile. E naturalmente le scoperte si moltiplicarono. Una di<br />
esse merita di essere ricordata con un certo dettaglio. Il primo gennaio 1801, l'astronomo siciliano<br />
Giuseppe Piazzi (1746-1826) vide un oggetto nella regione della costellazione del Toro che invece<br />
di restare immobile si muoveva sensibilmente rispetto alle altre stelle. Pensò che fosse una nuova<br />
cometa, ma l'oggetto non presentava la caratteristica nebulosità delle comete. Ora, occorre ricordare<br />
che già nel Settecento era stata enunciata la cosiddetta legge di Titius-Bode (dal nome di due<br />
astronomi dell'epoca) in base alla quale si potevano ricavare le distanze dei pianeti dal Sole con<br />
semplici calcoli aritmetici. Questa legge era rispettata da tutti i pianeti noti ed era stata<br />
ulteriormente confermata dalla scoperta di Urano. L'unico problema era che sembrava mancare un<br />
pianeta tra Marte e Giove. L'oggetto osservato da Piazzi e da lui chiamato Cerere aveva appunto<br />
una distanza dal Sole che corrispondeva a quella del pianeta mancante secondo la legge di Titius-<br />
Bode.<br />
Nel marzo 1802, Heinrich Wilhelm Mathias Olbers (1758-1840) scoprì un altro oggetto, da lui<br />
chiamato Pallade, che era distante dal Sole più o meno quanto Cerere. Immediatamente enunciò la<br />
sua ipotesi: dato che le dimensioni di questi due nuovi pianeti erano molto piccole (Cerere aveva un<br />
diametro di 261 km e Pallade di 237 km), Olbers suppose che si era in presenza di due pezzi del<br />
26
pianeta "mancante" che, a differenza degli altri, era andato in frantumi. Il secolo cominciò quindi<br />
con la scoperta degli asteroidi.<br />
Il secondo grande successo dell'astronomia di posizione fu il metodo di calcolo delle distanze<br />
stellari messo a punto dall'astronomo tedesco Friedrich Wilhelm Bessel (1784-1846). I vecchi<br />
metodi non potevano che utilizzare la cosiddetta parallasse annua, ossia lo spostamento apparente<br />
di una stella dovuto al moto della Terra sulla sua orbita intorno al Sole: una stella più vicina doveva<br />
spostarsi di più di una stella più lontana, avendo come sistema di riferimento lo sfondo delle stelle<br />
più lontane che rimanevano comunque ferme. Bessel decise invece di basarsi sul moto proprio di<br />
alcune stelle. Osservandole per tempi abbastanza lunghi (in genere, per anni) si vedeva che esse si<br />
spostavano, anche se di poco. Si poteva allora risalire alla loro distanza in base al fatto che una<br />
stella più lontana compie, nello stesso periodo di tempo, uno spostamento minore di una stella più<br />
vicina.<br />
La terza grande scoperta fu il risultato del paziente lavoro di osservazione dell'astronomo inglese<br />
George Biddel Airy (1801-1892), il quale aveva notato alcune anomalie nel moto del pianeta Urano.<br />
Effettivamente, le ripetute osservazioni sul moto del pianeta non si accordavano assolutamente con<br />
quanto previsto dalla teoria di Newton. Che fare? Si poteva forse abbandonare la prestigiosa teoria?<br />
L'unica possibilità era che tra Saturno e Urano, in contraddizione con la legge di Titius-Bode, ci<br />
fosse un altro pianeta, fino allora non osservato. Si trattava però di trovarlo, e non si poteva certo<br />
sperare di farlo puntando a caso il telescopio. Indipendentemente l'uno dall'altro, l'inglese John<br />
Couch Adams (1819-1892) e il francese Urbain-Jean-Joseph Le Verrier (1811-1877), avendo<br />
assunto l'esatta validità della legge di Newton, cominciarono una serie complicatissima di calcoli<br />
per dedurre dalle anomalie del moto di Urano dove potesse trovarsi il pianeta che perturbava la sua<br />
orbita. Fu il tedesco Johann Gottfried Galle (1812-1910) a puntare per primo il telescopio nella<br />
direzione prevista e a vedere... Nettuno! Si celebrava così il trionfo della meccanica newtoniana.<br />
LA SCOPERTA DEL MONDO MICROSCOPICO<br />
GLI ATOMI: REALTÀ O INVENZIONI DELLA MENTE?<br />
L'idea che la materia non sia suddivisibile all'infinito e che ci siano dei "pezzettini" di materia che<br />
non si possono più "tagliare in due" era, come sappiamo, antichissima. Ma questi "atomi", essendo<br />
troppo piccoli, non erano sicuramente percepibili direttamente dall'uomo. Quella dell'esistenza degli<br />
atomi restava quindi un'ipotesi teorica. Nella seconda metà dell'Ottocento questa ipotesi cominciò a<br />
essere criticata. Ci si chiedeva: è un'ipotesi realmente utile?<br />
Le obiezioni alle teorie atomistiche erano essenzialmente di tre tipi:<br />
- un'obiezione teorica: può darsi che l'idea di una materia continua, ossia suddivisibile all'infinito,<br />
sia più efficace dell'idea di una materia discreta, ossia composta di particelle di dimensioni piccole<br />
ma finite; oltretutto, l'idea di continuità è implicita nell'uso e nell'applicazione alla fisica del calcolo<br />
differenziale, che invece si trova in difficoltà di fronte all'ipotesi atomistica (non a caso i principali<br />
avversari all'atomismo si trovavano nel campo dei fisici matematici). Inoltre l'etere, affinché la<br />
radiazione luminosa vi si possa propagare senza disperdersi, deve essere una materia continua;<br />
- un'obiezione filosofica: la fisica deve occuparsi dei fenomeni osservabili e non di entità<br />
inosservabili in linea di principio;<br />
- un'obiezione metodologica, che univa le due precedenti: in fondo le teorie fisiche non sono altro<br />
che sistemi di equazioni matematiche che "descrivono" e "coordinano" insiemi di fenomeni,<br />
riconducendoli a pochi princìpi fondamentali; i modelli microscopici possono forse essere utili per<br />
trovare queste equazioni, ma poi devono essere abbandonati; l'idea che tali modelli rappresentino<br />
alcunché di reale che si "nasconde sotto" i fenomeni osservabili è un'idea metafisica, tanto più che<br />
questa realtà viene rappresentata sempre in forma di una struttura meccanica e non si vede perché la<br />
vera natura del mondo debba essere necessariamente meccanica.<br />
27
Queste obiezioni appaiono ragionevoli; ma, come vedremo, esse furono superate dagli eventi,<br />
perché la fisica andava scoprendo livelli di realtà microscopica che prima erano del tutto<br />
inconcepibili, con il corollario che questi livelli avevano una natura corpuscolare e non potevano<br />
essere rappresentati in una concezione continua della materia.<br />
LA TEORIA CINETICA DEL CALORE<br />
E' un fatto che i fisici della seconda metà dell'Ottocento cercavano di interpretare attraverso la<br />
meccanica classica la struttura e il comportamento dei vari enti che andavano scoprendo. Maxwell<br />
ed Hertz, per esempio, immaginavano l'etere elettromagnetico come una strana sostanza meccanica,<br />
probabilmente fatta di materia continua, in cui si propagavano le forze elettriche, le forze<br />
magnetiche e le oscillazioni elettromagnetiche. D'altra parte il calore poteva essere concepito come<br />
agitazione termica delle molecole dei corpi, e quindi la temperatura misurava l'energia cinetica di<br />
tale agitazione.<br />
Furono Clausius e Maxwell a cominciare a studiare sistematicamente «quella specie di movimento<br />
che chiamiamo calore», cercando di costruire modelli del tipo di sostanza più semplice, ossia dei<br />
gas perfetti. Anche in questo caso il modello era meccanico: le molecole dei gas erano delle palline<br />
che urtavano elasticamente tra loro e con le pareti del recipiente in cui il gas era contenuto. Con<br />
questo modello si riusciva, per esempio a ricavare l"equazione di stato dei gas perfetti, la nota legge<br />
pV = nRT, non appena si "interpretava" la pressione p come effetto degli urti delle molecole con le<br />
pareti del recipiente e la temperatura T come espressione dell'energia cinetica media delle molecole<br />
stesse.<br />
Maxwell, in particolare, dimostrò, che le molecole di un gas a temperatura uniforme non hanno<br />
tutte la stessa velocità, ma che alcune di esse vanno più lente, altre sono più veloci e, in generale, le<br />
loro velocità si distribuiscono in maniera casuale tra le diverse molecole. Egli comprese in sostanza<br />
che un modello atomistico di un corpo macroscopico, dovendo avere a che fare con un numero<br />
enorme di molecole, non poteva descrivere il comportamento delle molecole una per una, ma<br />
poteva solo parlare di ciò che avveniva in media, doveva cioè servirsi di ipotesi statistiche.<br />
La nascita della meccanica statistica<br />
Questo metodo divenne straordinariamente efficace quando fu utilizzato dallo scienziato austriaco<br />
Ludwig Boltzmann (1844-1906), forse il più grande fisico teorico del secolo scorso. Il problema che<br />
Boltzmann decise di affrontare era decisamente arduo: è possibile trovare una descrizione<br />
meccanico-atomistica di un sistema fisico macroscopico che consenta di spiegare la seconda legge<br />
della termodinamica, ossia la tendenza irreversibile del sistema a raggiungere una situazione di<br />
equilibrio che pone fine a ogni ulteriore possibilità di evoluzione?<br />
Il metodo di Boltzmann fu essenzialmente statistico, data l'impossibilità di descrivere l'evoluzione<br />
del sistema molecola per molecola. Naturalmente, la sua teoria faceva riferimento a un gas perfetto.<br />
La descrizione dello stato macroscopico del gas era quella offerta dalla termodinamica in termini di<br />
temperatura e pressione e delle grandezze da esse ricavabili, ossia l'energia e l'entropia. La sua<br />
ipotesi era che a ogni stato macroscopico corrispondesse una determinata funzione di distribuzione<br />
delle velocità delle molecole (ossia una specie di tabella di numeri in cui si dice quante molecole<br />
hanno una certa velocità, quante un'altra, e così via, col vincolo che l'energia totale del gas deve<br />
essere quella nota).<br />
Ora, il primo problema da affrontare era quello di trovare il modo in cui una funzione di<br />
distribuzione variava nel corso del tempo in seguito all'urto delle molecole tra di loro e con le pareti<br />
del recipiente. In pratica Boltzmann trovò che il solo meccanismo degli urti faceva sì che una<br />
qualsiasi funzione di distribuzione iniziale tendesse a stabilizzarsi nella funzione di distribuzione<br />
trovata da Maxwell che era caratteristica della situazione di equilibrio. Il gas aveva quel<br />
comportamento unidirezionale previsto dalla seconda legge della termodinamica. Non solo: poteva<br />
28
essere definita una grandezza, che dipendeva dalla funzione di distribuzione, che poteva solo<br />
aumentare nel tempo, raggiungendo il valore massimo possibile quando il sistema era all'equilibrio.<br />
Questa grandezza aveva dunque il comportamento che si sapeva doveva avere la grandezza<br />
entropia.<br />
Tuttavia Boltzmann si rese subito conto che una cosa era studiare l'evoluzione di una funzione di<br />
distribuzione, alla quale corrispondeva un numero molto grande di stati microscopici (ossia gli stati<br />
definiti esattamente dalle posizioni e dalle velocità di ogni singola molecola), una cosa era seguire<br />
l'evoluzione di un singolo stato microscopico. Nello stesso tempo, le ipotesi sulle modalità di<br />
collisione tra le molecole non erano ipotesi puramente meccaniche, ma assumevano una certa<br />
casualità del moto delle molecole che era del tutto in contrasto con la visione classica<br />
deterministica.<br />
A queste difficoltà si rifecero i suoi oppositori e, tra questi, soprattutto i fisici contrari all'ipotesi<br />
atomica. La replica di Boltzmann segnò una svolta nel modo di affrontare questi problemi e di<br />
interpretare il significato della seconda legge della termodinamica. Per Boltzmann il problema non<br />
era tanto seguire l'evoluzione del singolo stato microscopico, quanto riuscire a calcolare quanti stati<br />
microscopici corrispondessero allo stesso stato macroscopico. Se si poteva dimostrare che, tra tutti<br />
gli stati microscopici in cui il sistema poteva trovarsi istante per istante, quelli corrispondenti allo<br />
stato macroscopico di equilibrio (chiamiamoli "di tipo A") erano di gran lunga più numerosi degli<br />
altri (chiamiamoli "di tipo B"), allora il problema era risolto. Infatti il sistema avrebbe occupato,<br />
con grande probabilità, uno degli stati di tipo A e, comunque, partendo da uno stato di tipo B,<br />
sarebbe con grande probabilità finito in uno stato di tipo A. La proposta di Boltzmann fu appunto di<br />
considerare l'entropia una misura della probabilità dello stato macroscopico e quindi di leggere la<br />
seconda legge della termodinamica come tendenza di un sistema a passare spontaneamente da stati<br />
di minore probabilità a stati di maggiore probabilità.<br />
Era evidente che tutto il discorso di Boltzmann si basava sull'ipotesi atomica, e per questo incontrò<br />
notevoli opposizioni. In particolare, alcuni fisici consideravano insoddisfacente il fatto che quella<br />
all'aumento di entropia fosse una tendenza solo probabile (anche se enormemente probabile) e non<br />
certa. In particolare, secondo Boltzmann, possono avvenire fluttuazioni casuali, in seguito alle quali<br />
l'entropia può anche diminuire, sia pure localmente e per un tempo limitato. E nulla esclude che il<br />
"nostro" universo, che appare abbastanza ordinato da permettere la vita, non sia che l'effetto di una<br />
fluttuazione casuale da un originario stato caotico e disordinato.<br />
LA TEORIA DEGLI ELETTRONI E IL PROBLEMA DEL MOVIMENTO<br />
DELL'ETERE<br />
Uno dei problemi che né Maxwell né Hertz erano riusciti a risolvere era quello della natura della<br />
carica e della corrente elettrica. Le ricerche elettromagnetiche si basavano sugli effetti di queste<br />
grandezze, in genere effetti meccanici, e la teoria del campo elettromagnetico sembrava poter<br />
ricondurre questi effetti a qualcosa che avveniva nell'etere e non all'interno dei corpi carichi o dei<br />
conduttori. D'altra parte, le ricerche elettrochimiche avevano messo in luce che i fenomeni erano<br />
interpretabili anche (ma non solo) con l'ipotesi che l'elettricità avesse una struttura atomica, ossia<br />
che la carica elettrica di un corpo fosse sempre un multiplo di una unità "naturale".<br />
Fu il fisico teorico olandese Hendrik Antoon Lorentz (1853-1928) a suggerire un'ipotesi<br />
straordinariamente anticipatrice. Colpito dalla teoria elettromagnetica della luce, egli cominciò a<br />
studiare i fenomeni di propagazione della luce nei vari materiali trasparenti dal punto di vista di<br />
questa teoria. In tal modo arrivò a un'interpretazione semplice delle varie relazioni sperimentali,<br />
assumendo che nei corpi trasparenti, ossia nei materiali dielettrici, vi fossero microscopiche cariche<br />
oscillanti, ossia legate a posizioni di equilibrio; le stesse cariche che erano invece libere di muoversi<br />
nei conduttori. Queste cariche erano da considerarsi come le sorgenti del campo elettromagnetico.<br />
Esse "eccitavano" l'etere, il quale a sua volta retroagiva su di esse, interagendo quindi solo<br />
indirettamente con i corpi materiali. Per spiegare il magnetismo si poteva tornare, infatti, alla<br />
vecchia ipotesi di Ampère che esso fosse il prodotto del movimento delle cariche elettriche. Non<br />
29
solo, ma il fenomeno delle righe spettrali (ossia il fatto che i gas emettessero luce con una serie di<br />
frequenze ben definite) poteva essere spiegato assumendo che le radiazioni delle varie frequenze<br />
fossero il prodotto delle oscillazioni delle piccole cariche che si trovavano all'interno dei loro atomi.<br />
A favore di quella che fu in seguito chiamata teoria degli elettroni c'era anche l'evidenza<br />
sperimentale derivante dallo studio dei fenomeni ottici, in cui si verificava un moto relativo tra<br />
sorgente della luce e mezzo in cui la luce si propagava. Uno dei problemi era se un corpo<br />
trasparente in moto trascinasse con sé o meno l'etere in esso contenuto. La risposta a questo<br />
problema era già stata data da Augustin Fresnel all'inizio del secolo: se c'era trascinamento, questo<br />
poteva essere al massimo parziale. Ora, Lorentz riprese la questione e dimostrò che con la sua<br />
ipotesi il problema era brillantemente risolto. In realtà i corpi in moto attraverso l'etere non<br />
interagivano minimamente con esso: la materia ordinaria era completamente permeabile all'etere.<br />
Questo significava due cose: a) che l'etere rimaneva in ogni caso perfettamente immobile e quindi<br />
la velocità della luce era del tutto indipendente dal moto della sorgente, b) che tra materia ordinaria<br />
ed etere non avveniva alcuna forma di interazione meccanica (l'etere non opponeva alcuna<br />
resistenza al moto della materia) con la conseguenza che probabilmente l'etere era una sostanza di<br />
natura non meccanica.<br />
Queste idee, puramente teoriche, furono esposte sistematicamente nel 1892: ancora pochi anni e<br />
avrebbero avuto una straordinaria conferma sperimentale.<br />
LE NUOVE FORME DI RADIAZIONE<br />
I raggi catodici<br />
La conferma della teoria di Lorentz derivò da un acceso dibattito che si svolse nell'ultimo decennio<br />
del secolo e che coinvolse fisici teorici e sperimentali che si erano occupati di un fenomeno<br />
collaterale a quelli che abbiamo discusso: la scarica nei gas.<br />
L'uso sistematico delle pompe per vuoto aveva reso possibile indagare la natura della scarica che si<br />
verificava in un gas una volta che una differenza di potenziale sufficiente veniva prodotta tra il<br />
catodo (l'elettrodo negativo) e l'anodo (l'elettrodo positivo). I fenomeni osservati apparivano strani e<br />
pittoreschi. Si vedevano bande luminose alternarsi a spazi scuri, e queste configurazioni variavano<br />
con la pressione del gas. Ma un fenomeno particolarmente strano si produceva allorché la pressione<br />
del gas diventava molto bassa: la scarica nel gas cessava di essere luminosa, ma una debole<br />
luminosità verdastra (come quella degli oggetti fosforescenti) si produceva - all'interno del tubo -<br />
nella parte opposta al catodo. Lo studio di questo fenomeno portò, già tra il 1870 e il 1880, a<br />
ritenere che il catodo emettesse una nuova forma di radiazione che, quando urtava il vetro del tubo<br />
a scarica, produceva effetti di fluorescenza. Erano stati scoperti i raggi catodici (quelli che usiamo<br />
oggi normalmente negli apparecchi televisivi).<br />
Si apriva una delicata questione: di che natura erano questi raggi?<br />
Cominciò così una lunga controversia tra i fisici inglesi e i fisici tedeschi. L'inglese William<br />
Crookes (1832-1919) iniziò una serie sistematica di osservazioni in base alle quali si poteva<br />
supporre che i raggi catodici avessero una natura corpuscolare e fossero composti di una materia<br />
molto "sottile", addirittura più fine di quella degli stessi gas. Il tedesco Philip Lenard (1862-1947),<br />
influenzato da Hertz, il quale non credeva nella natura corpuscolare dell'elettricità, sosteneva che<br />
invece si trattava di una nuova forma di radiazione, diversa da quella luminosa, che si propagava<br />
nell'etere. Inconsapevolmente, Lenard favorì un'altra scoperta importante. Volendo dimostrare che i<br />
raggi catodici potevano oltrepassare sottili lamine metalliche (e quindi non potevano essere<br />
"materiali"), si accorse che effettivamente una lamina metallica investita da raggi catodici emetteva<br />
una strana forma di radiazione, che egli ritenne essere costituita da raggi catodici "secondari". Fu<br />
però il collega Wilhelm Konrad Röntgen (1845-1923) a dimostrare che questa radiazione era di tipo<br />
particolare, con proprietà diverse dai raggi catodici, una delle quali era estremamente affascinante:<br />
era in grado di attraversare anche notevoli spessori di materia. Röntgen aveva scoperto i raggi X.<br />
30
Fu l'inglese Joseph John Thomson (1856-1940) a risolvere la questione. Egli dimostrò che i raggi<br />
catodici trasportavano carica elettrica negativa e che venivano deflessi da campi elettrici e/o<br />
magnetici. Non si trattava di radiazione eterea, ma di vere e proprie particelle cariche. E Thomson<br />
giunse nel 1896 a misurare il rapporto tra la carica elettrica e la massa di questi corpuscoli, rapporto<br />
che mostrava come questi fossero circa duemila volte meno pesanti di un atomo di idrogeno.<br />
Thomson concluse di aver trovato lo stato più elementare della materia, le particelle più piccole che<br />
la possono comporre. Gli elettroni di Lorentz erano stati rivelati sperimentalmente.<br />
La scoperta della radioattività<br />
Ma le scoperte riguardanti il mondo microscopico non finivano qui. Pochi mesi dopo la scoperta di<br />
Röntgen, Henri Becquerel (1852-1908) osservò le radiazioni emesse da composti dell'uranio. Marie<br />
Curie (1867-1934) e suo marito Pierre Curie (1859-1906) individuarono poco dopo altri elementi<br />
che emettevano forme di radiazione simili, il polonio e il radio (da cui il nome "radioattività"). Le<br />
ricerche proseguivano intensamente nei vari laboratori europei. Fu Ernest Rutherford (1871-1937) a<br />
dimostrare nel 1899 che la radiazione di Becquerel era in realtà composita: ne facevano parte i<br />
raggi a, che venivano facilmente assorbiti anche da spessori piccoli di materia, e i raggi b, che<br />
risultavano molto più penetranti. Poco dopo si scoprì anche la terza componente, i raggi g, che<br />
apparivano estremamente penetranti.<br />
Solo nei primi anni del Novecento divenne chiaro che:<br />
- i raggi a erano particelle relativamente pesanti (la loro massa era circa quattro volte quella<br />
dell'atomo di idrogeno) e con una carica positiva pari al doppio della carica "elementare" dell'atomo<br />
di idrogeno ionizzato (la stessa carica di un elettrone, ma di segno opposto);<br />
- i raggi b erano della stessa natura dei raggi catodici, ossia erano costituiti da elettroni;<br />
- i raggi g erano invece radiazioni neutre straordinariamente penetranti, la cui natura, come del resto<br />
quella dei raggi X, era ancora poco nota, anche se in entrambi i casi l'ipotesi più accreditata era che<br />
fossero forme di propagazione nell'etere, analoghe a quella luminosa e ultravioletta; solo più tardi,<br />
dopo il 1910, si verificò che tali radiazioni avevano una natura ondulatoria e che potevano essere<br />
considerate come radiazioni elettromagnetiche di lunghezza d'onda estremamente piccola.<br />
La continua scoperta di nuove forme di radiazione e gli ambìti riconoscimenti che essa comportava<br />
scatenarono una rincorsa all'annuncio, da parte di sperimentatori in buona o cattiva fede,<br />
dell'identificazione di straordinarie forme di radiazione. Fu così annunciata la scoperta dei raggi N,<br />
della luce nera, e via discorrendo. Lo scienziato sperimentale fin de siècle sperava di raggiungere la<br />
celebrità identificando una nuova forma di radiazione. Con la conseguenza che talvolta<br />
sperimentatori più abili dovevano recarsi di persona a controllare i dati clamorosamente annunciati<br />
da loro colleghi e svelarne gli errori o, peggio, i trucchi.<br />
I PRIMI MODELLI ATOMICI E LA SCOPERTA DEL NUCLEO<br />
La scoperta dell'elettrone indusse quasi subito a pensare che gli atomi materiali fossero strutture<br />
complesse, tanto più che, essendo l'elettrone di carica negativa, nell'atomo doveva esserci una<br />
controparte positiva, in modo da rendere neutro l'atomo stesso. D'altra parte, era molto difficile<br />
costruire un modello di un sistema di cariche positive e negative che fosse sufficientemente stabile,<br />
ossia che non esplodesse o collassasse spontaneamente, e che spiegasse i fenomeni noti di origine<br />
atomica. Per tutto il primo decennio del Novecento si fronteggiarono essenzialmente due modelli. Il<br />
primo assimilava l'atomo a un sistema planetario, con una carica positiva centrale concentrata e gli<br />
elettroni orbitanti attorno a essa. Il secondo immaginava che gli elettroni ruotassero lungo anelli<br />
concentrici all'interno di una sfera diffusa di carica positiva.<br />
Questo secondo modello fu sostenuto con dovizia di argomentazioni da Joseph John Thomson. Ma<br />
fu Rutherford a dimostrare che il primo era da preferire. In una serie di esperimenti, iniziati sin dai<br />
primi anni del Novecento, e rivolti principalmente a determinare con chiarezza la natura delle<br />
31
adiazioni a, b e g, Rutherford cominciò a raccogliere elementi a favore dell'ipotesi planetaria. Le<br />
esperienze decisive furono effettuate tra il 1908 e il 1911 nel suo laboratorio. Rutherford e<br />
collaboratori, infatti, riuscirono a osservare che le particelle a, se fatte urtare con velocità elevata su<br />
lamine metalliche sottili, subivano grandi deviazioni e talvolta venivano riflesse all'indietro. L'unico<br />
modo di spiegare il fenomeno era di pensare che esse fossero "respinte" da cariche positive molto<br />
concentrate, che non potevano essere le sfere diffuse di Thomson. L'atomo doveva cioè avere un<br />
nucleo positivo molto piccolo rispetto alle sue dimensioni complessive.<br />
LA CONFERMA DELL'ESISTENZA DEGLI ATOMI: LE ESPERIENZE SUL<br />
MOTO BROWNIANO<br />
Tutte le scoperte di cui abbiamo parlato avrebbero deciso il destino della fisica nel nostro secolo. Il<br />
campo principale di indagine sarebbe stato la struttura elementare della materia e le leggi che<br />
regolano il comportamento delle particelle elementari. Ma le ultime resistenze dei fisici che non<br />
volevano credere all'esistenza degli atomi, perché coltivavano l'ideale di una fisica<br />
"fenomenologica", ossia che si limitasse alla descrizione di ciò che veniva osservato direttamente<br />
senza speculazioni ipotetiche, o perché preferivano pensare che la materia fosse continua, furono<br />
spazzate via in un altro settore di indagine.<br />
Fu infatti il fisico francese Jean-Baptiste Perrin (1870-1942) a concentrare la sua attenzione su un<br />
fenomeno osservato già nel 1827 dal botanico Robert Brown (1773-1858), il quale aveva notato<br />
come minuscoli grani di polline, osservabili solo al microscopio, sospesi in un liquido, effettuavano<br />
una strana "danza", indipendentemente dal fatto che fossero vivi o morti. Perrin, ebbe l'intuizione<br />
che questo movimento, chiamato appunto "moto browniano", fosse d'importanza decisiva per<br />
dimostrare la teoria cinetica del calore, ossia per mettere in evidenza il fatto che le molecole della<br />
materia sono animate da un moto di agitazione continuo, che si arresta solo allo zero assoluto.<br />
Con una serie estremamente brillante di esperimenti e grazie all'uso dell'ultramicroscopio, egli<br />
dimostrò al di là di ogni ragionevole dubbio che i movimenti dei granuli di polline, e anche di altre<br />
particelle sospese in un liquido, erano proprio del tipo che ci si sarebbe dovuto aspettare se si<br />
supponeva che fossero l'effetto degli urti delle molecole del liquido, allorché le fluttuazioni previste<br />
da Boltzmann facevano sì che parecchie molecole, invece di muoversi in maniera del tutto caotica,<br />
si muovessero contemporaneamente nella stessa direzione. L'atomo diveniva così una certezza della<br />
fisica.<br />
LA NASCITA DELL'ASTRO<strong>FISICA</strong><br />
Abbiamo detto dei successi dell'astronomia di posizione, ossia dell'astronomia che non si<br />
interessava della natura fisica e dell'evoluzione degli oggetti individuati nel cielo. Ma lo<br />
straordinario potenziamento dei mezzi di osservazione avrebbe presto mutato la situazione. Fu<br />
William Parsons, terzo conte di Rosse (1800-1867) a realizzare un enorme telescopio a riflessione e<br />
a scoprire, intorno alla metà del secolo, che alcune nebulose avevano una struttura a spirale.<br />
A questo punto il problema della natura delle nebulose tornò di grande attualità. Alcune, infatti,<br />
avevano una configurazione stabile, altre erano soggette a sensibili mutamenti. Erano quindi enormi<br />
sistemi di stelle - vere e proprie "isole di universo" - come la Via Lattea? Oppure erano nubi<br />
costituite da gas, capaci di emettere luce, e che magari stavano "dentro" la Via Lattea? Il problema<br />
sarebbe stato risolto solo all'inizio del nostro secolo.<br />
L'affinamento delle tecniche di osservazione degli spettri emessi dai corpi incandescenti e delle<br />
tecniche di ripresa fotografica fece invece concentrare l'attenzione sul Sole e, quindi, sulle altre<br />
stelle. Già Joseph von Fraunhofer (1787-1826) aveva mostrato che il Sole e altre stelle presentano<br />
nel loro spettro alcune righe scure. Quando l'analisi spettrale divenne di uso comune in fisica e in<br />
chimica, non solo fu chiaro che tali righe corrispondevano a frequenze della radiazione emessa dal<br />
32
Sole che venivano assorbite dalla stessa atmosfera solare, ma fu anche possibile identificare gli<br />
elementi chimici presenti in tale atmosfera (cromosfera).<br />
Iniziava così lo studio della natura fisica e della composizione chimica del Sole e delle stelle. Sulla<br />
base del colore più intenso nella loro emissione spettrale, padre Angelo Secchi (1818-1878) propose<br />
nel 1866 una distinzione delle stelle in tre classi: "bianche", "gialle" e "rosse". Nello stesso tempo,<br />
riprese fotografiche sistematiche mostrarono una periodicità nella formazione di macchie solari a<br />
cui corrispondeva una identica periodicità in fenomeni di magnetismo terrestre. Si cominciarono a<br />
osservare anche le caratteristiche protuberanze che si formavano sulla superficie del Sole, mentre,<br />
nel 1868, fu scoperto nel Sole un elemento chimico sconosciuto, a cui venne dato naturalmente il<br />
nome "elio", e che sarebbe stato trovato sulla Terra solo nel 1895.<br />
Intanto, alcuni fisici cominciarono a domandarsi per quanto tempo il Sole avrebbe potuto<br />
continuare a irradiare enormi quantità di energia. La seconda legge della termodinamica sembrava<br />
imporre un limite a questa produzione di energia, e su questa base Kelvin cominciò a fare le prime<br />
stime dell'età del Sole. E' interessante ricordare che, servendosi di queste stime (del resto<br />
profondamente errate, dato che egli non poteva sapere quale fosse la vera fonte dell'energia solare),<br />
Kelvin credette di trovare una obiezione radicale alla teoria dell'evoluzione delle specie di Darwin,<br />
dato che, secondo lui, il Sole non avrebbe potuto "funzionare" da più di qualche centinaio di<br />
migliaia di anni.<br />
La natura delle nebulose<br />
Il problema della natura delle nebulose animava il dibattito astronomico. Fu William Huggins<br />
(1824-1910) a scoprire nel 1864 la prima nebulosa planetaria e a rilevare attraverso la spettroscopia<br />
che essa era costituita da un gas incandescente e non da un sistema di stelle (oggi sappiamo che la<br />
nebulosa planetaria è un anello di gas attorno a una stella piccola e molto calda). Questa scoperta<br />
giocò a sfavore dell'ipotesi delle "isole di universo".<br />
Gli osservatorii astronomici, come quello di Greenwich, cominciano dunque verso la fine del secolo<br />
a somigliare sempre più a moderni laboratori di fisica, in cui si svolgevano molteplici attività e in<br />
cui operavano ricercatori professionisti. Tuttavia, in una scienza basata sull'osservazione mediante<br />
strumenti e sull'interpretazione delle immagini da questi ottenute, era un serio problema riuscire a<br />
distinguere ciò che era l'oggetto reale osservato e ciò che invece era un effetto ottico prodotto dallo<br />
strumento. Il caso più noto, in questo senso, fu la "scoperta" dei famosi canali di Marte da parte<br />
dell'astronomo italiano Giovanni V. Schiaparelli (1835-1910), scoperta che avrebbe eccitato tante<br />
fantasie su incontri e invasioni di "extraterrestri".<br />
La controversia sulla natura delle nebulose sarebbe stata risolta solo all'inizio del nostro secolo. Nel<br />
frattempo, era stata collegata al problema dell'evoluzione stellare. L'osservazione di numerosissime<br />
nuove nebulose a spirale contribuì inizialmente a rafforzare la tesi che tali nebulose non fossero<br />
altro che la fase iniziale della formazione di una stella. Del resto, all'inizio del Novecento quasi tutti<br />
gli astronomi erano concordi nell'assumere che tutti gli astri osservabili facessero parte della nostra<br />
galassia. Solo l'enorme potenziamento e la migliore collocazione degli osservatorii avrebbe potuto<br />
risolvere la questione.<br />
Il potenziamento degli osservatori<br />
Questo potenziamento avvenne principalmente negli Stati Uniti grazie alla tenace iniziativa di<br />
astrofisici come Percival Lowell (1855-1916), che tra l'altro previde l'esistenza di un nono pianeta<br />
oltre Urano - ossia Plutone - osservato solo nel 1930, e George Ellery Hale (1868-1938): furono<br />
così costruiti l'osservatorio del monte Wilson, il Lowell Observatory in Arizona e infine<br />
l'osservatorio del monte Palomar, dotato del più grande telescopio a riflessione del mondo.<br />
L'attenzione si concentrò su una nebulosa a spirale, già individuata alla fine dell'Ottocento e<br />
chiamata nebulosa di Andromeda. Un assistente di Lowell, Vesto Melvin Slipher (1875-1969),<br />
33
iuscì a ottenerne quattro lastre fotografiche che rivelavano alcune righe spettrali molto nitide. Il<br />
problema era che tali righe, pur essendo analoghe a quelle emesse dal Sole e da altre nebulose,<br />
erano leggermente spostate rispetto alla posizione che ci si sarebbe aspettati. L'unico modo di<br />
interpretare questo spostamento era quello di pensare che la nebulosa fosse in movimento. E il<br />
calcolo della velocità di spostamento diede un risultato sorprendente: la nebulosa di Andromeda<br />
viaggiava con una velocità di circa 300 km/s! Nel 1914 Slipher aveva calcolato la velocità di altre<br />
15 nebulose a spirale, trovando che la maggior parte di esse stavano allontanandosi dal Sole con<br />
velocità che superavano addirittura i 1000 km/s. Se fossero state "protostelle" interne alla Via<br />
Lattea avrebbero invece dovuto avere una velocità paragonabile a quella delle altre stelle. Fu così<br />
che alcuni cominciarono a pensare che si potesse trattare di altre galassie esterne alla nostra.<br />
La questione fu risolta definitivamente dalle ricerche compiute tra il 1923 e il 1924 da Edwin P.<br />
Hubble (1889-1953). Non solo egli osservò, all'interno della nebulosa di Andromeda, stelle che<br />
presentavano un rapido aumento di splendore e che altrettanto rapidamente tornavano a spegnersi<br />
(le cosiddette "nove"), ma addirittura delle stelle di splendore variabile in modo regolare e<br />
periodico (le cosiddette "cefeidi"). Questa regolarità consentì di misurarne precisamente la distanza,<br />
e Hubble calcolò una distanza di circa 1.000.000 di anni luce. Ora, anche le stime per eccesso del<br />
diametro della Via Lattea non erano mai superiori ai 300.000 anni luce. Quindi Andromeda non<br />
poteva essere che un'altra galassia.<br />
LA CRISI DELLA <strong>FISICA</strong> <strong>CLASSICA</strong><br />
E LA TERZA RIVOLUZIONE SCIENTIFICA<br />
LE CARATTERISTICHE SALIENTI DELLA <strong>FISICA</strong> <strong>CLASSICA</strong><br />
Lo studio della struttura microscopica della materia non aveva scalfito ancora, all'inizio del nuovo<br />
secolo, l'ideale "classico" di spiegazione dei fenomeni fisici. Trovare la legge dei fenomeni, anche<br />
se questa legge riguardava le particelle più elementari, equivaleva ad applicare i princìpi della<br />
meccanica e dell'elettrodinamica, i quali, in ogni caso, permettevano di concepire il moto di queste<br />
particelle come moto in cui un corpo esattamente identificabile segue una traiettoria ben definita<br />
nello spazio e nel tempo. In questo senso gli oggetti della fisica classica assomigliano ancora ai<br />
pianeti e sono schematizzabili come punti materiali che si muovono sotto l'azione di campi di forze.<br />
Accanto ai "corpuscoli" elementari (gli elettroni, le particelle a, ecc.) vi sono le radiazioni che,<br />
come la luce, si propagano sotto forma di onde. In ogni caso, il moto di questi "oggetti" elementari<br />
è esattamente determinato dalle loro condizioni iniziali: nota la legge, possiamo prevedere con<br />
esattezza la traiettoria futura del corpo e possiamo in un certo senso "immaginarcela" come<br />
spostamento di qualcosa nello spazio e nel tempo.<br />
Se intervengono considerazioni probabilistiche, come nel caso della meccanica statistica, o nel caso<br />
dei fenomeni di disintegrazione radioattiva, si può pensare che esse siano una scorciatoia per<br />
trattare sistemi troppo complessi o che siano il riflesso dell'ignoranza delle circostanze dettagliate in<br />
cui si produce il fenomeno. Come la fisica aristotelica e quella cartesiana aborrivano il vuoto, così<br />
la fisica classica nel suo complesso aborrisce il caso: non si può ammettere l'esistenza di fenomeni<br />
che sfuggano a ogni legge e siano intrinsecamente casuali.<br />
Inoltre, dire che ogni oggetto segue una traiettoria ben determinata nello spazio vuol dire anche che<br />
si può considerare il tempo come un parametro indipendente: esiste un tempo assoluto, che scorre<br />
in maniera uniforme, rispetto al quale si misura l'evoluzione di qualsiasi sistema.<br />
Quella che chiamiamo "terza rivoluzione scientifica" è appunto l'effetto della "crisi" dell'insieme di<br />
queste tradizionali certezze.<br />
IL PROBLEMA DELL'ELETTRODINAMICA DEI CORPI IN MOVIMENTO<br />
34
La teoria degli elettroni di Lorentz nacque anche come risposta al problema del moto relativo tra<br />
materia ed etere. Lorentz postulava che l'etere venisse attraversato dai corpi materiali in moto senza<br />
essere in alcun modo trascinato da essi. Ne derivava che l'etere nel suo complesso restava sempre<br />
immobile: in pratica il sistema di riferimento in quiete rispetto all'etere era un sistema di riferimento<br />
privilegiato, ossia quello che identificava lo spazio assoluto di newtoniana memoria.<br />
L'unica forma di movimento dell'etere erano le onde che si propagavano in esso, e in particolare la<br />
radiazione elettromagnetica. Queste onde avevano una velocità fissa e costante - il cui valore<br />
dipendeva dalle proprietà dell'etere stesso - solo nel sistema di riferimento in cui l'etere era in<br />
quiete, mentre in un sistema in moto rispetto all'etere si sarebbero dovute osservare piccole<br />
variazioni della velocità. Ora un sistema di riferimento sicuramente in moto rispetto all'etere era<br />
proprio quello dei nostri laboratori terrestri, dato che la Terra effettuava continuamente un moto di<br />
rotazione attorno al proprio asse e di rivoluzione intorno al Sole. Si sarebbero dovuti quindi<br />
osservare gli effetti del moto della Terra sulla velocità della luce.<br />
Bisogna però tener conto del fatto che la teoria di Lorentz rendeva difficili queste osservazioni: da<br />
essa discendeva, infatti, che gli effetti del moto della Terra (e di qualsiasi altro corpo animato da<br />
velocità v rispetto all'etere) erano difficilmente osservabili in quanto proporzionali al quadrato del<br />
rapporto v/c, dove c è la velocità della luce che, come sappiamo, è un numero molto grande.<br />
Tuttavia, un abile sperimentatore americano, Albert Abraham Michelson (1852-1931), aveva<br />
escogitato già nel 1882 un apparato in grado di rivelare anche questi effetti. Quindi il problema era<br />
ancora quello di stabilire se la Terra trascinasse con sé l'etere o se l'etere restasse sempre immobile.<br />
I risultati dell'esperimento di Michelson, più volte ripetuto con apparati sempre più precisi e<br />
perfezionati, mostravano comunque che non era possibile rivelare alcun moto relativo tra Terra ed<br />
etere, ed erano quindi a favore della prima ipotesi.<br />
Lorentz naturalmente non poteva accettare questa conclusione e la ricerca di una soluzione al<br />
problema fu al centro dei suoi interessi dal 1892 in poi, ossia da quando aveva formulato la teoria<br />
degli elettroni. L'unica via d'uscita che egli riuscì a individuare fu che proprio il moto attraverso<br />
l'etere producesse sui corpi materiali quegli effetti (per esempio la contrazione della loro lunghezza<br />
nella direzione del moto) che impedivano di rivelarlo sperimentalmente. Era una strana<br />
conclusione: c'era qualcosa che avveniva ma che non poteva essere osservato sperimentalmente in<br />
nessun caso. Di fatto era come se nel passaggio dal sistema di riferimento dell'etere al sistema di<br />
riferimento del laboratorio valessero particolari trasformazioni di coordinate (dette poi<br />
trasformazioni di Lorentz) che riflettevano appunto l'azione dell'etere sui corpi in moto.<br />
Queste conclusioni erano inaccettabili per un giovane fisico, Albert Einstein (1879-1955), che<br />
lavorava presso l'ufficio brevetti di Berna. Egli aveva forti dubbi sull'esistenza stessa dell'etere,<br />
anche perché le ricerche che aveva effettuato sui fenomeni di emissione e assorbimento della luce<br />
da parte della materia lo avevano convinto che la luce dovesse avere una natura corpuscolare,<br />
proprio come pensava Newton. Nello stesso tempo era convinto che il principio di relatività (ossia<br />
l'impossibilità di individuare un sistema di riferimento in quiete assoluta e la conseguente<br />
equivalenza di tutti i sistemi di riferimento in moto rettilineo e uniforme l'uno rispetto all'altro)<br />
avesse una validità fondamentale.<br />
La scoperta della relatività speciale<br />
Einstein quindi si pose il problema di conciliare con il principio di relatività la tesi di Lorentz per<br />
cui la velocità della luce è indipendente dalla velocità della sorgente che la emette. L'unico modo di<br />
farlo era quello di rimettere in discussione le vecchie idee di spazio e di tempo. Bisognava ridefinire<br />
in primo luogo il concetto di simultaneità tra eventi distanti tra loro, e poi ridefinire il concetto di<br />
lunghezza di un corpo in movimento rispetto al sistema di riferimento in cui era osservato. In<br />
questo modo si ottenevano proprio le trasformazioni di Lorentz, ma non come effetto fisico del<br />
moto attraverso l'etere, bensì come effetto di una nuova cinematica fondamentale, basata appunto<br />
sulla revisione dei concetti di spazio e di tempo.<br />
35
Le conseguenze della nuova teoria erano assai poco intuitive e, in alcuni casi, sconcertanti. Per<br />
questo essa faticò parecchio ad affermarsi nella comunità dei fisici. Bisognava infatti ammettere:<br />
- che la simultaneità tra due eventi non potesse considerarsi assoluta, ma solo relativa al sistema di<br />
riferimento in cui gli eventi erano osservati;<br />
- che la velocità della luce avesse lo stesso valore in ogni sistema di riferimento (era, cioè, una<br />
costante universale);<br />
- che la durata di un processo compiuto da un sistema in moto rispetto al sistema di riferimento<br />
dell'osservatore del processo fosse più lunga di quella dello stesso processo nel sistema di<br />
riferimento in cui il sistema era in quiete (il fenomeno della dilatazione del tempo);<br />
- che la lunghezza di un corpo in moto rispetto al sistema di riferimento dell'osservatore fosse più<br />
piccola (nella direzione del moto del corpo) di quella dello stesso corpo misurata in un sistema di<br />
riferimento in quiete rispetto a esso (il fenomeno della contrazione delle lunghezze);<br />
- che la massa di un corpo crescesse al crescere della velocità del corpo stesso;<br />
- che nessun corpo e nessuna azione fisica potessero viaggiare con una velocità superiore a quella<br />
della luce.<br />
Da queste premesse, e dal principio di conservazione dell'energia, Einstein derivò un'altra<br />
conseguenza di estrema importanza. La massa di un corpo era equivalente alla sua energia, ossia<br />
poteva convertirsi in energia, e viceversa.<br />
La conseguenza generale era che, come venne messo in evidenza dal matematico lituano Hermann<br />
Minkowsky (1864-1909), lo spazio e il tempo non potevano più essere tenuti separati tra loro: la<br />
variabile temporale non era che la quarta coordinata di un'unica entità, lo spazio-tempo a quattro<br />
dimensioni.<br />
Ma Einstein non era ancora soddisfatto. Il fatto che la sua teoria si limitasse a sistemi di riferimento<br />
inerziali (ossia, in moto rettilineo e uniforme) gli sembrava un limite inaccettabile. Nello stesso<br />
tempo, c'era un fatto che non aveva trovato fino ad allora alcuna spiegazione: la massa inerziale<br />
(quella che offriva resistenza a qualsiasi azione di una forza) era del tutto identica alla massa<br />
gravitazionale (quella che agiva come "sorgente" della forza di gravità). Questo fatto per Einstein<br />
non poteva essere casuale. Se, come segue dalla meccanica, in un sistema accelerato si produce una<br />
forza "apparente", anche la forza gravitazionale potrebbe essere dovuta allo stesso effetto. E ciò è<br />
confermato dal fatto che all'interno di un sistema in caduta libera non si avverte alcuna forza di<br />
gravità: esso è un sistema inerziale a tutti gli effetti.<br />
La soluzione geniale di Einstein fu la seguente: lo spazio-tempo a quattro dimensioni non è uno<br />
spazio euclideo, ma è uno spazio curvo, la cui curvatura si accentua in prossimità dei corpi massivi.<br />
E c'era anche un modo per osservare questa curvatura. Infatti la luce si propaga per definizione in<br />
linea retta. Ora, se lo spazio è curvo, quando la luce passa, per esempio vicino al Sole, essa deve<br />
subire una deviazione. L'occasione per verificare questa ipotesi fu l'eclisse solare del 29 maggio<br />
1919 (soltanto con il Sole eclissato si potevano osservare le stelle dietro di esso). Una spedizione di<br />
astronomi inglesi effettuò le osservazioni e trovò che effettivamente la posizione apparente delle<br />
stelle che si trovavano in quel momento vicino al Sole era spostata rispetto a quella osservata<br />
normalmente. La luce era curvata dal campo gravitazionale del Sole. Einstein divenne così il<br />
simbolo del genio scientifico.<br />
LA QUANTIZZAZIONE DELL'ENERGIA<br />
La fine del secolo XIX aveva visto un'altra scoperta di eccezionale importanza per la fisica del<br />
secolo successivo. Questa scoperta si deve al fisico teorico Max Planck (1858-1947) e segna l'inizio<br />
di una svolta nella descrizione dei fenomeni fisici ancor più radicale di quella prodotta dalla teoria<br />
della relatività. Planck si occupava di termodinamica ed era interessato all'emissione e<br />
assorbimento della radiazione elettromagnetica da parte dei corpi riscaldati a una certa temperatura.<br />
Aumentando la temperatura di un corpo, esso emette radiazione di lunghezza d'onda sempre più<br />
piccola: un termosifone emette radiazione infrarossa non visibile, una stufa comincia a emettere<br />
anche nel campo del visibile e il colore di un metallo arroventato diviene via via più chiaro e<br />
36
intenso a mano a mano che la temperatura aumenta. Dalla luce emessa dal Sole è possibile dedurre<br />
che la sua superficie ha una temperatura di circa 6000 °C. Insomma, a temperature più elevate<br />
corrispondono radiazioni di frequenza più elevata (e quindi di minore lunghezza d'onda).<br />
L'obiettivo di Planck era spiegare questo fenomeno in base all'ipotesi che la radiazione fosse<br />
emessa e assorbita dalle particelle elementari cariche che formavano gli atomi dei corpi. Planck<br />
suppose che, a mano a mano che aumentava la temperatura, l'energia del corpo si trasferisse a<br />
particelle la cui frequenza di oscillazione fosse via via crescente. Ora però, se si ammetteva,<br />
secondo la teoria classica, che ogni particella oscillante potesse muoversi con qualsiasi energia,<br />
indipendentemente dalla sua frequenza di oscillazione, si arrivava a conclusioni del tutto assurde e<br />
contrarie all'evidenza sperimentale. L'unico modo di risolvere la questione era supporre che le<br />
particelle oscillanti potessero assumere solo valori discreti di energia. Se una particella oscillava<br />
con frequenza n, allora la sua energia doveva essere proporzionale a questa frequenza e, nello stesso<br />
tempo, un multiplo intero di un "quanto" elementare di energia, pari al valore di una costante<br />
fondamentale, che Planck designò con la lettera h (da allora chiamata "costante di Planck"),<br />
moltiplicato per la frequenza di oscillazione n. La formula di Planck E = hn segna l'inizio, nel 1900,<br />
della fisica quantistica.<br />
Le conseguenze di questa assunzione erano sconvolgenti. Implicavano infatti che ogni particella<br />
potesse variare la sua energia solo effettuando un "salto" da un valore, poniamo, hn a un valore 2hn,<br />
e via discorrendo. Andava perduta una delle caratteristiche essenziali della descrizione classica,<br />
ossia che le variazioni di energia potessero avvenire in maniera continua.<br />
La teoria della struttura atomica<br />
Quest'idea suscitò interminabili controversie, ma cominciò a trovare feconde applicazioni in diversi<br />
campi della fisica. In particolare ebbe un'applicazione di importanza decisiva nella teoria della<br />
struttura atomica. Fu un giovane fisico teorico danese, Niels Bohr (1885-1962), che si era trasferito<br />
in Inghilterra con una borsa di studio ed era stato nei laboratori di Joseph John Thomson e di<br />
Rutherford, a trovare questa geniale applicazione. Egli era convinto che le eccezionali proprietà di<br />
stabilità degli atomi (se un atomo subiva una perturbazione, per esempio un urto, esso, dopo un<br />
rapidissimo riassestamento, tornava esattamente alla configurazione iniziale) e di regolarità dei<br />
processi che avvenivano al suo interno (un atomo emetteva luce sempre delle stesse frequenze<br />
esattamente definite) non potessero trovare alcuna spiegazione classica. L'idea di Planck gli servì<br />
allora a enunciare una teoria del tutto rivoluzionaria. Gli elettroni che si muovono intorno al nucleo<br />
occupano normalmente stati stazionari che sono stabili per definizione e corrispondono a una<br />
successione di valori discreti della loro energia. Gli elettroni emettono radiazione solo quando<br />
effettuano una transizione da uno stato stazionario a un altro (ossia quando effettuano un salto<br />
quantico). In questo modo il mistero delle righe spettrali trovava un'immediata spiegazione.<br />
La stabilità e regolarità dei processi atomici veniva quindi spiegata da Bohr assumendo che le<br />
variabili dinamiche dell'atomo, l'energia e il momento angolare, non potessero variare con<br />
continuità, ma solo attraverso processi essenzialmente discontinui, che, cioè non si potevano<br />
nemmeno immaginare come processi che si verificavano nello spazio e nel tempo. Per di più, come<br />
gli sviluppi successivi della teoria misero in evidenza, non si poteva più prevedere con esattezza<br />
quale fosse e quando avvenisse una transizione elettronica. Si poteva prevedere teoricamente solo la<br />
probabilità di una transizione: così come i fenomeni di emissione radioattiva, i fenomeni di<br />
emissione e assorbimento della radiazione elettromagnetica sembravano dominati da una casualità<br />
intrinseca. E non solo: la radiazione emessa nella transizione (o "salto") di un elettrone da uno stato<br />
stazionario a un altro (o, come poi si sarebbe detto, da un livello energetico a un altro) non<br />
dipendeva solo dalle condizioni "iniziali" in cui si trovava l'elettrone, ma anche dal suo stato finale,<br />
stato che, come abbiamo detto, non era prevedibile a priori. Come Bohr stesso avrebbe commentato<br />
in seguito, l'idea atomistica non riguardava più soltanto la limitata divisibilità della materia, ma si<br />
estendeva anche alla concezione dei processi fisici elementari. Era questo il significato<br />
rivoluzionario della scoperta di Planck.<br />
37
IL DILEMMA ONDA-CORPUSCOLO<br />
Nello stesso anno in cui pubblicava il fondamentale articolo sulla teoria della relatività, Albert<br />
Einstein ne pubblicava anche un altro in cui era contenuta un'ipotesi singolare: la luce deve avere<br />
una struttura corpuscolare. Sarebbero passati vent'anni prima che i fisici cominciassero a prendere<br />
sul serio questa "stravagante" ipotesi. I fenomeni di diffrazione e interferenza, infatti, non potevano<br />
essere compresi se non alla luce della concezione ondulatoria. Ma qualche motivo, teorico e<br />
sperimentale, Einstein ce l'aveva.<br />
Dal punto di vista teorico, l'ipotesi dei quanti di luce (come venne in seguito chiamata l'ipotesi della<br />
natura corpuscolare della radiazione) spiegava abbastanza bene la legge del corpo nero su cui aveva<br />
indagato Planck: essa offriva in un certo senso un modello intuitivo per capire come mai l'energia<br />
potesse variare solo per quantità discrete. Dal punto di vista sperimentale, essa spiegava bene<br />
l'andamento di un fenomeno problematico, scoperto negli anni Ottanta del XIX secolo ma non<br />
ancora chiarito: l'effetto fotoelettrico.<br />
Accadeva che un corpo illuminato dalla radiazione luminosa emettesse spontaneamente elettroni.<br />
La luce forniva agli elettroni l'energia sufficiente per "sfuggire" dal corpo. Ma cosa c'era di strano?<br />
Essenzialmente tre aspetti:<br />
- ogni materiale cominciava a emettere elettroni solo quando la luce aveva una frequenza maggiore<br />
di una certa "soglia";<br />
- l'emissione avveniva istantaneamente, non appena il corpo veniva illuminato;<br />
- l'energia degli elettroni emessi era proporzionale alla frequenza della radiazione.<br />
Ora, secondo la teoria ondulatoria, l'energia della radiazione non ha nulla a che fare con la<br />
frequenza. Essa è rappresentata dall'intensità della radiazione: una luce molto intensa trasporta più<br />
energia di una luce meno intensa, indipendentemente dalla sua frequenza (o lunghezza d'onda).<br />
Quindi non ci può essere alcun legame tra energia e frequenza, e tanto meno si può spiegare una<br />
frequenza di soglia. Oltretutto, se l'emissione fotoelettrica fosse l'effetto di una risonanza tra la<br />
frequenza della radiazione e la frequenza di oscillazione degli elettroni dentro la materia, ci<br />
vorrebbe un certo tempo prima che gli elettroni "accumulino" l'energia sufficiente per vincere le<br />
forze di legame che li trattengono.<br />
Come si è detto, questo problema avrebbe animato la discussione tra fisici per due decenni. Fu<br />
Arthur Holly Compton (1892-1962) a dare una svolta decisiva all'intera questione. L'effetto<br />
Compton, da lui scoperto nei primi anni Venti, mostrava chiaramente che quando la luce investiva<br />
un elettrone e lo "sparava" in una certa direzione, la luce stessa subiva una diminuzione di<br />
frequenza che dipendeva dalla direzione in cui veniva diffusa. Il tutto poteva essere interpretato<br />
immaginando l'interazione tra l'elettrone e la radiazione come un vero e proprio urto tra due palle da<br />
biliardo, in cui si conservava sia l'energia, sia la quantità di moto.<br />
Si poteva considerare questo fenomeno come una conferma definitiva dell'ipotesi dei quanti di<br />
luce? Non esattamente. Le proprietà ondulatorie della luce non potevano essere abbandonate. Tanto<br />
più che, nel 1924, il fisico teorico francese Louis-Victor de Broglie (1892-1987) aveva ipotizzato<br />
che anche le particelle materiali, come gli elettroni, avessero una natura ondulatoria. E nel 1927<br />
vennero osservati i primi effetti di diffrazione e interferenza anche in un fascio di elettroni. Del<br />
resto, proprio sul carattere ondulatorio degli elettroni si basa il funzionamento del moderno<br />
microscopio elettronico.<br />
Dunque non solo la luce, ma tutta la materia aveva una natura duale. Tutte le particelle elementari si<br />
comportano come onde o come corpuscoli a seconda delle situazioni.<br />
LA MECCANICA QUANTISTICA E I NUOVI PROBLEMI CONCETTUALI<br />
Il modello della struttura atomica di Bohr era un embrione di teoria. Troppe assunzioni erano<br />
ingiustificate e troppi problemi restavano aperti. La ricerca dello scienziato danese continuava<br />
38
senza soste. Nel 1918 egli riuscì a spiegare le differenze di intensità delle righe spettrali emesse da<br />
un gas incandescente come le diverse probabilità di effettuare le transizioni (o i salti quantici)<br />
corrispondenti. Per questo egli usò il cosiddetto principio di corrispondenza, il quale imponeva che<br />
per energie molto elevate rispetto al quanto elementare l'atomo si comportasse come un sistema<br />
perfettamente classico. Ma come derivare, per esempio, il numero e i valori dell'energia dei vari<br />
stati stazionari in cui orbitavano gli elettroni intorno all'atomo?<br />
Il punto è che occorreva una nuova teoria meccanica fondamentale. Questa nuova meccanica fu<br />
sviluppata da un gruppo di giovani fisici teorici, Hendrik Anthony Kramers (1894-1952), Wolfgang<br />
Pauli (1900-1958), Werner Heisenberg (1901-1976), Pascual Jordan (1902-1980), che lavoravano<br />
presso i centri di Copenaghen e di Gottinga ed erano guidati da Bohr e da Max Born (1882-1970), e<br />
contemporaneamente dal fisico austriaco, Erwin Schrödinger (1887-1961), che seguiva una strada<br />
apparentemente molto diversa, suggeritagli dalle ricerche di Einstein e di de Broglie. I primi<br />
pervennero nel 1925 a una formulazione simbolica molto astratta, la cosiddetta "meccanica delle<br />
matrici", in cui ogni grandezza dinamica (l'impulso, l'energia, il momento angolare, ecc.) veniva<br />
rappresentata da una tabella di numeri (appunto una matrice). Il secondo formulò invece la<br />
meccanica ondulatoria, immaginando che lo stato di una particella in un campo di forze fosse<br />
rappresentato da una funzione d'onda, denominata dal simbolo Y, che poteva essere ricavata<br />
risolvendo una particolare equazione, appunto l'equazione di Schrödinger.<br />
Fu lo stesso Schrödinger a dimostrare nel 1926 che i due modi di rappresentare la meccanica erano<br />
formalmente equivalenti: nasceva così la moderna meccanica quantistica. E fu Heisenberg a<br />
mostrarne, l'anno successivo, un aspetto sconcertante. Per la definizione stessa delle variabili<br />
dinamiche, infatti, la conoscenza precisa di una di esse implicava che un'altra variabile, a essa<br />
correlata, fosse del tutto indeterminata. Per esempio, conoscendo con esattezza la posizione di una<br />
particella, il suo impulso (ossia la quantità di moto, o, se vogliamo, la velocità) risulta del tutto<br />
indeterminato e può assumere qualsiasi valore. Il principio di indeterminazione di Heisenberg<br />
imponeva quindi un limite invalicabile alla possibilità stessa di concepire una particella elementare<br />
così come nella fisica classica: non si poteva più immaginare un elettrone o un fotone come un<br />
corpuscolo che segue una traiettoria definita nello spazio e nel tempo.<br />
L'interpretazione di Copenaghen<br />
Nel 1927, Max Born e Niels Bohr diedero un'interpretazione generale del nuovo modo di descrivere<br />
gli oggetti subatomici elementari. Secondo Born la funzione d'onda Y di Schrödinger non<br />
descriveva la distribuzione nello spazio e nel tempo di una "sostanza" materiale, ma era una<br />
funzione che consentiva di ricavare solo la probabilità che, effettuando una misurazione su una<br />
qualsiasi delle variabili che definiscono lo stato di un sistema, questa variabile assumesse questo o<br />
quel valore. Secondo Bohr, il cambiamento di descrizione imposto dalla nuova meccanica<br />
imponeva un principio di complementarità, in base al quale gli apparati di misura che consentono di<br />
ricavare il valore di certe variabili e che consentono di immaginare la particella come un<br />
corpuscolo, escludono la possibilità di ricavare il valore di altre variabili e di immaginare la<br />
particella come un'onda. In altre parole, tra il punto di vista ondulatorio e il punto di vista<br />
corpuscolare non vi è contraddizione, dal momento che le due rappresentazioni fisiche non si<br />
possono mai utilizzare contemporaneamente nel descrivere la stessa situazione sperimentale.<br />
Questa interpretazione, che verrà poi chiamata "interpretazione di Copenaghen" della meccanica<br />
quantistica, non sarebbe mai stata accettata all'unanimità da tutti i fisici e, caso quanto mai<br />
singolare nella storia della fisica, avrebbe continuato a suscitare polemiche e dibattiti fino al giorno<br />
d'oggi. In particolare, Albert Einstein si sarebbe sempre dichiarato in completo disaccordo. Per lui<br />
la descrizione ultima della realtà non può essere probabilistica: se conosco solo probabilità vuol<br />
dire che manca qualcosa alla mia conoscenza e nessun risultato sperimentale potrà mai convincermi<br />
che Dio "giochi a dadi" con il mondo.<br />
La discussione epistemologica tra Einstein e Bohr sull'interpretazione della meccanica quantistica è<br />
uno dei dibattiti più profondi della storia della fisica, paragonabile per importanza e per capacità<br />
39
intellettuale dei suoi protagonisti solo al classico dibattito tra Newton e Leibniz sui fondamenti<br />
della nuova fisica alla fine del XVII secolo.<br />
LA <strong>FISICA</strong> NUCLEARE E DELLE PARTICELLE ELEMENTARI<br />
Con la meccanica quantistica sembrava definitivamente risolto il problema della struttura degli<br />
atomi e delle molecole che compongono la materia. Tra il 1927 e il 1929, la meccanica quantistica<br />
fu sviluppata in modo da includere la teoria della relatività speciale e trattare adeguatamente i<br />
processi di interazione tra radiazione e materia. La meccanica quantistica relativistica e<br />
l'elettrodinamica quantistica furono formulate con il contributo decisivo del fisico inglese Paul<br />
Adrien Dirac (1902-1984). La sua teoria quanto-relativistica inquadrava razionalmente le proprietà<br />
dell'elettrone che erano state suggerite dalle ricerche sulla struttura atomica e dalla teoria statistica<br />
quantistica, che si riferiva a sistemi costituiti da grandi numeri di oggetti quantistici elementari. In<br />
particolare, dava conto di una proprietà strettamente quantistica delle particelle elementari, le quali<br />
dovevano avere un momento angolare intrinseco, a cui corrispondeva un momento magnetico<br />
intrinseco. Dal momento che l'unico modo di immaginare tale proprietà era quello di pensare alle<br />
particelle come a piccole trottole in continua rotazione attorno a un proprio asse, questa proprietà<br />
venne chiamata "spin".<br />
In base ai valori dello spin era quindi possibile suddividere tutte le particelle elementari in due<br />
classi ben distinte: quelle che avevano lo spin pari a un numero semi-intero (1/2, 3/2, ecc.) e quelle<br />
che avevano spin intero (0, 1, 2, ecc.). Le prime, come per esempio gli elettroni, rispettavano un<br />
principio, già ipotizzato da Pauli nel 1923, detto "principio di esclusione", in base al quale in uno<br />
stesso sistema non potevano esservi due particelle che avessero esattamente lo stesso stato dinamico<br />
(il che in meccanica quantistica vuol dire avere lo stesso valore per tutti i numeri quantici che<br />
consentono di individuare il loro stato). Le seconde, come per esempio i fotoni, non dovevano<br />
rispettare questa condizione. Le particelle del primo tipo furono chiamate "fermioni", dato che le<br />
loro proprietà caratteristiche - che si rivelavano in sistemi costituiti da una grande numero di<br />
particelle identiche e quindi da trattare statisticamente - furono messe in evidenza nel primo grande<br />
contributo teorico di Enrico Fermi (1901-1954) nel 1925. Le particelle del secondo tipo furono<br />
chiamate "bosoni", dal nome del fisico indiano Satyendra Nath Bose (1894-1974) che ne ideò la<br />
statistica.<br />
La scoperta del positrone<br />
Ma le sorprese non erano finite. Proprio analizzando il comportamento statistico degli elettroni,<br />
Dirac era giunto alla conclusione che non vi era nulla nella teoria che impedisse a tali particelle di<br />
occupare stati di energia negativa. Bisognava anzi pensare che tali stati, essendo di energia più<br />
bassa di quelli di energia positiva, fossero tutti già normalmente occupati. In realtà, secondo Dirac,<br />
noi rileviamo sperimentalmente solo gli elettroni che ricevono energia sufficiente a passare da uno<br />
stato di energia negativa a uno stato di energia positiva. Nel 1932 Carl David Anderson (1905-<br />
1991) rivelò una particella che aveva la stessa massa dell'elettrone, ma carica opposta. Era stato<br />
scoperto il positrone. L'interpretazione di Dirac, inizialmente ritenuta troppo fantasiosa, trovava una<br />
straordinaria conferma: i positroni potevano infatti essere concepiti come i "posti" lasciati vacanti<br />
(ossia le "lacune") dagli elettroni che erano stati estratti dal "mare" di stati di energia negativa.<br />
Infatti, subito dopo si verificò che una radiazione fortemente energetica come quella costituita da un<br />
raggio g poteva "materializzarsi" in una coppia di particelle "simmetriche" costituita da un elettrone<br />
e da un positrone. Il raggio g non aveva fatto altro che estrarre, fornendogli la sua energia, un<br />
elettrone dal mare di stati di energia negativa.<br />
Con questa scoperta prende avvio di fatto la moderna ricerca sulle particelle elementari, che dà<br />
luogo a una straordinaria interazione e reciproca corroborazione di ipotesi teoriche e risultati<br />
sperimentali che durano fino a oggi. Le nuove tecniche sperimentali si basano sulla progettazione e<br />
40
costruzione di rivelatori sempre più efficaci, che registrano gli effetti di eventi, spesso molto rari,<br />
che avvengono nel mondo microscopico, in modo da ricostruirne la dinamica. La camera di Wilson,<br />
la camera a bolle, le emulsioni fotografiche, i contatori, gli scintillatori, e via discorrendo,<br />
segnalano e registrano il passaggio delle particelle cariche e attraverso le loro tracce consentono di<br />
risalire al percorso di quelle neutre. Per questo si usano sorgenti naturali, come i materiali<br />
radioattivi e i raggi cosmici, e sorgenti artificiali, come gli acceleratori di particelle, in grado di<br />
produrre particelle di energia elevatissima, fatte poi urtare contro bersagli. Non possiamo entrare<br />
nei dettagli di questa complessa vicenda. Segnaliamo solo che essa avrebbe portato in breve tempo<br />
alla moltiplicazione del numero delle particelle elementari e alla ricerca di schemi unificanti, capaci<br />
di raggupparle in famiglie e quindi concepirle come manifestazioni di combinazioni di particelle<br />
ancora più elementari. Nello stesso tempo tale ricerca avrebbe mutato il volto organizzativo della<br />
fisica: i piccoli laboratori con al massimo una decina di ricercatori sarebbero stati sostituiti dai<br />
grandi laboratori in cui centinaia e a volte migliaia di addetti lavorano, con compiti estremamente<br />
specializzati, a un comune progetto, dando luogo alla cosiddetta "big science".<br />
La bomba atomica<br />
Una prima manifestazione di questa tendenza si ebbe durante la seconda guerra mondiale negli Stati<br />
Uniti, quando tutti i migliori fisici occidentali furono reclutati per arrivare alla realizzazione, in<br />
tempi rapidi, del più micidiale ordigno che la mente umana abbia mai concepito: la bomba atomica.<br />
Questa tremenda applicazione tecnologica sarebbe stata il culmine della ricerca in fisica nucleare,<br />
iniziata nei primi anni Trenta. In questo campo si manifestarono appieno le geniali capacità di<br />
Enrico Fermi e del gruppo di giovani fisici che venne riunito presso l'università di Roma dall'allora<br />
direttore Orso Mario Corbino (1876-1937). Fu proprio Corbino, in un famoso e profetico discorso,<br />
tenuto nel 1929, a indicare nella ricerca sul nucleo il terreno verso il quale indirizzare gli sforzi,<br />
essendo il problema della struttura atomica risolto dalla meccanica quantistica.<br />
Nel 1932 James Chadwick (1891-1974) risolve sperimentalmente la questione della struttura del<br />
nucleo atomico accertando l'esistenza di particelle neutre di massa all'incirca uguale a quella dei<br />
protoni, i neutroni. Da allora, Fermi e i suoi collaboratori Emilio Segrè (1905-1989), Franco Rasetti<br />
(1901), Edoardo Amaldi (1908-1989), coadiuvati dal teorico Ettore Majorana (1906-1938),<br />
cominciano a lavorare sulla radiottività, vista come manifestazione di fenomeni nucleari. La loro<br />
scoperta fondamentale avviene nel 1934, quando essi riescono a rendere radioattive determinate<br />
sostanze, bombardondole con neutroni di bassa energia.<br />
Il nucleo poteva essere reso instabile e addirittura modificato dall'uomo. Quest'ultimo aspetto<br />
sembrava realizzare il sogno degli antichi alchimisti: e infatti molti fisici, compresi gli italiani, si<br />
dedicarono alla produzione di elementi chimici "artificiali".<br />
Ma era l'instabilità l'aspetto più importante della ricerca. In effetti, nel 1938, Otto Hahn (1879-1968)<br />
e Fritz Strassmann (1902-1980) osservarono che un nucleo di uranio bombardato da neutroni si<br />
scinde in due nuclei di elementi più leggeri. Era stata scoperta la fissione nucleare. Peraltro, il<br />
processo comportava la liberazione di un'enorme quantità di energia. L'importanza, anche militare,<br />
della scoperta fu notata quasi subito, in particolare da Einstein. Fu così che, quando gli Stati Uniti<br />
entrarono in guerra, partì il grandioso progetto Manhattan che avrebbe portato alla scoperta dei<br />
metodi di utilizzazione dell'energia nucleare. In particolare, fu lo stesso Fermi, nel frattempo<br />
emigrato in America per motivi politici, a realizzare nel 1942 la prima pila atomica. Quando Arthur<br />
Compton, leader dei fisici americani, comunicò tale successo al presidente Roosevelt, usò la famosa<br />
frase in codice: «Il navigatore italiano è sbarcato nel nuovo mondo».<br />
I SISTEMI COMPLESSI E IL CAOS<br />
Con la meccanica quantistica l'ideale classico sembrava ormai tramontato per sempre. Eppure,<br />
come avviene talvolta in un torrente d'acqua che straripa - un paragone non casuale -, il corso della<br />
41
storia della fisica prende a volte direzioni del tutto impensate. Il destino della fisica sembrava<br />
segnato dalla scoperta delle particelle fondamentali e quindi dal desiderio di rivelare i segreti più<br />
intimi della materia, quelli relativi alla sua costituzione elementare. Questo ideale di ricerca, che<br />
comunque è pienamente giustificato e trova straordinarie possibilità di sviluppo nel chiarimento dei<br />
problemi relativi alla natura e all'origine dell'universo, aveva come corollario l'idea di "ricondurre"<br />
il comportamento di sistemi complessi, ossia costituiti da un numero enorme di particelle, alle leggi<br />
che regolavano il comportamento, appunto, di questi costituenti elementari.<br />
La complessità, insomma, era vista come l'effetto del grande numero degli elementi interagenti. Ma,<br />
nell'ambito della stessa fisica ottocentesca, era stata intravista un'altra prospettiva, che allora però<br />
era sembrata problematica e quasi fallimentare. Fu il fisico matematico francese Henri Poincaré<br />
(1854-1912) a mettere in piena evidenza la questione, quando affrontò dal punto di vista<br />
matematico quello che doveva essere un semplice problema di meccanica: il problema<br />
dell'evoluzione di un sistema costituito da tre corpi che interagivano mediante forze gravitazionali.<br />
Poincaré mise in luce che tale problema non poteva essere risolto con i metodi noti del calcolo<br />
differenziale. Anzi, dal momento che il sistema era ritenuto governato da equazioni differenziali<br />
non lineari, la soluzione non poteva essere trovata con una semplice serie di operazioni<br />
matematiche. Quello che si riusciva però a intravedere era che, comunque, le soluzioni, ossia i moti<br />
dei corpi interagenti, dovevano essere enormemente complicate. In pratica, se era vero che uno dei<br />
corpi compiva una determinata traiettoria avendo inizialmente una determinata posizione e velocità<br />
(ossia con determinate condizioni iniziali), era anche vero che lo stesso corpo con condizioni<br />
iniziali impercettibilmente diverse avrebbe seguito una traiettoria completamente diversa.<br />
Era stato scoperto il fenomeno "teorico" dell'instabilità dinamica (o, come spesso si dice, della<br />
dipendenza sensibile dalle condizioni iniziali). Come se in moltissimi casi il sistema fosse una sfera<br />
che cade dalla cima di un monte. Era praticamente impossibile prevedere in che direzione sarebbe<br />
caduta. Una minima differenza di posizione avrebbe fatto sì che, invece di andare nel versante sud,<br />
precipitasse nel versante nord. In realtà la meccanica classica era stata fino ad allora applicata a<br />
problemi molto semplici. Poincaré dimostrò che, non appena le cose si complicavano un po',<br />
l'evoluzione di un sistema era di fatto imprevedibile.<br />
Quello che sembrava un ulteriore limite alle possibilità esplicative della fisica classica si sarebbe<br />
invece rivelato fecondo di risultati sorprendenti in tempi molto più recenti. Quando l'evoluzione di<br />
un sistema diviene del tutto imprevedibile come nel caso suddetto, si dice che tale evoluzione è<br />
caotica. Ora, questo fa capire che, in molti sistemi, la complessità del loro comportamento non<br />
richiede necessariamente, per essere spiegata, il ricorso a un numero enorme di piccoli sistemi<br />
costituenti che interagiscono tra di loro. La cosa sarebbe diventata evidente nello studio dei<br />
fenomeni di turbolenza.<br />
LA NUOVA COSMOLOGIA<br />
L'astrofisico Edwin P. Hubble aveva dimostrato che l'universo era popolato da altre galassie, alcune<br />
delle quali erano simili e altre diverse dalla nostra. Inizialmente, l'osservazione di queste galassie<br />
era orientata in primo luogo verso la chiarificazione della loro natura e quindi verso una loro<br />
classificazione. Ma nel frattempo Einstein aveva formulato la sua teoria della relatività generale e<br />
già nel 1917 aveva posto in relazione le assunzioni di questa teoria con alcune ipotesi generali sulla<br />
natura dell'intero universo. Di fatto era il primo lavoro di cosmologia in senso proprio.<br />
Alcuni astrofisici raccolsero questo suggerimento e cominciarono a porre in relazione le<br />
osservazioni astronomiche con una teoria generale dell'universo. Tra questi, l'olandese Willem de<br />
Sitter (1872-1934), il russo Aleksandr Aleksandrovich Fridman (1888-1925) e il belga Georges<br />
Lemaître (1894-1966) cominciarono a pensare che l'universo non fosse statico. Le loro supposizioni<br />
portavano infatti a rendere plausibile, soprattutto dal punto di vista teorico, la possibilità che il<br />
nostro universo fosse un universo in espansione.<br />
Il supporto sperimentale per questa ipotesi fu fornito proprio da Hubble. Osservando<br />
sistematicamente lo spostamento degli spettri emessi dalle galassie, egli giunse a formulare una<br />
42
legge che metteva in evidenza come tale spostamento (detto "spostamento verso il rosso", o<br />
"redshift") era in prima approssimazione proporzionale alla distanza della galassia. Questo dato era<br />
interpretabile come conferma dell'ipotesi dell'espansione dell'universo. Ma se l'universo è in<br />
espansione costante, allora, risalendo indietro nel tempo, alcuni miliardi di anni fa doveva essere<br />
interamente racchiuso in un volume molto piccolo. Divenne quindi non solo naturale parlare di<br />
un'età dell'universo, ma si poteva immaginare che, all'inizio dei tempi, l'universo fosse stato<br />
originato da una mostruosa esplosione, il Big Bang.<br />
43