29.05.2013 Views

FISICA CLASSICA - CloudMe

FISICA CLASSICA - CloudMe

FISICA CLASSICA - CloudMe

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>FISICA</strong> <strong>CLASSICA</strong><br />

IL MONDO CLASSICO<br />

L'IMPORTANZA DELLA SCIENZA GRECA<br />

La civiltà e la cultura della Grecia classica sono la culla della civiltà e della cultura occidentali<br />

moderne: è quanto spesso si sente dire. In un certo senso è proprio così. Se leggiamo i testi in cui<br />

gli antichi scienziati e filosofi greci espongono le loro teorie, il loro modo di argomentare è simile a<br />

quello degli scienziati contemporanei: cercano di giustificare le teorie in base all'esperienza,<br />

cercano di trarre le conseguenze logiche dalle proprie premesse, credono nella possibilità di<br />

comunicare e far comprendere il "sapere".<br />

Eppure, non sempre è stato così. In epoche precedenti - e anche in epoche successive - vi è stato chi<br />

pensava che il vero "sapere" potesse essere compreso e posseduto solo da pochi eletti: esso nasceva<br />

da "poteri" misteriosi, magici, non poteva essere formulato in maniera chiara e razionale, non<br />

poteva essere "scoperto" con la ricerca, ma solo tramandato dalla tradizione. I depositari del sapere<br />

erano i "sacerdoti" o gli "oracoli", i quali erano stati "iniziati" sin dall'infanzia a un sapere segreto e<br />

misterioso, non comunicabile alla "plebe", e assolutamente non criticabile da nessuno.<br />

Lo scienziato greco amava insegnare e discutere, si circondava di discepoli, amici e colleghi,<br />

criticava ed era criticato e - cosa straordinaria - ammetteva talvolta di essere in torto. Era insomma<br />

convinto della possibilità di giungere a conclusioni sulla natura del mondo che lo circondava<br />

mediante il ragionamento e le osservazioni.<br />

Ora, quando si parla di scienziato dell'antica Grecia non bisogna pensare al ricercatore specializzato<br />

dei tempi moderni. A quell'epoca non esistevano le discipline scientifiche come le conosciamo<br />

oggi: non si distingueva la fisica dalla chimica e dalla biologia. La physis era la "natura" in<br />

generale, considerata soprattutto come insieme di cose e di sostanze in reciproca interazione e in<br />

continuo mutamento. E lo scienziato greco voleva conoscere i princìpi delle cose e dei mutamenti<br />

osservati. Egli era un "amante del sapere" e per questo veniva chiamato "filosofo".<br />

Naturalmente, la parte della natura che affascinava maggiormente gli antichi era la volta celeste.<br />

Nelle notti serene, in assenza di lampioni e insegne, la volta celeste appariva in tutta la sua<br />

ricchezza e varietà di luci e colori. E le osservazioni diventarono via via sempre più precise e<br />

regolari. Per questo le più antiche scoperte scientifiche e i più antichi strumenti di osservazione<br />

riguardano l'astronomia.<br />

Tuttavia i filosofi greci cominciarono a occuparsi anche dei fatti e dei mutamenti che si<br />

presentavano sulla superficie terrestre e, così come avveniva per la volta celeste, cercavano di<br />

mettere ordine nella varietà delle cose e nella molteplicità dei mutamenti. E cercavano, quando era<br />

possibile, di mettere in relazione ciò che osservavano sulla volta celeste con ciò che avveniva sul<br />

nostro pianeta.<br />

Quindi il loro principale atteggiamento metodologico era quello di distinguere (la mela dalla pera, i<br />

metalli dalle rocce, ecc.) e poi riunificare (sono frutti, sono minerali, ecc.) ossia classificare.<br />

L'individuazione di analogie e di somiglianze consentiva di mettere nella stessa classe cose o<br />

mutamenti diversi. La scoperta di proprietà comuni a diverse sostanze permetteva di andare a<br />

cercare quali fossero gli elementi semplici, i princìpi materiali di cui erano fatte tutte le cose, i<br />

princìpi causali che le facevano mutare e le loro caratteristiche essenziali comuni o diverse. Questa<br />

tendenza alla differenziazione e all'unificazione è tipica della scienza greca, come è tipico di essa<br />

l'affidarsi alle differenze e alle analogie qualitative.<br />

Ma i greci furono anche studiosi di matematica e di logica e nelle loro teorie compare la distinzione<br />

tra ciò che è perfetto, o ideale, in quanto astratto, e ciò che "approssima" solamente tale<br />

comportamento ideale, in quanto concreto. Non solo, ma gli studi di logica portano a distinguere un<br />

ragionamento corretto da uno fallace, portano a sapere quello che è possibile dedurre e quello che<br />

non è possibile dedurre da certe premesse.<br />

1


Per tutti questi motivi, lo spirito dello scienziato greco è uno spirito laico (che non ammette dogmi<br />

e pregiudizi da accettare senza discutere) e nello stesso tempo uno spirito critico (che sottopone alla<br />

discussione razionale e al controllo fenomenologico) le idee proprie e quelle degli altri. Certo, in<br />

assenza di ipotesi quantitative più precise e, soprattutto, di adeguate capacità tecniche, mancavano<br />

quelle che noi oggi consideriamo le principali fonti di informazione sulla natura del mondo fisico,<br />

ossia gli esperimenti. Ma non per questo bisogna dimenticare che, in definitiva, lo scopo ultimo<br />

degli "amanti del sapere" era quello di separare le vaghe opinioni, le credenze ingenue dell'uomo<br />

comune, ossia la cosiddetta doxa, dalle conoscenze certe che l'osservazione, la riflessione razionale,<br />

la deduzione logica ci consentono di raggiungere, ossia la cosiddetta epistéme. E' così che, in<br />

pratica, nasce la scienza occidentale.<br />

LA RICERCA DI PRINCIPI UNIFICANTI<br />

La scuola ionica<br />

Gli albori di quella che noi consideriamo "scienza" greca possono essere fatti risalire alle opere dei<br />

cosiddetti naturalisti ionici, che produssero le loro teorie grosso modo tra il 650 e il 500 a.C. I più<br />

noti sono quelli appartenenti alla scuola di Mileto, ossia Talete (624-546 ca a.C.), Anassimandro<br />

(610-546 a.C.) e Anassimene (586-528 a.C.). Il nome "naturalisti" deriva appunto dal fatto che il<br />

loro atteggiamento tendeva a contrapporsi a quello dei sacerdoti e dei teologi poiché essi ritenevano<br />

che fosse giunto il momento di «sottoporre a violenza la natura affinché essa ci riveli i suoi<br />

segreti».<br />

La caratteristica principale della loro ricerca è il tentativo di individuare il principio unico, la<br />

sostanza o l'essenza da cui traggono origine tutte le cose. Essi cercavano in altre parole di trovare<br />

l'unità al di sotto e all'inizio (donde il termine "principio" ossia arché) della molteplicità di tutte le<br />

cose. Ora, per Talete tale principio era l'acqua, per Anassimandro era una sostanza primaria<br />

indefinita (l'apeiron), per Anassimene era l'aria. Queste idee si fondevano in modo suggestivo con<br />

le complesse teorie cosmologiche e cosmogoniche che essi proponevano che costituiscono, fino a<br />

Tolomeo, la cosmologia classica.<br />

La teoria dei quattro elementi<br />

Queste prime teorie generali furono sottoposte a severe critiche dai filosofi successivi, ma il seme<br />

era stato gettato: era legittimo cercare la spiegazione dei fenomeni e le cause ultime dei mutamenti<br />

in princìpi materiali, anche se in un quadro più ricco e articolato. In particolare, nel V secolo spicca<br />

la figura di Empedocle (490-430 ca a.C.), nativo di Agrigento, il quale propone la famosa teoria dei<br />

quattro elementi, che avrà, come vedremo, vita lunghissima. Per Empedocle infatti tutte le cose<br />

sono formate da quattro elementi primari, l'aria, l'acqua, la terra e il fuoco, che si combinano tra<br />

loro in varie proporzioni.<br />

E' interessante notare che i quattro elementi interagiscono tra loro con attrazioni e repulsioni,<br />

concepite come manifestazione rispettivamente di amore e di odio, e che queste attrazioni e<br />

repulsioni consentono di spiegare i mutamenti delle cose.<br />

PITAGORA E PLATONE<br />

I numeri come princìpi primi<br />

Nel VI secolo a.C. la matematica era già molto sviluppata, grazie ai contributi degli egiziani, degli<br />

assiri e dei babilonesi. Con Pitagora (ca 570-497 a.C.) e la sua scuola i numeri diventano princìpi<br />

delle cose in senso "fisico", in quanto unità essenziali che si compongono come dei punti materiali<br />

2


per produrre tutte le cose. Quindi lo studio della natura diventa studio delle proporzioni numeriche<br />

tra gli aspetti delle cose che si potevano contare e misurare.<br />

La perfezione delle idee matematiche e geometriche<br />

Le idee pitagoriche avrebbero avuto anch'esse lunga vita, ma l'influenza più importante sulla nascita<br />

della fisica moderna, in cui assume un ruolo centrale la descrizione matematica della natura, fu<br />

quella esercitata da Platone (427-347 a.C.). Per Platone solo il ragionamento matematico è in grado<br />

di condurci alla certezza ed è quindi il termine di riferimento ideale di ogni ragionamento. Ma non è<br />

solo questo il ruolo della matematica e della geometria: il fatto è che l'essenza ideale delle cose<br />

sensibili che ci circondano va ricercata nella loro forma geometrica e nei loro rapporti matematici.<br />

Per esempio, i quattro elementi di Empedocle corrispondono a composizioni di figure geometriche<br />

semplici che danno luogo a quattro poliedri regolari - il tetraedro (la terra), l'icosaedro (l'acqua), il<br />

cubo (l'aria), l'ottaedro (il fuoco). Al quinto poliedro regolare noto - il dodecaedro - deve<br />

corrispondere un'altra sostanza primordiale che forse riguarda la natura delle sfere celesti.<br />

L'ATOMISMO: DEMOCRITO ED EPICURO<br />

Atomi e vuoto<br />

Un altro ingrediente essenziale della fisica moderna è la concezione atomistica della materia. L'idea<br />

originale appartiene ancora una volta a un grande filosofo greco, Democrito (ca. 460-ca. 370 a.C.).<br />

La sua teoria è la prima teoria meccanica del mondo, in quanto egli vede tutte le cose esistenti come<br />

composte da minuscoli atomi, ossia minuscoli pezzi di materia che non potevano essere suddivisi in<br />

pezzi più piccoli (la parola "atomo" vuol dire "indivisibile"). Nello stesso tempo, per Democrito<br />

tutti i mutamenti devono essere ricondotti al semplice movimento degli atomi e agli inevitabili urti<br />

tra di loro. Per questo occorre immaginare che lo spazio in cui gli atomi si muovono sia vuoto, ossia<br />

privo di materia. Le cose, compresi la Terra, il Sole e i pianeti, sono quindi aggregati di atomi, e si<br />

sono prodotte casualmente, senza alcun intervento provvidenziale. Ovviamente, l'esigenza di<br />

spiegare la molteplicità delle sostanze e degli elementi spinge Democrito a considerare vari tipi di<br />

atomi, diversi per forma e per dimensione e diversi anche per le forze di attrazione e repulsione che<br />

si esercitano tra loro.<br />

Le idee di Democrito sarebbero state riprese da Epicuro (342-270 a.C.), nativo di Samo, e, in<br />

termini molto suggestivi, dal poeta latino Lucrezio (95-55 a.C.). Esse verranno a più riprese<br />

attaccate e condannate perché ritenute materialistiche, atee e immorali: tuttavia sarà proprio<br />

l'atomismo a caratterizzare maggiormente il volto moderno e attuale della fisica.<br />

LA <strong>FISICA</strong> DI ARISTOTELE<br />

Sulla fisica di Aristotele (384-322 a.C.) dovremo soffermarci di più per motivi che sono noti a tutti:<br />

il pensiero e la tradizione aristotelici rimasero infatti il punto di riferimento per tutti gli scienziati<br />

successivi fino all'inizio del Seicento. D'altra parte la dottrina aristotelica costituisce la prima<br />

grande sistemazione del sapere in tutti i suoi aspetti, da quello riguardante il mondo umano e<br />

naturale, a quello riguardante il cosmo nel suo complesso, fino agli aspetti più astratti della logica e<br />

del metodo scientifico.<br />

I princìpi esplicativi della metafisica aristotelica sono espressi in dicotomie:<br />

materia - forma,<br />

potenza - atto,<br />

sostanza - accidente.<br />

3


La materia del mondo "sublunare" è costituita dai quattro elementi, o essenze: acqua, aria, terra e<br />

fuoco. La materia delle sfere celesti (cosmologia classica) è costituita invece da una quintessenza,<br />

l'etere.<br />

La forma è ciò che permette di identificare gli oggetti materiali, ciò che assegna loro specificità e<br />

individualità. Qualsiasi oggetto esistente è quindi unità inscindibile di materia e forma proprio<br />

perché è qualcosa e non qualcos'altro. Le cose sono quindi unità inscindibili di materia e forma.<br />

Conoscere le cose equivale a riconoscere ciò che fa parte della loro "essenza", ossia della loro<br />

sostanza. Tutto ciò che non appartiene necessariamente a tale sostanza (ossia che non<br />

contraddistingue un oggetto come sua proprietà essenziale) è un accidente (per esempio il fatto che<br />

un uomo sia biondo o bruno). Il vero significato di una parola che designa una cosa sta nel concetto<br />

che ne abbiamo e che consente di identificarla in base alle sue proprietà essenziali. Per questo è così<br />

importante classificare le cose in base alle loro differenze qualitative.<br />

Ma gli oggetti mutano: un bambino diventa adulto, un fiore si trasforma in frutto, l'acqua si tramuta<br />

in ghiaccio. Il movimento nello spazio è solo un tipo particolare di mutamento. Il problema è: come<br />

possiamo comprendere il mutamento?<br />

Il mutamento: potenza e atto<br />

L'assioma basilare dell'interpretazione aristotelica del mutamento è che se un oggetto si trasforma o<br />

trasforma qualche suo aspetto, vuol dire che il risultato di questa trasformazione era già presente in<br />

potenza nell'oggetto stesso. Ciò che l'oggetto è ora è l'oggetto in atto, ed è ciò che l'oggetto era in<br />

potenza qualche tempo fa. E sicuramente, anche l'oggetto in atto è ancora qualcos'altro in potenza.<br />

Quindi la materia possiede in potenza le forme che in seguito possiederà in atto.<br />

Per ogni oggetto e per ogni cambiamento esistono allora in primo luogo due cause: la causa<br />

materiale e la causa formale. In virtù della causa materiale l'oggetto esiste come mera potenzialità,<br />

in virtù della causa formale l'oggetto esiste come questo oggetto e non un altro. Ma per divenire<br />

questo oggetto in atto, l'oggetto ha spesso bisogno di altre due cause: la causa efficiente e la causa<br />

finale. Le prime due cause esistono, per così dire, fuori dal tempo, le altre due agiscono, invece, nel<br />

tempo. La causa finale è l'azione del fine da raggiungere, prima che esso sia raggiunto: attraverso di<br />

essa l'oggetto assume questa forma e non quella, perché così raggiunge meglio il suo scopo (per<br />

esempio i polmoni hanno quella forma perché sono fatti per respirare). La causa efficiente è il<br />

mezzo che permette alla causa finale di agire, oppure che ne impedisce l'azione. Se un fiore è<br />

destinato a diventare frutto al fine di permettere la riproduzione della pianta, sarà fatto in modo da<br />

realizzare tale scopo: ma non lo potrà raggiungere senza l'ape, ossia la causa efficiente, che,<br />

succhiando il nettare, gli porta il polline di altri fiori.<br />

I quattro elementi, fuoco, terra, acqua e aria, nelle loro varie combinazioni, costituiscono la causa<br />

materiale di tutti gli oggetti sublunari: essi sono sostanze, in quanto hanno una forma che assegna<br />

loro qualità essenziali (caldo, freddo, secco, umido) in base alle quali hanno ciascuno specifiche<br />

proprietà.<br />

I movimenti o cambiamenti sono sostanziali (generazione e corruzione), qualitativi (essiccazione,<br />

riscaldamento, ecc.), quantitativi (aumento, diminuzione), locali (spostamento, allontanamento,<br />

avvicinamento, ecc.). I cambiamenti si dividono in violenti (che hanno bisogno di una causa<br />

efficiente) e naturali (che avvengono spontaneamente in base alla loro causa finale).<br />

In particolare, i cambiamenti locali naturali sono il moto verso il basso e il moto verso l'alto per le<br />

sostanze sublunari, a seconda che nella loro composizione prevalgano le sostanze pesanti (acqua e<br />

terra) o leggere (aria e fuoco), e il moto circolare, considerato come moto perfetto perché senza<br />

inizio né fine, per le sfere celesti e l'etere.<br />

Da questo punto di vista c'è una gerarchia dei moti: il moto rettilineo è un moto meno perfetto di<br />

quello circolare, dal momento che deve avere un inizio e una fine. La sostanza più perfetta, la<br />

cosiddetta "quintessenza", cioè l'etere, non può che avere un moto circolare. Comunque sia, il<br />

mondo della materia "bruta", quella dei sassi, dei mari, del fuoco e dell'aria, è un mondo di livello<br />

inferiore, in cui la sostanza è a livelli di minima complessità e in cui le tendenze e i cambiamenti<br />

4


sono i più banali essendo principalmente solo cambiamenti di luogo. Insomma, il moto locale non<br />

merita, dal punto di vista aristotelico, particolare attenzione e non vale la pena di costruirci sopra<br />

una scienza.<br />

Il movimento dei corpi<br />

"Fisica" per Aristotele significa "natura nel suo complesso", e quella che egli ci presenta è una<br />

filosofia della natura in cui non ha senso cercare di distinguere le discipline scientifiche a cui oggi<br />

siamo abituati. E' importante però estrarre da questa concezione globale e unitaria alcune<br />

considerazioni relative al movimento locale dei corpi, perché su di esse si sarebbe concentrata<br />

l'attenzione polemica dei fisici moderni. In particolare citiamo un famoso brano della Fisica:<br />

«Noi vediamo che lo stesso peso e lo stesso corpo si muovono più rapidamente per due cause; o<br />

perché è differente ciò attraverso cui l'oggetto passa (per esempio, se passa attraverso l'acqua o la<br />

terra, ovvero attraverso l'acqua e l'aria) oppure perché l'oggetto spostato, qualora gli altri fattori<br />

siano gli stessi, differisce per eccesso del peso o della leggerezza».<br />

Ora si vede immediatamente che Aristotele descrive qualcosa che è evidente per chiunque. Egli sta<br />

parlando di "proiettili", ossia di oggetti lanciati. E' evidente che la velocità del proiettile, a parità di<br />

sforzo per lanciarlo, sarà tanto maggiore quanto meno denso è il mezzo attraverso cui esso passa<br />

(una pallina da golf andrà più piano attraverso l'acqua che attraverso l'aria) e sarà tanto maggiore<br />

quanto più il proiettile stesso è denso (una pallina da ping pong andrà più piano di una pallina da<br />

golf). Il mezzo eserciterà comunque una resistenza e, a poco a poco, il moto naturale verso il basso<br />

tenderà a prevalere.<br />

Ma come faceva il sasso a muoversi in una direzione diversa da quella del moto naturale, anche<br />

quando aveva lasciato la mano che lo aveva lanciato? Il moto "violento" deve avere sempre una<br />

causa esterna. Aristotele immaginò che tale causa esterna dovesse essere cercata nel mezzo (nel<br />

caso specifico, l'aria) in cui il sasso si muoveva. L'aria, tendendo a rioccupare immediatamente lo<br />

spazio vuoto lasciato dietro di sé dal sasso durante il suo spostamento, finiva per spingerlo<br />

ulteriormente in avanti.<br />

La conclusione che Aristotele trae da questa visione è legittima: se pensiamo che la velocità del<br />

proiettile sia inversamente proporzionale alla densità del mezzo che esso deve attraversare, allora,<br />

nel vuoto, che ha densità nulla, la velocità del proiettile dovrebbe essere infinita! Quindi, secondo<br />

Aristotele, il vuoto non può esistere.<br />

I PRIMORDI DEL METODO SPERIMENTALE: ARCHIMEDE<br />

Oltre a essere un grandissimo matematico, Archimede (287-212 a.C.) viene considerato il prototipo<br />

dello scienziato sperimentale. Sono molti i dispositivi di cui è considerato l'inventore, dalla vite,<br />

alla vite senza fine, fino ai celebri specchi ustori che sarebbero stati usati nella difesa della natìa<br />

Siracusa. Ma i contributi alla statica e al problema del galleggiamento dei corpi sono senz'altro<br />

quelli più interessanti dal punto di vista fisico. Archimede è lo studioso della leva (tutti ricordano la<br />

celebre frase che gli viene attribuita: «Datemi un punto d'appoggio e vi solleverò il mondo»),<br />

dell'uso della bilancia e dell'equilibrio dei corpi pesanti (in relazione al quale formulò chiaramente<br />

il concetto di baricentro) e della spiegazione del galleggiamento dei corpi in base al principio della<br />

spinta detta, appunto, di Archimede: «I corpi solidi con un peso specifico maggiore del liquido in<br />

cui sono immersi cadranno in basso fino in fondo, e nel liquido saranno tanto più leggeri, di quanto<br />

pesa un volume di liquido uguale al loro volume».<br />

LA COSMOLOGIA <strong>CLASSICA</strong> FINO A TOLOMEO<br />

5


Che gli antichi vivessero "a contatto" del cielo stellato molto di più di quanto lo si faccia oggi è un<br />

fatto evidente. Le scarse e deboli sorgenti di illuminazione notturna li mettevano, nelle notti serene,<br />

al cospetto del grandioso mistero della volta celeste. E, non volendo ammettere che le stelle fossero<br />

distribuite a caso, videro nella disposizione e nel moto delle stelle altrettanti "segni" carichi di<br />

significato per i destini umani. A poco a poco gli dèi si spostarono dai boschi alle cime dei monti, e<br />

fino in cielo, da dove potevano esercitare con maggiore forza le loro "influenze".<br />

Ma furono anche esigenze pratiche, prima di tutto legate all'agricoltura e alla navigazione, che<br />

portarono a individuare con precisione i "momenti propizi" (per seminare, salpare, pescare,<br />

vendemmiare, ecc.) e quindi a scandire e misurare il tempo, stabilendo esattamente la durata dei<br />

cicli che si osservavano nel cielo e quindi sulla Terra: il giorno, il mese, l'anno e le sue stagioni.<br />

Tralasciamo le importanti acquisizioni dell'astronomia babilonese, egizia e dell'astronomia<br />

orientale, indiana e cinese e torniamo invece alla civiltà greca, ritrovando i "personaggi" di cui<br />

abbiamo parlato in precedenza, dato che l' "amore per il sapere" aveva come oggetto anche per i<br />

greci soprattutto la comprensione del mistero dell'universo.<br />

In primo luogo bisogna effettuare una distinzione, quella tra physis e kosmos. La physis è la<br />

"natura" nella sua molteplicità, vitalità spontanea, nella sua capacità di crescere e svilupparsi, nella<br />

sua caducità e mortalità; il kosmos è "ordine", proporzione, simmetria, stabilità, ed è ciò che è<br />

immutabile e immortale. Per questo l'astronomo greco viene chiamato mathematikos e l'astronomia<br />

è una branca della matematica.<br />

I primi grandi risultati dell'osservazione astronomica appartengono comunque alla scuola ionica. Si<br />

dice, sebbene sembra che non sia vero, che Talete stupì i suoi concittadini prevedendo l'eclissi di<br />

Sole che ebbe luogo nel 585 a.C. e che perciò divenne famoso come uno dei "sette savi". Ma la sua<br />

visione cosmologica si basa su una distinzione assoluta tra alto e basso, per cui la Terra ha bisogno<br />

di un supporto che la sostenga e, nella parte abitata, è sostanzialmente piatta. Anche Anassimandro<br />

immagina le terre abitate come la base superiore di un cilindro la cui altezza non supera un terzo<br />

della larghezza. Singolare è la sua concezione delle stelle: esse non sarebbero altro che fori praticati<br />

nel cerchione interno di grandi ruote, piene di fuoco, che ruotano costantemente intorno alla Terra.<br />

I pitagorici, impressionati dalla straordinaria regolarità dei moti celesti, indagarono sui rapporti<br />

numerici tra periodi e distanze, cercando correlazioni con gli accordi musicali (da loro nasce l'idea<br />

dell'armonia dell'universo). Una delle loro maggiori preoccupazioni era quella del Grande Anno,<br />

ossia del periodo di tempo minimo necessario affinché l'intero insieme di astri osservabili<br />

raggiungesse esattamente la stessa configurazione (ricordiamoci di 2001 Odissea nello spazio).<br />

Comunque sia, il grande contributo dei pitagorici sta nell'aver teorizzato la perfezione della sfera<br />

come forma tipica degli astri e quindi anche della Terra, sospesa al centro dell'universo (senza<br />

quindi più alcuna distinzione assoluta tra alto e basso), e del moto circolare, come movimento<br />

principale dei corpi della volta celeste.<br />

Il moto circolare<br />

La scuola platonica, e in particolare Eudosso di Cnido (391-338 a.C.), diedero all'universo classico<br />

la sua forma definitiva. Il problema era quello di ricondurre a moti circolari, perfettamente regolari,<br />

i moti "apparenti" osservati nel cielo. A questo scopo Eudosso costruì il suo universo fatto di sfere<br />

rotanti concentriche, le sfere celesti. La sfera delle stelle fisse racchiude l'intero universo e la durata<br />

della sua rotazione, la più regolare, è la durata del giorno siderale. Il Sole, la Luna e i pianeti, detti<br />

astri erranti, compiono però movimenti molto più complicati e allora, per Eudosso, il problema<br />

diventa quello di trovare quali e quante sfere celesti rotanti - e con quale collegamento tra di loro -<br />

si debbano ipotizzare per spiegare ciò che si osserva.<br />

Aristotele riprende la concezione dei platonisti e mantiene la distinzione tra cielo e Terra. Il moto<br />

circolare è proprietà "naturale" dei corpi celesti (e della quintessenza, l'etere) in quanto distinti dai<br />

corpi terrestri, composti dai quattro elementi, che si muovono di moto naturale rettilineo. La<br />

differenze "tecniche" con Eudosso stanno nel numero delle sfere celesti - che divengono ben 55 - e<br />

nell'assunzione che ciascuna abbia in sé il proprio motore.<br />

6


Nei secoli successivi ad Aristotele cambiano anche i centri della ricerca astronomica. Questi si<br />

spostano fuori dalla Grecia, a Rodi, a Pergamo e, soprattutto, ad Alessandria d'Egitto. A Rodi<br />

lavora quello che viene considerato il più grande astronomo di tutta l'antichità, Ipparco di Nicea<br />

(194-120 a.C.), al quale si deve la scoperta della precessione degli equinozi. Ad Alessandria<br />

avevano lavorato Euclide (vissuto intorno al 300 a.C.) e Aristarco di Samo (310-230 ca. a.C.), il<br />

primo sostenitore conosciuto di quello che poi sarebbe divenuto il sistema copernicano, con il Sole<br />

al centro dell'universo. Qui la ricerca diviene specialistica, con precisi metodi di osservazione e<br />

misura. E qui l'astronomia classica raggiunge il suo punto di massimo sviluppo con l'Almagesto di<br />

Tolomeo (ca. 100-170), nel quale la speculazione cosmologica lascia il posto alla precisione<br />

matematica e il sistema geocentrico riceve la sua formalizzazione più rigorosa, ma anche più<br />

complicata, per essere in perfetto accordo con le osservazioni. I pianeti, per esempio, non ruotano<br />

attorno alla Terra: questa è collocata in una posizione "eccentrica", ossia spostata rispetto al centro<br />

della rotazione dei pianeti. Nello stesso tempo, i pianeti non si muovono su un cerchio perfetto, ma,<br />

mentre ruotano sul cerchio, compiono anche un movimento circolare intorno ai punti del cerchio<br />

stesso, ossia compiono un epiciclo. Resta comunque l'ipotesi di fondo che ogni movimento celeste<br />

debba risultare dalla composizione di moti perfettamente circolari. Per questo vi sono corpi celesti<br />

"eccezionali", come per esempio le comete che, non rispettando le regole, sono stati per tutta la<br />

storia delle comete associati dalla credulità popolare all'idea di eventi altrettanto "eccezionali",<br />

quasi sempre disastri e calamità.<br />

ANTECEDENTI E PRESUPPOSTI<br />

LA RIVOLUZIONE SCIENTIFICA<br />

La scienza medioevale e il recupero del pensiero classico<br />

Tra il VI e l'XI secolo non si può parlare di scienza nel senso moderno del termine. La diffusione<br />

del cristianesimo faceva sì che l'attenzione intellettuale fosse interamente rivolta a problematiche<br />

ultraterrene e a polemiche teologiche (in cui si traducevano i contrasti politici e sociali). L'opera dei<br />

classici venne in pratica dimenticata e i pochi che continuavano a tradurla e a commentarla<br />

raramente erano in grado di comprenderla correttamente. Fu solo con la ripresa degli scambi con<br />

l'Oriente e il contatto con la cultura araba che, all'inizio del secondo millennio, ripresero a circolare<br />

le conoscenze di un tempo. Dall'XI al XIII secolo si assiste a una grande ripresa delle traduzioni dei<br />

classici, che diventano il nucleo centrale di una nuova cultura medioevale.<br />

Naturalmente l'autore classico che influì maggiormente sul risveglio di interesse verso i fenomeni<br />

naturali fu Aristotele. Ma il recupero di Aristotele fu molto più difficile e contraddittorio di quanto<br />

comunemente si pensi. La Chiesa non vedeva certo di buon occhio un filosofo essenzialmente laico,<br />

che non credeva nell'immortalità dell'anima, nella trasmutabilità delle sostanze, nella creazione<br />

dell'universo e dell'uomo. Non a caso i teologi "ortodossi" scatenarono una violenta campagna antiaristotelica,<br />

giungendo persino a vietare l'insegnamento della dottrina aristotelica nelle più<br />

importanti università europee. Ma questo atteggiamento chiuso e dogmatico ebbe anche l'effetto di<br />

stimolare le prime critiche alla fisica aristotelica, critiche che poi sarebbero state utilizzate per<br />

giungere a una sua modifica radicale.<br />

Per brevità, parleremo soltanto della concezione del moto dei "proiettili" (ossia degli oggetti<br />

lanciati in moto "violento", ossia in una direzione diversa da quella del loro moto "naturale"). Per<br />

Aristotele, come sappiamo, la tendenza a muoversi verso l'alto o verso il basso è una caratteristica<br />

essenziale dei corpi e non richiede spiegazione: la causa di tale moto è interna al corpo stesso.<br />

Invece, il moto di un sasso lanciato verso l'alto, finché è diretto verso l'alto, deve avere una causa<br />

"esterna" al sasso stesso, causa che, appunto, veniva identificata nella spinta dell'aria risucchiata<br />

nello spazio lasciato quasi vuoto dal sasso in movimento.<br />

7


La teoria dell'impetus<br />

A questa teoria venne opposta in epoca medioevale la cosiddetta teoria dell'impetus. Secondo<br />

Giovanni Buridano (ca. 1300-ca. 1358), uno dei principali sostenitori di questa teoria, l'impetus è<br />

una specie di "forza" incorporea che viene impressa al proiettile nel momento del lancio e che il<br />

proiettile tende a conservare durante il suo moto. Solo la resistenza del mezzo, quindi, è la causa del<br />

progressivo rallentamento del corpo nella direzione del lancio. Viceversa, nella caduta verso il<br />

basso, è come se il moto naturale comportasse un continuo aumento dell'impetus: in questo modo si<br />

poteva cominciare ad avere una spiegazione dell'accelerazione dei gravi verso il basso che, pur<br />

essendo stata notata da Aristotele, non aveva trovato alcuna spiegazione nella sua opera. Nello<br />

stesso tempo, si poteva immaginare che, se non vi fosse stato un mezzo resistente, il corpo avrebbe<br />

proseguito indefinitamente il suo moto nella direzione del lancio: una conclusione in cui molti<br />

hanno visto l'embrione di quello che poi sarà chiamato principio d'inerzia.<br />

Queste osservazioni hanno portato gli storici della scienza a rivalutare l'importanza della ricerca<br />

scientifica del tardo Medioevo. Precisiamo meglio la questione.<br />

Medioevo e rivoluzione scientifica<br />

Di solito si dice che la rivoluzione scientifica è caratterizzata da due idee generali:<br />

- la natura può essere descritta esattamente in modo matematico;<br />

- le leggi che descrivono il funzionamento della natura vanno scoperte e verificate attraverso<br />

l'esperimento.<br />

Ora, se la rivoluzione scientifica consistesse solo nell'affermazione di queste idee, quanto abbiamo<br />

detto finora ci farebbe dedurre che i legami degli scienziati del Cinquecento e del Seicento con il<br />

passato siano più forti di quanto ci si potesse immaginare e che di vera e propria "rivoluzione" non<br />

si può parlare.<br />

In primo luogo, il campo principale in cui avvenne la rivoluzione scientifica è l'astronomia, scienza<br />

assai sviluppata nell'antichità, al punto che Copernico poté basare tranquillamente la sua teoria<br />

rivoluzionaria sulle osservazioni compiute da Tolomeo. Nello stesso tempo Copernico, da<br />

scienziato rinascimentale qual era, pensava che il suo fosse il vero sistema del mondo perché era<br />

convinto che fosse quello del mondo antico, quando gli scienziati erano più vicini all'Età dell'Oro.<br />

Sappiamo inoltre che Keplero fu concepito alle 4,37 del 16 maggio 1571 e nacque alle 14,30 del 27<br />

dicembre, dopo una gravidanza durata 224 giorni, 9 ore e 53 minuti, perché queste informazioni<br />

sono contenute in un oroscopo scritto da Keplero stesso.<br />

D'altra parte, il sapere magico, le pratiche alchemiche, gli stessi problemi artigianali, pratici,<br />

quotidiani, si basavano sempre su processi di osservazione ed esperimento. Le pratiche<br />

astrologiche, cabalistiche, ermetiche avevano a fondamento l'idea pitagorica dell'essenza numerica<br />

della realtà e della sua organizzazione secondo princìpi spirituali in quanto geometrici. Ora, queste<br />

idee ebbero larga diffusione nel tardo Medioevo, e furono le basi degli aspetti metodologici<br />

essenziali della nuova visione del sapere che si sarebbe affermata con la rivoluzione scientifica.<br />

Nello stesso tempo la rivoluzione scientifica non sarebbe avvenuta senza le ricerche e le<br />

acquisizioni della meccanica, della matematica, della logica e dell'ottica medioevali.<br />

La scienza rinascimentale: Leonardo da Vinci<br />

Il fatto che la rivoluzione scientifica non sia stata un avvenimento brusco e improvviso lo si capisce<br />

anche prendendo in considerazione alcuni importanti scienziati di transizione. Quando si pensa a<br />

uno dei massimi geni della storia della cultura umana, si pensa a Leonardo da Vinci (1452-1519).<br />

La ricerca storica ha chiarito però che non si può considerare Leonardo come il prototipo dello<br />

scienziato o dell'ingegnere moderno: la sua importanza e la sua genialità si possono comprendere<br />

8


solo se Leonardo viene collocato nel suo tempo, ossia in un'epoca in cui l'idea stessa di scienza<br />

naturale era profondamente diversa dalla nostra. Allora si capisce anche che non è possibile<br />

separare il Leonardo artista dal Leonardo scienziato, e questo perché, all'epoca, scienza e arte erano<br />

entrambe considerate forme di conoscenza del mondo reale.<br />

Comunque sia, Leonardo è una figura di transizione. La sua attività di ricerca sulle armonie e sulle<br />

leggi naturali, che quasi sempre si traduceva in disegni, schizzi, appunti annotati con il suo<br />

straordinario metodo di scrittura "alla rovescia", è in primo luogo un'attività di assimilazione<br />

profonda di ciò che avevano scoperto e trattato gli scienziati dell'antichità classica e del Medioevo.<br />

Uno dei suoi interessi principali erano i problemi relativi alla statica e all'equilibrio meccanico (che<br />

trovavano poi applicazione nella sua attività di scultore): importanti e originali sono i suoi studi<br />

sulla determinazione del baricentro di solidi più o meno regolari.<br />

I suoi studi di idraulica, invece, sono rivolti principalmente alle applicazioni tecniche, ma<br />

contengono anticipazioni importanti sui concetti in grado di rappresentare il moto dei fluidi. Le idee<br />

di Leonardo circa la dinamica dei corpi si rifanno alla teoria dell'impetus. La pittura diviene poi il<br />

motivo principale di interesse per quanto riguarda i problemi dell'ottica, rispetto ai quali Leonardo<br />

apprezza l'importanza del contributo della scienza araba. Quindi, se si vuole a tutti costi trovare in<br />

Leonardo qualche anticipazione della scienza futura, la si può anche trovare: ma non è questo il<br />

senso complessivo della sua ricerca. Il suo è invece un lavoro di studio e rielaborazione del sapere<br />

che lo aveva preceduto, con l'eccezionale capacità di individuare alcuni dei temi centrali di quella<br />

che sarebbe stata la scienza del futuro.<br />

LA TRANSIZIONE ALLA <strong>FISICA</strong> MODERNA<br />

Si è detto che descrizione matematica e metodo sperimentale sembrano i due aspetti essenziali del<br />

nuovo ideale di scienza fisica affermato dalla rivoluzione scientifica. In realtà, occorre aggiungere<br />

un terzo aspetto, di importanza certamente non minore dei precedenti. Gli scienziati del Seicento<br />

infatti cominciarono a sostenere e diffondere anche una concezione generale del mondo materiale,<br />

che si può ricondurre alla seguente affermazione:<br />

- la natura è un enorme meccanismo o insieme di meccanismi, in cui regnano ordine e regolarità.<br />

Dire "meccanismo" vuol dire che, nella descrizione dei cambiamenti naturali, che era l'oggetto della<br />

fisica aristotelica, vanno privilegati quei cambiamenti che sono riconducibili al solo "moto locale",<br />

ossia al movimento nello spazio e nel tempo, dei corpi materiali. Da questo punto di vista, il<br />

meccanicismo della rivoluzione scientifica è soprattutto un ritorno all'atomismo classico. Tutta la<br />

realtà è concepita come riconducibile al moto e all'interazione di corpuscoli, troppo piccoli per<br />

essere visti a occhio nudo, che urtano, si spingono, premono gli uni sugli altri.<br />

Quando questa concezione si affermò e si diffuse, superando l'opposizione degli ambienti<br />

intellettuali che si rifacevano a concezioni magiche, occultistiche, spiritualistiche, animistiche,<br />

religiose, il destino della fisica in un certo senso fu segnato. Noi tratteremo tre personaggi chiave di<br />

questa "rivoluzione" che svolsero la propria opera di insegnamento e persuasione rispettivamente in<br />

Italia, Gran Bretagna e in Francia, e cioè Galileo Galilei (1564-1642), Francis Bacon (1561-1626),<br />

noto in Italia come Francesco Bacone, e René Descartes - che conosciamo come Cartesio - (1596-<br />

1650).<br />

Galileo Galilei<br />

Due sono i fattori che ebbero importanza decisiva nella formazione di Galileo: lo studio<br />

approfondito della matematica più avanzata del suo tempo e lo studio dell'astronomia. Sappiamo<br />

che i due campi erano profondamente collegati, ma questo legame assunse in Galileo il significato<br />

di una profonda connessione in natura tra discorso matematico e discorso fisico. Al tempo stesso<br />

Galileo maturò un profondo rispetto per l'esperienza, purché essa fosse "sensata", ossia non si<br />

9


limitasse all'osservazione superficiale, ma andasse al di là delle apparenze immediate nella ricerca<br />

della risposta a domande precise poste dallo scienziato che intendeva verificare le proprie ipotesi.<br />

Delle fondamentali scoperte astronomiche di Galileo tratteremo in seguito; parleremo per ora delle<br />

scoperte fisiche, tenendo però sempre presente che esse sono strettamente collegate alle ricerche in<br />

campo astronomico e ne costituiscono una specie di coronamento.<br />

Per Galileo il movimento spontaneo (ossia non alterato o indotto da particolari effetti disturbanti)<br />

dei corpi "semplici" era regolato da esatte leggi matematiche, non importa se essi fossero corpi<br />

celesti o corpi terrestri. Proprio per eliminare uno dei principali argomenti degli anti-copernicani<br />

contro il moto della Terra, Galileo intraprese le sue ricerche sulla caduta dei gravi. Il problema<br />

iniziale era il seguente: se la Terra si muove, allora un grave non può cadere esattamente nel punto<br />

della superficie della Terra che si trova nell'intersezione tra la verticale passante per il corpo e la<br />

superficie stessa.<br />

Per rispondere a questa obiezione, Galileo dovette escogitare il famoso principio di relatività del<br />

moto e il principio di composizione delle velocità. Se il corpo è lasciato cadere dalla cima di una<br />

torre e la Terra ruota, allora il corpo visto da un osservatore perfettamente immobile, posto fuori<br />

dalla Terra, non parte da fermo ma ha una velocità iniziale in direzione orizzontale. Il corpo<br />

eseguirà allora una traiettoria parabolica fino ai piedi della torre. Per un osservatore sulla Terra, che<br />

partecipa al moto di questa, il corpo parte da fermo e cade esattamente lungo la verticale. Del resto<br />

tutti sanno che se uno fa cadere corpi all'interno della cabina di una nave in movimento nel mare,<br />

questi corpi cadono esattamente lungo la verticale senza risentire del moto della nave.<br />

Galileo non effettuò mai le esperienze della caduta di gravi dalla cima della torre di Pisa. Egli<br />

sapeva bene che in condizioni normali le idee aristoteliche avevano una certa rispondenza con<br />

l'osservazione. Il suo obiettivo era mostrare le leggi del moto in assenza di fattori perturbanti, cioè<br />

in condizioni di caduta non così "naturali" come quelle considerate dagli aristotelici. Per questo,<br />

Galileo inventò il piano inclinato, dando luogo al primo vero esperimento moderno. Egli era<br />

convinto che si possono strappare alla natura i suoi segreti limitandosi a osservarla senza interagire<br />

con essa. Bisogna creare condizioni che, eliminando i fattori che la teoria giudica perturbanti,<br />

rendano, al tempo stesso, più agevoli le osservazioni. Facendo rotolare sfere lungo un piano<br />

inclinato, per Galileo - e questa era un'ipotesi piuttosto audace - la legge di caduta dei gravi non è<br />

essenzialmente alterata. In più le sfere hanno velocità e accelerazioni più piccole e quindi più<br />

facilmente misurabili. In questo modo diventa evidente che tutti i corpi cadono con la stessa<br />

accelerazione, indipendentemente dalla loro natura e dal loro peso, e che gli spazi da essi percorsi<br />

nella caduta sono proporzionali ai quadrati dei tempi impiegati per percorrerli.<br />

Francesco Bacone<br />

Francesco Bacone merita di essere ricordato non tanto per contributi scientifici particolari, quanto<br />

perché, soprattutto nei paesi anglosassoni, divenne uno dei punti di riferimento del nuovo modo di<br />

pensare e indagare la natura caratteristico della rivoluzione scientifica. Nelle sue opere viene<br />

teorizzata con chiarezza la differenza tra antico e moderno e il suo corollario: l'idea di progresso.<br />

Bacone è contro ogni principio di autorità, ossia contro l'idea che il prestigio di uno scienziato del<br />

passato debba far accettare acriticamente le sue tesi. L'uomo, con il suo ingegno e con la sua<br />

ricerca, basata soprattutto sull'osservazione e sull'esperimento, deve liberarsi dal passato e scoprire<br />

l'infinità di cose nuove che il mondo ci offre continuamente, proprio per migliorare<br />

progressivamente le sue condizioni di vita. L'obiettivo della nuova scienza è, per Bacone,<br />

«estendere più ampiamente i limiti del potere e della grandezza dell'uomo».<br />

Cartesio<br />

Nella sua discussione sulla caduta dei gravi, Galileo doveva ammettere che la velocità orizzontale<br />

che il corpo aveva all'inizio della caduta si conservava indefinitamente e che a essa si sovrapponeva<br />

10


in misura sempre crescente la velocità verticale dovuta alla gravità. In qualche modo veniva<br />

affermato un principio d'inerzia, ma Galileo non seppe dare a quest'idea un pieno sviluppo. Cartesio<br />

lo pose invece a fondamento della sua "filosofia della natura" nella forma di un principio universale<br />

di conservazione della quantità di movimento.<br />

Per lui, ogni corpo materiale conserva indefinitamente la sua velocità (o, meglio, il prodotto della<br />

sua massa per la sua velocità, la quantità di moto) a meno che non incontri un ostacolo, ovvero un<br />

altro corpo. Il mondo cartesiano è essenzialmente meccanico, da lui stesso paragonato a un<br />

orologio. Ed è un mondo che è assolutamente pieno di materia, dato che è la materia a produrre lo<br />

spazio e questo non esiste senza materia. In questo mondo i movimenti dei corpi si trasmettono da<br />

un corpo all'altro attraverso contatti diretti (per esempio, urti) o indiretti (per esempio, pressioni<br />

esercitate da mezzi interposti). In tutto questo insieme di urti e pressioni, solo una cosa è certa: la<br />

quantità di movimento si conserva, sempre. Dio ha dato solo la spinta iniziale: tutto il resto è andato<br />

avanti da solo.<br />

LA NUOVA FILOSOFIA MECCANICA<br />

Cartesio non è solo colui che elabora una concezione meccanica generale del mondo, ma è anche<br />

autore di importanti scoperte matematiche (tutti noi oggi usiamo le coordinate cartesiane, ossia x, y<br />

e z), e di importanti ricerche sperimentali in idrostatica (ricordiamo il diavoletto di Cartesio) e<br />

ottica, dove stabilì con esattezza le leggi della riflessione e della rifrazione della luce. La<br />

concezione meccanicista, pur essendo una concezione sicuramente "metafisica" (ossia, posta "al di<br />

sopra" della fisica) suggeriva ipotesi sulla natura di alcuni fenomeni che potrebbero oggi apparire<br />

molto fantasiose. Al tempo stesso, però, spingeva gli scienziati a effettuare esperimenti per<br />

verificarle. Tra queste ipotesi assumevano particolare interesse i modelli meccanici, che in qualche<br />

modo illustravano i processi nascosti che avrebbero potuto dar luogo a un fenomeno noto.<br />

Così, per esempio, Cartesio critica le teorie animistiche e spiritualistiche proposte dai suoi<br />

predecessori per interpretare i fenomeni magnetici, immaginando che tra i poli di una calamita ci<br />

sia un flusso continuo di materia tale da ricondurre le attrazioni e le repulsioni magnetiche a<br />

fenomeni dovuti al moto e alla collisione reciproca di invisibili particelle microscopiche.<br />

Ora, la filosofia meccanica cartesiana, proprio per evitare ogni forma di spiritualismo, aborriva ogni<br />

forma di azione a distanza e negava l'esistenza del vuoto. Contemporaneamente, aboliva ogni<br />

distinzione essenziale tra gli elementi naturali, in termini di qualità aristoteliche. Tutte le sostanze<br />

erano composte di corpuscoli materiali che differivano solo per forma e dimensioni. In particolare<br />

la leggerezza e la pesantezza non erano più proprietà assolute degli elementi, ma dipendevano solo<br />

dalla differenza relativa di densità o peso specifico tra i vari corpi o tra un corpo e il mezzo in cui<br />

esso era immerso. Per questo assunse particolare importanza la scoperta che anche l'aria ha un peso.<br />

La ricerca sperimentale<br />

Fu proprio per rendere evidente tale ipotesi che Evangelista Torricelli (1608-1647) costruì il primo<br />

barometro a mercurio. Col barometro egli dimostrava che il peso dell'aria sulla base dello strumento<br />

era controbilanciato dalla colonnina di mercurio. Era cioè il peso dell'aria a sollevare il mercurio e<br />

non il cosiddetto horror vacui degli scienziati precedenti. E per questo le pompe aspiranti non<br />

potevano sollevare l'acqua per più di dieci metri (dato che era il "peso" dell'aria a spingere l'acqua<br />

verso l'alto). Ora, però, se si riempiva un tubo di mercurio e poi se ne apriva un'estremità<br />

immergendola in un recipiente contenente mercurio, il mercurio usciva dal tubo fino a che non<br />

rimaneva una colonna di circa 76 cm. Cosa rimaneva nella parte superiore del tubo che prima era<br />

piena? Si creava forse il vuoto?<br />

Blaise Pascal (1623-1662) analizzò a fondo il problema e confermò definitivamente l'intuizione di<br />

Torricelli. Egli fece eseguire un esperimento cruciale facendo portare il barometro torricelliano in<br />

alta montagna: l'altezza della colonnina di mercurio diminuiva all'aumentare della quota proprio<br />

11


come ci si sarebbe dovuti aspettare nell'ipotesi che questa fosse una "misura" del peso dell'aria<br />

sovrastante. Queste ricerche portarono all'enunciazione del principio di Pascal, ossia del fatto che la<br />

pressione esercitata da un liquido sulla base di un recipiente non dipende dalla forma del recipiente<br />

né dalla quantità di liquido in esso contenuta, ma solo dall'altezza del liquido e dalla sua densità.<br />

Lo studio delle proprietà dell'aria proseguiva anche in Gran Bretagna. Qui Robert Boyle (1627-<br />

1691) indagò sperimentalmente sull'elasticità dell'aria, scoprendo l'omonima legge pV = cost. Egli<br />

supponeva che gli atomi dell'aria somigliassero a piccolissime molle che si accorciano o si<br />

allungano quando l'aria viene compressa o decompressa. Negli stessi anni Robert Hooke (1635-<br />

1703) studiava i problemi dell'elasticità dei corpi solidi e analizzava i fenomeni ottici, in particolare<br />

quelli in cui si produce la dispersione della luce.<br />

In Olanda Christiaan Huygens (1629-1695) approfondì gli studi di meccanica e costruì il primo<br />

orologio a pendolo, strumento importantissimo per la navigazione e la ricerca astronomica. In<br />

seguito passerà anch'egli a studi di ottica, divenendo uno dei primi sostenitori della teoria<br />

ondulatoria della luce.<br />

LA NASCITA DELLA <strong>FISICA</strong> <strong>CLASSICA</strong>: ISAAC NEWTON<br />

Isaac Newton nacque a Woolsthorpe, un piccolo villaggio del Lincolnshire, il 25 dicembre 1642.<br />

Diciannovenne, entrò nel Trinity College dell'università di Cambridge, dove compì senza problemi<br />

la normale carriera degli studenti particolarmente dotati: nel 1668 fu nominato Master of Arts. Nelle<br />

sue opere giovanili, Newton si dedicò all'analisi critica della fisica cartesiana, che intendeva<br />

sottoporre al vaglio del controllo sperimentale. Tra i suoi interessi vi erano anche i fenomeni ottici e<br />

in particolare la teoria dei colori. Fu Newton il primo a sostenere teoricamente e a dimostrare<br />

sperimentalmente che i colori prodotti da un prisma attraversato da un fascio di luce non sono<br />

"creati" dal prisma stesso, ma preesistevano "mescolati" all'interno della luce bianca, e che, quindi,<br />

la luce bianca è la somma di tutti i colori dello spettro.<br />

Ma Newton era interessato soprattutto ai fenomeni meccanici ed è la sua concezione meccanicoatomistica<br />

del mondo che lo porta ad allontanarsi sempre di più dalle concezioni cartesiane. Se il<br />

mondo cartesiano è un plenum di materia, il mondo newtoniano è essenzialmente costituito da<br />

atomi in movimento in uno spazio assoluto, che è prevalentemente vuoto. Gli atomi sono le<br />

particelle più piccole di materia e sono stati creati da Dio all'interno dello spazio e del tempo<br />

assoluti (che, secondo Newton, possono essere considerati «le quantità di esistenza» di Dio stesso),<br />

in modo tale che a certe porzioni di spazio corrispondano determinate proprietà primarie<br />

(impenetrabilità, mobilità, opacità, durezza, capacità di agire tra loro e sui nostri sensi). Ma la<br />

materia occupa una zona molto piccola nello spazio: celebre è la frase in cui sostiene che se tutti gli<br />

atomi della materia dell'universo fossero compressi fino a eliminare ogni spazio vuoto tra essi,<br />

allora tutta la materia dell'universo potrebbe essere racchiusa dentro un guscio di noce.<br />

Newton cominciò a occuparsi anche del problema della gravità. I suoi studi matematici e la sua<br />

messa a punto del calcolo infinitesimale lo mettevano in grado di cercare una spiegazione fisica<br />

delle leggi già formulate da Keplero sul moto dei pianeti. E questa spiegazione fu trovata con la<br />

famosa legge dell'inverso del quadrato che descrive l'attrazione gravitazionale. Comunque sia,<br />

l'applicazione di tale legge per la spiegazione dei moti presupponeva una serie di princìpi che<br />

dovevano valere in generale per ogni corpo soggetto ad attrazioni o repulsioni, ossia a forze. Con<br />

l'intento di formulare in modo chiaro questi princìpi Newton compilò i famosissimi Philosophiae<br />

naturalis principia mathematica, che furono pubblicati nel 1678 con l'imprimatur della Royal<br />

Society.<br />

Nei Principia sono formulate le tre famose leggi del moto che ancora oggi poniamo a fondamento<br />

della meccanica classica. Ma su di esse si basa un grandioso edificio teorico che vede la materia,<br />

inerte e passiva, messa in movimento da forze di varia natura. Questa visione si estende non solo a<br />

livello cosmologico, ma anche a livello microscopico (Newton fu anche alchimista e chimico) in<br />

base a un principio di analogia universale che rende il microcosmo simile al macrocosmo. Insomma<br />

il mondo di Newton è un mondo in cui corpi materiali, costituiti in definitiva da aggregati di atomi,<br />

12


interagiscono fra loro tramite forze. Queste forze sono descritte come agenti direttamente a distanza<br />

nello spazio vuoto, ma Newton non pretese mai che fossero le vere cause del moto. Egli pensava<br />

che l'intelletto umano non sarebbe mai potuto giungere alla conoscenza delle cause ultime che<br />

erano solo in mente dei: con le leggi delle forze l'uomo, non potendo andare oltre, si limitava a<br />

descrivere in modo matematico ciò che gli era rivelato dall'esperienza.<br />

Da Newton in poi il programma di ricerca della fisica diviene quello di ricondurre i fenomeni a<br />

manifestazioni dell'azione di forze tra i corpi materiali; e questo sarà il programma della fisica<br />

classica per più di un secolo fino a che non interverranno altri profondi cambiamenti.<br />

L'UNIVERSO INFINITO<br />

Il noto storico della scienza Alexandre Koyré ha descritto il senso profondo della rivoluzione<br />

scientifica nei titoli di due suoi famosi libri: Dal mondo del pressappoco all'universo della<br />

precisione e Dal mondo chiuso all'universo infinito. Egli faceva riferimento ovviamente alla nuova<br />

precisione matematica non solo nella descrizione dei fenomeni, ma anche nella costruzione degli<br />

strumenti e al cambiamento della visione del cosmo prodotta dagli astronomi a partire da<br />

Copernico.<br />

Il De revolutionibus orbium coelestium libri VI è pubblicato da Nicola Copernico (1473-1543)<br />

nell'anno della sua morte. Come abbiamo detto, la nuova teoria si muove ancora in un contesto<br />

rinascimentale e viene comunemente definita come "l'antica opinione pitagorica". Quasi tutti la<br />

consideravano solo un modello ipotetico, utile per effettuare calcoli e previsioni. Per questo la<br />

teoria di compromesso dell'astronomo danese Tycho Brahe (1546-1601) fu la più seguita fino alla<br />

metà del Seicento. Come Tolomeo, Tycho lasciava la Terra al centro dell'universo; e come Tolomeo<br />

pensava che attorno alla Terra girassero la Luna e il Sole; a differenza di Tolomeo però pensava che<br />

gli altri cinque pianeti ruotassero attorno al Sole.<br />

Giovanni Keplero (1571-1630) era uno straordinario misuratore delle posizioni degli astri, anche<br />

perché credeva fermamente nell'astrologia. Il suo contributo principale alla storia dell'astronomia fu<br />

la dimostrazione che i pianeti non eseguivano orbite perfettamente circolari intorno al Sole, ma<br />

percorrevano ellissi delle quali il Sole occupava uno dei fuochi. Le tre leggi di Keplero vengono<br />

presentate in ogni manuale di fisica e costituiscono la base su cui Newton avrebbe costruito la sua<br />

teoria della gravitazione universale. Ma Keplero non era ancora un filosofo meccanico: motivi<br />

pitagorici e platonici dominavano la sua opera, tanto che la "scoperta" a cui egli diede maggior<br />

valore fu quella da lui ritenuta capace di svelare il "mistero dell'universo". Secondo questa visione,<br />

le distanze tra i pianeti erano determinate dal fatto che le sfere planetarie erano intervallate da<br />

"solidi regolari" in uno schema in cui si susseguivano: sfera di Saturno, cubo, sfera di Giove,<br />

tetraedro, sfera di Marte, dodecaedro, sfera della Terra, icosaedro, sfera di Venere, ottaedro, sfera di<br />

Mercurio. Questa scoperta rivelava che Dio era un "geometra" e tutto ciò che aveva creato era<br />

espressione di ordine e armonia.<br />

Il cannocchiale di Galileo<br />

Ma le scoperte astronomiche più sensazionali, che portarono a un cambiamento generale di<br />

atteggiamento verso lo studio dei fenomeni celesti, furono quelle effettuate da Galileo. Nel 1609<br />

Galileo costruisce il suo cannocchiale: si apre un "mondo nuovo" alle ricerche dell'uomo.<br />

Ecco l'impressionante successione di scoperte permesse dal cannocchiale:<br />

- l'osservazione della Luna rivelò che essa era straordinariamente simile alla Terra, con montagne e<br />

valli, crateri e mari, altro potente argomento a favore dell'abolizione delle differenze tra Terra e<br />

cielo;<br />

- l'osservazione del cielo con il telescopio significava anche vedere innumerevoli nuove stelle, e<br />

quindi dedurre che le stelle non potessero essere tutte alla stessa distanza dalla Terra;<br />

13


- tra le nuove stelle, quattro corpi, piccoli ma molto luminosi, compivano movimenti stranamente<br />

irregolari vicino al pianeta Giove. In pochi giorni Galileo trovò la spiegazione: si trattava di quattro<br />

satelliti di Giove. E questo significava che crollava una delle obiezioni più potenti al sistema<br />

copernicano, ossia quella che sosteneva che se la Luna avesse girato intorno alla Terra e la Terra<br />

intorno al Sole, la Terra avrebbe dovuto "perdere per strada" la Luna durante il suo moto;<br />

- la scoperta delle fasi di Venere diede per Galileo il colpo fatale al sistema tolemaico, rivelandosi<br />

una prova decisiva a favore del sistema copernicano;<br />

- la scoperta delle macchie solari rese evidente come il Sole compisse una rotazione attorno al<br />

proprio asse.<br />

La storia di Galileo è troppo nota per essere qui riassunta in poche righe. Diciamo solo che la sua<br />

condanna fu dovuta essenzialmente a un duplice rifiuto: in primo luogo il rifiuto (fino all'abiura) di<br />

abbandonare il sistema copernicano e, in secondo luogo, il rifiuto di considerare il sistema<br />

copernicano come una semplice ipotesi matematica utile per "salvare i fenomeni" anziché una<br />

descrizione di ciò che avveniva realmente nell'universo.<br />

Concludiamo questo breve excursus con un accenno alle visioni contrapposte di Cartesio e Newton<br />

circa la natura e la struttura dell'universo. Per Cartesio - lo sappiamo - il vuoto non esiste. Quindi<br />

l'universo è pieno di materia, anche se questa materia non è accessibile all'osservazione. Non<br />

potendo esistere attrazioni a distanza, in cui Cartesio vedeva una inaccettabile componente<br />

spiritualistica, i pianeti erano trascinati nel loro moto da un enorme vortice di questa materia<br />

invisibile, al cui centro stava il Sole. Per Newton invece lo spazio assoluto è solo l'insieme dei posti<br />

dove può stare o non stare la materia. Non è che Newton giurasse sull'esistenza reale delle azioni a<br />

distanza, che per lui erano un modo di schematizzare i fenomeni: l'importante è che con la legge<br />

dell'attrazione gravitazionale si potevano prevedere matematicamente con esattezza le traiettorie<br />

ellittiche dei pianeti. Newton aveva dei dubbi sull'attrazione a distanza ma, come lui stesso diceva,<br />

«non faccio ipotesi», ossia non costruisco modelli di un ipotetico meccanismo che spieghi<br />

l'attrazione gravitazionale. Solo in alcuni suoi scritti meno "ufficiali" compare l'ipotesi, che ci<br />

rimanda ad Aristotele, dell'esistenza di un etere cosmico, composto di particelle che non hanno peso<br />

e che tendono a respingersi tra loro. L'attrazione gravitazionale sarebbe stata allora un effetto della<br />

spinta dell'etere, il quale tenderebbe a spostare i pianeti da zone in cui esso è più denso a zone in cui<br />

è meno denso.<br />

IL NEWTONIANESIMO DEL SETTECENTO<br />

IL DUALISMO TRA MATERIA E FORZA ALLA BASE DELLA SPIEGAZIONE<br />

<strong>FISICA</strong><br />

L'eredità che Newton lasciava ai suoi successori era problematica. Da un lato c'era la materia,<br />

composta di atomi, che per definizione era inerte e passiva. Dall'altro lato c'erano le forze, ossia la<br />

manifestazione misurabile di princìpi di attività che proprio per questo non potevano essere di<br />

natura materiale, ma rimandavano all'intervento diretto di Dio sul mondo.<br />

Ora, da un punto di vista fisico, il problema più importante era quello di ricondurre a questa<br />

semplice base interpretativa la molteplicità dei fenomeni naturali. In altre parole, come spiegare le<br />

differenze tra le azioni fisiche, meccaniche, elettriche, magnetiche, termiche, ottiche, che venivano<br />

osservate nella vita quotidiana e nei laboratori? Vi erano essenzialmente tre possibilità: o si<br />

postulavano differenti tipi di materia, o si postulavano differenti tipi di forza, o si consideravano<br />

entrambe le possibilità.<br />

Vedremo in seguito come queste diverse concezioni furono adottate e applicate dagli scienziati del<br />

Settecento.<br />

Tuttavia, il cambiamento più importante che avviene in questo secolo si può sintetizzare<br />

nell'affermazione: "nel Settecento nasce la fisica moderna". Infatti:<br />

14


- quella che all'inizio del secolo era un'attività eminentemente speculativa di alcuni "filosofi<br />

naturali" diviene alla fine del secolo un'attività altamente professionale e specializzata di studiosi<br />

che hanno avuto un'accurata formazione, soprattutto matematica, nelle università e nelle istituzioni<br />

scientifiche;<br />

- alla fine del secolo questa attività, a differenza di quanto avveniva all'inizio, viene finanziata dai<br />

governi, che cominciano ad apprezzare l'importanza delle sue applicazioni tecniche;<br />

- quella che era una descrizione semiqualitativa di molti fenomeni diviene una trattazione<br />

matematica rigorosa che richiede, come si è detto, una conoscenza profonda del calcolo<br />

infinitesimale;<br />

- quelle che erano dimostrazioni sperimentali volte soprattutto a mostrare effetti curiosi e<br />

sorprendenti di ogni genere, senza alcuna sistematicità, divengono esperimenti precisi, che si<br />

servono di strumenti di misura particolarmente sensibili (per esempio, termometri in grado di<br />

valutare variazioni di temperatura di un centesimo di grado, barometri capaci di misurare variazioni<br />

di pressione di un decimo di millimetro di mercurio, elettrometri in grado di misurare differenze di<br />

potenziale di un decimo di Volt, ecc.) per controllare teorie che predicono matematicamente in<br />

maniera esatta l'andamento di certi fenomeni.<br />

Insomma, alla fine del Settecento, le principali opere sistematiche che vogliono illustrare le<br />

conoscenze fisiche - soprattutto le enciclopedie e i dizionari di fisica - non riescono a essere più<br />

corte di cinque o sei volumi, e quasi sempre gli autori ammettono di non poter comunque essere<br />

esaurienti.<br />

LO SVILUPPO DELLA MECCANICA<br />

Quella che noi oggi chiamiamo meccanica "newtoniana" o meccanica "classica" fu delineata da<br />

Newton, ma arrivò a matura formulazione solo nella seconda metà del Settecento. A questo<br />

sviluppo contribuì naturalmente il progresso del calcolo infinitesimale che rivelò le straordinarie<br />

capacità di previsione della meccanica consentendo di delineare con estrema precisione il moto<br />

degli astri. Nello stesso tempo, proprio il moto degli astri metteva in evidenza la straordinaria<br />

stabilità e regolarità dei moti del sistema solare. Queste stabilità e regolarità erano spiegabili in base<br />

a un principio di conservazione, quello della quantità di moto, che era una diretta conseguenza delle<br />

leggi della meccanica.<br />

Se però si consideravano fenomeni relativi a meccanismi o a corpi che si trovano sulla Terra e che<br />

sono soggetti a inevitabili attriti, la quantità di moto sembrava svanire progressivamente. A poco a<br />

poco ci si rese conto che i vari tentativi di produrre un moto perpetuo, ossia un movimento capace<br />

di continuare indefinitamente, o addirittura di crescere nel tempo in modo da produrre effetti magari<br />

utilizzabili anche dal punto di vista pratico, erano necessariamente destinati al fallimento. Questa<br />

constatazione sembrava di nuovo riprodurre la contrapposizione tra caducità dei fenomeni terreni<br />

ed eternità dei fenomeni celesti.<br />

Leibniz e d'Alembert<br />

Fu Gottfried Wilhelm Leibniz (1646-1716) il primo a non accettare questo stato di cose, peraltro in<br />

aperta contrapposizione con lo stesso Newton, che credeva nell'inevitabile tendenza all'arresto di<br />

ogni movimento, e quindi nella necessità del continuo intervento di Dio per "mantenere in vita"<br />

l'universo. Leibniz sostenne, per altro solo in modo semiquantitativo, il principio di conservazione<br />

della forza viva di ogni movimento, da lui definita come il prodotto della massa del corpo per il<br />

quadrato della sua velocità. Per lui, la perdita di movimento dei corpi era solo apparente dato che la<br />

forza viva non veniva distrutta dall'attrito ma semplicemente si trasformava nella forza viva dei<br />

costituenti microscopici del corpo stesso.<br />

Ora, se consideriamo la capacità di produrre un effetto qualsiasi da parte di un corpo in moto (per<br />

esempio, la capacità di deformare un altro corpo urtandolo, o di spingerlo verso l'alto, ecc.), questa<br />

15


capacità è in effetti proporzionale alla forza viva del corpo e non alla sua quantità di moto. Per<br />

questo motivo Leibniz è considerato il grande progenitore di quello che poi sarebbe diventato il<br />

principio di conservazione dell'energia.<br />

Se però consideriamo l'urto tra due corpi, altrimenti liberi di muoversi, il principio della<br />

conservazione della forza viva vale solo quando l'urto è elastico, ma non quando l'urto è anelastico<br />

(ossia quando un corpo urta contro qualcosa di molle e si ferma), mentre il principio di<br />

conservazione della quantità di moto continua a valere in entrambi i casi. Questa discrepanza<br />

suscitò un lungo dibattito tra i sostenitori dell'uno o dell'altro dei due princìpi. La controversia fu<br />

risolta da Jean-Baptiste Le Rond d'Alembert (1717-1783), che può essere considerato il vero<br />

fondatore della meccanica razionale, con la semplice dimostrazione del fatto che entrambi i princìpi<br />

valevano in situazioni differenti e che la forza viva era il risultato dell'azione di una forza per un<br />

dato spazio, mentre la quantità di moto era il risultato dell'azione di una forza per un dato intervallo<br />

di tempo. Le due grandezze avevano quindi significati e contesti di applicazione differenti.<br />

Eulero e Lagrange<br />

Tra gli scienziati di questo periodo ricordiamo anche Leonhard Euler (1707-1783), da noi chiamato<br />

normalmente Eulero, e Giuseppe Luigi Lagrange (1736-1813) per l'approfondimento teorico e<br />

l'estensione del campo di applicazione della meccanica newtoniana. Fu infatti Eulero a enunciare<br />

chiaramente la seconda legge della dinamica nei termini oggi usuali, ossia come F = ma. Lagrange,<br />

da grande matematico qual era, fondò la cosiddetta meccanica analitica, che possiamo considerare<br />

come la formulazione più rigorosa e completa della meccanica classica. In particolare egli riuscì a<br />

dimostrare il teorema delle forze vive, facendo vedere che, nei fenomeni meccanici in cui è assente<br />

ogni forma di attrito, c'è una grandezza che si conserva e ha un valore costante durante tutto il moto<br />

del sistema.<br />

Problemi come questo, alla fine del secolo, non avevano più tanta rilevanza per le questioni<br />

astronomiche, ma assumevano grande importanza nello studio del funzionamento delle macchine,<br />

ossia di quei congegni, talvolta molto complicati, con i quali si cercava di sfruttare un agente<br />

motore - in genere, la caduta dell'acqua, o il vento - per ottenere un effetto utile (la rotazione di una<br />

macina, il funzionamento di una pompa, il movimento di un telaio, ecc.). Il fatto che fosse<br />

impossibile mantenere un moto perpetuo spingeva comunque tutti a pensare che qualcosa<br />

dell'azione dell'agente motore andasse inevitabilmente perduto a causa degli attriti e degli urti tra le<br />

parti della macchina. Le condizioni imposte da Lagrange diventavano un punto di riferimento<br />

ideale verso cui orientare la costruzione di macchine sempre più efficienti.<br />

L'ELETTROLOGIA: DAL DIVERTIMENTO ALLA <strong>FISICA</strong> MATEMATICA<br />

Il fenomeno in base al quale alcuni oggetti (soprattutto l'ambra, in greco électron), se strofinati,<br />

attirano altri oggetti (piume, polvere, ecc.) era noto fin dall'antichità. Verso la metà del Settecento i<br />

fenomeni elettrici diventarono uno degli argomenti più popolari della fisica. I cosiddetti<br />

"dimostratori" andavano in giro per le case, normalmente dei nobili e dei ricchi borghesi, e<br />

strofinando un lungo tubo di vetro elettrizzavano i capelli delle signore, facevano scoccare scintille<br />

(famoso era il cosiddetto "bacio elettrico", ossia la piccola ma pungente scintilla che scoccava tra le<br />

labbra accostate di due persone se una di loro era stata precedentemente "elettrizzata") e<br />

provocavano altri effetti curiosi e divertenti. Attratto da queste dimostrazioni, Benjamin Franklin<br />

(1706-1790) cominciò le sue ricerche che lo portarono a scoprire che i fulmini altro non sono che<br />

immani scariche elettriche. Ma l'importanza di Franklin per lo sviluppo dell'elettrologia sta<br />

soprattutto nel fatto che egli contribuì in modo decisivo - utilizzando la distinzione, già scoperta da<br />

Stephen Gray (1666-1737), tra conduttori e isolanti elettrici - all'idea che l'elettricità fosse un<br />

particolare tipo di materia fluida che poteva entrare o uscire dai corpi.<br />

16


Quest'idea fu raccolta dal tedesco Franz Ulrich Theodor Aepinus (1724-1802), il quale cominciò a<br />

pensare che la ricerca si dovesse occupare quantitativamente delle forze elettriche che si<br />

esercitavano tra le particelle del fluido elettrico. Nello stesso tempo, tutta la seconda metà del<br />

Settecento fu caratterizzata dal dibattito tra coloro che pensavano che l'elettricità fosse un unico<br />

fluido - sovrabbondante nei corpi carichi positivamente e carente in quelli carichi negativamente - e<br />

coloro che ritenevano invece che fosse costituita da due fluidi, uno positivo e uno negativo. Certo<br />

era che tra corpi carichi di elettricità di segno opposto si verificavano azioni attrattive, mentre tra<br />

corpi carichi di elettricità dello stesso segno si esercitavano azioni repulsive.<br />

Nel frattempo si sviluppava l'uso di potenti accumulatori di elettricità, come le cosiddette bottiglie<br />

di Leida (i prototipi dei moderni condensatori), e di potenti generatori di elettricità, le cosiddette<br />

macchine elettrostatiche, le quali sfruttando il continuo strofinio di dischi ruotanti di materiale<br />

isolante, erano capaci di generare differenze di potenziale di centinaia di migliaia di Volt e<br />

provocare scintille lunghe anche qualche decina di centimetri.<br />

Furono comunque le ricerche di Henry Cavendish (1731-1810) e di Charles-Augustin de Coulomb<br />

(1736-1806) a rendere l'elettrologia una branca della nascente fisica matematica. A loro si deve<br />

infatti la dimostrazione sperimentale (ottenuta tra il 1770 e il 1780) che le cariche elettriche si<br />

attraggono o si respingono con una forza proporzionale all'inverso del quadrato della distanza,<br />

proprio come l'attrazione gravitazionale. L'importanza di questa scoperta fu enorme perché diede<br />

origine all'idea di una profonda unità fra tutti i fenomeni fisici elementari.<br />

Una svolta altrettanto importante fu prodotta dall'invenzione della pila elettrica da parte di<br />

Alessandro Volta (1745-1827). La pila di Volta segna infatti l'inizio dello studio della corrente<br />

elettrica (le scariche elettriche che si studiavano in precedenza erano fenomeni di durata<br />

brevissima) e dell'idea che i fenomeni chimici (la pila è un congegno in cui avvengono reazioni<br />

chimiche) sono fenomeni in cui l'elettricità gioca un ruolo essenziale.<br />

IL PROBLEMA DEL CALORE: SOSTANZA O FORMA DI MOVIMENTO?<br />

L'altro campo di particolare interesse per gli sperimentatori e per i teorici del Settecento fu quello<br />

dei fenomeni termici. Bisogna subito dire che le ricerche in questo settore furono svolte<br />

fondamentalmente da chimici, essendo il calore un fattore che influenzava in modo evidente<br />

soprattutto le reazioni chimiche. Ma la chimica del Settecento non era poi tanto distinta dalla fisica,<br />

come avviene oggi. Per esempio, la differenza tra gli stati solido, liquido e aeriforme (o gassoso) di<br />

una sostanza (differenza prodotta in maniera determinante dal calore) era oggetto di studio sia di<br />

chimici sia di fisici.<br />

Ora, fin dal Seicento ci si era posti il problema della natura del calore. Boyle e Newton pensavano<br />

per esempio che il calore fosse l'effetto del movimento "insensibile" (ossia non visibile<br />

direttamente) degli atomi delle sostanze riscaldate - e questa era la teoria cinetica del calore.<br />

Cartesio invece pensava che il calore fosse una materia particolarmente "sottile", che egli chiamava<br />

aristotelicamente "materia del fuoco", che entrava o usciva dai corpi. La polemica tra i sostenitori<br />

dell'una o dell'altra teoria continuò per tutto il secolo.<br />

Ci limiteremo a raccontare brevemente le vicende decisive della storia del calore parlando di due<br />

scienziati che dedicarono gran parte della loro attenzione ai fenomeni termici. Il primo è Benjamin<br />

Thompson (1753-1814), un avventuriero americano, amante della fisica sperimentale, divenuto poi<br />

conte di Rumford soprattutto per le sue attività politiche in cui non mancarono operazioni di<br />

spionaggio; il secondo è Joseph Black (1728-1799), docente di chimica nelle principali università<br />

scozzesi.<br />

Rumford era un tenace sostenitore della teoria cinetica ed è noto per le sue ricerche sulla<br />

produzione di calore per attrito, un fenomeno che egli considerava decisivo per dimostrare che il<br />

calore poteva essere creato e quindi non poteva essere una sostanza. Importanti in questo senso<br />

furono le osservazioni relative all'enorme aumento di temperatura che si verificava allorché<br />

venivano alesate le bocche dei cannoni.<br />

17


Più sistematiche e meno qualitative furono le ricerche di Black, che invece risultarono decisive per<br />

l'affermazione, verso la fine del secolo, della teoria sostanziale del calore. I problemi di Black erano<br />

di due tipi: a) lo scambio di calore tra due corpi a diversa temperatura messi a contatto tra loro; b) la<br />

produzione dei passaggi di stato (da solido a liquido a gas e viceversa) di una sostanza riscaldata o<br />

raffreddata. Le sue scoperte furono di estrema importanza. In primo luogo egli si accorse che, nello<br />

scambio di calore tra due sostanze diverse, la stessa quantità di calore non produceva lo stesso<br />

aumento di temperatura in tutte le sostanze. Questo si poteva spiegare solo ammettendo che le<br />

diverse sostanze avessero una diversa recettività per il calore, o, come si dice oggi, un diverso<br />

calore specifico. In secondo luogo egli verificò che, quando una sostanza effettuava un passaggio di<br />

stato, per esempio veniva sciolto il ghiaccio riscaldandolo, la sua temperatura non variava anche se<br />

si continuava a fornire calore. In altre parole, il calore fornito diventava latente, ossia non poteva<br />

essere rilevato dal termometro.<br />

E' importante, per inciso, ricordare che nel 1769, l'ingegnere scozzese James Watt (1736-1819), che<br />

era in contatto appunto con Black, brevetta «un nuovo modo per diminuire il consumo di vapore e<br />

di combustibile nella macchina a vapore», ossia realizza in pratica la prima moderna macchina a<br />

vapore. E' la premessa della grande rivoluzione industriale, che avrebbe sconvolto il mondo<br />

europeo dando luogo alle grandi città e alle grandi fabbriche, dato che con la macchina a vapore si<br />

poteva disporre di grandi quantità di "potenza motrice" in qualsiasi luogo e non solo dove c'erano<br />

fiumi e cascate.<br />

La fisica francese<br />

Le osservazioni di Black erano difficilmente interpretabili attraverso una teoria cinetica, ma lo<br />

erano abbastanza facilmente con una teoria sostanziale. Ma il motivo dell'affermazione pressoché<br />

incontrastata della teoria sostanziale - o teoria del fluido calorico, come venne ufficialmente<br />

chiamata - alla fine del secolo fu di carattere prettamente metodologico. Con la rivoluzione francese<br />

e l'epoca napoleonica, la Francia divenne di fatto la potenza europea più avanzata, soprattutto dal<br />

punto di vista culturale. Le università francesi e le istituzioni collaterali, come l'Accademia di<br />

Francia e l'École Polytechnique (una vera e propria facoltà di ingegneria in senso moderno),<br />

fornivano una preparazione avanzatissima, soprattutto dal punto di vista matematico. In Francia,<br />

parallelamente ai grandi sviluppi dell'analisi matematica e della geometria analitica, si sviluppa la<br />

fisica matematica in senso moderno. Lo studio dei fenomeni fisici diventa essenzialmente<br />

quantitativo.<br />

Si trattava comunque di una generalizzazione e razionalizzazione della meccanica classica. Per<br />

spiegare un fenomeno fisico bisognava trovare la legge matematica del suo comportamento e questa<br />

legge si trovava quando si conoscevano le forze meccaniche tra i corpi in gioco.<br />

In questo contesto la fisica francese può essere definita come la fisica dei "fluidi imponderabili". I<br />

fisici francesi, infatti, risolvono il dualismo newtoniano tra materia e forza immaginando l'esistenza<br />

di diversi tipi di materia che, pur essendo distinti dalla "materia ponderabile" - quella cioè che<br />

forma la massa di una sostanza -, si combinano e si legano in qualche modo con questa, e sono<br />

responsabili dei vari fenomeni fisico-chimici non esclusivamente meccanici. In particolare esistono<br />

un fluido elettrico, un fluido magnetico, un fluido calorico, un fluido luminoso, responsabili<br />

rispettivamente dei fenomeni elettrici, magnetici, termici e ottici. L'importante è che le forze con<br />

cui le particelle di questi fluidi interagiscono tra loro e con le molecole della materia ponderabile<br />

siano descritte da semplici espressioni matematiche. In questo modo si può, in prospettiva, arrivare<br />

a prevedere le leggi matematiche di evoluzione di tutti i fenomeni.<br />

Il capo riconosciuto di questa scuola di pensiero fu Pierre-Simon de Laplace (1749-1827), a cui si<br />

deve l'enunciazione chiara dell'ideale di conoscenza perseguito dai fisici matematici francesi<br />

dell'epoca napoleonica. Lasciando nel 1814 il suo testamento spirituale Laplace afferma:<br />

«Dobbiamo considerare lo stato attuale dell'universo come l'effetto del suo stato anteriore e come la<br />

causa del suo stato futuro. Un'intelligenza che conoscesse, a un dato istante, tutte le forze da cui è<br />

animata la natura e la disposizione di tutti gli enti che la compongono e che inoltre fosse<br />

18


sufficientemente profonda da sottomettere tutti questi dati all'analisi, ebbene, essa abbraccerebbe in<br />

una stessa formula i movimenti dei più grandi corpi dell'universo e degli atomi più leggeri; per essa<br />

nulla sarebbe incerto e ai suoi occhi sarebbero presenti sia il futuro sia il passato. Lo spirito umano,<br />

nella perfezione che esso ha saputo dare all'astronomia, offre un pallido esempio di questa<br />

intelligenza. Le sue scoperte nella meccanica e nella geometria, insieme a quella della gravitazione<br />

universale, l'hanno messo in grado di abbracciare nelle stesse espressioni analitiche gli stati passati<br />

e futuri del sistema del mondo».<br />

LA NASCITA DELL'ASTRONOMIA MODERNA<br />

Le affermazioni di Laplace avevano a fondamento soprattutto gli enormi progressi compiuti<br />

dall'astronomia nel secolo appena trascorso. La teoria di Newton consentiva previsioni matematiche<br />

precise e si rivelò presto, in riferimento ai movimenti che avvenivano nel sistema solare, più<br />

efficace di quanto egli stesso aveva supposto. Edmund Halley (1656-1727) calcola infatti le orbite<br />

di alcune comete, scoprendo che sono normali corpi pesanti che compiono orbite molto allungate<br />

intorno al Sole. Egli scopre così che quelle apparse nel 1531, 1607 e 1682 sono in realtà una sola<br />

cometa e prevede che essa riapparirà nel 1758, cosa che puntualmente si verifica (purtroppo dopo la<br />

sua morte). Basta questo avvenimento a convincere tutto il continente europeo della straordinaria<br />

potenza della teoria di Newton e a sconfiggere definitivamente i cartesiani.<br />

Ma l'importanza di Halley non si esaurisce qui. Confrontando le posizioni di alcune stelle quali<br />

risultavano dai vecchi cataloghi astronomici con quelle appena osservate, si accorse che si erano<br />

spostate, sia pure di poco. Crollava così il mito delle stelle fisse e l'idea che esse fossero collocate<br />

su un'unica sfera. Oltre a questi spostamenti se ne scoprirono poi altri, regolari e periodici. James<br />

Bradley (1693-1762), controllando la posizione di una stella, scoprì che questa descriveva<br />

un'ellisse. Subito dopo si accorse che questo movimento era condiviso da tutte le stelle. La<br />

spiegazione del fenomeno fu trovata dallo stesso Bradley: era un effetto di moto apparente dovuto<br />

alla combinazione della velocità della luce proveniente dalle stelle e della velocità della Terra lungo<br />

la sua orbita. Il cosiddetto fenomeno dell'aberrazione astronomica fu la prima prova inconfutabile<br />

che il fatto che la Terra girasse intorno al Sole non era solo un'utile ipotesi.<br />

La precisione degli strumenti aumentava, i telescopi diventavano sempre più grandi e potenti e le<br />

scoperte cominciavano a susseguirsi con impressionante rapidità. Si scoprì che la Terra non era una<br />

sfera perfetta, ma era schiacciata ai poli; si fecero studi sulla coda delle comete che era sempre<br />

diretta nella direzione contraria a quella del Sole; si cominciò a intuire che le nebulose erano in<br />

molti casi composte da miriadi di stelle che i telescopi non riuscivano a distinguere.<br />

Il vero fondatore della moderna astronomia può essere considerato Friedrich Wilhelm Herschel<br />

(1738-1822) che, utilizzando giganteschi telescopi (l'ultimo dei quali aveva una distanza focale di<br />

12 m e impiegava uno specchio parabolico di un metro e mezzo di diametro), notevolmente<br />

perfezionati anche dal punto di vista ottico, si dedicò all'esplorazione sistematica del cielo nelle<br />

zone ancora inesplorate. In questo modo la notte del 13 marzo 1781 scopre un astro dalle singolari<br />

dimensioni e che compie un'orbita praticamente circolare: si tratta di Urano, il settimo pianeta del<br />

sistema solare. Così scoprirà anche i satelliti di Urano e di Saturno, osserverà le stelle doppie, altre<br />

nebulose prima sconosciute e altri grandi ammassi stellari.<br />

Le prime ipotesi cosmologiche<br />

Nel contempo cominciavano a essere formulate le prime ipotesi cosmologiche. Alcune di queste<br />

partivano dall'idea che la distribuzione delle stelle attorno al sistema solare non fosse uniforme in<br />

tutte le direzioni. In particolare, Johann Heinrich Lambert (1728-1777) fu il primo a teorizzare<br />

l'esistenza, nell'universo, di una gerarchia di oggetti: i sistemi planetari (come il sistema solare), gli<br />

ammassi di stelle, le galassie e gli insiemi di galassie. Fu Herschel, con le sue osservazioni<br />

sistematiche, a scoprire che il sistema solare si trova a sua volta all'interno di un enorme sistema di<br />

19


stelle, ossia di una galassia, la Via Lattea, la quale per altro ha una forma appiattita. Egli riconobbe<br />

pure la possibilità teorica che le galassie fossero più d'una e potessero essere considerate vere e<br />

proprie "isole di universo".<br />

Lo sviluppo della meccanica celeste fornisce infine gli strumenti teorici per effettuare previsioni<br />

sull'origine ed evoluzione del sistema solare. L'ipotesi più nota, sostenuta inizialmente dal giovane<br />

Immanuel Kant (1724-1804) e poi perfezionata da Laplace, è quella che attribuisce la nascita del<br />

sistema solare all'iniziale presenza di materia diffusa, in forma di nebulosa e animata da movimento<br />

rotatorio, in tutto lo spazio occupato dal sistema solare e alla successiva condensazione di questa<br />

materia in modo da formare il Sole e i pianeti.<br />

La meccanica celeste di Laplace vede ormai un universo animato dalle sole leggi meccaniche e in<br />

condizioni di grande stabilità, almeno per quanto riguarda il sistema solare. La distanza da Newton<br />

è ormai grande: questi aveva invece visto un universo in continua decadenza, il cui "mantenimento"<br />

richiedeva il continuo intervento divino. Si dice che, interrogato da Napoleone sul ruolo di Dio<br />

nella formazione e nella gestione di un universo così stabile e perfetto, Laplace abbia risposto:<br />

«Sire, io non ho avuto bisogno di tale ipotesi».<br />

LA SECONDA RIVOLUZIONE SCIENTIFICA<br />

DESCRIZIONE MATEMATICA E MODELLI TEORICI NELLA <strong>FISICA</strong><br />

DELL'OTTOCENTO<br />

Nel corso dell'Ottocento la fisica raggiunge un assetto istituzionale e metodologico simile a quello<br />

contemporaneo. La ricerca diviene attività altamente professionalizzata che si svolge soprattutto<br />

nelle università e nei laboratori a esse collegati: gli scienziati "amatori" con un proprio laboratorio<br />

privato tendono a scomparire. I fisici si organizzano in associazioni nazionali e internazionali, si<br />

riuniscono in congressi e tendono a stabilire norme "standard" per fissare il modo corretto di<br />

esporre e pubblicare le teorie e i risultati sperimentali, scegliere le unità di misura delle varie<br />

grandezze e via discorrendo.<br />

La novità più importante dal punto di vista dell'organizzazione accademica e di ricerca della<br />

disciplina è l'affermazione della fisica teorica come indirizzo autonomo di ricerca da porre accanto<br />

alle tradizionali fisica matematica e fisica sperimentale, affermazione riconosciuta istituzionalmente<br />

solo nella seconda metà del secolo.<br />

Dietro a questo cambiamento organizzativo c'era stata una profonda trasformazione nei contenuti e<br />

nei metodi della ricerca che alcuni hanno addirittura considerato una "seconda" rivoluzione<br />

scientifica.<br />

In linea generale, la fisica matematica era nata nell'ambito della gloriosa scuola di Laplace e si<br />

occupava soprattutto dei problemi matematici (lo sviluppo del calcolo infinitesimale, la soluzione<br />

delle equazioni differenziali, lo studio di altre forme di rappresentazione matematica) che potevano<br />

essere utili nella soluzione dei problemi fisici. La ricerca in fisica sperimentale, invece, era condotta<br />

spesso da scienziati molto abili nel costruire strumenti e nell'effettuare misure, ma dotati magari di<br />

una preparazione matematica appena sufficiente.<br />

Il limite di questi due tipi di ricerca era un atteggiamento che possiamo genericamente definire<br />

come conservatore. Infatti, da un lato, lo studio dei problemi matematici connessi all'indagine fisica<br />

non metteva quasi mai in discussione le teorie accettate, ma tendeva ad applicarle meglio e con<br />

maggior rigore; dall'altro, i fisici sperimentali cercavano di affinare i propri strumenti e migliorare<br />

la precisione delle loro misure ma non avevano le competenze matematiche per formulare teorie<br />

avanzate e innovative e si limitavano ai resoconti del lavoro effettuato in laboratorio, spesso senza<br />

una chiara prospettiva teorica.<br />

I nuovi fisici teorici, invece, sono studiosi che hanno una formazione matematica ricca ed<br />

estremamente approfondita, ma che non considerano fine a se stessa. Per loro la matematica è solo<br />

uno strumento per elaborare nuove idee, uno strumento che si può usare con audacia e<br />

20


spregiudicatezza. Sono convinti che, per fare fronte alla crescita delle conoscenze sperimentali,<br />

occorra immaginare nuovi oggetti fisici e nuove forme di interazione tra di essi. E per far questo<br />

essi costruiscono teorie e modelli, magari senza preoccuparsi troppo del loro rigore (a volte non<br />

pretendono nemmeno di essere logicamente coerenti), della loro completezza e, tanto meno, del<br />

fatto che essi siano in perfetto accordo con tutti i dati sperimentali. Sono audaci congetture,<br />

proposte per indagare nuove direzioni di esplorazione e nuovi punti di vista, che non accettano<br />

alcun vincolo metodologico e metafisico che limiti le possibilità di immaginazione.<br />

NUOVI FENOMENI SPERIMENTALI E NUOVE TEORIE<br />

La natura della luce<br />

Il declino della fisica dei fluidi imponderabili e dell'azione a distanza tra le ipotetiche particelle che<br />

li costituivano comincia nel campo delle teorie sulla natura della luce. Abbiamo detto che l'ipotesi<br />

della natura ondulatoria della luce era stata già avanzata alla fine del Seicento. Ma l'autorità di<br />

Newton prima e di Laplace poi aveva imposto l'idea che la luce fosse composta di particelle che si<br />

muovevano in linea retta. Già nel 1802 Thomas Young (1773-1829) aveva iniziato a studiare<br />

sistematicamente i fenomeni d'interferenza prodotti dal passaggio della luce proveniente da<br />

un'unica sorgente attraverso due fori molto piccoli e molto vicini tra loro. Ma solo nel 1816<br />

Augustin-Jean Fresnel (1788-1827) e Jean-François-Dominique Arago (1786-1853) effettuano i<br />

primi esperimenti sull'interferenza e la diffrazione della luce, decisamente probanti a favore della<br />

teoria ondulatoria.<br />

Ora, le difficoltà di questa teoria erano legate al fatto che si pensava che le onde luminose fossero<br />

analoghe alle onde acustiche, ossia fossero caratterizzate da oscillazioni longitudinali (che<br />

avvenivano cioè nella direzione della propagazione della luce). Fu Fresnel a immaginare che si<br />

potesse trattare di oscillazioni trasversali (ossia che avvenivano in direzione perpendicolare a quella<br />

di propagazione) offrendo così al contempo un'interpretazione dei fenomeni, già noti, di<br />

polarizzazione ottica.<br />

Ora il problema della natura della luce diventava il seguente: oscillazioni di che cosa? Le onde<br />

sonore erano vibrazioni dell'aria, le onde del mare erano oscillazioni dell'acqua, e le onde luminose?<br />

D'altra parte la luce arriva anche dalle stelle più lontane e sembra viaggiare nello spazio vuoto.<br />

L'idea di Fresnel, l'unica che fosse concepibile all'epoca, è che lo spazio interstellare non sia vuoto,<br />

ma contenga una materia sottilissima e impercettibile, capace di formare onde. Per dare un nome a<br />

questa materia la scelta non poteva che cadere su un termine antico: "etere". Così, da Fresnel in poi<br />

(almeno fino a Einstein) lo spazio, tutto lo spazio, è pieno di un etere luminifero in cui si propaga,<br />

sotto forma di onde, la radiazione luminosa.<br />

La nascita dell'elettromagnetismo<br />

Ma altre ricerche avrebbero presto messo in discussione lo schema delle azioni dirette a distanza. Il<br />

danese Hans Christian Oersted (1777-1851) scopre infatti nel 1820 un fenomeno che<br />

apparentemente non rientra nello schema. Un ago magnetizzato posto nelle vicinanze di un filo<br />

percorso da corrente non viene infatti né attratto né respinto dal filo, ma esegue una rotazione su se<br />

stesso tendendo a disporsi perpendicolarmente al filo. La scoperta è importante non solo perché non<br />

rientra nello schema delle attrazioni e repulsioni tra corpi dirette lungo la congiungente dei corpi<br />

stessi, ma perché indica che i fenomeni elettrici e quelli magnetici non sono così distinti come si<br />

pensava: nasce l'elettromagnetismo.<br />

Fu André-Marie Ampère (1775-1836) a rimettere parzialmente le cose a posto. Ma per farlo, egli<br />

dovette immaginare che il cosiddetto fluido magnetico non esistesse, e che il magnetismo dei corpi<br />

non fosse altro che il prodotto, al loro interno, di piccolissime correnti circolari, come se gli atomi<br />

fossero circondati da cariche elettriche in continua rotazione. Una corrente circolare per Ampère<br />

21


era equivalente a un magnete orientato in direzione a essa perpendicolare (il cosiddetto teorema di<br />

equivalenza di Ampère). Un corpo magnetizzato era allora un corpo in cui gli atomi non erano<br />

disposti disordinatamente ma erano in prevalenza disposti in modo che le loro correnti circolassero<br />

nella stessa direzione e in piani paralleli tra loro.<br />

Ne derivava che le azioni tra magneti e le azioni tra correnti e magneti erano riconducibili ad azioni<br />

tra correnti e correnti e che queste azioni potevano essere fatte rientrare nello schema delle<br />

attrazioni e delle repulsioni, stavolta però non tra particelle di fluidi ma tra elementi di corrente<br />

elettrica.<br />

Tenace oppositore di Ampère fu il grande fisico sperimentale inglese Michael Faraday (1791-1867).<br />

Faraday, ispirandosi ai dubbi dello stesso Newton, non credeva comunque nell'azione a distanza. Le<br />

sue ricerche sui fenomeni di induzione elettromagnetica (ossia sulle correnti prodotte dallo<br />

spostamento di magneti vicino a circuiti elettrici o viceversa, oppure dalle variazioni di corrente nel<br />

circuito stesso o in un circuito a esso vicino) e sulle correlate azioni meccaniche tra circuiti e<br />

magneti lo portarono a immaginare che queste azioni non avvenissero a distanza. La sua idea era<br />

che lo spazio fosse pieno di linee di forza. Queste linee non erano un modo di rappresentare<br />

geometricamente forze a distanza, ma, secondo Faraday, corrispondevano a qualcosa di fisicamente<br />

reale presente nello spazio stesso. Un argomento che egli usava a favore di questa ipotesi era quello<br />

di far vedere che tali linee di forza erano quasi sempre linee curve e non linee rette.<br />

La "scoperta" dell'etere e lo studio delle azioni elettromagnetiche portò a prendere in seria<br />

considerazione l'idea che le presunte azioni a distanza non fossero altro che azioni trasmesse<br />

attraverso un mezzo, ossia azioni a contatto, e che lo spazio fosse pieno di materia, con una<br />

conseguente rivalutazione del vecchio ideale cartesiano.<br />

LA SCOPERTA DELLA CONSERVAZIONE DELL'ENERGIA<br />

Uno degli eventi più rivoluzionari della fisica ottocentesca fu la scoperta della conservazione<br />

dell'energia. Vediamo perché. Torniamo alla vecchia questione della stabilità dell'universo e del<br />

sistema solare. La scoperta dell'etere suscitò subito il problema dell'eventuale resistenza che questo<br />

mezzo poteva opporre al moto dei pianeti. Per molti non si poteva più considerare il sistema solare<br />

come eternamente stabile: esso era invece soggetto a un inevitabile declino.<br />

In realtà, la nota impossibilità del moto perpetuo metteva tutti di fronte al fatto che le resistenze, gli<br />

attriti, gli urti anelastici non avrebbero mai potuto essere completamente eliminati. Il movimento, la<br />

forza viva, e la loro capacità di produrre effetti, erano evidentemente in continua diminuzione nei<br />

fenomeni terrestri e ora forse anche nei fenomeni astronomici. L'idea che comunque qualcosa si<br />

conservasse era quindi del tutto incompatibile con la normale evidenza empirica.<br />

Eppure questa idea cominciò a diffondersi verso la metà del secolo in una maniera sorprendente e<br />

tutto sommato apparentemente inspiegabile. Il fatto è che la scoperta dell'energia non può essere<br />

attribuita, come solitamente avviene, a un singolo scienziato: in realtà fu operata simultaneamente<br />

in diversi paesi da diversi scienziati che si occupavano di problemi diversi e che spesso non erano<br />

in comunicazione tra di loro. Se dovessimo elencare i nomi di coloro i quali - tra il 1830 e il 1850 -<br />

enunciarono qualcosa di simile al principio di conservazione dell'energia dovremmo fare nove o<br />

forse addirittura dodici nomi. In questo senso, è interessante illustrare una serie di fattori<br />

concomitanti.<br />

In primo luogo dobbiamo parlare della scoperta della correlazione tra le diverse forze, o i diversi<br />

agenti o "poteri" naturali.<br />

La fisica dei fluidi imponderabili tendeva a distinguere vari tipi di materia, attribuendo loro<br />

fenomeni diversi. Ma le ricerche della prima metà dell'Ottocento avevano mostrato che queste<br />

distinzioni non potevano essere così nette. Non solo i fenomeni elettrici non potevano essere tenuti<br />

separati da quelli magnetici, ma:<br />

- la pila elettrica, così come tutti i fenomeni elettrolitici, metteva insieme chimica ed elettricità;<br />

- nei fenomeni elettrolitici si produceva calore e quindi c'era un collegamento coi fenomeni termici;<br />

- anche la luce produceva calore e influenzava le reazioni chimiche;<br />

22


- il magnetismo influiva sulla propagazione della luce, ruotandone il piano di polarizzazione;<br />

- le scariche elettriche producevano effetti magnetici, effetti ottici, effetti termici, e via discorrendo.<br />

Questa serie di scoperte fece immaginare che il potere di produrre effetti proprio dei principali<br />

"agenti naturali" (ossia calore, luce, elettricità, magnetismo) non andasse perduto e che l'azione di<br />

un agente si potesse trasformare in quella di un altro in una misura in qualche modo "equivalente".<br />

Il passo decisivo fu compiuto allorché lo studio del funzionamento delle macchine, e in particolare<br />

delle macchine termiche (come la macchina a vapore), fece riprendere in considerazione l'idea che<br />

ciò che si perdeva - a causa degli attriti, ecc. - si ritrovasse sotto forma di calore. Bisognava però<br />

ammettere che il calore potesse essere creato dagli attriti. Ora, una sostanza (il fluido calorico) non<br />

poteva essere creata o distrutta: l'unica possibilità immaginabile era tornare alla vecchia idea che il<br />

calore fosse una forma di movimento. Ciò fu confermato dalle ricerche sul cosiddetto "calore<br />

radiante". A queste ricerche contribuì in maniera decisiva l'italiano Macedonio Melloni (1798-<br />

1854), il quale dimostrò che il calore radiante (poi riconosciuto come radiazione infrarossa) si<br />

propagava in modo ondulatorio proprio come la luce. Quindi, il calore radiante era anch'esso, come<br />

la luce, una forma di movimento dell'etere.<br />

Joule: calore ed effetto meccanico<br />

James Prescott Joule (1818-1889) cominciò a occuparsi di fenomeni elettrochimici e divenne subito<br />

un tenace assertore della correlazione tra azione chimica e azione elettrica. Nel corso di queste<br />

ricerche scoprì l'effetto che porta ancora il suo nome, ossia il fatto che il passaggio di corrente<br />

elettrica produce calore. Nello stesso tempo cominciò a studiare i primi motori elettrici cercando di<br />

valutarne il rendimento. Ora, quando si studiava il funzionamento di un motore o di una macchina,<br />

l'effetto "utile" veniva in genere valutato come effetto meccanico, detto anche semplicemente<br />

lavoro, e veniva misurato in termini di capacità di sollevare un peso per una certa altezza, ovvero di<br />

mettere qualcosa in movimento con una certa quantità di forza viva. Fu nel corso di queste ricerche<br />

che egli cominciò a pensare che l'azione elettrica o l'azione chimica si potessero convertire o in<br />

calore (che non poteva quindi che essere una forma di movimento) o in effetto meccanico (lavoro o<br />

forza viva) e che, a parità di azione elettrica, quanto più si produceva calore tanto meno si<br />

produceva effetto meccanico e viceversa. Se questo era vero, calore ed effetto meccanico erano due<br />

facce della stessa medaglia, ossia potevano convertirsi direttamente l'uno nell'altro: nelle macchine<br />

idrauliche e meccaniche la "potenza" meccanica perduta per attrito si trasformava in calore e,<br />

viceversa, nelle macchine termiche l'effetto meccanico prodotto derivava dal consumo di una<br />

quantità equivalente di calore.<br />

A questo punto la soluzione era a portata di mano: con ripetuti esperimenti, Joule dimostrò che<br />

facendo perdere per attrito la capacità di effettuare lavoro posseduta, per esempio, da un peso<br />

sollevato a una certa altezza e poi lasciato cadere, si otteneva sempre la stessa quantità di calore. In<br />

questo modo egli fu in grado di determinare quello che chiamò equivalente meccanico del calore.<br />

L'unica ipotesi fisica in grado di spiegare questa equivalenza era che il calore altro non fosse che<br />

forza viva trasferita ai movimenti microscopici del corpo riscaldato. Bisognava perciò tornare ad<br />

accettare la teoria cinetica del calore.<br />

Fu Hermann von Helmholtz (1821-1894) a dare una base teorica comune a tutte queste<br />

osservazioni. Egli riprese il teorema delle forze vive di Lagrange e postulò che esso fosse<br />

generalizzabile a tutti i fenomeni fisici, in quanto in ognuno di essi era identificabile una "forza di<br />

tensione" (quella che poi venne chiamata energia potenziale) e una "forza viva" (poi chiamata<br />

energia cinetica), la cui somma, considerando tutti i corpi che prendevano parte al fenomeno,<br />

rimaneva comunque costante. Il denominatore comune a tutti gli agenti naturali era dunque la loro<br />

capacità di produrre effetti utili. E' una capacità che si conserva, anche se talvolta si trasferisce a<br />

movimenti che non sono osservabili a occhio nudo, ma riguardano le particelle microscopiche di<br />

cui sono fatti i corpi, e che si rivelano solo come aumento di temperatura dei corpi stessi. Questa<br />

capacità di produrre effetti utili o, come si diceva, capacità di produrre lavoro, fu in seguito<br />

chiamata universalmente energia.<br />

23


LA NASCITA DELLA TERMODINAMICA<br />

La scoperta della conservazione dell'energia corrispondeva a un diffuso ottimismo sulle sorti del<br />

mondo: l'energia si rinnovava continuamente e ciò che era apparentemente perduto si ritrovava<br />

sotto altra forma e poteva teoricamente riconvertirsi nella forma originale. Questo ottimismo fu<br />

però di breve durata. Perché ci si rese quasi subito conto che i vari tipi di conversione tra le forme<br />

di energia non erano tutti equivalenti.<br />

Per capire come si verificò questa scoperta dobbiamo fare un passo indietro. Nel 1824, il giovane<br />

ufficiale del genio francese Sadi Carnot (1796-1832) aveva pubblicato un breve libro dal titolo<br />

Riflessioni sulla potenza motrice del fuoco e sulle macchine atte a sviluppare questa potenza. Era<br />

un piccolo trattato sui princìpi generali di funzionamento delle macchine termiche e in esso era<br />

contenuto l'embrione di quella che sarebbe diventata la termodinamica. Carnot metteva in luce<br />

aspetti del funzionamento delle macchine termiche che si sarebbero rivelati di estrema importanza.<br />

Egli diceva che, affinché sia possibile produrre "potenza motrice" (oggi diremmo lavoro<br />

meccanico) utilizzando il calore sprigionato dalla combustione di una sostanza, occorre poter<br />

disporre di una differenza di temperatura. In altri termini, una macchina termica può funzionare<br />

solo se accanto alla sorgente di calore, che si trova evidentemente a temperatura elevata, c'è un'altra<br />

sorgente che deve essere mantenuta a una temperatura più bassa della sorgente di calore. In genere,<br />

questa sorgente è proprio l'ambiente in cui la macchina lavora e la sua temperatura è appunto la<br />

normale temperatura ambiente. Ora, secondo Carnot, il calore produce lavoro proprio perché tende<br />

a "scendere", ossia a passare spontaneamente dalla sorgente calda a quella fredda.<br />

Di questo aspetto si era già accorto il grande fisico matematico Jean-Baptiste Fourier (1768-1830)<br />

che, nei suoi studi sulla propagazione del calore per conduzione termica, aveva notato questa<br />

tendenza spontanea: nel tempo, il calore tende a distribuirsi uniformemente in un corpo, finché tutte<br />

le sue parti si trovano alla stessa temperatura. Invece il processo inverso, ossia la concentrazione<br />

del calore in una parte del corpo (con il conseguente riscaldamento di questa parte e il<br />

raffreddamento delle altre) non si verifica mai spontaneamente in natura.<br />

Tuttavia, Carnot si era accorto che una macchina termica poteva anche funzionare al contrario.<br />

Poteva cioè utilizzare lavoro meccanico per far "salire" il calore dalla sorgente fredda alla sorgente<br />

calda e creare tra due corpi una differenza di temperatura che prima non c'era (se ci si pensa un<br />

attimo si vede subito che è proprio così che funzionano i frigoriferi). La conclusione era allora:<br />

disponendo di una differenza di temperatura si può produrre lavoro meccanico e, viceversa,<br />

disponendo di lavoro meccanico si può creare una differenza di temperatura.<br />

Con la scoperta dell'energia, fu subito chiaro che il lavoro prodotto da una macchina termica era il<br />

risultato della conversione di una equivalente quantità di calore: il calore si traformava in lavoro.<br />

Ma allora, a che serviva la differenza di temperatura? Perché non si può estrarre calore da un corpo<br />

qualsiasi, per esempio dal mare, e trasformarlo in energia utilizzabile? In fondo il calore è una<br />

forma di energia come le altre!<br />

La scoperta dell'entropia<br />

Di questo problema si occuparono due fisici, Rudolf Clausius (1822-1888) e William Thomson<br />

(1824-1907), in seguito nominato Lord Kelvin per i suoi meriti scientifici. Essi lo risolsero<br />

chiarendo che la sola legge di conservazione dell'energia non bastava a spiegare il funzionamento<br />

delle macchine termiche: bisogna ammettere la validità di una seconda legge, che da allora si<br />

chiamò seconda legge della termodinamica. Questa legge assumeva appunto che il calore non può<br />

passare spontaneamente dal freddo al caldo (nella versione di Clausius), ovvero non è possibile<br />

produrre lavoro utile raffreddando un corpo al di sotto della temperatura dei corpi circostanti (nella<br />

versione di Thomson).<br />

24


In altre parole essi ammettevano che certi processi fisici - chiamiamoli processi di prima specie -<br />

erano "naturali" e spontanei (per esempio, la dissipazione di energia meccanica per attrito con la<br />

conseguente produzione di calore oppure il passaggio di calore da corpi dalla temperatura più<br />

elevata a corpi dalla temperatura più bassa); invece altri processi - chiamiamoli di seconda specie -<br />

(quelli opposti ai precedenti, ossia la produzione di energia meccanica per consumo di calore,<br />

oppure il passaggio di calore da corpi dalla temperatura più bassa a corpi dalla temperatura più<br />

elevata) non avvenivano spontaneamente in natura, ma solo in condizioni particolari. Il punto è che,<br />

per far accadere un processo di seconda specie, bisognava sfruttare (come aveva detto Carnot) un<br />

processo spontaneo di prima specie: se, per esempio, non si sfrutta la tendenza spontanea del calore<br />

a equilibrare differenze di temperatura, la macchina termica non può funzionare. Quindi, i processi<br />

di seconda specie non possono avvenire se non sono "compensati" da processi di prima specie. Tra i<br />

processi naturali c'è una sostanziale asimmetria: i processi del primo tipo possono avvenire (e<br />

avvengono di fatto continuamente) da soli, i processi del secondo tipo no. Alla fine la bilancia<br />

pende inevitabilmente a favore dei processi di prima specie. E questo vuol dire che l'energia<br />

meccanica tende a "dissiparsi" in calore, il calore tende a "diffondersi" in maniera sempre più<br />

uniforme e tutti i corpi tendono ad assumere una temperatura uniforme, dopodiché non è più<br />

possibile ottenere energia in maniera utilizzabile e nessun ulteriore cambiamento è possibile in<br />

natura.<br />

Queste conclusioni portavano quindi a supporre una tendenza irreversibile verso quella che venne<br />

chiamata la "morte termica dell'universo". A una visione ottimistica favorita dalla scoperta della<br />

prima legge della termodinamica (ossia la legge di conservazione dell'energia estesa ai fenomeni in<br />

cui entrava in gioco anche il calore) si contrapponeva una visione pessimistica imposta dalla<br />

scoperta della seconda legge della termodinamica.<br />

Il grande merito di Clausius fu quello di rendere rigorose e quantitative le precedenti conclusioni<br />

generali. Egli infatti immaginò che vi fosse una misura del "cambiamento" comportato da ogni<br />

processo della prima e della seconda specie. La grandezza la cui variazione rappresentava questa<br />

misura venne da lui chiamata entropia (dal greco en tropé, "contenuto di cambiamento"). Ora, se<br />

nei processi di prima specie prendiamo questa variazione come positiva, ossia come aumento, e<br />

come negativa, ossia come diminuzione, se ne conclude che la seconda legge si riduce<br />

all'asserzione che complessivamente l'entropia dell'universo non può che aumentare. Quindi, delle<br />

due grandezze che descrivono lo stato di un sistema fisico, per quanto complesso, l'energia rimane<br />

costante, ma l'entropia tende comunque a crescere. E questa seconda tendenza mostra che l'universo<br />

è in continua evoluzione, ossia che il tempo fisico ha qualcosa in comune con il tempo psicologico,<br />

nel senso che sarà comunque impossibile tornare "indietro" nel tempo, che il "passato" è<br />

irrimediabilmente passato.<br />

LA TEORIA DEL CAMPO ELETTROMAGNETICO<br />

La grande trasformazione dell'interpretazione dei fenomeni elettromagnetici, che era cominciata<br />

con le ricerche di Oersted, Ampère e Faraday, fu portata a compimento, nella seconda metà<br />

dell'Ottocento, da James Clerk Maxwell (1831-1879), la cui attività spaziava in tutti i nuovi campi<br />

della fisica, dalla termodinamica alla teoria molecolare della materia, all'ottica,<br />

all'elettromagnetismo. Il suo metodo, basato su una profonda preparazione matematica, si traduceva<br />

in una continua costruzione di modelli di ciò che avrebbe potuto essere la realtà fisica, in modo da<br />

spiegare i fenomeni osservati.<br />

Appunto seguendo questo metodo, Maxwell arrivò alla seconda grande scoperta del secolo scorso,<br />

quella del cosiddetto "campo elettromagnetico". La sua idea riprendeva la tendenza di Faraday e di<br />

molti fisici dell'ambiente inglese a rifiutare l'azione a distanza. Cercando di individuare le proprietà<br />

di un'ipotetica sostanza che, riempiendo lo spazio tra corpi carichi, magneti e circuiti (quello che<br />

Maxwell chiamava il "campo" elettromagnetico), fosse responsabile delle azioni elettromagnetiche<br />

osservate, Maxwell pervenne nel 1861 a due risultati di estrema importanza. In primo luogo, le<br />

proprietà del "mezzo" che trasmette le azioni elettromagnetiche sono rappresentabili attraverso un<br />

25


sistema di equazioni (da allora in poi chiamate equazioni di Maxwell) che racchiudono tutti i<br />

risultati sperimentali fino ad allora conosciuti; in secondo luogo dalle proprietà dello stesso mezzo,<br />

e quindi dalle equazioni che rappresentavano il suo comportamento, era possibile dedurre che in<br />

esso si propagavano onde. Il fatto straordinario era che, calcolando teoricamente la velocità di<br />

queste onde, si otteneva un valore eccezionalmente prossimo a quello, ricavato sperimentalmente,<br />

della velocità della luce.<br />

La teoria elettromagnetica della luce<br />

La conclusione di Maxwell fu immediata: la luce consisteva in una propagazione ondulatoria nello<br />

stesso "mezzo" (anche da lui chiamato etere) che era responsabile della trasmissione delle azioni<br />

elettriche e magnetiche. Nasceva la teoria elettromagnetica della luce.<br />

Ma la tesi di Maxwell era solo un'ipotesi teorica. In fondo i fenomeni elettromagnetici potevano<br />

essere spiegati ugualmente bene da teorie basate sul concetto di azione a distanza. E della natura<br />

elettromagnetica della luce non c'era alcuna prova sperimentale. In effetti ci vollero più di vent'anni<br />

per arrivare a quella che fu ritenuta la conferma sperimentale della sua teoria. Fu lo scienziato<br />

tedesco Heinrich Rudolf Hertz (1857-1894) a ottenere le osservazioni sperimentali decisive in tal<br />

senso. Egli cominciò a studiare l'influenza di materiali dielettrici (ossia "isolanti") sull'azione<br />

elettrica tra circuiti quando questi materiali erano interposti fra tali circuiti e quando i circuiti erano<br />

percorsi da correnti oscillanti. A poco a poco si accorse che i suoi metodi di osservazione avrebbero<br />

permesso di rilevare se questa azione si propagava sotto forma di onde, che egli chiamò onde<br />

elettriche, anche quando tra i circuiti c'era solo l'aria. In pochi mesi, nel 1888, egli produsse la<br />

prova sperimentale che rivelava l'esistenza delle onde elettriche al di là di ogni ragionevole dubbio.<br />

La teoria di Maxwell poteva ritenersi confermata; le onde elettriche altro non erano che forme di<br />

radiazione identiche alla radiazione luminosa, anche se di lunghezza d'onda molto più grande.<br />

Ormai era chiaro che la radiazione elettromagnetica si estendeva in un ampio spettro, al cui estremo<br />

delle lunghezze d'onda molto piccole c'era la radiazione ultravioletta, seguita, per lunghezze d'onda<br />

via via crescenti, dalla radiazione visibile (ossia la luce), poi dalla radiazione infrarossa (il<br />

cosiddetto calore radiante), fino alle onde elettriche (da allora chiamate onde hertziane e poi<br />

radioonde) che potevano avere lunghezze d'onda molto grandi.<br />

I GRANDI SUCCESSI DELL'ASTRONOMIA DI POSIZIONE<br />

All'inizio dell'Ottocento, l'uso di telescopi sempre più potenti consentì l'esplorazione sistematica del<br />

cielo e la determinazione esatta della posizione dei vari astri. La cosiddetta astronomia di posizione<br />

raggiunse una precisione prima impensabile. E naturalmente le scoperte si moltiplicarono. Una di<br />

esse merita di essere ricordata con un certo dettaglio. Il primo gennaio 1801, l'astronomo siciliano<br />

Giuseppe Piazzi (1746-1826) vide un oggetto nella regione della costellazione del Toro che invece<br />

di restare immobile si muoveva sensibilmente rispetto alle altre stelle. Pensò che fosse una nuova<br />

cometa, ma l'oggetto non presentava la caratteristica nebulosità delle comete. Ora, occorre ricordare<br />

che già nel Settecento era stata enunciata la cosiddetta legge di Titius-Bode (dal nome di due<br />

astronomi dell'epoca) in base alla quale si potevano ricavare le distanze dei pianeti dal Sole con<br />

semplici calcoli aritmetici. Questa legge era rispettata da tutti i pianeti noti ed era stata<br />

ulteriormente confermata dalla scoperta di Urano. L'unico problema era che sembrava mancare un<br />

pianeta tra Marte e Giove. L'oggetto osservato da Piazzi e da lui chiamato Cerere aveva appunto<br />

una distanza dal Sole che corrispondeva a quella del pianeta mancante secondo la legge di Titius-<br />

Bode.<br />

Nel marzo 1802, Heinrich Wilhelm Mathias Olbers (1758-1840) scoprì un altro oggetto, da lui<br />

chiamato Pallade, che era distante dal Sole più o meno quanto Cerere. Immediatamente enunciò la<br />

sua ipotesi: dato che le dimensioni di questi due nuovi pianeti erano molto piccole (Cerere aveva un<br />

diametro di 261 km e Pallade di 237 km), Olbers suppose che si era in presenza di due pezzi del<br />

26


pianeta "mancante" che, a differenza degli altri, era andato in frantumi. Il secolo cominciò quindi<br />

con la scoperta degli asteroidi.<br />

Il secondo grande successo dell'astronomia di posizione fu il metodo di calcolo delle distanze<br />

stellari messo a punto dall'astronomo tedesco Friedrich Wilhelm Bessel (1784-1846). I vecchi<br />

metodi non potevano che utilizzare la cosiddetta parallasse annua, ossia lo spostamento apparente<br />

di una stella dovuto al moto della Terra sulla sua orbita intorno al Sole: una stella più vicina doveva<br />

spostarsi di più di una stella più lontana, avendo come sistema di riferimento lo sfondo delle stelle<br />

più lontane che rimanevano comunque ferme. Bessel decise invece di basarsi sul moto proprio di<br />

alcune stelle. Osservandole per tempi abbastanza lunghi (in genere, per anni) si vedeva che esse si<br />

spostavano, anche se di poco. Si poteva allora risalire alla loro distanza in base al fatto che una<br />

stella più lontana compie, nello stesso periodo di tempo, uno spostamento minore di una stella più<br />

vicina.<br />

La terza grande scoperta fu il risultato del paziente lavoro di osservazione dell'astronomo inglese<br />

George Biddel Airy (1801-1892), il quale aveva notato alcune anomalie nel moto del pianeta Urano.<br />

Effettivamente, le ripetute osservazioni sul moto del pianeta non si accordavano assolutamente con<br />

quanto previsto dalla teoria di Newton. Che fare? Si poteva forse abbandonare la prestigiosa teoria?<br />

L'unica possibilità era che tra Saturno e Urano, in contraddizione con la legge di Titius-Bode, ci<br />

fosse un altro pianeta, fino allora non osservato. Si trattava però di trovarlo, e non si poteva certo<br />

sperare di farlo puntando a caso il telescopio. Indipendentemente l'uno dall'altro, l'inglese John<br />

Couch Adams (1819-1892) e il francese Urbain-Jean-Joseph Le Verrier (1811-1877), avendo<br />

assunto l'esatta validità della legge di Newton, cominciarono una serie complicatissima di calcoli<br />

per dedurre dalle anomalie del moto di Urano dove potesse trovarsi il pianeta che perturbava la sua<br />

orbita. Fu il tedesco Johann Gottfried Galle (1812-1910) a puntare per primo il telescopio nella<br />

direzione prevista e a vedere... Nettuno! Si celebrava così il trionfo della meccanica newtoniana.<br />

LA SCOPERTA DEL MONDO MICROSCOPICO<br />

GLI ATOMI: REALTÀ O INVENZIONI DELLA MENTE?<br />

L'idea che la materia non sia suddivisibile all'infinito e che ci siano dei "pezzettini" di materia che<br />

non si possono più "tagliare in due" era, come sappiamo, antichissima. Ma questi "atomi", essendo<br />

troppo piccoli, non erano sicuramente percepibili direttamente dall'uomo. Quella dell'esistenza degli<br />

atomi restava quindi un'ipotesi teorica. Nella seconda metà dell'Ottocento questa ipotesi cominciò a<br />

essere criticata. Ci si chiedeva: è un'ipotesi realmente utile?<br />

Le obiezioni alle teorie atomistiche erano essenzialmente di tre tipi:<br />

- un'obiezione teorica: può darsi che l'idea di una materia continua, ossia suddivisibile all'infinito,<br />

sia più efficace dell'idea di una materia discreta, ossia composta di particelle di dimensioni piccole<br />

ma finite; oltretutto, l'idea di continuità è implicita nell'uso e nell'applicazione alla fisica del calcolo<br />

differenziale, che invece si trova in difficoltà di fronte all'ipotesi atomistica (non a caso i principali<br />

avversari all'atomismo si trovavano nel campo dei fisici matematici). Inoltre l'etere, affinché la<br />

radiazione luminosa vi si possa propagare senza disperdersi, deve essere una materia continua;<br />

- un'obiezione filosofica: la fisica deve occuparsi dei fenomeni osservabili e non di entità<br />

inosservabili in linea di principio;<br />

- un'obiezione metodologica, che univa le due precedenti: in fondo le teorie fisiche non sono altro<br />

che sistemi di equazioni matematiche che "descrivono" e "coordinano" insiemi di fenomeni,<br />

riconducendoli a pochi princìpi fondamentali; i modelli microscopici possono forse essere utili per<br />

trovare queste equazioni, ma poi devono essere abbandonati; l'idea che tali modelli rappresentino<br />

alcunché di reale che si "nasconde sotto" i fenomeni osservabili è un'idea metafisica, tanto più che<br />

questa realtà viene rappresentata sempre in forma di una struttura meccanica e non si vede perché la<br />

vera natura del mondo debba essere necessariamente meccanica.<br />

27


Queste obiezioni appaiono ragionevoli; ma, come vedremo, esse furono superate dagli eventi,<br />

perché la fisica andava scoprendo livelli di realtà microscopica che prima erano del tutto<br />

inconcepibili, con il corollario che questi livelli avevano una natura corpuscolare e non potevano<br />

essere rappresentati in una concezione continua della materia.<br />

LA TEORIA CINETICA DEL CALORE<br />

E' un fatto che i fisici della seconda metà dell'Ottocento cercavano di interpretare attraverso la<br />

meccanica classica la struttura e il comportamento dei vari enti che andavano scoprendo. Maxwell<br />

ed Hertz, per esempio, immaginavano l'etere elettromagnetico come una strana sostanza meccanica,<br />

probabilmente fatta di materia continua, in cui si propagavano le forze elettriche, le forze<br />

magnetiche e le oscillazioni elettromagnetiche. D'altra parte il calore poteva essere concepito come<br />

agitazione termica delle molecole dei corpi, e quindi la temperatura misurava l'energia cinetica di<br />

tale agitazione.<br />

Furono Clausius e Maxwell a cominciare a studiare sistematicamente «quella specie di movimento<br />

che chiamiamo calore», cercando di costruire modelli del tipo di sostanza più semplice, ossia dei<br />

gas perfetti. Anche in questo caso il modello era meccanico: le molecole dei gas erano delle palline<br />

che urtavano elasticamente tra loro e con le pareti del recipiente in cui il gas era contenuto. Con<br />

questo modello si riusciva, per esempio a ricavare l"equazione di stato dei gas perfetti, la nota legge<br />

pV = nRT, non appena si "interpretava" la pressione p come effetto degli urti delle molecole con le<br />

pareti del recipiente e la temperatura T come espressione dell'energia cinetica media delle molecole<br />

stesse.<br />

Maxwell, in particolare, dimostrò, che le molecole di un gas a temperatura uniforme non hanno<br />

tutte la stessa velocità, ma che alcune di esse vanno più lente, altre sono più veloci e, in generale, le<br />

loro velocità si distribuiscono in maniera casuale tra le diverse molecole. Egli comprese in sostanza<br />

che un modello atomistico di un corpo macroscopico, dovendo avere a che fare con un numero<br />

enorme di molecole, non poteva descrivere il comportamento delle molecole una per una, ma<br />

poteva solo parlare di ciò che avveniva in media, doveva cioè servirsi di ipotesi statistiche.<br />

La nascita della meccanica statistica<br />

Questo metodo divenne straordinariamente efficace quando fu utilizzato dallo scienziato austriaco<br />

Ludwig Boltzmann (1844-1906), forse il più grande fisico teorico del secolo scorso. Il problema che<br />

Boltzmann decise di affrontare era decisamente arduo: è possibile trovare una descrizione<br />

meccanico-atomistica di un sistema fisico macroscopico che consenta di spiegare la seconda legge<br />

della termodinamica, ossia la tendenza irreversibile del sistema a raggiungere una situazione di<br />

equilibrio che pone fine a ogni ulteriore possibilità di evoluzione?<br />

Il metodo di Boltzmann fu essenzialmente statistico, data l'impossibilità di descrivere l'evoluzione<br />

del sistema molecola per molecola. Naturalmente, la sua teoria faceva riferimento a un gas perfetto.<br />

La descrizione dello stato macroscopico del gas era quella offerta dalla termodinamica in termini di<br />

temperatura e pressione e delle grandezze da esse ricavabili, ossia l'energia e l'entropia. La sua<br />

ipotesi era che a ogni stato macroscopico corrispondesse una determinata funzione di distribuzione<br />

delle velocità delle molecole (ossia una specie di tabella di numeri in cui si dice quante molecole<br />

hanno una certa velocità, quante un'altra, e così via, col vincolo che l'energia totale del gas deve<br />

essere quella nota).<br />

Ora, il primo problema da affrontare era quello di trovare il modo in cui una funzione di<br />

distribuzione variava nel corso del tempo in seguito all'urto delle molecole tra di loro e con le pareti<br />

del recipiente. In pratica Boltzmann trovò che il solo meccanismo degli urti faceva sì che una<br />

qualsiasi funzione di distribuzione iniziale tendesse a stabilizzarsi nella funzione di distribuzione<br />

trovata da Maxwell che era caratteristica della situazione di equilibrio. Il gas aveva quel<br />

comportamento unidirezionale previsto dalla seconda legge della termodinamica. Non solo: poteva<br />

28


essere definita una grandezza, che dipendeva dalla funzione di distribuzione, che poteva solo<br />

aumentare nel tempo, raggiungendo il valore massimo possibile quando il sistema era all'equilibrio.<br />

Questa grandezza aveva dunque il comportamento che si sapeva doveva avere la grandezza<br />

entropia.<br />

Tuttavia Boltzmann si rese subito conto che una cosa era studiare l'evoluzione di una funzione di<br />

distribuzione, alla quale corrispondeva un numero molto grande di stati microscopici (ossia gli stati<br />

definiti esattamente dalle posizioni e dalle velocità di ogni singola molecola), una cosa era seguire<br />

l'evoluzione di un singolo stato microscopico. Nello stesso tempo, le ipotesi sulle modalità di<br />

collisione tra le molecole non erano ipotesi puramente meccaniche, ma assumevano una certa<br />

casualità del moto delle molecole che era del tutto in contrasto con la visione classica<br />

deterministica.<br />

A queste difficoltà si rifecero i suoi oppositori e, tra questi, soprattutto i fisici contrari all'ipotesi<br />

atomica. La replica di Boltzmann segnò una svolta nel modo di affrontare questi problemi e di<br />

interpretare il significato della seconda legge della termodinamica. Per Boltzmann il problema non<br />

era tanto seguire l'evoluzione del singolo stato microscopico, quanto riuscire a calcolare quanti stati<br />

microscopici corrispondessero allo stesso stato macroscopico. Se si poteva dimostrare che, tra tutti<br />

gli stati microscopici in cui il sistema poteva trovarsi istante per istante, quelli corrispondenti allo<br />

stato macroscopico di equilibrio (chiamiamoli "di tipo A") erano di gran lunga più numerosi degli<br />

altri (chiamiamoli "di tipo B"), allora il problema era risolto. Infatti il sistema avrebbe occupato,<br />

con grande probabilità, uno degli stati di tipo A e, comunque, partendo da uno stato di tipo B,<br />

sarebbe con grande probabilità finito in uno stato di tipo A. La proposta di Boltzmann fu appunto di<br />

considerare l'entropia una misura della probabilità dello stato macroscopico e quindi di leggere la<br />

seconda legge della termodinamica come tendenza di un sistema a passare spontaneamente da stati<br />

di minore probabilità a stati di maggiore probabilità.<br />

Era evidente che tutto il discorso di Boltzmann si basava sull'ipotesi atomica, e per questo incontrò<br />

notevoli opposizioni. In particolare, alcuni fisici consideravano insoddisfacente il fatto che quella<br />

all'aumento di entropia fosse una tendenza solo probabile (anche se enormemente probabile) e non<br />

certa. In particolare, secondo Boltzmann, possono avvenire fluttuazioni casuali, in seguito alle quali<br />

l'entropia può anche diminuire, sia pure localmente e per un tempo limitato. E nulla esclude che il<br />

"nostro" universo, che appare abbastanza ordinato da permettere la vita, non sia che l'effetto di una<br />

fluttuazione casuale da un originario stato caotico e disordinato.<br />

LA TEORIA DEGLI ELETTRONI E IL PROBLEMA DEL MOVIMENTO<br />

DELL'ETERE<br />

Uno dei problemi che né Maxwell né Hertz erano riusciti a risolvere era quello della natura della<br />

carica e della corrente elettrica. Le ricerche elettromagnetiche si basavano sugli effetti di queste<br />

grandezze, in genere effetti meccanici, e la teoria del campo elettromagnetico sembrava poter<br />

ricondurre questi effetti a qualcosa che avveniva nell'etere e non all'interno dei corpi carichi o dei<br />

conduttori. D'altra parte, le ricerche elettrochimiche avevano messo in luce che i fenomeni erano<br />

interpretabili anche (ma non solo) con l'ipotesi che l'elettricità avesse una struttura atomica, ossia<br />

che la carica elettrica di un corpo fosse sempre un multiplo di una unità "naturale".<br />

Fu il fisico teorico olandese Hendrik Antoon Lorentz (1853-1928) a suggerire un'ipotesi<br />

straordinariamente anticipatrice. Colpito dalla teoria elettromagnetica della luce, egli cominciò a<br />

studiare i fenomeni di propagazione della luce nei vari materiali trasparenti dal punto di vista di<br />

questa teoria. In tal modo arrivò a un'interpretazione semplice delle varie relazioni sperimentali,<br />

assumendo che nei corpi trasparenti, ossia nei materiali dielettrici, vi fossero microscopiche cariche<br />

oscillanti, ossia legate a posizioni di equilibrio; le stesse cariche che erano invece libere di muoversi<br />

nei conduttori. Queste cariche erano da considerarsi come le sorgenti del campo elettromagnetico.<br />

Esse "eccitavano" l'etere, il quale a sua volta retroagiva su di esse, interagendo quindi solo<br />

indirettamente con i corpi materiali. Per spiegare il magnetismo si poteva tornare, infatti, alla<br />

vecchia ipotesi di Ampère che esso fosse il prodotto del movimento delle cariche elettriche. Non<br />

29


solo, ma il fenomeno delle righe spettrali (ossia il fatto che i gas emettessero luce con una serie di<br />

frequenze ben definite) poteva essere spiegato assumendo che le radiazioni delle varie frequenze<br />

fossero il prodotto delle oscillazioni delle piccole cariche che si trovavano all'interno dei loro atomi.<br />

A favore di quella che fu in seguito chiamata teoria degli elettroni c'era anche l'evidenza<br />

sperimentale derivante dallo studio dei fenomeni ottici, in cui si verificava un moto relativo tra<br />

sorgente della luce e mezzo in cui la luce si propagava. Uno dei problemi era se un corpo<br />

trasparente in moto trascinasse con sé o meno l'etere in esso contenuto. La risposta a questo<br />

problema era già stata data da Augustin Fresnel all'inizio del secolo: se c'era trascinamento, questo<br />

poteva essere al massimo parziale. Ora, Lorentz riprese la questione e dimostrò che con la sua<br />

ipotesi il problema era brillantemente risolto. In realtà i corpi in moto attraverso l'etere non<br />

interagivano minimamente con esso: la materia ordinaria era completamente permeabile all'etere.<br />

Questo significava due cose: a) che l'etere rimaneva in ogni caso perfettamente immobile e quindi<br />

la velocità della luce era del tutto indipendente dal moto della sorgente, b) che tra materia ordinaria<br />

ed etere non avveniva alcuna forma di interazione meccanica (l'etere non opponeva alcuna<br />

resistenza al moto della materia) con la conseguenza che probabilmente l'etere era una sostanza di<br />

natura non meccanica.<br />

Queste idee, puramente teoriche, furono esposte sistematicamente nel 1892: ancora pochi anni e<br />

avrebbero avuto una straordinaria conferma sperimentale.<br />

LE NUOVE FORME DI RADIAZIONE<br />

I raggi catodici<br />

La conferma della teoria di Lorentz derivò da un acceso dibattito che si svolse nell'ultimo decennio<br />

del secolo e che coinvolse fisici teorici e sperimentali che si erano occupati di un fenomeno<br />

collaterale a quelli che abbiamo discusso: la scarica nei gas.<br />

L'uso sistematico delle pompe per vuoto aveva reso possibile indagare la natura della scarica che si<br />

verificava in un gas una volta che una differenza di potenziale sufficiente veniva prodotta tra il<br />

catodo (l'elettrodo negativo) e l'anodo (l'elettrodo positivo). I fenomeni osservati apparivano strani e<br />

pittoreschi. Si vedevano bande luminose alternarsi a spazi scuri, e queste configurazioni variavano<br />

con la pressione del gas. Ma un fenomeno particolarmente strano si produceva allorché la pressione<br />

del gas diventava molto bassa: la scarica nel gas cessava di essere luminosa, ma una debole<br />

luminosità verdastra (come quella degli oggetti fosforescenti) si produceva - all'interno del tubo -<br />

nella parte opposta al catodo. Lo studio di questo fenomeno portò, già tra il 1870 e il 1880, a<br />

ritenere che il catodo emettesse una nuova forma di radiazione che, quando urtava il vetro del tubo<br />

a scarica, produceva effetti di fluorescenza. Erano stati scoperti i raggi catodici (quelli che usiamo<br />

oggi normalmente negli apparecchi televisivi).<br />

Si apriva una delicata questione: di che natura erano questi raggi?<br />

Cominciò così una lunga controversia tra i fisici inglesi e i fisici tedeschi. L'inglese William<br />

Crookes (1832-1919) iniziò una serie sistematica di osservazioni in base alle quali si poteva<br />

supporre che i raggi catodici avessero una natura corpuscolare e fossero composti di una materia<br />

molto "sottile", addirittura più fine di quella degli stessi gas. Il tedesco Philip Lenard (1862-1947),<br />

influenzato da Hertz, il quale non credeva nella natura corpuscolare dell'elettricità, sosteneva che<br />

invece si trattava di una nuova forma di radiazione, diversa da quella luminosa, che si propagava<br />

nell'etere. Inconsapevolmente, Lenard favorì un'altra scoperta importante. Volendo dimostrare che i<br />

raggi catodici potevano oltrepassare sottili lamine metalliche (e quindi non potevano essere<br />

"materiali"), si accorse che effettivamente una lamina metallica investita da raggi catodici emetteva<br />

una strana forma di radiazione, che egli ritenne essere costituita da raggi catodici "secondari". Fu<br />

però il collega Wilhelm Konrad Röntgen (1845-1923) a dimostrare che questa radiazione era di tipo<br />

particolare, con proprietà diverse dai raggi catodici, una delle quali era estremamente affascinante:<br />

era in grado di attraversare anche notevoli spessori di materia. Röntgen aveva scoperto i raggi X.<br />

30


Fu l'inglese Joseph John Thomson (1856-1940) a risolvere la questione. Egli dimostrò che i raggi<br />

catodici trasportavano carica elettrica negativa e che venivano deflessi da campi elettrici e/o<br />

magnetici. Non si trattava di radiazione eterea, ma di vere e proprie particelle cariche. E Thomson<br />

giunse nel 1896 a misurare il rapporto tra la carica elettrica e la massa di questi corpuscoli, rapporto<br />

che mostrava come questi fossero circa duemila volte meno pesanti di un atomo di idrogeno.<br />

Thomson concluse di aver trovato lo stato più elementare della materia, le particelle più piccole che<br />

la possono comporre. Gli elettroni di Lorentz erano stati rivelati sperimentalmente.<br />

La scoperta della radioattività<br />

Ma le scoperte riguardanti il mondo microscopico non finivano qui. Pochi mesi dopo la scoperta di<br />

Röntgen, Henri Becquerel (1852-1908) osservò le radiazioni emesse da composti dell'uranio. Marie<br />

Curie (1867-1934) e suo marito Pierre Curie (1859-1906) individuarono poco dopo altri elementi<br />

che emettevano forme di radiazione simili, il polonio e il radio (da cui il nome "radioattività"). Le<br />

ricerche proseguivano intensamente nei vari laboratori europei. Fu Ernest Rutherford (1871-1937) a<br />

dimostrare nel 1899 che la radiazione di Becquerel era in realtà composita: ne facevano parte i<br />

raggi a, che venivano facilmente assorbiti anche da spessori piccoli di materia, e i raggi b, che<br />

risultavano molto più penetranti. Poco dopo si scoprì anche la terza componente, i raggi g, che<br />

apparivano estremamente penetranti.<br />

Solo nei primi anni del Novecento divenne chiaro che:<br />

- i raggi a erano particelle relativamente pesanti (la loro massa era circa quattro volte quella<br />

dell'atomo di idrogeno) e con una carica positiva pari al doppio della carica "elementare" dell'atomo<br />

di idrogeno ionizzato (la stessa carica di un elettrone, ma di segno opposto);<br />

- i raggi b erano della stessa natura dei raggi catodici, ossia erano costituiti da elettroni;<br />

- i raggi g erano invece radiazioni neutre straordinariamente penetranti, la cui natura, come del resto<br />

quella dei raggi X, era ancora poco nota, anche se in entrambi i casi l'ipotesi più accreditata era che<br />

fossero forme di propagazione nell'etere, analoghe a quella luminosa e ultravioletta; solo più tardi,<br />

dopo il 1910, si verificò che tali radiazioni avevano una natura ondulatoria e che potevano essere<br />

considerate come radiazioni elettromagnetiche di lunghezza d'onda estremamente piccola.<br />

La continua scoperta di nuove forme di radiazione e gli ambìti riconoscimenti che essa comportava<br />

scatenarono una rincorsa all'annuncio, da parte di sperimentatori in buona o cattiva fede,<br />

dell'identificazione di straordinarie forme di radiazione. Fu così annunciata la scoperta dei raggi N,<br />

della luce nera, e via discorrendo. Lo scienziato sperimentale fin de siècle sperava di raggiungere la<br />

celebrità identificando una nuova forma di radiazione. Con la conseguenza che talvolta<br />

sperimentatori più abili dovevano recarsi di persona a controllare i dati clamorosamente annunciati<br />

da loro colleghi e svelarne gli errori o, peggio, i trucchi.<br />

I PRIMI MODELLI ATOMICI E LA SCOPERTA DEL NUCLEO<br />

La scoperta dell'elettrone indusse quasi subito a pensare che gli atomi materiali fossero strutture<br />

complesse, tanto più che, essendo l'elettrone di carica negativa, nell'atomo doveva esserci una<br />

controparte positiva, in modo da rendere neutro l'atomo stesso. D'altra parte, era molto difficile<br />

costruire un modello di un sistema di cariche positive e negative che fosse sufficientemente stabile,<br />

ossia che non esplodesse o collassasse spontaneamente, e che spiegasse i fenomeni noti di origine<br />

atomica. Per tutto il primo decennio del Novecento si fronteggiarono essenzialmente due modelli. Il<br />

primo assimilava l'atomo a un sistema planetario, con una carica positiva centrale concentrata e gli<br />

elettroni orbitanti attorno a essa. Il secondo immaginava che gli elettroni ruotassero lungo anelli<br />

concentrici all'interno di una sfera diffusa di carica positiva.<br />

Questo secondo modello fu sostenuto con dovizia di argomentazioni da Joseph John Thomson. Ma<br />

fu Rutherford a dimostrare che il primo era da preferire. In una serie di esperimenti, iniziati sin dai<br />

primi anni del Novecento, e rivolti principalmente a determinare con chiarezza la natura delle<br />

31


adiazioni a, b e g, Rutherford cominciò a raccogliere elementi a favore dell'ipotesi planetaria. Le<br />

esperienze decisive furono effettuate tra il 1908 e il 1911 nel suo laboratorio. Rutherford e<br />

collaboratori, infatti, riuscirono a osservare che le particelle a, se fatte urtare con velocità elevata su<br />

lamine metalliche sottili, subivano grandi deviazioni e talvolta venivano riflesse all'indietro. L'unico<br />

modo di spiegare il fenomeno era di pensare che esse fossero "respinte" da cariche positive molto<br />

concentrate, che non potevano essere le sfere diffuse di Thomson. L'atomo doveva cioè avere un<br />

nucleo positivo molto piccolo rispetto alle sue dimensioni complessive.<br />

LA CONFERMA DELL'ESISTENZA DEGLI ATOMI: LE ESPERIENZE SUL<br />

MOTO BROWNIANO<br />

Tutte le scoperte di cui abbiamo parlato avrebbero deciso il destino della fisica nel nostro secolo. Il<br />

campo principale di indagine sarebbe stato la struttura elementare della materia e le leggi che<br />

regolano il comportamento delle particelle elementari. Ma le ultime resistenze dei fisici che non<br />

volevano credere all'esistenza degli atomi, perché coltivavano l'ideale di una fisica<br />

"fenomenologica", ossia che si limitasse alla descrizione di ciò che veniva osservato direttamente<br />

senza speculazioni ipotetiche, o perché preferivano pensare che la materia fosse continua, furono<br />

spazzate via in un altro settore di indagine.<br />

Fu infatti il fisico francese Jean-Baptiste Perrin (1870-1942) a concentrare la sua attenzione su un<br />

fenomeno osservato già nel 1827 dal botanico Robert Brown (1773-1858), il quale aveva notato<br />

come minuscoli grani di polline, osservabili solo al microscopio, sospesi in un liquido, effettuavano<br />

una strana "danza", indipendentemente dal fatto che fossero vivi o morti. Perrin, ebbe l'intuizione<br />

che questo movimento, chiamato appunto "moto browniano", fosse d'importanza decisiva per<br />

dimostrare la teoria cinetica del calore, ossia per mettere in evidenza il fatto che le molecole della<br />

materia sono animate da un moto di agitazione continuo, che si arresta solo allo zero assoluto.<br />

Con una serie estremamente brillante di esperimenti e grazie all'uso dell'ultramicroscopio, egli<br />

dimostrò al di là di ogni ragionevole dubbio che i movimenti dei granuli di polline, e anche di altre<br />

particelle sospese in un liquido, erano proprio del tipo che ci si sarebbe dovuto aspettare se si<br />

supponeva che fossero l'effetto degli urti delle molecole del liquido, allorché le fluttuazioni previste<br />

da Boltzmann facevano sì che parecchie molecole, invece di muoversi in maniera del tutto caotica,<br />

si muovessero contemporaneamente nella stessa direzione. L'atomo diveniva così una certezza della<br />

fisica.<br />

LA NASCITA DELL'ASTRO<strong>FISICA</strong><br />

Abbiamo detto dei successi dell'astronomia di posizione, ossia dell'astronomia che non si<br />

interessava della natura fisica e dell'evoluzione degli oggetti individuati nel cielo. Ma lo<br />

straordinario potenziamento dei mezzi di osservazione avrebbe presto mutato la situazione. Fu<br />

William Parsons, terzo conte di Rosse (1800-1867) a realizzare un enorme telescopio a riflessione e<br />

a scoprire, intorno alla metà del secolo, che alcune nebulose avevano una struttura a spirale.<br />

A questo punto il problema della natura delle nebulose tornò di grande attualità. Alcune, infatti,<br />

avevano una configurazione stabile, altre erano soggette a sensibili mutamenti. Erano quindi enormi<br />

sistemi di stelle - vere e proprie "isole di universo" - come la Via Lattea? Oppure erano nubi<br />

costituite da gas, capaci di emettere luce, e che magari stavano "dentro" la Via Lattea? Il problema<br />

sarebbe stato risolto solo all'inizio del nostro secolo.<br />

L'affinamento delle tecniche di osservazione degli spettri emessi dai corpi incandescenti e delle<br />

tecniche di ripresa fotografica fece invece concentrare l'attenzione sul Sole e, quindi, sulle altre<br />

stelle. Già Joseph von Fraunhofer (1787-1826) aveva mostrato che il Sole e altre stelle presentano<br />

nel loro spettro alcune righe scure. Quando l'analisi spettrale divenne di uso comune in fisica e in<br />

chimica, non solo fu chiaro che tali righe corrispondevano a frequenze della radiazione emessa dal<br />

32


Sole che venivano assorbite dalla stessa atmosfera solare, ma fu anche possibile identificare gli<br />

elementi chimici presenti in tale atmosfera (cromosfera).<br />

Iniziava così lo studio della natura fisica e della composizione chimica del Sole e delle stelle. Sulla<br />

base del colore più intenso nella loro emissione spettrale, padre Angelo Secchi (1818-1878) propose<br />

nel 1866 una distinzione delle stelle in tre classi: "bianche", "gialle" e "rosse". Nello stesso tempo,<br />

riprese fotografiche sistematiche mostrarono una periodicità nella formazione di macchie solari a<br />

cui corrispondeva una identica periodicità in fenomeni di magnetismo terrestre. Si cominciarono a<br />

osservare anche le caratteristiche protuberanze che si formavano sulla superficie del Sole, mentre,<br />

nel 1868, fu scoperto nel Sole un elemento chimico sconosciuto, a cui venne dato naturalmente il<br />

nome "elio", e che sarebbe stato trovato sulla Terra solo nel 1895.<br />

Intanto, alcuni fisici cominciarono a domandarsi per quanto tempo il Sole avrebbe potuto<br />

continuare a irradiare enormi quantità di energia. La seconda legge della termodinamica sembrava<br />

imporre un limite a questa produzione di energia, e su questa base Kelvin cominciò a fare le prime<br />

stime dell'età del Sole. E' interessante ricordare che, servendosi di queste stime (del resto<br />

profondamente errate, dato che egli non poteva sapere quale fosse la vera fonte dell'energia solare),<br />

Kelvin credette di trovare una obiezione radicale alla teoria dell'evoluzione delle specie di Darwin,<br />

dato che, secondo lui, il Sole non avrebbe potuto "funzionare" da più di qualche centinaio di<br />

migliaia di anni.<br />

La natura delle nebulose<br />

Il problema della natura delle nebulose animava il dibattito astronomico. Fu William Huggins<br />

(1824-1910) a scoprire nel 1864 la prima nebulosa planetaria e a rilevare attraverso la spettroscopia<br />

che essa era costituita da un gas incandescente e non da un sistema di stelle (oggi sappiamo che la<br />

nebulosa planetaria è un anello di gas attorno a una stella piccola e molto calda). Questa scoperta<br />

giocò a sfavore dell'ipotesi delle "isole di universo".<br />

Gli osservatorii astronomici, come quello di Greenwich, cominciano dunque verso la fine del secolo<br />

a somigliare sempre più a moderni laboratori di fisica, in cui si svolgevano molteplici attività e in<br />

cui operavano ricercatori professionisti. Tuttavia, in una scienza basata sull'osservazione mediante<br />

strumenti e sull'interpretazione delle immagini da questi ottenute, era un serio problema riuscire a<br />

distinguere ciò che era l'oggetto reale osservato e ciò che invece era un effetto ottico prodotto dallo<br />

strumento. Il caso più noto, in questo senso, fu la "scoperta" dei famosi canali di Marte da parte<br />

dell'astronomo italiano Giovanni V. Schiaparelli (1835-1910), scoperta che avrebbe eccitato tante<br />

fantasie su incontri e invasioni di "extraterrestri".<br />

La controversia sulla natura delle nebulose sarebbe stata risolta solo all'inizio del nostro secolo. Nel<br />

frattempo, era stata collegata al problema dell'evoluzione stellare. L'osservazione di numerosissime<br />

nuove nebulose a spirale contribuì inizialmente a rafforzare la tesi che tali nebulose non fossero<br />

altro che la fase iniziale della formazione di una stella. Del resto, all'inizio del Novecento quasi tutti<br />

gli astronomi erano concordi nell'assumere che tutti gli astri osservabili facessero parte della nostra<br />

galassia. Solo l'enorme potenziamento e la migliore collocazione degli osservatorii avrebbe potuto<br />

risolvere la questione.<br />

Il potenziamento degli osservatori<br />

Questo potenziamento avvenne principalmente negli Stati Uniti grazie alla tenace iniziativa di<br />

astrofisici come Percival Lowell (1855-1916), che tra l'altro previde l'esistenza di un nono pianeta<br />

oltre Urano - ossia Plutone - osservato solo nel 1930, e George Ellery Hale (1868-1938): furono<br />

così costruiti l'osservatorio del monte Wilson, il Lowell Observatory in Arizona e infine<br />

l'osservatorio del monte Palomar, dotato del più grande telescopio a riflessione del mondo.<br />

L'attenzione si concentrò su una nebulosa a spirale, già individuata alla fine dell'Ottocento e<br />

chiamata nebulosa di Andromeda. Un assistente di Lowell, Vesto Melvin Slipher (1875-1969),<br />

33


iuscì a ottenerne quattro lastre fotografiche che rivelavano alcune righe spettrali molto nitide. Il<br />

problema era che tali righe, pur essendo analoghe a quelle emesse dal Sole e da altre nebulose,<br />

erano leggermente spostate rispetto alla posizione che ci si sarebbe aspettati. L'unico modo di<br />

interpretare questo spostamento era quello di pensare che la nebulosa fosse in movimento. E il<br />

calcolo della velocità di spostamento diede un risultato sorprendente: la nebulosa di Andromeda<br />

viaggiava con una velocità di circa 300 km/s! Nel 1914 Slipher aveva calcolato la velocità di altre<br />

15 nebulose a spirale, trovando che la maggior parte di esse stavano allontanandosi dal Sole con<br />

velocità che superavano addirittura i 1000 km/s. Se fossero state "protostelle" interne alla Via<br />

Lattea avrebbero invece dovuto avere una velocità paragonabile a quella delle altre stelle. Fu così<br />

che alcuni cominciarono a pensare che si potesse trattare di altre galassie esterne alla nostra.<br />

La questione fu risolta definitivamente dalle ricerche compiute tra il 1923 e il 1924 da Edwin P.<br />

Hubble (1889-1953). Non solo egli osservò, all'interno della nebulosa di Andromeda, stelle che<br />

presentavano un rapido aumento di splendore e che altrettanto rapidamente tornavano a spegnersi<br />

(le cosiddette "nove"), ma addirittura delle stelle di splendore variabile in modo regolare e<br />

periodico (le cosiddette "cefeidi"). Questa regolarità consentì di misurarne precisamente la distanza,<br />

e Hubble calcolò una distanza di circa 1.000.000 di anni luce. Ora, anche le stime per eccesso del<br />

diametro della Via Lattea non erano mai superiori ai 300.000 anni luce. Quindi Andromeda non<br />

poteva essere che un'altra galassia.<br />

LA CRISI DELLA <strong>FISICA</strong> <strong>CLASSICA</strong><br />

E LA TERZA RIVOLUZIONE SCIENTIFICA<br />

LE CARATTERISTICHE SALIENTI DELLA <strong>FISICA</strong> <strong>CLASSICA</strong><br />

Lo studio della struttura microscopica della materia non aveva scalfito ancora, all'inizio del nuovo<br />

secolo, l'ideale "classico" di spiegazione dei fenomeni fisici. Trovare la legge dei fenomeni, anche<br />

se questa legge riguardava le particelle più elementari, equivaleva ad applicare i princìpi della<br />

meccanica e dell'elettrodinamica, i quali, in ogni caso, permettevano di concepire il moto di queste<br />

particelle come moto in cui un corpo esattamente identificabile segue una traiettoria ben definita<br />

nello spazio e nel tempo. In questo senso gli oggetti della fisica classica assomigliano ancora ai<br />

pianeti e sono schematizzabili come punti materiali che si muovono sotto l'azione di campi di forze.<br />

Accanto ai "corpuscoli" elementari (gli elettroni, le particelle a, ecc.) vi sono le radiazioni che,<br />

come la luce, si propagano sotto forma di onde. In ogni caso, il moto di questi "oggetti" elementari<br />

è esattamente determinato dalle loro condizioni iniziali: nota la legge, possiamo prevedere con<br />

esattezza la traiettoria futura del corpo e possiamo in un certo senso "immaginarcela" come<br />

spostamento di qualcosa nello spazio e nel tempo.<br />

Se intervengono considerazioni probabilistiche, come nel caso della meccanica statistica, o nel caso<br />

dei fenomeni di disintegrazione radioattiva, si può pensare che esse siano una scorciatoia per<br />

trattare sistemi troppo complessi o che siano il riflesso dell'ignoranza delle circostanze dettagliate in<br />

cui si produce il fenomeno. Come la fisica aristotelica e quella cartesiana aborrivano il vuoto, così<br />

la fisica classica nel suo complesso aborrisce il caso: non si può ammettere l'esistenza di fenomeni<br />

che sfuggano a ogni legge e siano intrinsecamente casuali.<br />

Inoltre, dire che ogni oggetto segue una traiettoria ben determinata nello spazio vuol dire anche che<br />

si può considerare il tempo come un parametro indipendente: esiste un tempo assoluto, che scorre<br />

in maniera uniforme, rispetto al quale si misura l'evoluzione di qualsiasi sistema.<br />

Quella che chiamiamo "terza rivoluzione scientifica" è appunto l'effetto della "crisi" dell'insieme di<br />

queste tradizionali certezze.<br />

IL PROBLEMA DELL'ELETTRODINAMICA DEI CORPI IN MOVIMENTO<br />

34


La teoria degli elettroni di Lorentz nacque anche come risposta al problema del moto relativo tra<br />

materia ed etere. Lorentz postulava che l'etere venisse attraversato dai corpi materiali in moto senza<br />

essere in alcun modo trascinato da essi. Ne derivava che l'etere nel suo complesso restava sempre<br />

immobile: in pratica il sistema di riferimento in quiete rispetto all'etere era un sistema di riferimento<br />

privilegiato, ossia quello che identificava lo spazio assoluto di newtoniana memoria.<br />

L'unica forma di movimento dell'etere erano le onde che si propagavano in esso, e in particolare la<br />

radiazione elettromagnetica. Queste onde avevano una velocità fissa e costante - il cui valore<br />

dipendeva dalle proprietà dell'etere stesso - solo nel sistema di riferimento in cui l'etere era in<br />

quiete, mentre in un sistema in moto rispetto all'etere si sarebbero dovute osservare piccole<br />

variazioni della velocità. Ora un sistema di riferimento sicuramente in moto rispetto all'etere era<br />

proprio quello dei nostri laboratori terrestri, dato che la Terra effettuava continuamente un moto di<br />

rotazione attorno al proprio asse e di rivoluzione intorno al Sole. Si sarebbero dovuti quindi<br />

osservare gli effetti del moto della Terra sulla velocità della luce.<br />

Bisogna però tener conto del fatto che la teoria di Lorentz rendeva difficili queste osservazioni: da<br />

essa discendeva, infatti, che gli effetti del moto della Terra (e di qualsiasi altro corpo animato da<br />

velocità v rispetto all'etere) erano difficilmente osservabili in quanto proporzionali al quadrato del<br />

rapporto v/c, dove c è la velocità della luce che, come sappiamo, è un numero molto grande.<br />

Tuttavia, un abile sperimentatore americano, Albert Abraham Michelson (1852-1931), aveva<br />

escogitato già nel 1882 un apparato in grado di rivelare anche questi effetti. Quindi il problema era<br />

ancora quello di stabilire se la Terra trascinasse con sé l'etere o se l'etere restasse sempre immobile.<br />

I risultati dell'esperimento di Michelson, più volte ripetuto con apparati sempre più precisi e<br />

perfezionati, mostravano comunque che non era possibile rivelare alcun moto relativo tra Terra ed<br />

etere, ed erano quindi a favore della prima ipotesi.<br />

Lorentz naturalmente non poteva accettare questa conclusione e la ricerca di una soluzione al<br />

problema fu al centro dei suoi interessi dal 1892 in poi, ossia da quando aveva formulato la teoria<br />

degli elettroni. L'unica via d'uscita che egli riuscì a individuare fu che proprio il moto attraverso<br />

l'etere producesse sui corpi materiali quegli effetti (per esempio la contrazione della loro lunghezza<br />

nella direzione del moto) che impedivano di rivelarlo sperimentalmente. Era una strana<br />

conclusione: c'era qualcosa che avveniva ma che non poteva essere osservato sperimentalmente in<br />

nessun caso. Di fatto era come se nel passaggio dal sistema di riferimento dell'etere al sistema di<br />

riferimento del laboratorio valessero particolari trasformazioni di coordinate (dette poi<br />

trasformazioni di Lorentz) che riflettevano appunto l'azione dell'etere sui corpi in moto.<br />

Queste conclusioni erano inaccettabili per un giovane fisico, Albert Einstein (1879-1955), che<br />

lavorava presso l'ufficio brevetti di Berna. Egli aveva forti dubbi sull'esistenza stessa dell'etere,<br />

anche perché le ricerche che aveva effettuato sui fenomeni di emissione e assorbimento della luce<br />

da parte della materia lo avevano convinto che la luce dovesse avere una natura corpuscolare,<br />

proprio come pensava Newton. Nello stesso tempo era convinto che il principio di relatività (ossia<br />

l'impossibilità di individuare un sistema di riferimento in quiete assoluta e la conseguente<br />

equivalenza di tutti i sistemi di riferimento in moto rettilineo e uniforme l'uno rispetto all'altro)<br />

avesse una validità fondamentale.<br />

La scoperta della relatività speciale<br />

Einstein quindi si pose il problema di conciliare con il principio di relatività la tesi di Lorentz per<br />

cui la velocità della luce è indipendente dalla velocità della sorgente che la emette. L'unico modo di<br />

farlo era quello di rimettere in discussione le vecchie idee di spazio e di tempo. Bisognava ridefinire<br />

in primo luogo il concetto di simultaneità tra eventi distanti tra loro, e poi ridefinire il concetto di<br />

lunghezza di un corpo in movimento rispetto al sistema di riferimento in cui era osservato. In<br />

questo modo si ottenevano proprio le trasformazioni di Lorentz, ma non come effetto fisico del<br />

moto attraverso l'etere, bensì come effetto di una nuova cinematica fondamentale, basata appunto<br />

sulla revisione dei concetti di spazio e di tempo.<br />

35


Le conseguenze della nuova teoria erano assai poco intuitive e, in alcuni casi, sconcertanti. Per<br />

questo essa faticò parecchio ad affermarsi nella comunità dei fisici. Bisognava infatti ammettere:<br />

- che la simultaneità tra due eventi non potesse considerarsi assoluta, ma solo relativa al sistema di<br />

riferimento in cui gli eventi erano osservati;<br />

- che la velocità della luce avesse lo stesso valore in ogni sistema di riferimento (era, cioè, una<br />

costante universale);<br />

- che la durata di un processo compiuto da un sistema in moto rispetto al sistema di riferimento<br />

dell'osservatore del processo fosse più lunga di quella dello stesso processo nel sistema di<br />

riferimento in cui il sistema era in quiete (il fenomeno della dilatazione del tempo);<br />

- che la lunghezza di un corpo in moto rispetto al sistema di riferimento dell'osservatore fosse più<br />

piccola (nella direzione del moto del corpo) di quella dello stesso corpo misurata in un sistema di<br />

riferimento in quiete rispetto a esso (il fenomeno della contrazione delle lunghezze);<br />

- che la massa di un corpo crescesse al crescere della velocità del corpo stesso;<br />

- che nessun corpo e nessuna azione fisica potessero viaggiare con una velocità superiore a quella<br />

della luce.<br />

Da queste premesse, e dal principio di conservazione dell'energia, Einstein derivò un'altra<br />

conseguenza di estrema importanza. La massa di un corpo era equivalente alla sua energia, ossia<br />

poteva convertirsi in energia, e viceversa.<br />

La conseguenza generale era che, come venne messo in evidenza dal matematico lituano Hermann<br />

Minkowsky (1864-1909), lo spazio e il tempo non potevano più essere tenuti separati tra loro: la<br />

variabile temporale non era che la quarta coordinata di un'unica entità, lo spazio-tempo a quattro<br />

dimensioni.<br />

Ma Einstein non era ancora soddisfatto. Il fatto che la sua teoria si limitasse a sistemi di riferimento<br />

inerziali (ossia, in moto rettilineo e uniforme) gli sembrava un limite inaccettabile. Nello stesso<br />

tempo, c'era un fatto che non aveva trovato fino ad allora alcuna spiegazione: la massa inerziale<br />

(quella che offriva resistenza a qualsiasi azione di una forza) era del tutto identica alla massa<br />

gravitazionale (quella che agiva come "sorgente" della forza di gravità). Questo fatto per Einstein<br />

non poteva essere casuale. Se, come segue dalla meccanica, in un sistema accelerato si produce una<br />

forza "apparente", anche la forza gravitazionale potrebbe essere dovuta allo stesso effetto. E ciò è<br />

confermato dal fatto che all'interno di un sistema in caduta libera non si avverte alcuna forza di<br />

gravità: esso è un sistema inerziale a tutti gli effetti.<br />

La soluzione geniale di Einstein fu la seguente: lo spazio-tempo a quattro dimensioni non è uno<br />

spazio euclideo, ma è uno spazio curvo, la cui curvatura si accentua in prossimità dei corpi massivi.<br />

E c'era anche un modo per osservare questa curvatura. Infatti la luce si propaga per definizione in<br />

linea retta. Ora, se lo spazio è curvo, quando la luce passa, per esempio vicino al Sole, essa deve<br />

subire una deviazione. L'occasione per verificare questa ipotesi fu l'eclisse solare del 29 maggio<br />

1919 (soltanto con il Sole eclissato si potevano osservare le stelle dietro di esso). Una spedizione di<br />

astronomi inglesi effettuò le osservazioni e trovò che effettivamente la posizione apparente delle<br />

stelle che si trovavano in quel momento vicino al Sole era spostata rispetto a quella osservata<br />

normalmente. La luce era curvata dal campo gravitazionale del Sole. Einstein divenne così il<br />

simbolo del genio scientifico.<br />

LA QUANTIZZAZIONE DELL'ENERGIA<br />

La fine del secolo XIX aveva visto un'altra scoperta di eccezionale importanza per la fisica del<br />

secolo successivo. Questa scoperta si deve al fisico teorico Max Planck (1858-1947) e segna l'inizio<br />

di una svolta nella descrizione dei fenomeni fisici ancor più radicale di quella prodotta dalla teoria<br />

della relatività. Planck si occupava di termodinamica ed era interessato all'emissione e<br />

assorbimento della radiazione elettromagnetica da parte dei corpi riscaldati a una certa temperatura.<br />

Aumentando la temperatura di un corpo, esso emette radiazione di lunghezza d'onda sempre più<br />

piccola: un termosifone emette radiazione infrarossa non visibile, una stufa comincia a emettere<br />

anche nel campo del visibile e il colore di un metallo arroventato diviene via via più chiaro e<br />

36


intenso a mano a mano che la temperatura aumenta. Dalla luce emessa dal Sole è possibile dedurre<br />

che la sua superficie ha una temperatura di circa 6000 °C. Insomma, a temperature più elevate<br />

corrispondono radiazioni di frequenza più elevata (e quindi di minore lunghezza d'onda).<br />

L'obiettivo di Planck era spiegare questo fenomeno in base all'ipotesi che la radiazione fosse<br />

emessa e assorbita dalle particelle elementari cariche che formavano gli atomi dei corpi. Planck<br />

suppose che, a mano a mano che aumentava la temperatura, l'energia del corpo si trasferisse a<br />

particelle la cui frequenza di oscillazione fosse via via crescente. Ora però, se si ammetteva,<br />

secondo la teoria classica, che ogni particella oscillante potesse muoversi con qualsiasi energia,<br />

indipendentemente dalla sua frequenza di oscillazione, si arrivava a conclusioni del tutto assurde e<br />

contrarie all'evidenza sperimentale. L'unico modo di risolvere la questione era supporre che le<br />

particelle oscillanti potessero assumere solo valori discreti di energia. Se una particella oscillava<br />

con frequenza n, allora la sua energia doveva essere proporzionale a questa frequenza e, nello stesso<br />

tempo, un multiplo intero di un "quanto" elementare di energia, pari al valore di una costante<br />

fondamentale, che Planck designò con la lettera h (da allora chiamata "costante di Planck"),<br />

moltiplicato per la frequenza di oscillazione n. La formula di Planck E = hn segna l'inizio, nel 1900,<br />

della fisica quantistica.<br />

Le conseguenze di questa assunzione erano sconvolgenti. Implicavano infatti che ogni particella<br />

potesse variare la sua energia solo effettuando un "salto" da un valore, poniamo, hn a un valore 2hn,<br />

e via discorrendo. Andava perduta una delle caratteristiche essenziali della descrizione classica,<br />

ossia che le variazioni di energia potessero avvenire in maniera continua.<br />

La teoria della struttura atomica<br />

Quest'idea suscitò interminabili controversie, ma cominciò a trovare feconde applicazioni in diversi<br />

campi della fisica. In particolare ebbe un'applicazione di importanza decisiva nella teoria della<br />

struttura atomica. Fu un giovane fisico teorico danese, Niels Bohr (1885-1962), che si era trasferito<br />

in Inghilterra con una borsa di studio ed era stato nei laboratori di Joseph John Thomson e di<br />

Rutherford, a trovare questa geniale applicazione. Egli era convinto che le eccezionali proprietà di<br />

stabilità degli atomi (se un atomo subiva una perturbazione, per esempio un urto, esso, dopo un<br />

rapidissimo riassestamento, tornava esattamente alla configurazione iniziale) e di regolarità dei<br />

processi che avvenivano al suo interno (un atomo emetteva luce sempre delle stesse frequenze<br />

esattamente definite) non potessero trovare alcuna spiegazione classica. L'idea di Planck gli servì<br />

allora a enunciare una teoria del tutto rivoluzionaria. Gli elettroni che si muovono intorno al nucleo<br />

occupano normalmente stati stazionari che sono stabili per definizione e corrispondono a una<br />

successione di valori discreti della loro energia. Gli elettroni emettono radiazione solo quando<br />

effettuano una transizione da uno stato stazionario a un altro (ossia quando effettuano un salto<br />

quantico). In questo modo il mistero delle righe spettrali trovava un'immediata spiegazione.<br />

La stabilità e regolarità dei processi atomici veniva quindi spiegata da Bohr assumendo che le<br />

variabili dinamiche dell'atomo, l'energia e il momento angolare, non potessero variare con<br />

continuità, ma solo attraverso processi essenzialmente discontinui, che, cioè non si potevano<br />

nemmeno immaginare come processi che si verificavano nello spazio e nel tempo. Per di più, come<br />

gli sviluppi successivi della teoria misero in evidenza, non si poteva più prevedere con esattezza<br />

quale fosse e quando avvenisse una transizione elettronica. Si poteva prevedere teoricamente solo la<br />

probabilità di una transizione: così come i fenomeni di emissione radioattiva, i fenomeni di<br />

emissione e assorbimento della radiazione elettromagnetica sembravano dominati da una casualità<br />

intrinseca. E non solo: la radiazione emessa nella transizione (o "salto") di un elettrone da uno stato<br />

stazionario a un altro (o, come poi si sarebbe detto, da un livello energetico a un altro) non<br />

dipendeva solo dalle condizioni "iniziali" in cui si trovava l'elettrone, ma anche dal suo stato finale,<br />

stato che, come abbiamo detto, non era prevedibile a priori. Come Bohr stesso avrebbe commentato<br />

in seguito, l'idea atomistica non riguardava più soltanto la limitata divisibilità della materia, ma si<br />

estendeva anche alla concezione dei processi fisici elementari. Era questo il significato<br />

rivoluzionario della scoperta di Planck.<br />

37


IL DILEMMA ONDA-CORPUSCOLO<br />

Nello stesso anno in cui pubblicava il fondamentale articolo sulla teoria della relatività, Albert<br />

Einstein ne pubblicava anche un altro in cui era contenuta un'ipotesi singolare: la luce deve avere<br />

una struttura corpuscolare. Sarebbero passati vent'anni prima che i fisici cominciassero a prendere<br />

sul serio questa "stravagante" ipotesi. I fenomeni di diffrazione e interferenza, infatti, non potevano<br />

essere compresi se non alla luce della concezione ondulatoria. Ma qualche motivo, teorico e<br />

sperimentale, Einstein ce l'aveva.<br />

Dal punto di vista teorico, l'ipotesi dei quanti di luce (come venne in seguito chiamata l'ipotesi della<br />

natura corpuscolare della radiazione) spiegava abbastanza bene la legge del corpo nero su cui aveva<br />

indagato Planck: essa offriva in un certo senso un modello intuitivo per capire come mai l'energia<br />

potesse variare solo per quantità discrete. Dal punto di vista sperimentale, essa spiegava bene<br />

l'andamento di un fenomeno problematico, scoperto negli anni Ottanta del XIX secolo ma non<br />

ancora chiarito: l'effetto fotoelettrico.<br />

Accadeva che un corpo illuminato dalla radiazione luminosa emettesse spontaneamente elettroni.<br />

La luce forniva agli elettroni l'energia sufficiente per "sfuggire" dal corpo. Ma cosa c'era di strano?<br />

Essenzialmente tre aspetti:<br />

- ogni materiale cominciava a emettere elettroni solo quando la luce aveva una frequenza maggiore<br />

di una certa "soglia";<br />

- l'emissione avveniva istantaneamente, non appena il corpo veniva illuminato;<br />

- l'energia degli elettroni emessi era proporzionale alla frequenza della radiazione.<br />

Ora, secondo la teoria ondulatoria, l'energia della radiazione non ha nulla a che fare con la<br />

frequenza. Essa è rappresentata dall'intensità della radiazione: una luce molto intensa trasporta più<br />

energia di una luce meno intensa, indipendentemente dalla sua frequenza (o lunghezza d'onda).<br />

Quindi non ci può essere alcun legame tra energia e frequenza, e tanto meno si può spiegare una<br />

frequenza di soglia. Oltretutto, se l'emissione fotoelettrica fosse l'effetto di una risonanza tra la<br />

frequenza della radiazione e la frequenza di oscillazione degli elettroni dentro la materia, ci<br />

vorrebbe un certo tempo prima che gli elettroni "accumulino" l'energia sufficiente per vincere le<br />

forze di legame che li trattengono.<br />

Come si è detto, questo problema avrebbe animato la discussione tra fisici per due decenni. Fu<br />

Arthur Holly Compton (1892-1962) a dare una svolta decisiva all'intera questione. L'effetto<br />

Compton, da lui scoperto nei primi anni Venti, mostrava chiaramente che quando la luce investiva<br />

un elettrone e lo "sparava" in una certa direzione, la luce stessa subiva una diminuzione di<br />

frequenza che dipendeva dalla direzione in cui veniva diffusa. Il tutto poteva essere interpretato<br />

immaginando l'interazione tra l'elettrone e la radiazione come un vero e proprio urto tra due palle da<br />

biliardo, in cui si conservava sia l'energia, sia la quantità di moto.<br />

Si poteva considerare questo fenomeno come una conferma definitiva dell'ipotesi dei quanti di<br />

luce? Non esattamente. Le proprietà ondulatorie della luce non potevano essere abbandonate. Tanto<br />

più che, nel 1924, il fisico teorico francese Louis-Victor de Broglie (1892-1987) aveva ipotizzato<br />

che anche le particelle materiali, come gli elettroni, avessero una natura ondulatoria. E nel 1927<br />

vennero osservati i primi effetti di diffrazione e interferenza anche in un fascio di elettroni. Del<br />

resto, proprio sul carattere ondulatorio degli elettroni si basa il funzionamento del moderno<br />

microscopio elettronico.<br />

Dunque non solo la luce, ma tutta la materia aveva una natura duale. Tutte le particelle elementari si<br />

comportano come onde o come corpuscoli a seconda delle situazioni.<br />

LA MECCANICA QUANTISTICA E I NUOVI PROBLEMI CONCETTUALI<br />

Il modello della struttura atomica di Bohr era un embrione di teoria. Troppe assunzioni erano<br />

ingiustificate e troppi problemi restavano aperti. La ricerca dello scienziato danese continuava<br />

38


senza soste. Nel 1918 egli riuscì a spiegare le differenze di intensità delle righe spettrali emesse da<br />

un gas incandescente come le diverse probabilità di effettuare le transizioni (o i salti quantici)<br />

corrispondenti. Per questo egli usò il cosiddetto principio di corrispondenza, il quale imponeva che<br />

per energie molto elevate rispetto al quanto elementare l'atomo si comportasse come un sistema<br />

perfettamente classico. Ma come derivare, per esempio, il numero e i valori dell'energia dei vari<br />

stati stazionari in cui orbitavano gli elettroni intorno all'atomo?<br />

Il punto è che occorreva una nuova teoria meccanica fondamentale. Questa nuova meccanica fu<br />

sviluppata da un gruppo di giovani fisici teorici, Hendrik Anthony Kramers (1894-1952), Wolfgang<br />

Pauli (1900-1958), Werner Heisenberg (1901-1976), Pascual Jordan (1902-1980), che lavoravano<br />

presso i centri di Copenaghen e di Gottinga ed erano guidati da Bohr e da Max Born (1882-1970), e<br />

contemporaneamente dal fisico austriaco, Erwin Schrödinger (1887-1961), che seguiva una strada<br />

apparentemente molto diversa, suggeritagli dalle ricerche di Einstein e di de Broglie. I primi<br />

pervennero nel 1925 a una formulazione simbolica molto astratta, la cosiddetta "meccanica delle<br />

matrici", in cui ogni grandezza dinamica (l'impulso, l'energia, il momento angolare, ecc.) veniva<br />

rappresentata da una tabella di numeri (appunto una matrice). Il secondo formulò invece la<br />

meccanica ondulatoria, immaginando che lo stato di una particella in un campo di forze fosse<br />

rappresentato da una funzione d'onda, denominata dal simbolo Y, che poteva essere ricavata<br />

risolvendo una particolare equazione, appunto l'equazione di Schrödinger.<br />

Fu lo stesso Schrödinger a dimostrare nel 1926 che i due modi di rappresentare la meccanica erano<br />

formalmente equivalenti: nasceva così la moderna meccanica quantistica. E fu Heisenberg a<br />

mostrarne, l'anno successivo, un aspetto sconcertante. Per la definizione stessa delle variabili<br />

dinamiche, infatti, la conoscenza precisa di una di esse implicava che un'altra variabile, a essa<br />

correlata, fosse del tutto indeterminata. Per esempio, conoscendo con esattezza la posizione di una<br />

particella, il suo impulso (ossia la quantità di moto, o, se vogliamo, la velocità) risulta del tutto<br />

indeterminato e può assumere qualsiasi valore. Il principio di indeterminazione di Heisenberg<br />

imponeva quindi un limite invalicabile alla possibilità stessa di concepire una particella elementare<br />

così come nella fisica classica: non si poteva più immaginare un elettrone o un fotone come un<br />

corpuscolo che segue una traiettoria definita nello spazio e nel tempo.<br />

L'interpretazione di Copenaghen<br />

Nel 1927, Max Born e Niels Bohr diedero un'interpretazione generale del nuovo modo di descrivere<br />

gli oggetti subatomici elementari. Secondo Born la funzione d'onda Y di Schrödinger non<br />

descriveva la distribuzione nello spazio e nel tempo di una "sostanza" materiale, ma era una<br />

funzione che consentiva di ricavare solo la probabilità che, effettuando una misurazione su una<br />

qualsiasi delle variabili che definiscono lo stato di un sistema, questa variabile assumesse questo o<br />

quel valore. Secondo Bohr, il cambiamento di descrizione imposto dalla nuova meccanica<br />

imponeva un principio di complementarità, in base al quale gli apparati di misura che consentono di<br />

ricavare il valore di certe variabili e che consentono di immaginare la particella come un<br />

corpuscolo, escludono la possibilità di ricavare il valore di altre variabili e di immaginare la<br />

particella come un'onda. In altre parole, tra il punto di vista ondulatorio e il punto di vista<br />

corpuscolare non vi è contraddizione, dal momento che le due rappresentazioni fisiche non si<br />

possono mai utilizzare contemporaneamente nel descrivere la stessa situazione sperimentale.<br />

Questa interpretazione, che verrà poi chiamata "interpretazione di Copenaghen" della meccanica<br />

quantistica, non sarebbe mai stata accettata all'unanimità da tutti i fisici e, caso quanto mai<br />

singolare nella storia della fisica, avrebbe continuato a suscitare polemiche e dibattiti fino al giorno<br />

d'oggi. In particolare, Albert Einstein si sarebbe sempre dichiarato in completo disaccordo. Per lui<br />

la descrizione ultima della realtà non può essere probabilistica: se conosco solo probabilità vuol<br />

dire che manca qualcosa alla mia conoscenza e nessun risultato sperimentale potrà mai convincermi<br />

che Dio "giochi a dadi" con il mondo.<br />

La discussione epistemologica tra Einstein e Bohr sull'interpretazione della meccanica quantistica è<br />

uno dei dibattiti più profondi della storia della fisica, paragonabile per importanza e per capacità<br />

39


intellettuale dei suoi protagonisti solo al classico dibattito tra Newton e Leibniz sui fondamenti<br />

della nuova fisica alla fine del XVII secolo.<br />

LA <strong>FISICA</strong> NUCLEARE E DELLE PARTICELLE ELEMENTARI<br />

Con la meccanica quantistica sembrava definitivamente risolto il problema della struttura degli<br />

atomi e delle molecole che compongono la materia. Tra il 1927 e il 1929, la meccanica quantistica<br />

fu sviluppata in modo da includere la teoria della relatività speciale e trattare adeguatamente i<br />

processi di interazione tra radiazione e materia. La meccanica quantistica relativistica e<br />

l'elettrodinamica quantistica furono formulate con il contributo decisivo del fisico inglese Paul<br />

Adrien Dirac (1902-1984). La sua teoria quanto-relativistica inquadrava razionalmente le proprietà<br />

dell'elettrone che erano state suggerite dalle ricerche sulla struttura atomica e dalla teoria statistica<br />

quantistica, che si riferiva a sistemi costituiti da grandi numeri di oggetti quantistici elementari. In<br />

particolare, dava conto di una proprietà strettamente quantistica delle particelle elementari, le quali<br />

dovevano avere un momento angolare intrinseco, a cui corrispondeva un momento magnetico<br />

intrinseco. Dal momento che l'unico modo di immaginare tale proprietà era quello di pensare alle<br />

particelle come a piccole trottole in continua rotazione attorno a un proprio asse, questa proprietà<br />

venne chiamata "spin".<br />

In base ai valori dello spin era quindi possibile suddividere tutte le particelle elementari in due<br />

classi ben distinte: quelle che avevano lo spin pari a un numero semi-intero (1/2, 3/2, ecc.) e quelle<br />

che avevano spin intero (0, 1, 2, ecc.). Le prime, come per esempio gli elettroni, rispettavano un<br />

principio, già ipotizzato da Pauli nel 1923, detto "principio di esclusione", in base al quale in uno<br />

stesso sistema non potevano esservi due particelle che avessero esattamente lo stesso stato dinamico<br />

(il che in meccanica quantistica vuol dire avere lo stesso valore per tutti i numeri quantici che<br />

consentono di individuare il loro stato). Le seconde, come per esempio i fotoni, non dovevano<br />

rispettare questa condizione. Le particelle del primo tipo furono chiamate "fermioni", dato che le<br />

loro proprietà caratteristiche - che si rivelavano in sistemi costituiti da una grande numero di<br />

particelle identiche e quindi da trattare statisticamente - furono messe in evidenza nel primo grande<br />

contributo teorico di Enrico Fermi (1901-1954) nel 1925. Le particelle del secondo tipo furono<br />

chiamate "bosoni", dal nome del fisico indiano Satyendra Nath Bose (1894-1974) che ne ideò la<br />

statistica.<br />

La scoperta del positrone<br />

Ma le sorprese non erano finite. Proprio analizzando il comportamento statistico degli elettroni,<br />

Dirac era giunto alla conclusione che non vi era nulla nella teoria che impedisse a tali particelle di<br />

occupare stati di energia negativa. Bisognava anzi pensare che tali stati, essendo di energia più<br />

bassa di quelli di energia positiva, fossero tutti già normalmente occupati. In realtà, secondo Dirac,<br />

noi rileviamo sperimentalmente solo gli elettroni che ricevono energia sufficiente a passare da uno<br />

stato di energia negativa a uno stato di energia positiva. Nel 1932 Carl David Anderson (1905-<br />

1991) rivelò una particella che aveva la stessa massa dell'elettrone, ma carica opposta. Era stato<br />

scoperto il positrone. L'interpretazione di Dirac, inizialmente ritenuta troppo fantasiosa, trovava una<br />

straordinaria conferma: i positroni potevano infatti essere concepiti come i "posti" lasciati vacanti<br />

(ossia le "lacune") dagli elettroni che erano stati estratti dal "mare" di stati di energia negativa.<br />

Infatti, subito dopo si verificò che una radiazione fortemente energetica come quella costituita da un<br />

raggio g poteva "materializzarsi" in una coppia di particelle "simmetriche" costituita da un elettrone<br />

e da un positrone. Il raggio g non aveva fatto altro che estrarre, fornendogli la sua energia, un<br />

elettrone dal mare di stati di energia negativa.<br />

Con questa scoperta prende avvio di fatto la moderna ricerca sulle particelle elementari, che dà<br />

luogo a una straordinaria interazione e reciproca corroborazione di ipotesi teoriche e risultati<br />

sperimentali che durano fino a oggi. Le nuove tecniche sperimentali si basano sulla progettazione e<br />

40


costruzione di rivelatori sempre più efficaci, che registrano gli effetti di eventi, spesso molto rari,<br />

che avvengono nel mondo microscopico, in modo da ricostruirne la dinamica. La camera di Wilson,<br />

la camera a bolle, le emulsioni fotografiche, i contatori, gli scintillatori, e via discorrendo,<br />

segnalano e registrano il passaggio delle particelle cariche e attraverso le loro tracce consentono di<br />

risalire al percorso di quelle neutre. Per questo si usano sorgenti naturali, come i materiali<br />

radioattivi e i raggi cosmici, e sorgenti artificiali, come gli acceleratori di particelle, in grado di<br />

produrre particelle di energia elevatissima, fatte poi urtare contro bersagli. Non possiamo entrare<br />

nei dettagli di questa complessa vicenda. Segnaliamo solo che essa avrebbe portato in breve tempo<br />

alla moltiplicazione del numero delle particelle elementari e alla ricerca di schemi unificanti, capaci<br />

di raggupparle in famiglie e quindi concepirle come manifestazioni di combinazioni di particelle<br />

ancora più elementari. Nello stesso tempo tale ricerca avrebbe mutato il volto organizzativo della<br />

fisica: i piccoli laboratori con al massimo una decina di ricercatori sarebbero stati sostituiti dai<br />

grandi laboratori in cui centinaia e a volte migliaia di addetti lavorano, con compiti estremamente<br />

specializzati, a un comune progetto, dando luogo alla cosiddetta "big science".<br />

La bomba atomica<br />

Una prima manifestazione di questa tendenza si ebbe durante la seconda guerra mondiale negli Stati<br />

Uniti, quando tutti i migliori fisici occidentali furono reclutati per arrivare alla realizzazione, in<br />

tempi rapidi, del più micidiale ordigno che la mente umana abbia mai concepito: la bomba atomica.<br />

Questa tremenda applicazione tecnologica sarebbe stata il culmine della ricerca in fisica nucleare,<br />

iniziata nei primi anni Trenta. In questo campo si manifestarono appieno le geniali capacità di<br />

Enrico Fermi e del gruppo di giovani fisici che venne riunito presso l'università di Roma dall'allora<br />

direttore Orso Mario Corbino (1876-1937). Fu proprio Corbino, in un famoso e profetico discorso,<br />

tenuto nel 1929, a indicare nella ricerca sul nucleo il terreno verso il quale indirizzare gli sforzi,<br />

essendo il problema della struttura atomica risolto dalla meccanica quantistica.<br />

Nel 1932 James Chadwick (1891-1974) risolve sperimentalmente la questione della struttura del<br />

nucleo atomico accertando l'esistenza di particelle neutre di massa all'incirca uguale a quella dei<br />

protoni, i neutroni. Da allora, Fermi e i suoi collaboratori Emilio Segrè (1905-1989), Franco Rasetti<br />

(1901), Edoardo Amaldi (1908-1989), coadiuvati dal teorico Ettore Majorana (1906-1938),<br />

cominciano a lavorare sulla radiottività, vista come manifestazione di fenomeni nucleari. La loro<br />

scoperta fondamentale avviene nel 1934, quando essi riescono a rendere radioattive determinate<br />

sostanze, bombardondole con neutroni di bassa energia.<br />

Il nucleo poteva essere reso instabile e addirittura modificato dall'uomo. Quest'ultimo aspetto<br />

sembrava realizzare il sogno degli antichi alchimisti: e infatti molti fisici, compresi gli italiani, si<br />

dedicarono alla produzione di elementi chimici "artificiali".<br />

Ma era l'instabilità l'aspetto più importante della ricerca. In effetti, nel 1938, Otto Hahn (1879-1968)<br />

e Fritz Strassmann (1902-1980) osservarono che un nucleo di uranio bombardato da neutroni si<br />

scinde in due nuclei di elementi più leggeri. Era stata scoperta la fissione nucleare. Peraltro, il<br />

processo comportava la liberazione di un'enorme quantità di energia. L'importanza, anche militare,<br />

della scoperta fu notata quasi subito, in particolare da Einstein. Fu così che, quando gli Stati Uniti<br />

entrarono in guerra, partì il grandioso progetto Manhattan che avrebbe portato alla scoperta dei<br />

metodi di utilizzazione dell'energia nucleare. In particolare, fu lo stesso Fermi, nel frattempo<br />

emigrato in America per motivi politici, a realizzare nel 1942 la prima pila atomica. Quando Arthur<br />

Compton, leader dei fisici americani, comunicò tale successo al presidente Roosevelt, usò la famosa<br />

frase in codice: «Il navigatore italiano è sbarcato nel nuovo mondo».<br />

I SISTEMI COMPLESSI E IL CAOS<br />

Con la meccanica quantistica l'ideale classico sembrava ormai tramontato per sempre. Eppure,<br />

come avviene talvolta in un torrente d'acqua che straripa - un paragone non casuale -, il corso della<br />

41


storia della fisica prende a volte direzioni del tutto impensate. Il destino della fisica sembrava<br />

segnato dalla scoperta delle particelle fondamentali e quindi dal desiderio di rivelare i segreti più<br />

intimi della materia, quelli relativi alla sua costituzione elementare. Questo ideale di ricerca, che<br />

comunque è pienamente giustificato e trova straordinarie possibilità di sviluppo nel chiarimento dei<br />

problemi relativi alla natura e all'origine dell'universo, aveva come corollario l'idea di "ricondurre"<br />

il comportamento di sistemi complessi, ossia costituiti da un numero enorme di particelle, alle leggi<br />

che regolavano il comportamento, appunto, di questi costituenti elementari.<br />

La complessità, insomma, era vista come l'effetto del grande numero degli elementi interagenti. Ma,<br />

nell'ambito della stessa fisica ottocentesca, era stata intravista un'altra prospettiva, che allora però<br />

era sembrata problematica e quasi fallimentare. Fu il fisico matematico francese Henri Poincaré<br />

(1854-1912) a mettere in piena evidenza la questione, quando affrontò dal punto di vista<br />

matematico quello che doveva essere un semplice problema di meccanica: il problema<br />

dell'evoluzione di un sistema costituito da tre corpi che interagivano mediante forze gravitazionali.<br />

Poincaré mise in luce che tale problema non poteva essere risolto con i metodi noti del calcolo<br />

differenziale. Anzi, dal momento che il sistema era ritenuto governato da equazioni differenziali<br />

non lineari, la soluzione non poteva essere trovata con una semplice serie di operazioni<br />

matematiche. Quello che si riusciva però a intravedere era che, comunque, le soluzioni, ossia i moti<br />

dei corpi interagenti, dovevano essere enormemente complicate. In pratica, se era vero che uno dei<br />

corpi compiva una determinata traiettoria avendo inizialmente una determinata posizione e velocità<br />

(ossia con determinate condizioni iniziali), era anche vero che lo stesso corpo con condizioni<br />

iniziali impercettibilmente diverse avrebbe seguito una traiettoria completamente diversa.<br />

Era stato scoperto il fenomeno "teorico" dell'instabilità dinamica (o, come spesso si dice, della<br />

dipendenza sensibile dalle condizioni iniziali). Come se in moltissimi casi il sistema fosse una sfera<br />

che cade dalla cima di un monte. Era praticamente impossibile prevedere in che direzione sarebbe<br />

caduta. Una minima differenza di posizione avrebbe fatto sì che, invece di andare nel versante sud,<br />

precipitasse nel versante nord. In realtà la meccanica classica era stata fino ad allora applicata a<br />

problemi molto semplici. Poincaré dimostrò che, non appena le cose si complicavano un po',<br />

l'evoluzione di un sistema era di fatto imprevedibile.<br />

Quello che sembrava un ulteriore limite alle possibilità esplicative della fisica classica si sarebbe<br />

invece rivelato fecondo di risultati sorprendenti in tempi molto più recenti. Quando l'evoluzione di<br />

un sistema diviene del tutto imprevedibile come nel caso suddetto, si dice che tale evoluzione è<br />

caotica. Ora, questo fa capire che, in molti sistemi, la complessità del loro comportamento non<br />

richiede necessariamente, per essere spiegata, il ricorso a un numero enorme di piccoli sistemi<br />

costituenti che interagiscono tra di loro. La cosa sarebbe diventata evidente nello studio dei<br />

fenomeni di turbolenza.<br />

LA NUOVA COSMOLOGIA<br />

L'astrofisico Edwin P. Hubble aveva dimostrato che l'universo era popolato da altre galassie, alcune<br />

delle quali erano simili e altre diverse dalla nostra. Inizialmente, l'osservazione di queste galassie<br />

era orientata in primo luogo verso la chiarificazione della loro natura e quindi verso una loro<br />

classificazione. Ma nel frattempo Einstein aveva formulato la sua teoria della relatività generale e<br />

già nel 1917 aveva posto in relazione le assunzioni di questa teoria con alcune ipotesi generali sulla<br />

natura dell'intero universo. Di fatto era il primo lavoro di cosmologia in senso proprio.<br />

Alcuni astrofisici raccolsero questo suggerimento e cominciarono a porre in relazione le<br />

osservazioni astronomiche con una teoria generale dell'universo. Tra questi, l'olandese Willem de<br />

Sitter (1872-1934), il russo Aleksandr Aleksandrovich Fridman (1888-1925) e il belga Georges<br />

Lemaître (1894-1966) cominciarono a pensare che l'universo non fosse statico. Le loro supposizioni<br />

portavano infatti a rendere plausibile, soprattutto dal punto di vista teorico, la possibilità che il<br />

nostro universo fosse un universo in espansione.<br />

Il supporto sperimentale per questa ipotesi fu fornito proprio da Hubble. Osservando<br />

sistematicamente lo spostamento degli spettri emessi dalle galassie, egli giunse a formulare una<br />

42


legge che metteva in evidenza come tale spostamento (detto "spostamento verso il rosso", o<br />

"redshift") era in prima approssimazione proporzionale alla distanza della galassia. Questo dato era<br />

interpretabile come conferma dell'ipotesi dell'espansione dell'universo. Ma se l'universo è in<br />

espansione costante, allora, risalendo indietro nel tempo, alcuni miliardi di anni fa doveva essere<br />

interamente racchiuso in un volume molto piccolo. Divenne quindi non solo naturale parlare di<br />

un'età dell'universo, ma si poteva immaginare che, all'inizio dei tempi, l'universo fosse stato<br />

originato da una mostruosa esplosione, il Big Bang.<br />

43

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!