24.10.2014 Views

Appunti di algebra - Matematica e Applicazioni

Appunti di algebra - Matematica e Applicazioni

Appunti di algebra - Matematica e Applicazioni

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Aspetti <strong>di</strong> Algebra Lineare<br />

<strong>Appunti</strong> per il corso <strong>di</strong> Complementi <strong>di</strong> <strong>Matematica</strong> del Secondo anno del Corso<br />

<strong>di</strong> Laurea Triennale in Scienza dei Materiali, Università <strong>di</strong> Milano–Bicocca, anni<br />

accademici 2006/2007 e 2007/2008.<br />

Gregorio Falqui<br />

Dipartimento <strong>di</strong> <strong>Matematica</strong> e <strong>Applicazioni</strong><br />

Università <strong>di</strong> Milano – Bicocca<br />

Nota Introduttiva. Il materiale contenuto in questi appunti si basa sulle<br />

lezioni tenute negli anni accademici dal 2006 in avanti per gli studenti del secondo<br />

anno <strong>di</strong> Scienza dei materiali. Per prepararle, mi sono basato sui seguenti<br />

libri:<br />

T. Apostol, Calcolo Vol II (Boringhieri, Torino)<br />

S. Abeasis, Algebra lineare e geometria, (Zanichelli, Bologna).<br />

Queste note non vogliono sostituire un libro <strong>di</strong> testo, ma piuttosto costituire<br />

un resumé degli argomenti trattati nel corso. Conformemente allo spirito e alla<br />

pratica (e, segnatamente, al limitato tempo a <strong>di</strong>sposizione per l’esposizione)<br />

delle lezioni, molto spesso le <strong>di</strong>mostrazioni – specie quelle piú lunghe – sono<br />

omesse. Per queste, per ulteriori esempi, nonché per una formulazione più<br />

completa dei problemi e del quadro teorico, si rimanda ai due libri menzionati.<br />

Si assume (come da pratica del corso) che gli studenti siano già stati esposti (nei<br />

corsi del primo anno) alle nozioni basilari della geometria euclidea del piano R 2<br />

e nello spazio R 3 .<br />

AVVISO IMPORTANTE:<br />

V ersione numero 0, December5, 2007, Soggetta a cambiamenti<br />

Commenti e correzioni sono benvenuti.<br />

1


Contents<br />

1 Spazi vettoriali 3<br />

1.1 Generatori, basi (in)<strong>di</strong>pendenza lineare . . . . . . . . . . . . . . 4<br />

2 <strong>Applicazioni</strong> lineari e matrici 5<br />

3 Determinanti e matrici inverse 14<br />

4 Autovalori ed Autovettori 23<br />

5 Prodotti scalari e hermitiani. 29<br />

6 Spazi euclidei e normati 31<br />

6.1 Ortogonalità e sue prime applicazioni . . . . . . . . . . . . . . . 32<br />

7 Operatori Hermitiani (simmetrici) 36<br />

7.1 Uno spazio euclideo notevole . . . . . . . . . . . . . . . . . . . . 41<br />

2


1 Spazi vettoriali<br />

La nozione <strong>di</strong> spazio vettoriale formalizza le proprietà algebriche fondamentali<br />

dei vettori (applicati nello stesso ”punto”, cioè con l’origine coincidente) nello<br />

spazio ”fisico” E 3 . Come si vedrà, tali proprietà sono proprie <strong>di</strong> elementi <strong>di</strong> altri<br />

spazi (e.g., spazi <strong>di</strong> funzioni).<br />

Definizione 1.1 Sia F il campo dei numeri reali R o quello dei complessi C<br />

(spesso, se non si deve <strong>di</strong>stinguere, ci si riferisce agli elementi <strong>di</strong> F come agli<br />

scalari). Uno spazio vettoriale V su F è un insieme dotato <strong>di</strong> due ”operazioni”:<br />

1. Somma , + : V × V → V,<br />

2. Moltiplicazione per uno scalare ·F × V → V,<br />

che sod<strong>di</strong>sfano le proprietà elementari della somma e moltiplicazione per uno<br />

scalare dei vettori dello spazio E 3 , ovvero (nella lista qui sotto, lettere a, b, . . .<br />

rappresentamo scalari, mentre lettere u, v, x, y . . . in<strong>di</strong>cano vettori):<br />

• Commutatività x + y = y + x a · x = x · a, ∀a, x, y.<br />

• Associatività (x + y) + z = x + (y + z), ∀ x, y, z.<br />

• Esistenza dello zero e dell’opposto Esiste un (unico) vettore 0 ∈ Vt.c.v +<br />

0 = v, ∀ v; Per ogni v ∈ V esiste (unico) un elemento (−v)t.c.v+(−v) = 0<br />

• Proprietà che connettono + e · Le operazioni in V sono ”compatibili” con<br />

quelle note in F; per esempio,<br />

(a + b) · v = a · v + b · v.<br />

Si noti che in questa ultima equazione, il simbolo + nella parte sinistra<br />

in<strong>di</strong>ca la somma <strong>di</strong> numeri, mentre il simbolo + a destra è la somma <strong>di</strong><br />

elementi <strong>di</strong> V.<br />

Esempio 1. Lo spazio delle n-uple (or<strong>di</strong>nate) <strong>di</strong> elementi <strong>di</strong> F è uno spazio<br />

vettoriale, quando si definiscano la somma e la moltiplicazione per uno scalare<br />

nel seguente modo:<br />

(x 1 , x 2 , · · · , x n ) + (y 1 , y 2 , · · · , y n ) := (x 1 + y 1 , x 2 + y 2 , · · · , x n + y n )<br />

a · (x 1 , x 2 , · · · , x n ) := (ax 1 , ax 2 , · · · , ax n ),<br />

ovvero, come si <strong>di</strong>ce abitualmente, componente per componente.<br />

Esempio 2. Sia I un intervallo <strong>di</strong> R, e sia C I lo spazio delle funzioni (possibilmente<br />

continue) definite su I a valori reali (o complessi), ovvero:<br />

C I := {f : I → F}<br />

3


Questo spazio è vettoriale, definendo la somma <strong>di</strong> due funzioni e la moltiplicazione<br />

<strong>di</strong> una funzione per uno scalare nel modo solito, ovvero:<br />

(f 1 + f 2 )(x) := f 1 (x) + f 2 (x); (af)(x) := a f(x).<br />

Esempio 3. Fissiamo un numero naturale N, e consideriamo l’insieme P n<br />

dei polinomi <strong>di</strong> grado N. Allora la nozione usuale <strong>di</strong> somma <strong>di</strong> polinomi e <strong>di</strong><br />

moltiplicazione <strong>di</strong> un polinomio per un numero forniscono a P n la struttura <strong>di</strong><br />

spazio vettoriale.<br />

Esempio 4 Sia a(t) x ′′ + b(t)x ′ + c(t)x = 0 un’equazione <strong>di</strong>fferenziale lineare<br />

omogenea del secondo or<strong>di</strong>ne. Lo spazio delle sue soluzioni è uno spazio<br />

vettoriale. 1 Questo è un modo compatto <strong>di</strong> <strong>di</strong>re che la somma <strong>di</strong> due soluzioni<br />

dell’equanzione in questione è ancora una soluzione, e che se moltiplichiamo<br />

una soluzione per uno scalare (cioè un numero, identificabile con una funzione<br />

costante), otteniamo ancora una soluzione dell’equazione. La affermazione che<br />

l’integrale generale della equazione a(t) x ′′ +b(t)x ′ +c(t)x = 0 è la somma <strong>di</strong> due<br />

soluzioni in<strong>di</strong>pendenti è un altro modo <strong>di</strong> <strong>di</strong>re che lo spazio della soluzioni ha<br />

<strong>di</strong>mensione 2. In generale, se l’equazione <strong>di</strong>ferenziale ha or<strong>di</strong>ne n, la <strong>di</strong>mensione<br />

dello spazio delle sue soluzioni ha <strong>di</strong>mensione n.<br />

1.1 Generatori, basi (in)<strong>di</strong>pendenza lineare<br />

Sia V uno spazio vettoriale. Si <strong>di</strong>ce che un insieme <strong>di</strong> elementi {v 1 , v 2 , · · · , v n }<br />

è un insieme (finito) <strong>di</strong> generatori per V , o anche che {v 1 , v 2 , · · · , v n } generano<br />

V se ogni elemento x ∈ V può essere scritto come combinazione lineare degli<br />

elementi {v 1 , v 2 , · · · , v n }; in una formule, se<br />

∀w ∈ V esistono n scalari<br />

a 1 , a 2 , · · · , a n tali che w = a 1 v 1 + a 2 v 2 + · · ·a n v n .<br />

(1.1)<br />

Si <strong>di</strong>ce che un insieme <strong>di</strong> elementi <strong>di</strong> V è linearmente <strong>di</strong>pendente se esiste una<br />

loro combinazione lineare che <strong>di</strong>a come risultato il vettore 0, con coefficienti non<br />

tutti nulli, ovvero, in formule<br />

0 =<br />

n∑<br />

a n v n = 0, con almeno uno degli a k ≠ 0.<br />

k=1<br />

Nel caso contrario, (cioè, se l’unica combinazione lineare dei v i che <strong>di</strong>a il vettore<br />

0 è quella con tutti i coefficienti a k = 0), l’insieme {v 1 , v 2 , · · · , v n } si <strong>di</strong>ce<br />

linearmente in<strong>di</strong>pendente.<br />

Se uno spazio vettoriale V ammette un insieme finito <strong>di</strong> generatori, esso si<br />

<strong>di</strong>ce finito <strong>di</strong>mensionale. Dato un sistema <strong>di</strong> generatori V = {v 1 , v 2 , · · · , v n } <strong>di</strong><br />

uno spazio vettoriale, possono accadere due situazioni:<br />

1 Questa proprietà è vera per equazioni <strong>di</strong>fferenziali lineari omogenee <strong>di</strong> qualsiasi or<strong>di</strong>ne.<br />

4


1. V è linearmente in<strong>di</strong>pendente;<br />

2. V è linearmente <strong>di</strong>pendente.<br />

Nel caso 2) è facile rendersi conto che è possibile (iterativamente) arrivare a<br />

selezionare un sottoinsieme stretto V ′ V che è ancora un insieme <strong>di</strong> generatori<br />

<strong>di</strong> V , e sod<strong>di</strong>sfa la proprietà 1), ovvero è possibile selezionare un numero<br />

”minimale” <strong>di</strong> elementi <strong>di</strong> V che generino ancora V .<br />

Definizione 1.2 Sia V finito-<strong>di</strong>mensionale. Un insieme lineramente in<strong>di</strong>pendente<br />

<strong>di</strong> generatori <strong>di</strong> V è detto base <strong>di</strong> V . Si <strong>di</strong>mostra che il numero <strong>di</strong> elementi<br />

in due basi <strong>di</strong>stinte <strong>di</strong> V è lo stesso. Questo numero è detto <strong>di</strong>mensione <strong>di</strong> V .<br />

Uno spazio vettoriale che non ammette alcun sistema fnito <strong>di</strong> generatori si <strong>di</strong>ce<br />

infinito-<strong>di</strong>mensionale.<br />

Esempio 1, cos(2x), sin 2 (x) non sono in<strong>di</strong>pendenti nello spazio delle funzioni<br />

perio<strong>di</strong>che. Infatti, una delle possibili forme della regola <strong>di</strong> duplicazione degli<br />

archi è<br />

cos(2x) = cos 2 (x) − sin 2 (x) = 1 − 2 sin 2 (x),<br />

ovvero<br />

cos(2x) − 1 + 2 sin 2 (x) = 0<br />

2 <strong>Applicazioni</strong> lineari e matrici<br />

In questa sezione, salvo dove espressamente in<strong>di</strong>cato, gli spazi vettoriali (o,<br />

altrimenti detto, lineari) considerati saranno <strong>di</strong> <strong>di</strong>mensione finita.<br />

Siano V e W due spazi lineari <strong>di</strong> <strong>di</strong>mensione rispettivamente M ed N, e sia<br />

L : V → W<br />

una applicazione lineare. Fissiamo due basi {v 1 , v 2 , . . ., v M } e {w 1 , w 2 , . . .,w N }<br />

rispettivamente in V e W. Lo scopo è trovare una rappresentazione opportuna<br />

<strong>di</strong> L.<br />

La prima osservazione è la seguente: per conoscere il valore che la applicazione<br />

lineare (che è una “funzione”) L assume su un qualsiasi x ∈ V , è<br />

sufficiente conoscere i valori L(v i ), i = 1, . . .,M che L assume sugli elementi<br />

della base considerata.<br />

Infatti, dato che {v i } i=1,M è una base <strong>di</strong> V , ogni vettore x ∈ V si rappresenta<br />

in uno ed un solo modo come combinazione lineare <strong>di</strong> elementi della base, ovvero<br />

x =<br />

M∑<br />

x i v i ;<br />

i=1<br />

5


Dato che L è lineare si ha:<br />

M∑<br />

L(x) = L( x i v i ) =<br />

i=1<br />

M∑<br />

x i L(v i )<br />

il che “<strong>di</strong>mostra” l’affermazione.<br />

Ora, per ogni i fissato, consideriamo il vettore L(v i ) ∈ W; dato che la<br />

famiglia {w 1 , . . .,w N } è una base in W, potremo sviluppare questo vettore lungo<br />

tale base; in altre parole, sono univocamente determinati, (per ogni valore <strong>di</strong><br />

i = 1, . . .,M), gli N scalari l ji tali che valga:<br />

N∑<br />

Per i fissato, i = 1, . . .,M, L(v i ) = l ji w j . (2.1)<br />

Quin<strong>di</strong>, date le due basi {v i } e {w j } in V e W, per le proprietà note delle basi in<br />

uno spazio lineare, risultano definiti univocamente gli N · M scalari l ji definito<br />

da (2.1).<br />

Notando che tali scalari hanno, in modo naturale, un doppio in<strong>di</strong>ce (osserviamo<br />

che, in generale, N ≠ M), è naturale arrangiarli in una tabella, che per convenzione<br />

– e como<strong>di</strong>tà, come si vedrà dopo – avrà N(= <strong>di</strong>mensione del codominio)<br />

righe ed M = <strong>di</strong>mensione del dominio colonne, come qui sotto:<br />

⎧<br />

⎪⎨<br />

Nrighe<br />

⎪⎩<br />

i=1<br />

j=1<br />

Mcolonne<br />

⎡{ }} ⎤{<br />

l 11 l 12 · · · l 1M<br />

l 21 l 22 · · · l 2M<br />

. . . .<br />

⎢<br />

⎥<br />

⎣<br />

⎦<br />

l N1 l N2 · · · l NM<br />

Tale tabella si chiama Matrice rappresentativa <strong>di</strong> L nelle basi {v i } e {w j }; i<br />

numeri l ij vengono anche detti elementi <strong>di</strong> matrice <strong>di</strong> L relativi alle basi considerate.<br />

Dunque, dati due spazi V e W, (rispettivamente <strong>di</strong> <strong>di</strong>mensione M ed N),<br />

muniti <strong>di</strong> base (risp.{v 1 , v 2 , . . .,v M } e {w 1 , w 2 , . . .,w N }) , ad un operatore lineare<br />

possiamo associare una matrice ad N righe ed M colonne (detta matrice<br />

N × N). È vero anche il viceversa, ovvero che a due spazi muniti <strong>di</strong> base come<br />

sopra ed ad una matrice ad N righe ed M colonne L = {l ij } possiamo associare<br />

univocamente un operatore lineare.<br />

Basta procedere a ritroso: Consideriamo, per i = 1, . . .,M i vettori y i in W<br />

definiti da<br />

M∑<br />

y i = l ji w j<br />

j=1<br />

6


e <strong>di</strong>ciamo che tali vettori y i sono i valori che l’opratore (da costruire) L assume<br />

sui vettori <strong>di</strong> base, ovvero, definiamo L(v i ) := y i . Per quanto detto all’inizio<br />

della sezione, questo basta per definire L, come operatore lineare, su un qualsiasi<br />

vettore x ∈ V ; infatti, ponimao per definizione,<br />

M∑<br />

M∑ M∑<br />

se x = x i v i , allora L(x) := x i y i ≡ x i L(v i ). (2.2)<br />

i=1<br />

È imme<strong>di</strong>ato verificare che la formula qui sopra definisce (per costruzione!) una<br />

applicazione lineare. Questo proce<strong>di</strong>mento si chiama “estensione per linearità”<br />

<strong>di</strong> una funzione definita sugli elementi <strong>di</strong> una base.<br />

Osservazione 1. Un modo esplicito per costruire la matrice rappresentativa<br />

L <strong>di</strong> un operatore L : V → W rispetto alle basi {v 1 , v 2 , . . .,v M } e<br />

{w 1 , w 2 , . . .,w N } <strong>di</strong> V e W è il seguente: Si considera il primo vettore della base<br />

v 1 , si calcola L(v 1 ) e lo si sviluppa lungo la base dei w j come L(v 1 ) = ∑ N<br />

j=1 l j1w j ;<br />

questo dà luogo ad una N-upla <strong>di</strong> scalari {l 11 , l 21 , . . .,l N1 }; Tale N-upla (or<strong>di</strong>nata)<br />

forma la prima colonna della matrice L; considerando il secondo vettore<br />

v 2 , si calcola L(v 2 ) e si ottiene un’altra N-upla <strong>di</strong> scalari, {l 12 , l 22 , . . .,l N2 }, che<br />

va a formare la seconda colonna <strong>di</strong> L; e così via, fino all’ultimo elemento della<br />

base <strong>di</strong> V , v M . Esempio. La matrice rappresentativa dell’applicazione lineare<br />

0, che associa ad igni vettore <strong>di</strong> V il vettore 0 ∈ W, è la matrice in cui tutti gli<br />

elementi sono nulli.<br />

Sia W = V ; la matrice che rappresenta l’applicazione lineare identità (Id(x) =<br />

x, ∀x ∈ V ) è la matrice il cui elemento 1 ij è 1 se i = j, e 0 altrimenti, ovvero,<br />

in simboli ij = δ ij , dove δ ij è il simbolo <strong>di</strong> Kronecker. Graficamente, 1 è una<br />

matrice quadrata (il numero <strong>di</strong> righe è uguale a quello delle colonne) con 1 sulla<br />

<strong>di</strong>agoinale principale (quella che va da alto-sx a basso-dx) e 0 in tutti gli altri<br />

“posti”.<br />

Esempio(Meno banale). Sia V lo spazio dei polinomi in una indeterminata t<br />

<strong>di</strong> grado d ≤ 2, e W lo spazio dei polinomi (sempre in T) <strong>di</strong> grado non superiore<br />

a 3. Consideriamo in V la base {v 1 = 1, v 2 = t −1, v 3 = t 2 −2t}, e in W la base<br />

standard, {w 1 = 1, w 2 = t, w 3 = t 2 , w 4 = t 3 }; consideriamo l’operatore<br />

L : V → W<br />

p(t) ↦→<br />

d p(t) + (2 + t)p(t) + ∫ t<br />

p(s)ds,<br />

dt 0<br />

ed esemplifichiamo le costruzioni fatte in questo caso.<br />

Per prima cosa, notiamo che L è ben definito; infatti, l’integrale <strong>di</strong> un polinomio<br />

<strong>di</strong> or<strong>di</strong>ne p è un integrale <strong>di</strong> or<strong>di</strong>ne al più p+1, e quin<strong>di</strong> L manda elementi<br />

<strong>di</strong> V in elementi <strong>di</strong> W. La linearità <strong>di</strong> L è evidente. Verifichiamo prima che<br />

la famiglia {v 1 , v 2 , v 3 } sia una base <strong>di</strong> V ; la <strong>di</strong>mensione <strong>di</strong> V è 3, quin<strong>di</strong> basta<br />

verificare l’in<strong>di</strong>pendenza lineare dei v i . Supponiamo che ∑ 3<br />

i=1 c iv i = 0 (ovvero<br />

consideriamo una combinazione lineare dei polinomi v i che <strong>di</strong>a il polinomio nullo.<br />

Si avrà: 0 = c 1 (1) + c 2 (t − 1) + c 3 (t 2 − t) = 0. raccogliendo le potenze <strong>di</strong> t si ha<br />

i=1<br />

i=1<br />

0 = (c 1 − c 2 ) + (c 2 − c 3 )t + c 3 t 2 ( come polinomio),<br />

7


ovvero, per il principio <strong>di</strong> identità dei polinomi, {c 3 = 0, (c 2 −c 3 ) = 0, (c 1 −c 2 ) =<br />

0}. Ma la soluzione <strong>di</strong> queste equazioni è c 1 = c 2 = c 3 = 0, e dunque i v i sono<br />

in<strong>di</strong>pendenti.<br />

Dato che (t n ) ′ = nt n−1 , e ∫ t<br />

0 sn ds = 1<br />

n + 1 tn+1 , si ha:<br />

L(v 1 ) = d ∫ t<br />

dt (1) + (2 + t) 1 + ds = 0 + (2 + t) + t = 2 + 2t<br />

0<br />

2w 1 + 2w 2 + 0w 3 + 0w 4 (a);<br />

L(v 2 ) = d ∫ t<br />

dt (t − 1) + (2 + t)(t − 1) + (s − 1)ds = 1 + (t 2 + t − 2) + 1 2 t2 − t = −1 + 3 2 t2 =<br />

L(v 3 ) = d dt (t2 − t) + (2 + t)(t 2 − t) +<br />

0<br />

= −1w 1 + 0w 2 + 3 2 w 3 + 0w 4 (b);<br />

∫ t<br />

= 4 3 t3 + 1 2 t2 − 1 = −1w 1 + 0w 2 + 1 2 w 3 + 4 3 w 4 (c).<br />

0<br />

(s 2 − s)ds = 2t − 1 + (t 3 + t 2 − 2t) + ( 1 3 t3 − 1 2 t2 ) =<br />

(2.3)<br />

Le colonne della matrice (4 × 3) L che vogliamo costruire si leggono or<strong>di</strong>natamente<br />

da (a), (b), (c) <strong>di</strong> questa equazione. Ovvero:<br />

⎡ ⎤<br />

2 −1 −1<br />

2 0 0<br />

L =<br />

3 1<br />

0<br />

2 2<br />

⎢ ⎥<br />

⎣ 4 ⎦<br />

0 0<br />

3<br />

Se avessimo voluto calcolare la matrice che rappresenta L, rispetto alle basi<br />

standard sia <strong>di</strong> V che <strong>di</strong> W, avremmo dovuto calcolare:<br />

L(v ′ 1 ) = L(v 1) = 2 + 2t<br />

L(v 2 ′ = d ∫ t<br />

dt (t) + (2 + t)(t) + s ds = 1 + 2t + 3 2 t2<br />

L(v ′ 3 ) = d dt (t2 ) + (2 + t)(t 2 ) +<br />

0<br />

∫ t<br />

0<br />

s 2 ds = 2t + 2t 2 + 4 3 t3<br />

8


e, dunque, la matrice che rappresenta L nelle basi standard è<br />

⎡ ⎤<br />

2 1 0<br />

2 2 2<br />

L ′ =<br />

0 3 2<br />

2<br />

⎢ ⎥<br />

⎣ 4 ⎦<br />

0 0<br />

3<br />

Nota. Da questo esempio, si evince la necessità <strong>di</strong> specificare le basi nella<br />

costruzione della matrice rappresentativa <strong>di</strong> un operatore. Infatti, nel nostro<br />

caso si ha che lo stesso operatore è rappresentato su basi <strong>di</strong>verse da <strong>di</strong>verse<br />

matrici. Questo punto verrà ulteriormente esaminato più oltre.<br />

Osserviamo che la formula (2.2) fornisce un modo algoritmico e rapido per<br />

calcolare il valore L(x) – o meglio, lo sviluppo <strong>di</strong> L(x) nella base dei w k , una<br />

volta noti lo sviloppu <strong>di</strong> x ∈ V sulla base dei v i , e la matrice L rappresentativa<br />

<strong>di</strong> L nelle basi considerate.<br />

Infatti, lo sviluppo <strong>di</strong> x sui v i sarà della forma x = ∑ i v i; allora,<br />

M∑ M∑ ∑ M∑ N∑<br />

L(x) = L( x i v i ) = x i L(v i )) = (l ji w j );<br />

i=1<br />

i=1<br />

Scambiando l’or<strong>di</strong>ne della somma nell’ultima espressione (cosa lecita) si ha<br />

⎛<br />

L(x) = ∑ j<br />

j<br />

∑<br />

⎜ l ji x i<br />

⎟<br />

⎝ i ⎠ w j<br />

} {{ }<br />

=(L(x)) j<br />

⎞<br />

Ovvero, le componenti (L(x)) j <strong>di</strong> L(x) lungo la base w j <strong>di</strong> W sono dati dalle<br />

somme ∑ N<br />

i=1 l jix i .<br />

È comodo dare una visualizzazione grafica a questo proce<strong>di</strong>mento. Consideriamo<br />

la matrice L, <strong>di</strong> elementi l ji e or<strong>di</strong>niamo in una colonna le componenti<br />

x i <strong>di</strong> x lungo v i ; giustapponendo questi due oggetti,<br />

⎡<br />

⎤⎛<br />

⎞<br />

l 11 l 12 · · · l 1M x 1<br />

l 21 l 22 · · · l 2M<br />

x 2<br />

. . . .<br />

.<br />

⎢<br />

⎥⎜<br />

⎟<br />

⎣<br />

⎦⎝<br />

⎠<br />

l N1 l N2 · · · l NM x M<br />

9<br />

i=1<br />

j+1


si vede che, e.g, la componente (L(x)) 1 è pari al “prodotto scalare” della prima<br />

riga <strong>di</strong> L (che e’ identificabile con la M-upla [l 11 , l 12 , · · ·l 1M ]) per la M-upla<br />

data da [x 1 , x 2 , · · · , x M ]. Analogamente, la componente (L(x)) 2 sarà data dal<br />

prodotto scalare della seconda riga <strong>di</strong> L con la M-upla delle x i etc. etc.<br />

Osservazione. Se W è dotato <strong>di</strong> una struttura euclidea ( , ) W , e la base w j<br />

è una base ortonormale, il calcolo degli elementi della matrice L si può effettuare<br />

attraverso il prodotto scalare; ovvero:<br />

l ji = (w j , L(e i )) W .<br />

Come è stato osservato più sopra, lo spazio degli operatori lineari ha una<br />

struttura <strong>di</strong> <strong>algebra</strong>. Ovvero, sono definite, per due operatori L 1 , L 2 : V → W,<br />

e per uno sclare α sono definite la somma (L 1 + L 2 ) : V → W e il prodotto per<br />

α, (α · L) : V → W. Inoltre, se L : V → W e Λ : W → Y , è definito il prodotto<br />

(cioè, la composizione) dei due operatori,<br />

T ≡ Λ ◦ L : V −→ Y<br />

x ↦→ Λ(L(x))<br />

(2.4)<br />

Supponiamo, come prima che questi spazi siano dotati <strong>di</strong> basi, rispettivamente<br />

{v i } i=1,...,M , {w j } j=1,...,M , e {y k } k=1,...,P , dove M, N, P sono rispettivamente le<br />

<strong>di</strong>mensioni degli spazi V, W, e Y .<br />

È naturale domandarsi come si traducano, a livello <strong>di</strong> metrici rappresentative,<br />

le operazioni <strong>di</strong> somma, prodotto per uno scalare e composizione per i<br />

corrispondenti operatori lineari.<br />

Per le prime due operazioni, la risposta è imme<strong>di</strong>ata (e la verifica lasciata al<br />

lettore).<br />

A) La somma <strong>di</strong> due operatori definiti da V a valori in W è rappresentata dalla<br />

somma elemento per elemento delle corrispondenti matrici. Ovvero, se L 1 ha,<br />

rispetto alle basi considerate, elementi <strong>di</strong> matrice {l (1)<br />

ji } ed L 2 ha elementi <strong>di</strong><br />

matrice {l (2)<br />

ji }, la somma S = (L 1 + L 2 ) avrà elementi <strong>di</strong> matrice dati da<br />

s i j = l (1)<br />

ji + l (2)<br />

ji<br />

Esempio. Siano L 1 , L 2 : R 2 → R 3 rappresentati da<br />

⎡ ⎤ ⎡<br />

1 0<br />

0 2<br />

L 1 = ⎣ −1 2 ⎦ L 2 = ⎣ 4 −1<br />

0 4<br />

2 −5<br />

allora la somma S = (L 1 + L 2 ) è rappresentata dalla matrice<br />

⎡<br />

⎤ ⎡ ⎤<br />

1 + 0 0 + 2 1 2<br />

S = ⎣ −1 + 4 2 + (−1) ⎦ = ⎣ 3 1 ⎦<br />

0 + 2 4 + (−5) 2 −1<br />

⎤<br />

⎦ ;<br />

10


L’operazione <strong>di</strong> composizione <strong>di</strong> due matrici merita, invece, uno sguardo<br />

più attento. Consideriamo la relazione (2.4). Chiamiamo L e Λ le matrici che<br />

rappresentano, rispettivamente, L : V → W e Λ : W → Y ; i loro elementi<br />

saranno [l j,i ] j=1,...,N<br />

i=1,...,M e [λ k,j] k=1,...,P<br />

j=1,...,N<br />

. Il nostro problema è esprimere gli elementi<br />

della matrice T che rappresenta T : V → Y , T = Λ ◦L in termini degli elementi<br />

<strong>di</strong> matrice l ji , λ kj ; ovvero, considerato l’i-esimo elemento v i della base <strong>di</strong> V ,<br />

dobbiamo sviluppare T(v i ) sulla base assegnata degli y k , ovvero scrivere<br />

Ora,<br />

T(v i ) =<br />

P∑<br />

t ki y k . (2.5)<br />

k=1<br />

T(v i ) = Λ(L(v i )) = (Per la definizione dei l ji ) = Λ(<br />

= (Per la linearità <strong>di</strong> Λ) =<br />

=<br />

N∑<br />

l ji w j ) =<br />

j=1<br />

N∑<br />

l ji Λ(w j ) = Per la definizione dei λ jk =<br />

j=1<br />

(<br />

N∑ ( ∑<br />

P ) )<br />

l ji λ kj y j =<br />

j=1<br />

k=1<br />

(Scambiando l’or<strong>di</strong>ne delle due somme finite e dei fattori numerici l ji e λ kj )<br />

(<br />

P∑ N<br />

)<br />

∑<br />

= (λ kj l ji y k .<br />

k=1<br />

j=1<br />

Confrontando quest’ultima espressione con la (2.5) otteniamo il risultato desiderato:<br />

N∑<br />

t ki = (λ kj l ji . (2.6)<br />

j=1<br />

A parole: l’elemento <strong>di</strong> posto (k, i) della matrice T associata alla composizione<br />

dei due operatori Λ e L (in quest’or<strong>di</strong>ne, ovvero T = Λ◦L si calcola nel seguente<br />

modo, una volta note le matrici rappresentative <strong>di</strong> Λ e ̷L:<br />

si considerano la k-esima riga <strong>di</strong> Λ e la i-esima colonna <strong>di</strong> L (entrambe sono<br />

N-uple <strong>di</strong> scalari) e se ne fa il “prodotto scalare” (in R n ).<br />

Esempio. Sia M = 2, N = 3, P = 4. Allora Λ e L sono le matrici (risp. 4 × 2 e<br />

3 × 2)<br />

Λ =<br />

⎡<br />

⎢<br />

⎣<br />

⎤<br />

λ 11 λ 12 λ 13<br />

λ 21 λ 22 λ 23<br />

λ 31 λ 32 λ 33<br />

λ 41 λ 42 λ 43<br />

⎡<br />

⎥<br />

⎦ L = ⎣<br />

⎤<br />

l 11 l 12<br />

l 21 l 22<br />

⎦ (2.7)<br />

l 31 l 22<br />

La matrice T manda uno spazio vettoriale <strong>di</strong> <strong>di</strong>mensione 2 in uno <strong>di</strong> <strong>di</strong>mensione<br />

4, quin<strong>di</strong> sarà una matrice 4 × 2. L’elemento, e.g., <strong>di</strong> posto (3, 2) della matrice<br />

11


T si ottiene facendo il prodotto scalare del “vettore a tre componenti”<br />

⎡ ⎤<br />

l 12<br />

[λ 31 , λ 32 , λ 33 ] con il “vettore a tre componenti” ⎣ l<br />

} {{ }<br />

22<br />

⎦<br />

terza riga <strong>di</strong> Λ<br />

l 32<br />

} {{ }<br />

seconda colonna <strong>di</strong> L.<br />

Si ottiene, esplicitamente,<br />

T 32 = λ 31 l 12 + λ 32 l 22 + λ 33 l 32 .<br />

In termini algoritmici, per calcolare la matrice T basta giustapporre la matrici<br />

Λ e L come nella (2.7), e ripetere il proce<strong>di</strong>mento esplicitato qui sopra facendo<br />

variare gli in<strong>di</strong>ci <strong>di</strong> riga <strong>di</strong> T (qui da 1 a 4) e <strong>di</strong> colonna <strong>di</strong> T (qui da 1 a 2).<br />

Si <strong>di</strong>ce che la matrice T è il prodotto righe per colonne delle matrici Λ e L,<br />

e si scrive T = Λ · L<br />

Osservazione. Consideriamo il caso <strong>di</strong> matrici che rappresentano operatori<br />

con dominio e codominio coincidenti (ovvero <strong>di</strong> operatori L : V → V , per<br />

qualche spazio V <strong>di</strong> <strong>di</strong>mensione M, dotato <strong>di</strong> una base {v i } i=1,...,M ); Chiamiamo<br />

questo spazio Mat(N). Le operazioni che abbiamo considerato (somma,<br />

prodotto per uno scalare, e prodotto righe per colonne, che viene chiamato<br />

prodotto tout court) sono compatibili l’una con l’altra (per esempio, (L 1 + L 2 ) ·<br />

L 3 = L 1 · L 3 + L 2 · L 3 , e così via).<br />

Rispetto al prodotto <strong>di</strong> scalari, ci sono però due importanti <strong>di</strong>fferenze:<br />

1. Per il prodotto <strong>di</strong> numeri reali (o complessi), la equazione a·b = 0 implica<br />

che o a = 0 o b = 0 (eventualmente entrambi). Ciò non è vero per il<br />

prodotto <strong>di</strong> due matrici.<br />

Consideriamo ad esempio le due matrici<br />

( 0 1<br />

M 1 =<br />

0 0<br />

)<br />

, M 2 =<br />

( 1 0<br />

0 0<br />

)<br />

. (2.8)<br />

Entrambe sono non nulle (la matrice nulla, introdotta più sopra, è quella<br />

in cui tutti gli elementi sono nulli); peraltro,<br />

( ) ( ) ( )<br />

0 1 1 0 0 0<br />

M 1 · M 2 = · = = 0.<br />

0 0 0 0 0 0<br />

2. Per il prodotto tra scalari, vale la proprietà <strong>di</strong> commutatività, ovvero,<br />

a · b = b · a, ∀ a, b.<br />

Questo non è più vero, in generale per il prodotto tra matrici (ovvero, per il<br />

prodotto(=composizione) <strong>di</strong> due operatori lineari in uno spazio vettoriale).<br />

12


Le due matrici definite in (2.8) forniscono un esempio <strong>di</strong> questo fenomeno.<br />

Infatti, abbiamo già verificato che M 1 · M 2 = 0. Viceversa,<br />

( ) ( ) ( )<br />

1 0 0 1 0 1<br />

M 2 · M 1 = · = ≠ 0.<br />

0 0 0 0 0 0<br />

È d’uso definire la <strong>di</strong>fferenza dei prodotti M 1 · M 2 − M 2 · M 1 commutatore tra<br />

(in quest’or<strong>di</strong>ne) M 1 ed M 2 , e denotarla come<br />

Si osservi che<br />

M 1 · M 2 − M 2 · M 1 := [M 1 , M 2 ]<br />

[M 1 , M 2 ] = −[M 2 , M 1 ]<br />

Osservazione. L’affermazione che due matrici non commutano in generale<br />

non significa che, date due matrici M 1 ed M 2 non valga mai M 1 · M 2 = M 2 ·<br />

M 1 ; per esempio, le matrici 0 e 1 commutano con qualsiasi altra matrice. La<br />

affermazione significa piuttosto che fissata una matrice M 1 , la con<strong>di</strong>zione su<br />

un’altra matrice M 2 <strong>di</strong> commutazione con M 1 è, in generale, non banale.<br />

Esempio. Sia M una matrice 2 × 2 della forma<br />

M =<br />

(<br />

a 0<br />

0 b<br />

)<br />

, a ≠ b,<br />

e sia L una matrice 2 × 2 generica,<br />

( )<br />

L11 L<br />

L = 12<br />

.<br />

L 21 L 22<br />

Allora il commutatore [M, L] è dato da<br />

( ) ( ) ( ) ( a 0 L11 L<br />

[M, L] = · 12 L11 L<br />

− 12 a 0<br />

·<br />

0 b L 21 L 22 L 21 L 22 0 b<br />

)<br />

=<br />

=<br />

( ) ( ) (<br />

aL11 aL 12 aL11 bL<br />

−<br />

12<br />

=<br />

bL 21 bL 22 aL 21 bL 22<br />

0 (a − b)L 12<br />

(b − a)L 21 0<br />

)<br />

.<br />

Ovvero, L commuta con M se e solo se i suoi elementi fuori della <strong>di</strong>agonale<br />

L 12 , L 21 sono nulli.<br />

Esercizio. Dimostrare che questo è vero per matrici N × N.<br />

Esercizio. Calcolare i tre commutatori [σ i , σ j ], i < j, dove le matrici complesse<br />

σ i , i = 1..3 sono date rispettivamente da<br />

σ 1 =<br />

( 0 1<br />

−1 0<br />

)<br />

, σ 2 =<br />

( 0 i<br />

i 0<br />

) ( i 0<br />

, σ 3 =<br />

0 −i<br />

)<br />

. (2.9)<br />

Queste matrici (o, talvolta, il loro prodotto con −i) sono dette matrici <strong>di</strong> Pauli e<br />

giocano un ruolo importante nella teoria del momento angolare intrinseco degli<br />

13


elettroni e <strong>di</strong> altre particelle elementari.<br />

Esempio La proprietà <strong>di</strong> non–commutatività è una proprietà intrinseca degli<br />

operatori e non <strong>di</strong>pende dalla loro rappresentazione matriciale. Ad esempio,<br />

consideriamo lo spazio V = C ∞ (R) delle funzioni definite sull’asse reale (e.g.,<br />

a valori reali), derivabili un numero arbitrario <strong>di</strong> volte. Consideriamo i due<br />

operatori:<br />

ˆx : V → V<br />

f(x) ↦→ xf(x) , ˆ∂ : V → V<br />

f(x) ↦→ f ′ (x) . (2.10)<br />

A parole, ˆx associa ad una funzione f il prodotto tra f e la funzione x, mentre<br />

ˆ∂ associa ad una funzione la sua derivata prima. È imme<strong>di</strong>ato verificare che<br />

questi due operatori sono ben definiti. Infatti, la derivata prima <strong>di</strong> una funzione<br />

derivabile un numero arbitrario <strong>di</strong> volte è anch’essa derivabile un numero arbitrario<br />

<strong>di</strong> volte, e il prodotto xf(x) è derivabile un numero arbitrario <strong>di</strong> volte.<br />

La linearità <strong>di</strong> queste due operazioni è ovvia.<br />

Vogliamo calcolare [ˆ∂, ˆx].<br />

Per una qualsiasi funzione f(x), si ha:<br />

(ˆ∂ ◦ ˆx)(f)(x) = d<br />

dx (xf(x)) = f(x) + xf ′ (x);<br />

mentre<br />

(ˆx ◦ ˆ∂)(f)(x) = x d<br />

dx (f(x)) = xf ′ (x);<br />

Sottraendo queste espressioni si verifica che, per ogni funzione f(x), si ha<br />

[ˆ∂, ˆx](f(x)) = f(x),<br />

e dunque si ottiene [ˆ∂, ˆx] = 1.<br />

Questa relazione (o, meglio, la corrispondente con l’operatore −iˆ∂, dove è<br />

una costante fondamentale, la cui <strong>di</strong>mensione è quella <strong>di</strong> un momento angolare,<br />

detta costante <strong>di</strong> Planck ridotta 2 ) è fondamentale in meccanica quantistica.<br />

3 Determinanti e matrici inverse<br />

Come è stato asserito in una delle lezioni precedenti, se la applicazione lineare<br />

L : V → W è invertibile (cioè è iniettiva e suriettiva), la sua inversa è ancora una<br />

applicazione lineare. Vogliamo, in questa lezione, approfon<strong>di</strong>re questo concetto.<br />

Per prima cosa, si può osservare che il dato <strong>di</strong> una applicazione lineare<br />

definisce due sottospazi vettoriali notevoli,<br />

Ker(L) ⊂ V := {x ∈ V|L(x) = 0},<br />

Im(L) ⊂ W := {y ∈ W |y = L(x) per qualche x ∈ V }<br />

(3.1)<br />

2 Ridotta significa <strong>di</strong>visa per 2π<br />

14


Il primo spazio si chiama nucleo (detto Ker dall’inglese kernel), il secondo Immagine<br />

<strong>di</strong> L. Verifichiamo che Ker(L) è un sottospazio vettoriale del dominio.<br />

Dobbiamo dunqie verificare che se x, y sono tali che L(x) = L(y) = 0, ogni loro<br />

combinazione lineare è ancora in Ker(L), ovvero, per igni scelta <strong>di</strong> scalari α, β,<br />

si ha<br />

L(α x + β y) = 0<br />

Questo segue dalla linarità <strong>di</strong> L. Infatti:<br />

L(α x + β y) = α L(x) + β L(y) = α 0 + β 0 = 0.<br />

Analogamente si verifica che Im(L) è sottospazio vettoriale <strong>di</strong> W. U n legame<br />

notevole tar le <strong>di</strong>mensioni <strong>di</strong> questi due spazi è dato dal seguente teorema, che<br />

non <strong>di</strong>mostriamo:<br />

Proposizione 3.1 (Teorema della nullità più rango) Se V e W sono <strong>di</strong> <strong>di</strong>mensione<br />

finita vale che<br />

<strong>di</strong>mKer } {{ }(L) + } <strong>di</strong>mIm {{ }(L) = <strong>di</strong>mV. (3.2)<br />

nullità rango<br />

La prima conseguenza <strong>di</strong> questa formula è che se L : V → W con V e W <strong>di</strong><br />

<strong>di</strong>mensione <strong>di</strong>fferente, allora L non può essere invertibile. Infatti questa formula<br />

<strong>di</strong>ce (o meghlio riba<strong>di</strong>sce) che la <strong>di</strong>mensione dell’immagine <strong>di</strong> L non può eccedere<br />

quella del dominio V . Quin<strong>di</strong>, se <strong>di</strong>mW > <strong>di</strong>mV, L non può essre suriettivo.<br />

Viceversa, per definizione, <strong>di</strong>mIm(L) ≤ <strong>di</strong>mW; quin<strong>di</strong> se <strong>di</strong>mV > <strong>di</strong>mW, si ha,<br />

necessariamente <strong>di</strong>mKer(L) > 0. Questo significa che esiste almeno un vettore<br />

non nullo ξ nel nucleo <strong>di</strong> L; ma allora tutti i multipli <strong>di</strong> ξ sono nel nucleo, per<br />

la linearità <strong>di</strong> L, e dunque L non è iniettivo.<br />

Proposizione 3.2 Sia L : V → W un’operatore lineare tra spazi della stessa<br />

<strong>di</strong>mensione N; allora L è invertibile se e solo se Ker(L) = {0}.<br />

Dimostrazione. La necessità <strong>di</strong> questa affermazione è ovvia. Dato che L è<br />

lineare, L(0) = 0; se L è invertibile (cioè, in particolare, iniettivo), il suo nucleo<br />

non può contenere alcun altro elemento.<br />

La sufficienza è un po’ più sottile, e la <strong>di</strong>mostrazione serve, tar l’altro, a<br />

enucleare alcune osservazioni che verranno utili in seguito. Sia {v 1 , . . .,v N } una<br />

(qualsiasi) base <strong>di</strong> V . Allora gli N vettori L(v 1 ), . . .,L vN <strong>di</strong> W sono (in<strong>di</strong>pendentemente<br />

dall’invertibilità o meno <strong>di</strong> L) un sistema <strong>di</strong> generatori per lo spazio<br />

vettoriale Im(L). Infatti, y ∈ Im(L) ⇐⇒ y = L(x), per x ∈ V . Sviluppando<br />

tale x lungo la base dei v i , si ha x = ∑ i x iv i ; dunque,<br />

L(x) = ∑ i<br />

x i L(v i )<br />

il che <strong>di</strong>mostra l’affermazione.<br />

15


Ritornando al nostro caso, dobbiamo <strong>di</strong>mostrare che, se V e W hanno la<br />

stessa <strong>di</strong>mensione e il nucleo <strong>di</strong> L è ridotto al solo elemento 0 ∈ V , allora L è<br />

iniettivo e suriettivo.<br />

Per l’inietrtività si procede così: sia L(x) = L(y); allora L(x−y) = 0, ovvero<br />

x − y è nel nucleo <strong>di</strong> L. Ma dunque x − y = 0 ⇐⇒ x = y.<br />

Per la suriettività, consideriamo una combinazione lineare ∑ i c iL(v i ), e supponiamo<br />

che questa <strong>di</strong>a zero (in W), ovvero ∑ i c iL(v i ) = 0. Per la linearit1‘a<br />

<strong>di</strong> L, si ha<br />

0 = ∑ c i L(v i ) = ∑ L ( c i v i ) = L( ∑ c i v i )<br />

i<br />

i<br />

i<br />

Dunque il vettore ∑ i c iv i è nel nucleo <strong>di</strong> L, e dunque è il vettore nullo, dato<br />

che sto supponendo Ker(L) = {0}. Ma v i é una base <strong>di</strong> V , e dunque i c i sono<br />

tutti nulli. Questo <strong>di</strong>mostra che gli N vettori L(v i ( sono anch’essi in<strong>di</strong>pendenti,<br />

e dunque, dato che <strong>di</strong>m(W) = <strong>di</strong>mV = N formano una base <strong>di</strong> W. Ovvero, W<br />

ha una base formata da elemnti nell’immagine <strong>di</strong> L, e dunque L è suriettivo.<br />

Vogliamo ora caratterizzare ”operativamente” l’esistenza <strong>di</strong> inversi <strong>di</strong> operatori,<br />

in termini delle matrici rappresentative. Ciò si effettua tramite la generalizzazione<br />

al caso <strong>di</strong> <strong>di</strong>mensione N della nozione <strong>di</strong> determinante (che, nel caso<br />

<strong>di</strong> N = 3, come si è visto, nel corso <strong>di</strong> <strong>Matematica</strong> II (Stewart, §3) rappresenta<br />

il prodotto misto <strong>di</strong> tre vettori).<br />

Ricor<strong>di</strong>amo che, dati tre vettori v 1 , v 2 , v 3 nello spazio euclideo E 3 , sviluppati<br />

rispetto alla base ortonormale⃗i,⃗j, ⃗ k come<br />

v 1 = v 1 1 ⃗ i + v 1 2 ⃗ j + v 1 3 ⃗ k, v 2 = v 2 1 ⃗ i + v 2 2 ⃗ j + v 2 3 ⃗ k, v 3 = v 3 1 ⃗ i + v 3 2 ⃗ j + v 3 3 ⃗ k,<br />

il loro triplo prodotto misto v 1 · (v 2 × v 3 ) si calcola considerando la matrice 3<br />

⎡<br />

M := ⎣<br />

v1 1 v1 2 v1<br />

3<br />

v2 1 v2 2 v2<br />

3<br />

v3 1 v3 2 v3<br />

3<br />

e calcolando, per esempio rispetto alla prima colonna,<br />

det 3 M =<br />

v<br />

(−1) 1+1 (v1 2( 1 det 2<br />

2 v2<br />

3<br />

v3 2 v3<br />

3<br />

rior<strong>di</strong>nando i termini<br />

⎤<br />

⎦<br />

)<br />

) + (−1) 2+1 v 1 2 (det 2(<br />

v<br />

2<br />

1 v 3 1<br />

v 2 3 v 3 3<br />

□<br />

)<br />

) + (−1) 3+1 v 1 3 (det 2(<br />

v<br />

2<br />

1 v 3 1<br />

v 2 2 v 3 2<br />

v 1 1 v2 2 v3 3 + v2 1 v3 2 v2 3 + v3 1 v1 2 v2 3 − v1 1 v3 2 v2 3 − v2 1 v1 2 v3 3 − v3 1 v2 2 v1 3 . (3.3)<br />

)<br />

) =<br />

3 Nel corso <strong>di</strong> matematica II si considerava la matrice trasposta, ovvero con le righe scambiate<br />

con le colonne<br />

16


Ora, possiamo considerare la funzione Det 3 come una funzione che alla terna<br />

or<strong>di</strong>nata <strong>di</strong> vettori v 1 , v 2 , v 3 , cioè alle colonne delle loro componenti v j i associa<br />

un numero reale. Questa funzione gode delle seguenti proprietà:<br />

1.<br />

Det 3 ([cv 1 , v 2 , v 3 ]) = Det 3 ([v 1 , cv 2 , v 3 ]) = Det 3 ([v 1 , v 2 , cv 3 ]) ≡ c De 3 ([v 1 , v 2 , v 3 ]),<br />

ovvero se moltiplico una delle tre colonne per uno scalare il determinante<br />

è moltiplicato per lo stesso numero (omogeneità);<br />

2. Se, e.g., v 1 = x + y, allora<br />

(Ad<strong>di</strong>tività)<br />

Det 3 ([v 1 , v 2 , v 3 ]) = Det 3 ([x, v 2 , v 3 ]) + Det 3 ([y, v 2 , v 3 ])<br />

3. Se i, j, k è una permutazione <strong>di</strong> 1, 2, 3, allora<br />

4.<br />

Det 3 ([v i , v j , v k ]) = ±Det 3 ([v 1 , v 2 , v 3 ]),<br />

Dove il segno è + se la permutazione è pari (ovvero si ottiene con un<br />

numero pari <strong>di</strong> scambi <strong>di</strong> numeri a<strong>di</strong>acenti), ed è − se è <strong>di</strong>spari, ovvero si<br />

ottiene con un numero <strong>di</strong>spari <strong>di</strong> scambi elementari. (Completa antisimmetria).<br />

(Normalizzazione).<br />

Det 3 ([⃗i,⃗j, ⃗ k]) = 1<br />

Nel caso <strong>di</strong> spazi vettoriali a <strong>di</strong>mensione N, si considerano collezioni <strong>di</strong> N vettori,<br />

e si definisce una funzione Det, che alle N-uple <strong>di</strong> vettori (e dunque, considerando<br />

il loro sviluppo lungo una base, a matrici quadrate <strong>di</strong> or<strong>di</strong>ne N) che<br />

gode delle (corrispettive) delle quattro proprietà qui ricordate. Questa funzione,<br />

si può, operativamente, definira in due mo<strong>di</strong>:<br />

Iterativamente. Si osserva, dalla prima riga della (3.3) che il determinante <strong>di</strong><br />

matrici 3 × 3 è definito attraverso il determinante <strong>di</strong> matrici 2 × 2, dove<br />

( )<br />

v11 v<br />

Det 12<br />

2 = v<br />

v 21 v 11 v 22 − v 12 v 21 . (3.4)<br />

22<br />

Allora si definisce il determinante <strong>di</strong> una matrice N × N, Det(M) attraverso il<br />

suo sviluppo secondo una colonna, come segue.<br />

Si fissa una colonna, e.g., la k-esima; allora il determinante <strong>di</strong> M si scrive<br />

come somma <strong>di</strong> N termini,<br />

Det N (M) =m 1,k · (−1) 1+k Det N−1 ˜M1,k +<br />

m 2,k · (−1) 2+k Det N−1 ˜M2,k +<br />

· · ·+<br />

m N,k · (−1) N+k Det N−1 ˜M N,k ,<br />

17<br />

(3.5)


dove ˜M h,k è la matrice (N − 1) × (N − 1) che si ottiene dalla M rimuovendo la<br />

h-esima riga e la k-esima colonna. Si noti che la prima delle formule (3.3) segue<br />

queta regola, con k = 1 (prima colonna).<br />

Per via combinatoria Si considera l’insieme P N <strong>di</strong> tutte le permutazioni degli<br />

N numeri [1, 2, 3, . . ., N]; è noto che questo insieme (in effetti è un gruppo) è<br />

costituito da N! elementi, ed è generato da scambi elementari, ovvero tra due<br />

elementio a<strong>di</strong>acenti (e.g., lo scambio che manda [1, 2, 3, . . ., N] in [2, 1, 3 . . ., N]).<br />

Un elemento π è detto pari se si ottiene con un numero pari n π <strong>di</strong> scambi<br />

elementari, e <strong>di</strong>spari altrimenti. Il segno sgn(π) <strong>di</strong> una permutazione π ∈ P N<br />

è, per definizione, il numero (−1) nπ (cioè è 1 se la permutazione è pari, −1 se è<br />

<strong>di</strong>spari.<br />

Data una matrice N × N, M, con elementi m ij , si può definire/calcolare il<br />

suo determinante attraverso la formula<br />

Det N (M) = ∑<br />

sgn(π) M 1π(1) M 2 π(2) · · ·M N π(N) (3.6)<br />

} {{ }<br />

π∈P N<br />

N termini<br />

La seconda riga della (3.3) dà un esempio <strong>di</strong> tale fomula. Si noti che il numero<br />

delle permutazioni della stringa [1, 2, 3] è 3! = 6; le permutazioni [1, 2, 3], [2, 3, 1], [3, 1, 2]<br />

sono pari, le permutazioni [2, 1, 3], [1, 3, 2], [3, 2, 1] sono <strong>di</strong>spari.<br />

Vale che:<br />

• Il determinante definito attraverso la (3.5) coincide con quello definito<br />

attraverso la (3.6).<br />

• Il determinante così efinito per matrici N ×N (ovvero per N-uple <strong>di</strong> vettori<br />

in uno spazio N-<strong>di</strong>mensionale dotato <strong>di</strong> una base gode delle proprietà 1–4<br />

del prodotto triplo <strong>di</strong> vettori in E 3 .<br />

Ulteriori proprietà notevoli del determinante, che si desumono agevolmente dalla<br />

proprietà base e/o dalla definizione sono:<br />

1. Il determinante della matrice identità 1 N è 1.<br />

2. data una matrice M ad elementi m ij , si definisce la sua trasposta come la<br />

matrice ottenuta scambiando le righe <strong>di</strong> M con le sue colonne, ovvero la<br />

matrice M T il cui elemento <strong>di</strong> posto ij è l’elemento m ji (pittoricamente,<br />

si scambiamo gli elementi <strong>di</strong> M con una riflessione lungo la <strong>di</strong>agonale<br />

principale). Allora vale che<br />

Det(M) = Det(M T )<br />

3. Una matrice si <strong>di</strong>ce triangolare superiore (risp. inferiore) se tutti gli elementi<br />

sopra (risp. sotto) la <strong>di</strong>agonale principale sono nulli. Il determinante<br />

<strong>di</strong> una matrice triangolare superiore (inferiore) è il prodotto degli<br />

elementi sulla <strong>di</strong>agonale principale.<br />

18


4. (Teorema <strong>di</strong> Binet) Il determinante del prodotto righe per colonne <strong>di</strong> due<br />

matrici è il prodotto dei determinanti, i.e.<br />

Det(M 1 · M 2 ) = Det(M 1 ) Det(M 2 )<br />

5. Se due colonne (o righe, per quanto detto sopra) <strong>di</strong> M sono linearmente<br />

<strong>di</strong>pendenti, allora<br />

Det(M) = 0<br />

Per il prodotto triplo <strong>di</strong> tre vettori, questa proprietà è ben nota. In effetti<br />

questa è una conseguenza <strong>di</strong>retta delle proprietà 1 e 2 della lista.<br />

Vale anche il converso dell’ultima proprietà, espressa dalla seguente relazione:<br />

Proposizione 3.3 Det(M) ≠ 0 se e solo se le colonne (e le righe) <strong>di</strong> M sono<br />

lineramente in<strong>di</strong>pendenti.<br />

Un’altra proprietà è la seguente. Se Det(M) ≠ 0 allora è definita univocamente<br />

l’inversa (denotata M −1 ) della matrice M, che sod<strong>di</strong>sfa le relazioni definitorie<br />

M −1 · M = M · M −1 = 1. (3.7)<br />

La matrice M −1 si calcola nel seguente modo: in analogia alla nella (3.5) associamo<br />

alla matrice M la matrice ̂M definita nel seguente modo:<br />

̂M ij = (−1) i+j Det(˜M ij ),<br />

dove, come sopra,è la matrice (N −1)×(N −1) che si ottiene dalla M rimuovendo<br />

la i-esima riga e la j-esima colonna.<br />

Questa matrice si chiama matrice ”cofattore” (il suo elemento ij è, come si<br />

può vedere, il coefficiente (”cofattore”) del termine m ij nello sviluppo (3.6) del<br />

determinante <strong>di</strong> M). Allora, la matrice inversa M −1 è la trasposta <strong>di</strong> ̂M <strong>di</strong>visa<br />

per il determinante <strong>di</strong> M. Si noti che dal teorema <strong>di</strong> Binet segue che<br />

Det(M −1 ) =<br />

1<br />

Det(M) .<br />

Proposizione 3.4 Sia L : V → V un operatore lineare; allora L è invertibile<br />

se e solo se per una (e dunque, come si vedrà, per ogni) sua rappresentazione<br />

matriciale L = [l ij ], si ha Det(L) ≠ 0.<br />

Dimostrazione. Abbiamo visto più sopra che L è invertibile se e solo se, data<br />

una base v i i vettori L(v i ) sono linearmente in<strong>di</strong>pendenti. Ma le colonne della<br />

matrice L che rappresenta L nella base v i sono proprio le componenti dei vettori<br />

L(v i ). Quin<strong>di</strong> L è invertibile se ammette una rappresentazione matriciale con<br />

una matrice invertibile. La proprietà è in<strong>di</strong>pendente dalla scelta della base.<br />

19


Infatti, se v i ′ è un’altra base <strong>di</strong> V , risultano definiti univocamente gli N 2 numeri<br />

G ij tali che<br />

v i ′ = ∑ G ji v i<br />

j<br />

Evidentemente, vale che se<br />

v i = ∑ j<br />

G ′ jiv ′ j<br />

allora, le due matrici G ′ e G sono una l’inversa dell’altra.<br />

Se L è la matrice che rappresenta L nella base dei v i , la matrice L ′<br />

rappresenta L nella base dei v i ′ è data dal prodotto<br />

che<br />

L ′ = G −1 LG<br />

(la verifica della vali<strong>di</strong>tà <strong>di</strong> questa affermazione è imme<strong>di</strong>ata). Dunque dal<br />

teorema <strong>di</strong> Binet,<br />

Det(L ′ ) = Det(G −1 LG) = Det(G −1 )Det(L)Det(G) = Det(L).<br />

Per il futuro, è utile sottolineare le affermazioni qui sopra. La relazione<br />

□<br />

v ′ i = ∑ j<br />

G ji v i<br />

si legge così: la rappresentazione matriciale <strong>di</strong> L nella base v i ′ si ottiene coniugando<br />

(ovvero con il prodotto G −1 LG) la matrice che rappresenta L nella base<br />

dei v i con la matrice le cui colonne sono le componenti dei vettori della nuova<br />

base rispetto alla precedente.<br />

Osservazione. Dalla legge <strong>di</strong> coniugio si deduce la seguente affermazione:<br />

affermazioni concernenti una rappresentazione matriciale <strong>di</strong> un operatore L sono<br />

intrinseche, ovvero proprie dell’operatore L se e solo se sono invarianti per coniugio<br />

tramite una qualsiasi matrice invertibile G. Ad esempio:<br />

L 12 è nullo non è invariante per coniugio.<br />

L 13 + L 24 = 3 non è invariante per coniugio.<br />

Invece:<br />

Da sopra, il determinante <strong>di</strong> un operatore si definisce come il determinante <strong>di</strong><br />

una sua (qualsiasi) rappresentazione matriciale.<br />

Un’altra proprietà: definiamo la Traccia <strong>di</strong> un operatore nel seguente modo.<br />

Consideriamo una (qualsiasi) rappresentazione matriciale L <strong>di</strong> L, e definiamo<br />

n∑<br />

Tr(L) = L ii ,<br />

ovvero la somma degli elementi <strong>di</strong>agonali della matrice L. Verifichiamo che il<br />

numero Tr(L) è in<strong>di</strong>pendente dalla rappresentazione matriciale. A questo scopo,<br />

ci serve il seguente<br />

20<br />

i=1


Lemma 3.5 Per ogni coppia <strong>di</strong> matrici A, B si ha<br />

Tr(AB) = Tr(AB).<br />

Considerato vero il lemma (ve<strong>di</strong> sotto) osserviamo che se L ′ è un’altra rappresentazione<br />

matriciale <strong>di</strong> L, deve esistere una matrice G (la matrice del cambiamento<br />

<strong>di</strong> base) per cui<br />

L ′ = G −1 LG.<br />

Dunque:<br />

Tr(L ′ ) = Tr(G} {{ −1 L}<br />

}{{} G ) = (Lemma) = Tr(G} {{ G −1<br />

} L) = Tr(L).<br />

=A =B<br />

=1<br />

Questo prova l’asserto, una volta che si sia provata la vali<strong>di</strong>tà del lemma. Questa<br />

segue dal fatto che gli elementi sulla <strong>di</strong>agonale del prodotto AB è<br />

[AB] ii = ∑ k<br />

A ik B ki<br />

Dunque,<br />

Tr(AB) =<br />

n∑<br />

[AB] ii =<br />

i=1<br />

n∑<br />

i=1<br />

( n∑<br />

k=1<br />

A ik B ki<br />

)<br />

=<br />

n∑<br />

k=1<br />

( n∑<br />

i=1<br />

B ki A ik<br />

)<br />

=<br />

n∑<br />

[BA] kk = Tr(BA),<br />

k=1<br />

dove l’unico passaggio non banale è l’inversione (lecita) dell’or<strong>di</strong>ne in quale<br />

vengono effettuate le somme sugli in<strong>di</strong>ci i e k (e il fatto che gli elementi A ij , B ij<br />

sono dei numeri reali (o complessi).<br />

<strong>Applicazioni</strong> delle nozioni qui esposte sono state già viste nella teoria delle<br />

equazioni lineari (eventualmente non omogenee).<br />

Consideriamo un sistema <strong>di</strong> N equazioni lineari non omogenee nelle M incognite<br />

{x 1 , x 2 , . . .,x M }. Queste si scrivono nella forma<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

a 11 x 1 + a 12 x + a 13 x 3 + · · ·a 1M x M = b 1<br />

a 21 x 1 + a 22 x + a 23 x 3 + · · ·a 2M x M = b 2<br />

.<br />

(3.8)<br />

a N1 x 1 + a N2 x + a N3 x 3 + · · ·a NM x M = b N<br />

Qui, gli NM elementi a ji sono scalari (che possona naturalmente essere arrangiati<br />

in una matrice A = [a ji ] j=1,...,N<br />

i=1,...,M , mentre gli N scalari [b 1, b 2 , . . ., b N ] formano<br />

il cosiddetto vettore dei termini noti. Possiamo dunque pensare al lato sinistro<br />

<strong>di</strong> (3.8) come alla rappresentazione <strong>di</strong> un operatore L : R M → T M , rispetto<br />

alla nase standard dei due spazi coinvolti, ed al lato destro (cioè al vettore dei<br />

termini noti) come alla assegnazione <strong>di</strong> un vettore B ∈ R N .<br />

In questo senso, il problema della soluzione <strong>di</strong> (3.8) può essere riformulato<br />

in questo modo:<br />

21


Trovare un (tutti i) vettori [x 1 , x 2 , · · · , x M ] in R M che vengono mandati<br />

dalla applicazione A, rappresentata dalla matrice A = a ji nel vettore B =<br />

[b 1 , . . .,b N ] ∈ R N .<br />

In particolare, consideriamo il caso in cui N = M (la matrice A è dunque<br />

quadrata), e B = [0, 0, · · · , 0] (sistema omogeneo), ovvero il sistema<br />

⎧<br />

a 11 x 1 + a 12 x + a 13 x 3 + · · ·a 1N x N = 0<br />

⎪⎨ a 21 x 1 + a 22 x + a 23 x 3 + · · ·a 2N x M = 0<br />

⎪⎩<br />

.<br />

a N1 x 1 + a N2 x + a N3 x 3 + · · ·a NN x N = 0<br />

(3.9)<br />

Le soluzioni <strong>di</strong> questo sistema sono dunque gli elementi del nucleo dell’operatore<br />

A rappresentato dalla matrice quadrata [a ji ] i,j=1,...,N . Dalla teoria esposta più<br />

sopra, abbiamo che:<br />

1. Se DetA ≠ 0 il nucleo dell’operatore A, rappresentato dalla matrice A<br />

è solo il vettore nullo, cioè il sistema (3.11) ha solo la soluzione {x 1 =<br />

0, x 2 = 0, . . .,x N = 0}.<br />

2. Se Det(A) = 0 il nucleo dell’operatore A non è banale, cioè esiste almeno<br />

un vettore (e dunque tutti i suoi multipli scalari) ¯x non nullo nel nucleo.<br />

Se [¯x 1 , ¯x x , . . ., ¯x N ] sono le sue compenenti, questa N-upla fornisce una<br />

soluzione (detta non banale) del sistema lineare.<br />

Infine, nel caso Det(A) = 0, è naturale porsi il problema <strong>di</strong> come trovare una<br />

soluzione non banale del sistema. Per risolvere questo problema si possono fare<br />

le seguenti osservazioni/ipotesi:<br />

Det(A) = 0 significa che Det(A T ) = 0; quin<strong>di</strong> le colonne <strong>di</strong> A T (che sono le<br />

righe <strong>di</strong> A) non sono linearmente in<strong>di</strong>pendenti. Questo vuole <strong>di</strong>re che c’è una<br />

equazione ”ridondante”, ovvero che una delle equazioni del sistema (3.11) è una<br />

combinazione lineare delle altre equazioni. Quin<strong>di</strong> per trovare le soluzioni del<br />

sistema in questione, posso considerare un sistema con una equazione in meno.<br />

Supponiamo <strong>di</strong> potere omettere l’ultima. Allora dobbiamo stu<strong>di</strong>are le soluzione<br />

del sistema em ridotto (ad N variabili ed N − 1 equazioni)<br />

⎧<br />

a 11 x 1 + a 12 x + a 13 x 3 + · · ·a 1N x N = 0<br />

⎪⎨ a 21 x 1 + a 22 x + a 23 x 3 + · · ·a 2N x M = 0<br />

⎪⎩<br />

.<br />

a N−1,1 x 1 + a N−1,2 x + a N−1,3 x 3 + · · ·a N−1,N x N = 0.<br />

(3.10)<br />

Supponendo che il determinante della matrice (N − 1) × (N − 1) ottenuta dalla<br />

A rimuovendo l’ultima riga e l’ultima colonna, riscriviamo il sistema come un<br />

sistema <strong>di</strong> N − 1 equazioni in N − 1 incognite, considerando l’ultima variabile<br />

22


x N come un parametro, nella forma<br />

⎧<br />

a 11 x 1 + a 12 x + a 13 x 3 + · · ·a 1,N−1 x N−1 = −a 1,N x N := β 1<br />

⎪⎨ a 21 x 1 + a 22 x + a 23 x 3 + · · ·a 2,N−1 x N−1 = −a 2,N x N := β 2<br />

⎪⎩<br />

.<br />

a N−1,1 x 1 + a N−1,2 x + a N−1,3 x 3 + · · ·a N−1,N−1 x N−1<br />

= −a N−1,N x N := β N−1<br />

(3.11)<br />

Quest’ultimo sistema si considera, ora, come un sistema non omogeneo (ripetiamo,<br />

<strong>di</strong> N − 1 equazioni in N − 1 incognite), con matrice dei coefficienti à N,N<br />

che ha determinante non nullo. La soluzione a questo sistema si può trovare<br />

con la regola <strong>di</strong> Cramer, ed è data dal vettore (ad N − 1 componenti)<br />

⎡ ⎤ ⎡ ⎤<br />

˜x 1<br />

β 1<br />

˜x 2<br />

β 2<br />

= Ã N,N ⎢ ⎥ ⎢ ⎥<br />

⎣ . ⎦ ⎣ . ⎦<br />

˜x N−1 ] β N−1<br />

In definitiva, la soluzione non banale del sistema degenere (3.8) è data dal<br />

vettore (ad N componenti)<br />

⎡ ⎤<br />

−a 1N<br />

−a 2N<br />

x = x N ·<br />

⎢<br />

.<br />

⎥<br />

⎣ −a N−1,N<br />

⎦<br />

1<br />

Questa formula – valida nel caso in cui Det(Ã N,N ) ≠ 0 – fornisce, al variare <strong>di</strong><br />

x N , le componenti del generico vettore del nucleo dell’operatore rappresentato<br />

dalla matrice A.<br />

4 Autovalori ed Autovettori<br />

La nozione <strong>di</strong> autovalore ed autovettore <strong>di</strong> un operatore e/o <strong>di</strong> una matrice sono<br />

relativi al seguente problema. Supponiamo <strong>di</strong> avere un operatore L, definito in<br />

uno spazio V <strong>di</strong> <strong>di</strong>mensione N per il quale esistano N vettori in<strong>di</strong>pendenti ψ i ,<br />

ed N scalari λ i tali che<br />

L · ψ i = λ i ψ i , i = 1, . . .,N. (4.1)<br />

Allora, nella base degli ψ i , l’operatore in questione è rappresentato dalla matrice<br />

<strong>di</strong>agonale <strong>di</strong>ag(λ i ), cioè quella che ha, sulla <strong>di</strong>agonale principale, gli scalari<br />

[λ 1 , λ 2 , . . .,λ N ].<br />

23


L’azione dell’operatore L si descrive in modo semplice. Se x = ∑ i x iψ i è la<br />

decomposizione <strong>di</strong> un vettore lungo al base degli ψ i , allora<br />

L(x) = ∑ i<br />

(x i )Lψ i = ∑ i<br />

(λ i x i )ψ i ,<br />

ovvero L agisce moltiplicando ciascuna componente <strong>di</strong> x rispetto alla base ψ i<br />

per il corrispondente scalare λ i . Se v i = ∑ j G jiψ j è un’altra base <strong>di</strong> V , allora<br />

la matrice che rappresenta L rispetto alla nuova base è data dalla matrice L =<br />

G −1 · <strong>di</strong>ag(λ i )G, che, in generale non è <strong>di</strong>agonale.<br />

Il problema che però ci vogliamo/dobbiamo porre è il seguente. Dato un<br />

operatore L : V → V , possiamo trovare una base nella quale L sia <strong>di</strong>agonale?<br />

E, se sì, come?<br />

Definizione 4.1 Sia L : V → V , ψ ≠ 0 ∈ V l e λ uno scalare. Si <strong>di</strong>ce che λ<br />

è un autovalore <strong>di</strong> L, con autovettore ψ (e si <strong>di</strong>ce che ψ è un autovettore <strong>di</strong> L<br />

relativo all’autovalore λ) se vale che<br />

Lψ = λψ, con ψ ≠ 0. (4.2)<br />

Nota Bene. La con<strong>di</strong>zione ψ ≠ 0 è fondamentale. Infatti la relazione L 0 = λ0<br />

è vera per ogni scalare λ, e non <strong>di</strong>ce nulla su L. La seguente osservazione è,<br />

nella sua semplicità, cruciale. Riscrivendo la (4.2) nella forma<br />

Lψ = λψ ⇔ (L − λ1)ψ = 0, (4.3)<br />

(nel prosieguo, ometteremo il simbolo 1), abbiamo che λ è un autovalore <strong>di</strong> L<br />

se e solo se l’operatore L − λ ha nucleo non banale (cioè esiste un vettore non<br />

nullo ψ ∈ Ker(L −λ)). Questo pone delle con<strong>di</strong>zioni algebriche non banali su λ.<br />

Infatti, sia v i una base <strong>di</strong> V , e consideriamo la rappresentazione matriciale <strong>di</strong> L<br />

(e <strong>di</strong> L−λ) definita dalla v i . Come sappiamo, la con<strong>di</strong>zione che il nucleo <strong>di</strong> L−λ<br />

sia non banale si traduce nella richiesta che la matrice L − λ rappresentativa <strong>di</strong><br />

L − λ abbia determinante nullo.<br />

Proposizione 4.2 Se λ è un autovalore, allora il polinomio in λ (<strong>di</strong> or<strong>di</strong>ne<br />

N = <strong>di</strong>m(V ) definito da<br />

P L (λ) = Det(L − λ1) ≡ Det(l ij − λδ ij ) = 0 (4.4)<br />

ha λ come ra<strong>di</strong>ce.<br />

In più questa con<strong>di</strong>zione non <strong>di</strong>pende dalla scelta della base.<br />

Dimostrazione. Se λ è un autovalore, allora il determinante <strong>di</strong> l ij − λδ ij<br />

si annulla, per quanto detto sopra. Dobbiamo solo fare vedere che questa con<strong>di</strong>zione<br />

è in<strong>di</strong>pendente dalla scelta della base in V . In effetti, vale che non solo<br />

gli zeri, ma il polinomio Det(l ij − λδ ij ) è definito da L, ovvero non cambia al<br />

cambiare della base. Abbiamo già osservato che se v ′ j = ∑ i G ijv i è un’altra base<br />

24


<strong>di</strong> V , allora la matrice G <strong>di</strong> elementi G ij è invertibile, e le matrici rappresentative<br />

- nelle due basi v i e v j ′ <strong>di</strong> L sono legate dalla relazione<br />

L ′ = Gg · LG −1<br />

Dato che posso scrivere λ1 = G −1 · λ1G ottengo<br />

Det(L ′ − λ1) = Det(G −1 · LG − G −1 λ1G) = Det(G −1 (L − λ1)G) =<br />

per il teorema <strong>di</strong> Binet = Det(G −1 )Det(L − λ1)Det(G) = Det(L − λ1),<br />

dove nell’ultima uguaglianza della prima riga si è raccolto a sinistra il fattore<br />

G −1 e a destra il fattore G, mentre nell’ultima uguaglianza della seconda riga si<br />

è usato il fatto che Det(G −1 1<br />

) =<br />

Det(G) .<br />

Il polinomio Det(L − λ1) si chiama polinomio caratteristico dell’operatore L (o<br />

anche associato all’operatore L). Il polinomio caratteristico <strong>di</strong> un operatore<br />

L : V → V è un polinomio <strong>di</strong> or<strong>di</strong>ne N = <strong>di</strong>m(V ), con coefficiente <strong>di</strong> or<strong>di</strong>ne più<br />

alto dato da c N = (−1) N 4 .<br />

Proposizione 4.3 Siano ψ 1 e ψ 2 autovettori <strong>di</strong> L : V → V relativi ad autovalori<br />

<strong>di</strong>stinti, cioè valgano<br />

Lψ 1 = λ 1 ψ 1 , Lψ 2 = λ 2 ψ 2 , con λ 1 ≠ λ 2 .<br />

Allora ψ 1 e ψ 2 sono linearmente in<strong>di</strong>pendenti.<br />

Dimostrazione. Supponiamo che ci sia una combinazione lineare<br />

allora L(c 1 ψ 1 + c 2 ψ 2 ) = 0 e dunque vale che<br />

c 1 ψ 1 + c 2 ψ 2 = 0; (4.5)<br />

c 1 λ 1 ψ 1 + c 2 λ 2 ψ 2 = 0. (4.6)<br />

Se λ 1 ≠ λ 2 , allora almeno uno dei due autovalori non è nullo; supponiamo<br />

λ 1 ≠ 0. Moltiplicando (4.5) per λ 1 e sottraendo questa da (4.6) si trova<br />

c 2 (λ 2 − λ 1 )ψ 2 = 0<br />

Ma ψ 2 non è il vettore nullo, e (λ 2 −λ 1 ) ≠ 0. Quin<strong>di</strong> deve essere c 2 = 0. Quin<strong>di</strong>,<br />

sostituendo nella (4.5), si ha che anche c 1 = 0, il che chiude la <strong>di</strong>mostrazione.<br />

4 Talvolta il polinomio caratteristico <strong>di</strong> L è definito da Det(λ − L). La nostra definizione e<br />

questa <strong>di</strong>fferiscono per il fattore moltiplicativo (−1) N .<br />

25<br />

□<br />


Per induzione, si <strong>di</strong>mostra che questa proprietà è vera anche per il caso <strong>di</strong> M<br />

autovettori corrispondenti ad M autovalori <strong>di</strong>stinti, ovvero vale che:<br />

Proposizione 4.4 Siano {ψ i } i=1,...,M M autovettori <strong>di</strong> L : V → V relativi ad<br />

M autovalori <strong>di</strong>stinti λ 1 ≠ λ 2 ≠ · · · , λ M . Allora gli {ψ i } i=1,...,M sono linearmente<br />

in<strong>di</strong>pendenti.<br />

Questo considerazione mostrano che se un operatore definito su uno spazio a<br />

<strong>di</strong>mensione N allora può avere al più N autovalori <strong>di</strong>stinti, e, in questo caso, gli<br />

autovettori relativi a tali autovalori formano una base <strong>di</strong> V . Quin<strong>di</strong> in questa<br />

base L è rappresentato da una matrice <strong>di</strong>agonale (si <strong>di</strong>ce che L è <strong>di</strong>agonalizzabile.<br />

Esempio. Consideriamo la matrice <strong>di</strong> Pauli iσ 1 =<br />

rappresentatrice dell’operatore<br />

σ 1 : C 2 → C 2<br />

( 0 1<br />

1 0<br />

)<br />

, pensata come<br />

Il polinomio caratteristico <strong>di</strong> σ 1 è<br />

(<br />

−λ 1<br />

Det(<br />

1 −λ<br />

)<br />

) = λ 2 − 1.<br />

Quin<strong>di</strong> σ 1 ammette due autovalori <strong>di</strong>stinti, λ 1 = 1, λ 2 = −1. Per trovare<br />

autovettori relativi a questi due autovalori, dobbiamo determinare il nucleo <strong>di</strong><br />

σ 1 −1 (per λ 1 ) e <strong>di</strong> σ 1 +1 (ovvero sostituire λ = ±1 nella equazione (σ 1 −λ1)ψ =<br />

0). Detto ψ = [ψ 1 , ψ 2 ] dobbiamo (incominciando dal caso <strong>di</strong> λ 1 ) risovere il<br />

sistema (<br />

−1 1<br />

1 −1<br />

)(<br />

ψ1<br />

) (<br />

0<br />

=<br />

ψ 2 0<br />

)<br />

, ⇔<br />

{<br />

−psi1 + ψ 2 = 0<br />

ψ 1 − ψ 2 = 0<br />

Le soluzioni <strong>di</strong> questo sistema (le due equazioni sono una l’opposto dell’altra...)<br />

sono tutti i vettori ψ tali che la prima compopnente sia uguale alla seconda,<br />

ovvero, gli autovettori relativi a λ 1 = 1 sono dati da<br />

( ) a<br />

ψ 1 = , a ≠ 0. (4.7)<br />

a<br />

Un calcolo analogo porta alla caratterizzazione degli autovettori relativi a λ 2 =<br />

−1 come a tutti i vettori della forma<br />

( ) −b<br />

ψ 2 = , b ≠ 0. (4.8)<br />

b<br />

Osserviame che ψ 1 e ψ 2 forniscono, per ogni scelta degli scalari, (eventualmnete<br />

complessi) a, b una base in C 2 . È utile verificare la legge <strong>di</strong> trasformazione delle<br />

rappresentazioni matriciali degli operatori in questo caso.<br />

26


( 0 1<br />

La matrice σ 1 =<br />

1 0<br />

)<br />

è riferita alla base naturale <strong>di</strong> C 2 data da<br />

(<br />

1<br />

e 1 =<br />

0<br />

) (<br />

0<br />

, e 2 =<br />

1<br />

Fissati a, b non nulli, la matrice che definisce i vettori ψ 1 (a), ψ 2 (b) rispetto alla<br />

base standard è<br />

[ ]<br />

[ ]<br />

a −b<br />

1/2 a<br />

−1<br />

1/2 a −1<br />

G = , con inversa G −1 =<br />

.<br />

a b<br />

−1/2 b −1 1/2 b −1<br />

)<br />

.<br />

Se consideriamo il prodotto G −1 σ 1 G otteniamo<br />

[ ]<br />

1/2 a<br />

−1<br />

1/2 a −1 ( ) [<br />

0 1 a −b<br />

· ·<br />

−1/2 b −1 1/2 b −1 1 0 a b<br />

} {{ }<br />

[ ] [<br />

1/2 a<br />

−1<br />

1/2 a −1 a −b<br />

·<br />

1/2 b −1 −1/2 b −1 a b<br />

]<br />

]<br />

=<br />

( 1 0<br />

0 −1<br />

)<br />

(4.9)<br />

In altre parole, la trasformazione G che manda i vettori della base standard nei<br />

vettori della base degli autovettori <strong>di</strong> σ 1 , <strong>di</strong>agonalizza σ 1 .<br />

Esempio 2 Consideriamo la matrice<br />

⎡ ⎤<br />

A =<br />

Il suo polinomio caratteristico è<br />

⎢<br />

⎣<br />

2 1 1<br />

1 2 3<br />

1 −1 −2<br />

⎥<br />

⎦<br />

λ 3 − 3λ 2 − 2λ = λ(λ + 1)(λ − 3),<br />

e dunque i suoi autovalori sono λ 1 = 0, λ 2 = −1, λ 3 = 3 (Osserviamo che la<br />

presenza dell’autovalore 0 significa che il nucleo <strong>di</strong> A è non banale. Infatti, la<br />

terza riga è la <strong>di</strong>fferenza delle prime due.<br />

Calcoliamo l’autovettore relativo a λ 1 . Dato che, appunto, la terza equazione<br />

è combinazione lineare delle prime due, possiamo considerare il sistema in due<br />

equazioni e tre incognite (ψ 1 , ψ 2 ψ 3 ) dato dalle prime due righe <strong>di</strong> Aψ = 0,<br />

ovvero il sistema<br />

{ {<br />

2ψ1 + ψ 2 + ψ 3 = 0 2ψ1 + ψ<br />

ovvero<br />

2 = −ψ 3<br />

ψ 1 + 2ψ 2 + 3ψ 3 = 0 ψ 1 + 2ψ 2 = −3ψ 3<br />

Scriviamo questo sistema matricialmente come<br />

( )( ) ( )<br />

2 1 ψ1 −ψ3<br />

= . (4.10)<br />

1 2 ψ 2 −3ψ 3<br />

27


Ci accorgiamo che il determinante della matrice 2×2 associata a questo sistema<br />

non omogeneo, cioè<br />

( ) 2 1<br />

 33 =<br />

1 2<br />

è invertibile, con inversa data da<br />

(Â33) −1 =<br />

( 2<br />

3<br />

− 1 3<br />

− 1 3<br />

2<br />

3<br />

)<br />

Dunque la soluzione generale <strong>di</strong> (4.10) è<br />

( ) ( 2<br />

) ( ) (<br />

psi1<br />

− 1 1 −ψ3<br />

=<br />

3 3<br />

2 · =<br />

ψ 3 3<br />

ψ 2 −3ψ 3 − 5ψ 3 3<br />

− 1 3<br />

3<br />

)<br />

.<br />

Dunque l’autovettore relativo all’autovalore 0 <strong>di</strong> A si scrive come<br />

⎡<br />

1<br />

ψ ⎤ ⎡ ⎤<br />

3 3 1<br />

ψ 1 = ⎣ − 5ψ ⎦<br />

3 3 = µ ⎣ −5 , ⎦<br />

ψ 3 3<br />

dove µ = ψ 3 /3 è un qualsiasi numero non nullo.<br />

Con conti analoghi, si vede che gli autovettori relativi agli altri due autovalori<br />

sono<br />

⎡ ⎤<br />

0<br />

λ 2 = −1, ψ 2 = µ ⎣ −1 ⎦<br />

1<br />

e<br />

⎡ ⎤<br />

1<br />

λ 3 = 3, ψ 3 = µ ⎣ 1 ⎦<br />

0<br />

In quest’ultimo caso si ha però che<br />

⎡ ⎤<br />

−1 1 1<br />

A − 31 = ⎢<br />

⎣<br />

1 −1 3 ⎥<br />

⎦<br />

1 −1 −5<br />

e dunque non si può utilizzare la matrice Â33) per definire il sistema lineare 2×2<br />

da risolvere. Una buona scelta è utilizzare Â31), ovvero considerare il sistema<br />

{<br />

ψ2 + ψ 3 = ψ 1<br />

−ψ 2 + 3ψ 3 = −ψ 1<br />

28


5 Prodotti scalari e hermitiani.<br />

La nozione <strong>di</strong> prodotto scalare in R 3 e si generalizza nel seguente modo:<br />

Definizione 5.1 Sia V uno spazio lineare /R. Un prodotto scalare su V e’<br />

una applicazione (“funzione”)<br />

che sod<strong>di</strong>sfi:<br />

1. (x, y) = (y, x) (simmetria)<br />

(·, ·) : V × V → R<br />

2. (x, y + z) = (x, y) + (y + z) (linearità)<br />

3. (c x, y) = c(x, y) (omogeneità)<br />

4. (x, x) ≥ 0 e (x, x) = 0 ⇔ x = 0 (positività)<br />

Notiamo che, grazie alla proprietà 1) valgono anche:<br />

(x + y, z) = (x, z) + (y + z), e (x, c y) = c(x, y).<br />

Si può dunque <strong>di</strong>re che un prodotto scalare su uno spazio vettoriale reale V è<br />

una applicazione simmetrica, “bilineare” (proprietà 2) e 3)) e definita positiva<br />

<strong>di</strong> V ×V in R. Esempio. Sullo spazio standard R n delle n-uple <strong>di</strong> numeri reali<br />

si ha il prodotto scalare standard: se x = (x 1 , x 2 , . . ., x n ) e y = (y 1 , y 2 , . . .,y n ),<br />

allora si pone:<br />

n∑<br />

(x,y) = x i y i .<br />

Esempio. Sempre in R n si possono porre “<strong>di</strong>versi” prodotti scalari. Per esempio,<br />

fissata una n-upla <strong>di</strong> numeri positivi a = a 1 , a 2 , . . .,a n , si può porre<br />

(x,y) a =<br />

i=1<br />

n∑<br />

a i x i y i<br />

Esempio Prodotto scalare “standard” in C I .<br />

Sia I = [a, b] un intervallo (chiuso e limitato) della retta reale, e consideriamo<br />

lo spazio delle funzioni continue C I definite su I a valori reali.<br />

Sappiamo che C I è uno spazio vettoriale. Poniamo, per definizione,<br />

(f, g) =<br />

∫ b<br />

a<br />

i=1<br />

f(x) g(x) dx.<br />

Vogliamo verificare che (·, ·) : C I × C I → R è un prodotto scalare.<br />

Per prima cosa, notiamo che è ben definito. Infatti, se f e g sono funzioni<br />

continue su un intervallo chiuso e limitato, lo è anche il loro prodotto, e quin<strong>di</strong><br />

l’integrale ∫ b<br />

a fg(d) x è un numero reale.<br />

29


Le proprietà <strong>di</strong> simmetria, linearità e omoigeneità sono ovvie. La proprità<br />

<strong>di</strong> positività segue dal fatto che (f, f) = ∫ b<br />

a f2 (x) dx, e dunque (f, f) ≥ 0. In<br />

particolare, (f, f) = 0 se e solo se f = 0 per tutti gli x, ovvero fè la funzione<br />

nulla, cioè lo zero dello spazio vettoriale C I .<br />

Analogamene al caso <strong>di</strong> R n , se ψ(x) è una funzione non negativa, la legge<br />

(f, g) ψ =<br />

∫ b<br />

a<br />

f(x)g(x)ψ(x) dx<br />

definisce un prodotto scalare in C I .<br />

Consideriamo ora spazi vettoriali sui numeri complessi.<br />

Definizione 5.2 Sia V uno spazio lineare /C. Un prodotto scalare, detto anche,<br />

se è il caso <strong>di</strong> <strong>di</strong>stinguere, un prodotto hermitiano su V e’ una applicazione<br />

(“funzione”)<br />

(·, ·) : V × V → C<br />

che sod<strong>di</strong>sfi:<br />

1. (x, y) = (y, x) (simmetria hermitiana)<br />

2. (x, y + z) = (x, y) + (y + z) (linearità)<br />

3. (x, c y) = c(x, y) (omogeneità)<br />

4. (x, x) ≥ 0 e (x, x) = 0 ⇔ x = 0 (positività)<br />

Notiamo che, grazie alla proprietà 1) e 2) valgono anche:<br />

(x + y, z) = (x, z) + (y, z), e (c x, y) = c(x, y).<br />

Si può dunque <strong>di</strong>re che un prodotto scalare su uno spazio vettoriale complesso<br />

V è una applicazione simmetrica, “sesquilineare” 5 (proprietà 2) e 3)) e definita<br />

positiva <strong>di</strong> V × V in C.<br />

Esempio. Il prodotto scalare standard in C n è definito nel seguente modo.<br />

Siano se x = (x 1 , x 2 , . . .,x n ) e y = (y 1 , y 2 , . . .,y n ) elementi <strong>di</strong> C n . Il prodotto<br />

scalare (o hermitiano, o euclideo) standard è definito da<br />

(x,y) =<br />

n∑<br />

x i y i .<br />

i=1<br />

Esempio. Se C I (C) è lo spazio delle funzioni continue sull’intevallo I = [a, b] a<br />

valori complessi, allora la legge<br />

(f, g) =<br />

∫ b<br />

a<br />

f(x)g(x) dx<br />

5 sesqui=1 e 1 2 . 30


dà luogo ad un prodotto hermitiano in C I (C).<br />

Nota. Si noti che nel caso complesso, è cruciale prendere il complesso coniugato<br />

delle componenti (e.g., in C n ). Se si ponesse, in completa analogia con il caso<br />

reale,<br />

n∑<br />

〈x,y〉 = x i y i<br />

si otterrebbe una forma bilineare in C n , che non gode della proprietà <strong>di</strong> positività.<br />

Per rendersi conto <strong>di</strong> ciò, basta considerare, in C 2 , il vettore η = (1, i) ≠<br />

0. Allora,<br />

(η, η) = 1 1 + i i = 1 − i 2 = 2, mentre 〈η, η〉 = 1 1 + i i = 1 + i 2 = 0<br />

i=1<br />

6 Spazi euclidei e normati<br />

Proposizione 6.1 (Disuguaglianza <strong>di</strong> Cauchy-Schwartz) Sia (V, (, )) uno spazio<br />

euclideo. Allora, per ogni coppia v 1 , v 2 vale che<br />

|(v 1 , v 2 )| 2 ≤ (v 1 , v 1 )(v 2 , v 2 ), (6.1)<br />

e l’uguaglianza vale solo se v 2 = cv 2 (cioè se v 1 e v 2 sono linearmente <strong>di</strong>pendenti).<br />

Dimostrazione. Se uno dei due vettori è nullo, la affermazione è vera. Quin<strong>di</strong><br />

possiamo supporre che entrambi i vettori siano non nulli. Definiamo x =<br />

(v 2 , v 2 ), y = (v 1 , v 2 ) e consideriamo la combinazione lineare<br />

ξ = xv 1 − yv 2<br />

Dalla proprietà <strong>di</strong> positività del prodotto scalare, abbiamo (ξ, ξ) ≥ 0. Dunque<br />

0 ≤ (ξ, ξ) = (xv 1 −yv 2 , xv 1 −yv 2 ) = |x| 2 (v 1 , v 1 )−xy(v 2 , v 1 )−xy(v 1 , v 2 )+|y| 2 (v 2 , v 2 ).<br />

ovvero, sostituendo, le espressioni <strong>di</strong> x e y,<br />

|(v 2 , v 2 )| 2 (v 1 , v 1 )−(v 2 , v 2 )(v 1 , v 2 )(v 2 , v 1 )−(v 1 , v 1 )(v 1 , v 2 )(v 1 , v 2 )+|(v 1 , v 2 )| 2 (v 2 , v 2 ) ≥ 0.<br />

Notando che (v i , v i ) > 0 e che (v 2 , v 1 ) = (v 1 , v 2 ), si ottiene<br />

0 ≤ (v 2 , v 2 ) 2 (v 1 , v 1 ) − (v 2 , v 2 )|(v 1 , v 2 )| 2 ,<br />

e dunque, <strong>di</strong>videndo per (v 2 , v 2 ), si ha che<br />

|(v 1 , v 2 )| 2 ≤ (v 1 , v 1 )(v 2 , v 2 ),<br />

che è quello che si doveva mostrare.<br />

In particolare, notiamo che l’uguaglianza vale sse ξ = 0, ovvero sse v 1 e v 2<br />

sono linearmente <strong>di</strong>pendenti.<br />

31


In uno spazio euclideo si può definire un concetto <strong>di</strong> lunghezza (detta norma)<br />

<strong>di</strong> un vettore. Definiamo norma <strong>di</strong> v ∈ V la quantità<br />

‖v‖ = √ (v, v). (6.2)<br />

Proposizione 6.2 La norma <strong>di</strong> un vettore è una applicazione ‖ · ‖ : V → R<br />

che sod<strong>di</strong>sfa le seguenti proprietà<br />

1. ‖v‖ ≥ 0, con ugualianza sse v = 0 (positività);<br />

2. ‖c v‖ = |c|‖v| (omogeneità);<br />

3. ‖v + u‖ ≤ ‖v‖ + ‖u‖ (<strong>di</strong>suguaglianza triangolare).<br />

Dimostrazione Le prime due proprietà seguono imme<strong>di</strong>atamente dall proprietà<br />

2 e 3 del prodotto scalare. Per l’ultima, osservato che la <strong>di</strong>suguaglianza <strong>di</strong><br />

Cauchy–Schwartz si può scrivere come<br />

il che implica le due <strong>di</strong>suguaglianze<br />

Consideriamo<br />

|(v 1 , v 2 )| 2 ≤ ‖v 1 ‖ 2 ‖v 2 ‖ 2 , (6.3)<br />

(v 1 , v 2 ) ≤ ‖v 1 ‖‖v 2 ‖, |(v 1 , v 2 )| ≤ ‖v 1 ‖‖v 2 ‖.<br />

‖v 1 + v 2 ‖ 2 = (v 1 + v 2 , v 1 + v 2 ) = (v 1 , v 1 ) + (v 1 , v 2 ) + v 1 , v 2 ) + (v 2 , v 2 ) =<br />

‖v 1 ‖ 2 + ‖v 2 ‖ 2 + (v 1 , v 2 ) + v 1 , v 2 ).<br />

Utilizzando le <strong>di</strong>suguaglianze <strong>di</strong> cui sopra, si ha<br />

‖v 1 + v 2 ‖ 2 ≤ ‖v 1 ‖ 2 + ‖v 2 ‖ 2 + 2‖v 1 ‖‖v 2 ‖ = (‖v 1 ‖ + ‖v 2 ‖) 2<br />

e dunque, dato che entranbi i membri <strong>di</strong> questa equazione sono numeri reali non<br />

negativi, la tesi si ottiene prendendo la ra<strong>di</strong>ce quadrata.<br />

6.1 Ortogonalità e sue prime applicazioni<br />

Consideriamo uno spazio vettoriale V dotato <strong>di</strong> un prodotto interno (o hermitiano,<br />

se V è sui complessi) ( , ).<br />

Definizione 6.3 Due vettori v 1 , v 2 si <strong>di</strong>cono ortogonali sse (v 1 , v 2 ) = 0.<br />

Dalla definizone ve<strong>di</strong>amo subito che lo 0 <strong>di</strong> V è l’unico vettore <strong>di</strong> V ortogonale<br />

a se stesso. Infatti (0 , 0) = 0, e (v , v) = 0 ↔ v = 0 (proprietà 3 del prodotto<br />

euclideo/hermitiano).<br />

32<br />

□<br />


Proposizione 6.4 Siano v 1 , v 2 , non nulli e ortogonali; allora v 1 e v 2 sono linearmente<br />

in<strong>di</strong>pendenti.<br />

Dim. Sia c 1 v 1 + c 2 v 2 = 0 una combinazione lineare <strong>di</strong> v 1 e v 2 che <strong>di</strong>a 0.<br />

Dobbiamo verificare che c 1 = c 2 = 0. Dal fatto che (0 , 0) = 0 abbiamo<br />

0 = (c 1 v 1 + c 2 v 2 , c 1 v 1 + c 2 v 2 )<br />

Sviluppando questa uguaglianza si ha (consideriamo il caso hermitiano)<br />

0 = ¯c 1 c 1 (v 1 , v 1 ) + ¯c 1 c 2 (v 1 , v 2 ) + ¯c 2 c 1 (v 2 , v 1 ) + ¯c 2 c 2 (v 2 , v 2 ).<br />

Dato che (v 1 , v 2 ) = (v 2 , v 1 ) sono per ipotesi nulli, ne otteniamo<br />

0 = |c 1 | 2 (v 1 , v 1 ) + |c 2 | 2 (v 2 , v 2 )<br />

I due adden<strong>di</strong> del membro destro sono non negativi, e dunque deve valere<br />

|c 1 | 2 (v 1 , v 1 ) = |c 2 | 2 (v 2 , v 2 ) = 0; dato che i vettori v 1 , v 2 non sono nulli (e dunque<br />

(v i , v i ) > 0), ne possiamo concludere che c 1 = c 2 = 0<br />

Osserviamo che, più in generale, vale la seguente proprietà:<br />

Sia {v 1 , . . .,v k } un insieme <strong>di</strong> vettori non nulli <strong>di</strong> V , che sod<strong>di</strong>sfino<br />

(v i , v j ) = 0, i ≠ j = 1, . . ., k.<br />

Allora questi vettori sono lineramente in<strong>di</strong>pendenti. Infatti basta notare che,<br />

detto ξ = ∑ k<br />

i=1 x iv i , si ha<br />

□<br />

k∑<br />

(ξ, ξ) = i x j (v i , v j ) =<br />

i,j=1x ∑ i<br />

|x i |(v i , v i ).<br />

Esempio 1. Nello spazio R n , questa proprietà, applicata a vettori v i = e li , dove<br />

e i è la n-upla data da (0, 0, . . ., 0 1 , 0, . . ., 0), riba<strong>di</strong>sce che questi vettori sono<br />

}{{}<br />

posto i<br />

in<strong>di</strong>pendenti. Peraltro, garantisce che, per esempio, i vettori v = (1, 1, 0, . . ., 0)<br />

ed u = (1, −1, 0, . . ., 0) sono in<strong>di</strong>pendenti.<br />

Nota. Una coseguenza <strong>di</strong> questa proprietà è che, presi n + k vettori v α non<br />

nulli in uno spazio vettoriale euclideo V n <strong>di</strong> <strong>di</strong>mensione n deve aversi, per quelche<br />

α, β, (v α , v β ) ≠ 0. Viceversa, una base <strong>di</strong> V n formata da vettori ortogonali a<br />

due a due si chiama base ortogonale. In particolare, se questi vettori sono tutti<br />

<strong>di</strong> norma uguale a 1, la base si <strong>di</strong>ce base ortonormale. Ad esempio, la terna<br />

−→ i ,<br />

−→ j ,<br />

−→ k è una base ortonormale dello spazio euclideo R 3 , dotato del prodotto<br />

scalare standard.<br />

33


Esempio 2. Consideriamo lo spazio delle funzioni (<strong>di</strong>ciamo continue) C [−π,π]<br />

nell’intervallo I = [−π, π], e i vettori u n ∈ C [−π,π] definiti da<br />

u 0 (x) = 1, u 2n−1 (x) = cos(n x), u 2n = sin(n x), n = 1, 2, 3, . . ..<br />

Questo insieme (o sistema, o famiglia) <strong>di</strong> vettori è ortogonale.<br />

Infatti, consideriamo n ≠ m e il prodotto scalare<br />

(u n , u m ) =<br />

∫ π<br />

−π<br />

u n (x)u m (x) dx.<br />

Ora, se n è nullo, abbiamo (u 0 , u m ) = ∫ u I n(x)dx = 0; supponiamo che sia n<br />

che m siano non nulli e (per esempio), sia n = 2k − 1, m = 2l. Allora si ha<br />

∫<br />

(u n , u m ) = cos(k x) sin(l x) dx<br />

Integrando per parti si ha<br />

(u n , u m ) = 1 k sin(k x) sin(l x)∣ ∣ π −π − l k<br />

dato che le funzioni sono perio<strong>di</strong>che otteniamo<br />

(u n , u m ) = − l ∫<br />

sin(k x) cos(l x)dx.<br />

k<br />

I<br />

I<br />

∫<br />

I<br />

sin(k x) cos(l x)dx.<br />

Se k = l, abbiamo dunque (u n , u m ) = −(u n , u m ) e dunque (u n , u m ) = 0. se<br />

k ≠ l, si ha, analogamente,<br />

∫<br />

sin(k x) cos(l x) = − l ∫<br />

cos(k x) sin(l x) dx<br />

k<br />

e dunque otteniamo che<br />

I<br />

(u 2k−1 , u 2l ) = l2<br />

k 2(u 2k−1, u 2l )<br />

che <strong>di</strong>mostra che (u 2k−1 , u 2l ) = 0, ∀ k, l. Il caso n, m entrambi pari o <strong>di</strong>spari<br />

si tratta analogamente. Dunque gli u n sono un sistema ortogonale in C [−π,π] .<br />

Ricordando che ∫<br />

∫<br />

cos 2 (n x) dx = sin 2 (n x)dx = π<br />

I<br />

e osservamdo che (u 0 , u 0 ) = 2π si vede che la famiglia<br />

v 0 = u 0<br />

√<br />

2π<br />

, v n = u n<br />

√ π<br />

I<br />

I<br />

34


è ortonormale in C [−π,π] .<br />

Esempio 3. Una variante dell’esempio 2. Sia V C lo spazio delle funzioni perio<strong>di</strong>che<br />

da I = [−π, π] a valori complessi. Consideriamo, in V C C la famiglia<br />

{e n } n∈Z definita da:<br />

e 0 (x) = 1, e n (x) = exp(i n x), n ≠ 0. (6.4)<br />

Questa è una famiglia ortogonale. Infatti, consideriamo il prodotto scalare<br />

∫<br />

∫<br />

∫<br />

(e n , e m ) = e n (x)e m (x) dx = exp(−i n x) exp(i m x) dx ≡ exp(i(n−m) x)dx<br />

I<br />

Supponiamo n ≠ m. Integrando<br />

I<br />

1<br />

∣<br />

(e n , e m ) = ∣ exp(i(n − m) x) π<br />

i(n − m)<br />

= 0, −π<br />

per la perio<strong>di</strong>cità della funzione esponenziale con argomento immaginario. Se,<br />

ora, n = m (eventualmente entrambi = 0) abbiamo<br />

∫<br />

(e n , e n ) = 1 dx = 2π.<br />

I<br />

Dunque la famiglia ortonormale corrispondente alla famiglia e n si ottene come<br />

v n = √ en<br />

2π<br />

.<br />

Basi ortonormali godono <strong>di</strong> una proprietà fondamentale, ovvero che le componenti<br />

dello sviluppo <strong>di</strong> un generico vettore v sulla base in questione si calcolano<br />

attraverso prodotti scalari. Ovvero, vale che<br />

Proposizione 6.5 Sia {e 1 , . . .,e n } una (qualsiasi) base ortonormale in V n . Lo<br />

sviluppo dell’elemento v ∈ V lungo V è dato da<br />

I<br />

v = ∑ i<br />

v i e i , con v i = (v, e i ). (6.5)<br />

In altre parole, le componenti <strong>di</strong> v lungo la base e i sono i prodotti scalari (e i , v).<br />

Dimostrazione. Dato che e i sono una base, lo sviluppo<br />

v = ∑ i<br />

v i e i<br />

è univocamente determinato. Scegliamo un in<strong>di</strong>ce k e pren<strong>di</strong>amo il prodotto<br />

scalare (e k , v) <strong>di</strong> entrambi i membri <strong>di</strong> questa uguaglianza; a sinistra abbiamo<br />

(v, e k ), mentre a destra (grazie alla linearità del prodotto euclideo)<br />

∑<br />

v i (e k , e i ) = v k perchè (e k , e i ) = 0 se i ≠ k, e vale 1 per i = k.<br />

i<br />

Nota. Questa <strong>di</strong>mostrazione è fatta per spazi <strong>di</strong> <strong>di</strong>mensione finita. Peraltro<br />

vale anche in <strong>di</strong>mensione infinita.<br />

35


Proposizione 6.6 (Formule <strong>di</strong> Parseval) Sia V n uno spazio vettoriale (complesso)<br />

<strong>di</strong> <strong>di</strong>mensione finita, e {e i } i=1,...,n una sua base ortonormale. Allora, per<br />

ogni coppia <strong>di</strong> vettori x, y ∈ V n ,<br />

(y, x) =<br />

n∑<br />

(e i , y)(e i , x). (6.6)<br />

i=1<br />

In particolare, ‖x‖ 2 = ∑ i |(e i, x)| 2 .<br />

Dimostrazione. Scriviamo, secondo la (6.5),<br />

x = ∑ i<br />

(e i , x)e i<br />

e calcoliamo (y, x); sfruttando sempre la linearità <strong>di</strong> ( , ) abbiamo<br />

(y, x) = (y, ∑ (e i , x)e i ) = ∑ ( ) ∑<br />

y, (ei , x)e i = (e i , x)(y, e i ) = ∑<br />

i<br />

i<br />

i<br />

i<br />

(e i , y)(e i , x),<br />

come affermato. La seconda affermazione si ottiene prendendo y = x.<br />

□<br />

7 Operatori Hermitiani (simmetrici)<br />

Il problema <strong>di</strong> determinare se e quando un operatore è <strong>di</strong>agonalizzabile non è <strong>di</strong><br />

facile risoluzione. In questa ultima lezione introdurremo una classe <strong>di</strong> operatori<br />

lineari, detti operatori Hermitiani definiti su spazi euclidei (complessi), per i<br />

quali vale un teorema <strong>di</strong> <strong>di</strong>agonalizzazione.<br />

Consideriamo uno spazio vettoriale euclideo complesso (V, (,)); sia L : V →<br />

V . L’aggiunto <strong>di</strong> L è quell’operatore L † che verifica<br />

(y, Lx) = (L † y, x) = (x, L † y), ∀ x, y ∈ V. (7.1)<br />

Per definizione, (L 1 + L 2 ) † = L † 1 + L † 2, e (zL) † = zL † .<br />

Esempio 1. Se V è <strong>di</strong> <strong>di</strong>mensione finita, l’aggiunto <strong>di</strong> un operatore esiste<br />

sempre. In particolare, se L è la rappresentazione matriciale <strong>di</strong> L rispetto ad<br />

una base ortonormale {e i } i=1,...,N=<strong>di</strong>mV , gli elementi <strong>di</strong> matrice [l † ] ij sono dati<br />

dai complessi coniugati degli elementi della matrice trasposta L T , ovvero, in<br />

formule,<br />

l † ij = l ji<br />

Per rendersi conto <strong>di</strong> questo fatto, basta ricordare che rispetto ad una base<br />

ortonormale, l’elemento <strong>di</strong> matrice l ij si calcola come<br />

l ij = (e i , L(e j ))<br />

36


Dunque, l’elemento l † ij è<br />

(e i , L † (e j )) = (L † (e j ), e i ) = (e j , L(e i )) = l ji ,<br />

dove, nella terza uguaglianza si è usata (“al contrario”) la definizione <strong>di</strong> aggiunto.<br />

Per como<strong>di</strong>tà, data una matrice L, si chiama matrice aggiunta (o, anche,<br />

coniugata Hermitiana) <strong>di</strong> L, la matrice il cui elemento <strong>di</strong> posto i, j è il complesso<br />

coniugato dell’elemento <strong>di</strong> posto j, i della matrice L. In poche parole, la matrice<br />

aggiunta è la coniugata della trasposta (o la trasposta della coniugata).<br />

Nota Nel caso reale, la matrice aggiunta si riduce alla matrice trasposta.<br />

Esempio 2 Sia C ∞ ([a, b]) lo spazio delle funzioni perio<strong>di</strong>che definite sull’intervallo<br />

[a, b], derivabili un numero arbitrario <strong>di</strong> volte, dotato del prodotto euclideo<br />

(f, g) =<br />

∫ b<br />

a<br />

f(x)g(x) dx ,<br />

e consideriamo l’operatore ˆ∂, che associa ad f(x) la sua derivata. Verifichiamo<br />

che ˆ∂ † = −ˆ∂.<br />

∫ b<br />

(f, ˆ∂(g)) = f(x) d (g(x)) dx = ( integrando per parti )<br />

a dx<br />

f(x)g(x) ∣ ∫ b<br />

b − ( d f(x))g(x) dx =<br />

a<br />

a dx<br />

( dato che le funzioni sono perio<strong>di</strong>che )<br />

=<br />

∫ b<br />

a<br />

− d<br />

dx (f(x))g(x) dx = (−ˆ∂f, g).<br />

Definizione 7.1 Un operatore si chiama autoaggiunto o hermitiano se L = L † ;<br />

una matrice si chiama autoaggiunta o hermitiana se è uguale alla sua aggiunta.<br />

Un operatore si <strong>di</strong>ce antiautoaggiunto (o anti hermitiano) se il suo aggiunto è il<br />

suo opposto (cioè, L+L † = 0). Osserviamo che se L è hermitiano, i L è antihermitiano<br />

e viceversa. Nel caso reale, una matrice hermitiana è una matrice che<br />

coincide con la sua trasposta, ed è detta più comunemente matrice simmetrica<br />

(omettendo ”rispetto alla riflessione secondo la <strong>di</strong>agonale principale”).<br />

Esempi. Le matrici <strong>di</strong> Pauli definite in (2.9) sono (così come l’operatore ˆ∂<br />

<strong>di</strong>scusso qui sopra, antiautoaggiunte. L’operatore iˆ∂ è autoaggiunto.<br />

Nel seguito considereremo autovalori ed autovettori <strong>di</strong> operatori (matrici)<br />

hermitiani.<br />

Nota. Un operatore autoaggiunto è rappresentato, in una base ortonormale<br />

da una matrice autoaggiunta. Questa proprietà è invariante per coniugio per<br />

matrici unitarie, ovvero matrici la cui inversa coincide con la aggiunta. Due<br />

basi ortonormali in uno spazio vettoriale complesso (finito <strong>di</strong>mensionale) sono<br />

37


collegate da una matrice unitaria.<br />

Esercizio. Dimostrare queste affermazioni, ricordando che<br />

e<br />

(AB) † = B † A † notare l’inversione dell’or<strong>di</strong>ne<br />

(G −1 ) † = (G † ) −1 .<br />

Esercizio. Dimostrare anche queste ultime due affermazioni.<br />

Proposizione 7.2 Se λ è un autovalore <strong>di</strong> un operatore hermitiano H, allora<br />

λ è reale (λ = λ; nel caso <strong>di</strong> operatori antihermitiani, λ è immaginario puro.<br />

Dimostrazione. Se λ è un autovalore <strong>di</strong> H, allora esiste un vettore non nullo<br />

ψ tale che<br />

Hψ = λψ, ⇒, (ψ, Hψ) = (ψ, λψ) = λ(ψ, ψ);<br />

Ma (ψ, Hψ) = (H † ψ, ψ); dato che H † = H, quest’ultima equazione <strong>di</strong>venta<br />

(λψ, ψ) = λ(ψ, ψ).<br />

Nella sezione precedente, abbiamo visto che autovettori <strong>di</strong> un operatore qualsiasi<br />

relativi ad autovalori <strong>di</strong>stinti sono linearmente in<strong>di</strong>pendenti. Per operatori<br />

Hermitiani, vale una proprietà più forte, ovvero:<br />

Proposizione 7.3 Siano λ 1 e λ 2 due autovalori <strong>di</strong>stinti <strong>di</strong> un operatore Hermitiano<br />

H : V → V , e siano ψ 1 e ψ 2 due autovettori relativi, ovvero,<br />

Hψ 1 = λ 1 ψ 1 , Hψ 2 = λ 2 ψ 2 , con λ i ∈ R, ψ i ≠ 0, i = 1, 2. (7.2)<br />

Allora ψ 1 e ψ 2 sono ortogonali.<br />

Dimostrazione. Da un lato<br />

(ψ 1 , Hψ 2 ) = (ψ 1 , λ 2 ψ 2 ) = λ 2 (ψ 1 , ψ 2 )<br />

Dall’altro (utilizzando H = H † e il fatto che gli autovalori sono reali),<br />

(ψ 1 , Hψ 2 ) = (H † (ψ 1 ), ψ 2 ) = (Hψ 1 , ψ 2 ) = (λ 1 ψ 1 , ψ 2 ) = λ 1 (ψ 1 , ψ 2 )<br />

Sottraendo queste due relazioni si ha<br />

0 = (ψ 1 , Hψ 2 ) − (ψ 1 , Hψ 2 ) = (λ 2 − λ 1 )(ψ 1 , ψ 2 ).<br />

Dato che abbiamo supposto λ 1 ≠ λ 2 deve essere (ψ 1 , ψ 2 ) = 0.<br />

□<br />

□<br />

38


Nota La semplicità della <strong>di</strong>mostrazione <strong>di</strong> questa proposizione non rende giustizia<br />

alla sua importanza. Di fatto, la proprietà <strong>di</strong> ortogonalità <strong>di</strong> autovettori<br />

relativi ad autovalori <strong>di</strong>fferenti è l’elemento cruciale che assicura la <strong>di</strong>agonalizzabilità<br />

<strong>di</strong> operatori (matrici) Hermitiani.<br />

Una generalizzazione della proprietà qui sopra è la seguente. Dato uno spazio<br />

Euclideo V , ed un suo sottospazio vettoriale, W ⊂ V , il complemento ortogonale<br />

W ⊥ <strong>di</strong> W in V è definito nel seguente modo:<br />

W ⊥ := {y ∈ V t.c. (y, x) = 0, ∀ x ∈ W }, (7.3)<br />

o, a parole, è l’insieme (che si <strong>di</strong>mostra essere un sottospazio vettoriale <strong>di</strong> V )<br />

<strong>di</strong> tutti quei vettori che sono ortogonali (secondo ( , )) a ogni elemento del<br />

sottospazio assegnato W.<br />

Proposizione 7.4 Sia H : V → V un operatore hermitiano, e sia W un sottospazio<br />

invariante per H, ovvero tale che<br />

H x ∈ W ∀ x ∈ W. (7.4)<br />

Allora anche il suo complemento ortogonale W ⊥ è invariante sotto H, ovvero<br />

H y ∈ W ⊥ ∀ y ∈ W ⊥ . (7.5)<br />

Dimostrazione. Esplicitando la (7.5), dobbiamo <strong>di</strong>mostrare che per tutti gli<br />

y tali che (y, x) = 0, ∀x ∈ W<br />

succede che<br />

(x, Hy) = 0, ∀x ∈ W.<br />

Ora:<br />

(x, Hy) = ((H † x), y) = (H è hermitiano ) = (Hx, y), ∀x, y.<br />

Ma, se x ∈ W, Hx ∈ W per l’ipotesi (7.4), e quin<strong>di</strong> (Hx, y) = 0, dato che<br />

y ∈ W ⊥ . Dunque (x, Hy) = 0 se x ∈ W, ovvero Hy ∈ W ⊥ .<br />

Da questi risultati segue la <strong>di</strong>agonalizzabilità <strong>di</strong> un operatore Hermitiano H,<br />

ovvero che H “ammette una base <strong>di</strong> autovettori”. L’argomento procede per<br />

induzione “a ritroso”. Descriviamolo algoritmicamente.<br />

Passo 1<br />

Si considera dapprima H 1 ≡ H : V → V ; il polinomio caratteristico <strong>di</strong> H 0<br />

ammette (per il teorema fondamentale dell’<strong>algebra</strong>) una ra<strong>di</strong>ce λ 1 . In particolare<br />

questa è una ra<strong>di</strong>ce reale. In corrispondenza <strong>di</strong> λ 1 , esiste 6 almeno un autovettore<br />

ψ 1 ,<br />

H 1 ψ 1 = λ 1 ψ 1<br />

6 Questo è un teorema: data una ra<strong>di</strong>ce del polinomio caratteristico <strong>di</strong> una matrice, allora<br />

esiste almeno un autovettore. Il problema della non <strong>di</strong>agonalizzabilità <strong>di</strong> una matrice nasce dal<br />

fatto che non è detto che ad una ra<strong>di</strong>ce <strong>di</strong> or<strong>di</strong>ne n del polinomio caratteristico corrispondano<br />

esattamente n auutovalori in<strong>di</strong>pendenti<br />

39<br />


Considero allora V 1 := {spazio generato da ψ 1 }, e, soprattutto, il suo complemento<br />

ortogonale V1 ⊥ . Per la proposizione (7.4), H definisce un operatore<br />

H 2 := H| V ⊥<br />

1<br />

: V ⊥<br />

1 → V ⊥<br />

1 .<br />

Questo operatore è ben definito ed Hermitiano. Quin<strong>di</strong> posso tornare al passo<br />

1, e riapplicare l’argomento.<br />

Dopo un numero N = <strong>di</strong>mV <strong>di</strong> passi si costruisce la base richiesta.<br />

Il proce<strong>di</strong>mento qui sopra illustra anche l’ultima particolarità saliente degli<br />

operatori Hermitiani. Consideriamo la sequenza degli autovalori 7 λ 1 , λ 2 , · · · , λ N ,<br />

e quella degli autovettori relativi {ψ 1 , ψ 2 , . . .,ψ N }. Per costruzione, gli ψ j sono<br />

ortogonali l’un l’altro, i.e., (ψ i , ψ j ) = 0, i ≠ j. Quin<strong>di</strong>, eventualmente <strong>di</strong>videndo<br />

per ‖ψ j ‖, posso considerare una nuova sequenza <strong>di</strong> autovettori {ψ ′ 1, ψ ′ 2, · · · , ψ ′ N },<br />

fatta da vettori ortonormali, i.e.,<br />

(ψ ′ i, ψ ′ j) = δ ij .<br />

Se {v k } è una base ortonormale <strong>di</strong> V (e.g., la base standard in C N ), allora<br />

una matrice U che <strong>di</strong>agonalizza (la matrice H rappresentativa <strong>di</strong>) H, si ottiene<br />

giustapponendo le colonne delle componenti degli autovettori ψ i ′ rispetto alla<br />

base considerata.<br />

La aggiunta <strong>di</strong> U è la matrice la cui i-esima riga è formata dai complessi<br />

coniugati <strong>di</strong> queste componenti. Consideriamo il prodotto della matrici U † · U.<br />

L’elemento <strong>di</strong> posto k, j, è, per definizione, la somma termine a termine (su l)<br />

dei prodotti degli elementi <strong>di</strong> posto k, l <strong>di</strong> U † (cioè il complesso coniugato della<br />

componente l-esima del k-esimo autovettore) per gli elementi <strong>di</strong> posto l, j <strong>di</strong> U,<br />

ovvero la componente l-esima del j-esimo autovettore. In breve,<br />

[<br />

U† · U ] = (ψ kj k, ψ j ) V = δ kj<br />

In modo compatto, U † · U = 1. Quin<strong>di</strong> la matrice U che <strong>di</strong>agonalizza un operatore<br />

Hermitiano rispetto ad una base ortonormale <strong>di</strong> autovettori sod<strong>di</strong>sfa la<br />

con<strong>di</strong>zione<br />

U −1 = U † ;<br />

una tale matrice si <strong>di</strong>ce Unitaria (la corrispondente con<strong>di</strong>zione nel caso reale è<br />

O −1 = O T , e la matrice viene detta ortogonale). Un operatore che, in una base<br />

ortonormale, viene rappresentato da una matrice unitaria si <strong>di</strong>ce unitario.<br />

Gli operatori unitari godono della seguente proprietà caratteristica:<br />

Proposizione 7.5 U : V → V è unitario se e solo se, ∀ x, y ∈ V ,<br />

(U(y), U(x)) = (x, y), (7.6)<br />

cioè se conserva i prodotti scalari tra vettori (e, in particolare, le loro norme).<br />

7 Non è detto che i λ i siano tutti <strong>di</strong>stinti, ma questo non importa<br />

40


Dimostrazione Da un lato, possiamo scrivere il membro sinistro della (7.6)<br />

come<br />

(U(y), U(x)) = (U † (U(y)), x) = ( se U † · U = 1) = (y, x).<br />

D’altro canto, sia e i una base ortonormale <strong>di</strong> V . Allora<br />

U(e k ) = ∑ j<br />

U kj e j ,<br />

Allora,<br />

(U(e k ), U(e l )) = ∑ j<br />

∑<br />

U k jU ln (e j , e n ).<br />

Ma la base è ortonormale, dunque (e j , e n ) = δ jn . La somma doppia <strong>di</strong> quest’ultima<br />

equazione <strong>di</strong>venta una somma singola (per la proprietà del simbolo δ <strong>di</strong> Kronecker,<br />

e.g., su j, ovvero<br />

n<br />

(U(e k ), U(e l )) = ∑ j<br />

∑<br />

U k jU ln δ jn = ∑ n<br />

n<br />

[U † ] n k<br />

{}}{<br />

U kn U ln = ∑ n<br />

U ln U † nk = [UU † ] lk .<br />

Dato che (U(e k ), U(e l )) = (e k , e l ) = δ kl = δ lk , ne segue che [UU † ] lk = δ lk .<br />

Ritornando a considerare un operatore autoaggiunto H, possiamo sintetizzare<br />

le considerazioni fin qui fatte nel seguente<br />

Teorema 7.6 Un operatore (matrice) autoaggiunto (a) si <strong>di</strong>agonalizza tramite<br />

un operatore (matrice) unitario (a).<br />

Nel caso dello spazio euclideo V = E 3 , un operatore lineare ortogonale<br />

é dunque un operatore lineare che conserva gli angoli tra i vettori e le loro<br />

lunghezze. Dunque è un operatore che rappresenta una rotazione rigida attorno<br />

ad un asse 8 .<br />

7.1 Uno spazio euclideo notevole<br />

In questa sezione finale stu<strong>di</strong>eremo in modo informale uno spazio euclideo complesso<br />

(in generale, specie nel caso infinito <strong>di</strong>mensionale, tali spazi si chiamano<br />

spazi <strong>di</strong> Hilbert) <strong>di</strong> notevole interesse in meccanica quantistica.<br />

Definizione 7.7 Chiamiamo ′ L 2 (R, C) lo spazio delle funzioni f, definite sull’asse<br />

reale a valori complessi, derivabili infinite volte, ”a quadrato integrabili”, ovvero<br />

tali che valga<br />

∫<br />

|f(x)| 2 dx < ∞. (7.7)<br />

8 A meno <strong>di</strong> riflessioni.<br />

R<br />

□<br />

41


Lo spazio ′ L 2 (R, C) è dotato <strong>di</strong> un prodotto scalare definito, come negli altri<br />

casi <strong>di</strong> spazi <strong>di</strong> funzioni su intervalli della retta reale, da<br />

∫<br />

(f, g) = f(x)g(x) dx. (7.8)<br />

R<br />

Infatti, una applicazione, <strong>di</strong>retta ma non banale, della <strong>di</strong>suguaglianza <strong>di</strong> Cauchy–<br />

Schwartz mostra che,<br />

∫ ∫<br />

∫<br />

|f(x)| 2 dx e |g(x)| 2 dx < ∞ ⇒ f(x)g(x) dx < ∞,<br />

R<br />

R<br />

ovvero che, date f, g ∈ ′ L 2 (R, C), allora (f, g) è ben definito; il fatto che sia<br />

un prodotto euclideo si mostra come nel caso <strong>di</strong> funzioni definite su intervalli.<br />

Osserviamo che ogni f ∈ ′ L 2 (R, C) si annulla all’infinito (cioè lim x→±∞ f(x) =<br />

0); questo permette <strong>di</strong> rendersi conto che gli operatori −iˆ∂, e dunque anche<br />

−∂ 2 x = (−iˆ∂) 2 sono hermitiani su ′ L 2 (R, C). In ′ L 2 (R, C) consideriamo lo spazio<br />

F delle funzioni della forma<br />

Su F definiamo l’operatore<br />

f(x) = P(x) exp (− x2<br />

), dove P è un polinomio.<br />

2<br />

R<br />

Ĥ : F −→ F<br />

f(x) ↦→ (− 1 2 ∂2 x + 1 ̂x 2 2 )(f(x)) = − 1f ′′ (x) + x 2 f(x).<br />

2<br />

(7.9)<br />

Vogliamo verificare che l’operatore Ĥ ammette, la sequenza <strong>di</strong> numeri<br />

λ n = (n + 1 ), n = 0, 1, . . .<br />

2<br />

come autovalori, e come corrispondenti autovettori funzioni f n della forma<br />

f n = P n (x) exp (− x2<br />

2 ),<br />

per polinomi P n <strong>di</strong> grado n, univocamente definiti (a meno <strong>di</strong> una costante<br />

moltiplicativa, come è ovvio).<br />

Per semplicità notazionale, consideriamo l’operatore Ĥ motiplicato per 2,<br />

ovvero mostriamo che<br />

Ĥ ′ := −∂x 2 + x2<br />

ha autovalori dati da λ n = 2n + 1, n = 0, 1, . . ..<br />

Proce<strong>di</strong>amo prima con esempi <strong>di</strong> grado basso, cominciando come ovvio con<br />

n = 0. Abbiamo, detta ψ 0 := exp (− x2<br />

2 ),<br />

dψ 0<br />

dx = −xψ 0,<br />

d 2<br />

dx 2ψ 0 = −ψ 0 + x dψ 0<br />

dx = −ψ 0 + x 2 ψ 0 (7.10)<br />

42


Dunque,<br />

Ĥ ′ (ψ 0 ) = −(∂ 2 x + x 2 )(ψ 0 ) = −(−ψ 0 + x 2 ψ 0 ) + ψ 0 = ψ 0 .<br />

Dunque, la affermazione è vera per n = 0. Consideriamo il caso n = 1, e<br />

ψ 1 = (x + a)ψ 0 . Abbiamo, in questo caso,<br />

ψ 1 ′ = aψ 0 − x(x + a)ψ 0 , ⇒, ψ 1 ” = (x 3 + ax 2 − 3 x − a)ψ 0<br />

Allora,<br />

Ĥ ′ (ψ 1 ) = ( −(x 3 + ax 2 − 3 x − a) + (x 2 (x + a)) ) ψ 0 = (3x + a)ψ 0 .<br />

D’altro canto, λψ 1 = (λ x + λ a)ψ 0 ; dunque l’uguaglianza<br />

Ĥ ′ ψ 1 = λψ 1<br />

è vera se e solo se λ = 3, a = 0; ve<strong>di</strong>amo che per n = 1 la affermazione è vera,<br />

con ψ 1 = xψ 0 .<br />

Per n generico, si può procedere nel seguente modo:<br />

Si osserva che<br />

il che implica che<br />

d 2<br />

exp (−x2<br />

f(x 2 )) = ( f ′′ (x) − 2 x − f(x) + x 2 f(x) ) exp (− x2<br />

2 )),<br />

H(f(x) exp (− x2<br />

2 )) = (− (f ′′ (x) + 2 x + f(x)) exp (− x2<br />

2 ).<br />

e dunque l’equazione agli autovalori Ĥ′ ψ = λψ si scrive come<br />

(− (f ′′ (x) + 2 x + (1 − λ)f(x))exp (− x2<br />

2 ) = 0, ⇔ f ′′ (x) + 2 x + (1 − λ)f(x).<br />

(7.11)<br />

Ora, se f(x) = P n (x) è un polinomio <strong>di</strong> grado n, con coefficiente lea<strong>di</strong>ng 1,<br />

ovvero<br />

∑n−1<br />

n∑<br />

P n (x) = x n + x k , o P n = a k x k , a n = 1,<br />

abbiamo che la (7.11) <strong>di</strong>viene:<br />

−<br />

k=2<br />

k=0<br />

n∑<br />

n∑<br />

(k(k − 1)a i )(x k−2 + ( (2ka k x k ) +<br />

k=1<br />

k=0<br />

n∑<br />

((1 − λ)a k x k ) = 0. (7.12)<br />

Quin<strong>di</strong> per risolvere il nostro problema basta verificare che questa equazione è<br />

risolubile nello spazio dei polinomi, ovvero dei coefficienti {a 0 , . . .,a n−1 }.<br />

43<br />

k=0


Consideriamo il temine <strong>di</strong> or<strong>di</strong>ne più elevato (ovvero n) in (7.12); il primo<br />

addendo non contribuisce; dunque si ha<br />

(2n + 1 − λ) = 0 ⇒ λ n = 2n + 1.<br />

Questa prima equazione determina λ n = 2n + 1, e dunque, per lo stu<strong>di</strong>o delle<br />

equazioni successive possiamo considerare la equazione<br />

−<br />

n∑<br />

n∑<br />

(k(k − 1)a k )(x k−2 + ( (2ka k x k ) +<br />

k=2<br />

k=1<br />

n∑<br />

((−2n)a k x k ) = 0. (7.13)<br />

Per il termine <strong>di</strong> or<strong>di</strong>ne n − 1 <strong>di</strong> P n si ha (anche qui il primo addendo non<br />

contribuisce):<br />

k=0<br />

2(n − 1)a n−1 − 2na n−1 ≡ (−2)a n−1 = 0 ⇔ a n−1 = 0.<br />

La equazione per a n−2 è (qui c’entra anche il primo addendo)<br />

La equazione per a n−3 è<br />

=1<br />

{}}{<br />

− (n − 2)(n − 3) a n +2(n − 2)a n−2 − 2na n−2<br />

≡ −(n − 2)(n − 3) − 2a n−2 = 0<br />

⇔ a n−2 = − 1 (n − 2)(n − 3)<br />

4<br />

−(n −3)(n −4)a n−1 +2(n −3)a n−3 −2na n−3 ≡ −(n −3)(n −4)a n−1 −6a n−3 = 0<br />

Ma abbiamo visto che a n−1 = 0, e dunque anche a n−3 = 0.<br />

In generale, guardando in faccia la (7.13) si osserva che, per i coefficienti a i<br />

questa dà luogo ad equazioni ricorsive che determinano il termine a p−2 , noto il<br />

termine a p ; infatti si ha, per p = n − l, l = 2, . . ., n − 1<br />

−(n − l − 1)(n − l − 2)a n−l − 2la n−l−2 = 0<br />

e, per l’ultimo termine (p = 0 ↔ l = n), (qui il secondo addendo della (7.13)<br />

non contribuisce)<br />

Questo conclude la <strong>di</strong>mostrazione.<br />

−2a 2 − 2na 0 = 0, ⇔ a 0 = − 1 n a 2.<br />

Osservazioni. 1) È evidente che P n(x) non è la funzione nulla; dato che<br />

∫<br />

(ψ n , ψ n ) = Pn(x) 2 exp(−x 2 ) dx<br />

R<br />

è un numero finito (l’integrando decade esponenzialmente), chiamiamolo c 9 n ,<br />

se considero ψ n ′ = ψn<br />

c n<br />

ho<br />

9 E.g., c 0 = ∫ R exp(−x2 )dx = √ π<br />

44


i) Ĥψ′ n = (n + 1 2 )ψ′ n<br />

ii) (ψ n ′ , ψ′ n ) = 1 (gli autovettori “primati” hanno norma pari ad 1).<br />

2) (ψ n , ψ m ) = 0 se n ≠ m (Autovettori corrispondenti ad autovalori <strong>di</strong>stiniti<br />

sono “ortogonali”!); in particolare si ha anche che<br />

(ψ n ′ , ψ′ m ) = 0 se n ≠ m,<br />

ovvero i vettori {ψ ′ n } n=0,1,2,... formano una famiglia (o sistema) <strong>di</strong> vettori ortonormali<br />

in L 2 (R, C) 10<br />

3) I polinomi corrispondenti ai vettori ψ ′ n, ovvero<br />

P ′ n ≡ ψ′ n exp(x2 ) ≡ P n<br />

√<br />

cn<br />

si chiamano Polinomi <strong>di</strong> Hermite. Osserviamo che la relazione <strong>di</strong> ricorrenza<br />

a k+2 = G(a k ), a n = 1, a n−1 = 0<br />

implica che i polinomi <strong>di</strong> Hermite sono pari se n è pari e <strong>di</strong>spari se n è <strong>di</strong>spari.<br />

10 In un senso opportuno, essi formano una base nello spazio <strong>di</strong> Hilbert L 2 (R, C) .<br />

45

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!