Appunti di algebra - Matematica e Applicazioni
Appunti di algebra - Matematica e Applicazioni
Appunti di algebra - Matematica e Applicazioni
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Aspetti <strong>di</strong> Algebra Lineare<br />
<strong>Appunti</strong> per il corso <strong>di</strong> Complementi <strong>di</strong> <strong>Matematica</strong> del Secondo anno del Corso<br />
<strong>di</strong> Laurea Triennale in Scienza dei Materiali, Università <strong>di</strong> Milano–Bicocca, anni<br />
accademici 2006/2007 e 2007/2008.<br />
Gregorio Falqui<br />
Dipartimento <strong>di</strong> <strong>Matematica</strong> e <strong>Applicazioni</strong><br />
Università <strong>di</strong> Milano – Bicocca<br />
Nota Introduttiva. Il materiale contenuto in questi appunti si basa sulle<br />
lezioni tenute negli anni accademici dal 2006 in avanti per gli studenti del secondo<br />
anno <strong>di</strong> Scienza dei materiali. Per prepararle, mi sono basato sui seguenti<br />
libri:<br />
T. Apostol, Calcolo Vol II (Boringhieri, Torino)<br />
S. Abeasis, Algebra lineare e geometria, (Zanichelli, Bologna).<br />
Queste note non vogliono sostituire un libro <strong>di</strong> testo, ma piuttosto costituire<br />
un resumé degli argomenti trattati nel corso. Conformemente allo spirito e alla<br />
pratica (e, segnatamente, al limitato tempo a <strong>di</strong>sposizione per l’esposizione)<br />
delle lezioni, molto spesso le <strong>di</strong>mostrazioni – specie quelle piú lunghe – sono<br />
omesse. Per queste, per ulteriori esempi, nonché per una formulazione più<br />
completa dei problemi e del quadro teorico, si rimanda ai due libri menzionati.<br />
Si assume (come da pratica del corso) che gli studenti siano già stati esposti (nei<br />
corsi del primo anno) alle nozioni basilari della geometria euclidea del piano R 2<br />
e nello spazio R 3 .<br />
AVVISO IMPORTANTE:<br />
V ersione numero 0, December5, 2007, Soggetta a cambiamenti<br />
Commenti e correzioni sono benvenuti.<br />
1
Contents<br />
1 Spazi vettoriali 3<br />
1.1 Generatori, basi (in)<strong>di</strong>pendenza lineare . . . . . . . . . . . . . . 4<br />
2 <strong>Applicazioni</strong> lineari e matrici 5<br />
3 Determinanti e matrici inverse 14<br />
4 Autovalori ed Autovettori 23<br />
5 Prodotti scalari e hermitiani. 29<br />
6 Spazi euclidei e normati 31<br />
6.1 Ortogonalità e sue prime applicazioni . . . . . . . . . . . . . . . 32<br />
7 Operatori Hermitiani (simmetrici) 36<br />
7.1 Uno spazio euclideo notevole . . . . . . . . . . . . . . . . . . . . 41<br />
2
1 Spazi vettoriali<br />
La nozione <strong>di</strong> spazio vettoriale formalizza le proprietà algebriche fondamentali<br />
dei vettori (applicati nello stesso ”punto”, cioè con l’origine coincidente) nello<br />
spazio ”fisico” E 3 . Come si vedrà, tali proprietà sono proprie <strong>di</strong> elementi <strong>di</strong> altri<br />
spazi (e.g., spazi <strong>di</strong> funzioni).<br />
Definizione 1.1 Sia F il campo dei numeri reali R o quello dei complessi C<br />
(spesso, se non si deve <strong>di</strong>stinguere, ci si riferisce agli elementi <strong>di</strong> F come agli<br />
scalari). Uno spazio vettoriale V su F è un insieme dotato <strong>di</strong> due ”operazioni”:<br />
1. Somma , + : V × V → V,<br />
2. Moltiplicazione per uno scalare ·F × V → V,<br />
che sod<strong>di</strong>sfano le proprietà elementari della somma e moltiplicazione per uno<br />
scalare dei vettori dello spazio E 3 , ovvero (nella lista qui sotto, lettere a, b, . . .<br />
rappresentamo scalari, mentre lettere u, v, x, y . . . in<strong>di</strong>cano vettori):<br />
• Commutatività x + y = y + x a · x = x · a, ∀a, x, y.<br />
• Associatività (x + y) + z = x + (y + z), ∀ x, y, z.<br />
• Esistenza dello zero e dell’opposto Esiste un (unico) vettore 0 ∈ Vt.c.v +<br />
0 = v, ∀ v; Per ogni v ∈ V esiste (unico) un elemento (−v)t.c.v+(−v) = 0<br />
• Proprietà che connettono + e · Le operazioni in V sono ”compatibili” con<br />
quelle note in F; per esempio,<br />
(a + b) · v = a · v + b · v.<br />
Si noti che in questa ultima equazione, il simbolo + nella parte sinistra<br />
in<strong>di</strong>ca la somma <strong>di</strong> numeri, mentre il simbolo + a destra è la somma <strong>di</strong><br />
elementi <strong>di</strong> V.<br />
Esempio 1. Lo spazio delle n-uple (or<strong>di</strong>nate) <strong>di</strong> elementi <strong>di</strong> F è uno spazio<br />
vettoriale, quando si definiscano la somma e la moltiplicazione per uno scalare<br />
nel seguente modo:<br />
(x 1 , x 2 , · · · , x n ) + (y 1 , y 2 , · · · , y n ) := (x 1 + y 1 , x 2 + y 2 , · · · , x n + y n )<br />
a · (x 1 , x 2 , · · · , x n ) := (ax 1 , ax 2 , · · · , ax n ),<br />
ovvero, come si <strong>di</strong>ce abitualmente, componente per componente.<br />
Esempio 2. Sia I un intervallo <strong>di</strong> R, e sia C I lo spazio delle funzioni (possibilmente<br />
continue) definite su I a valori reali (o complessi), ovvero:<br />
C I := {f : I → F}<br />
3
Questo spazio è vettoriale, definendo la somma <strong>di</strong> due funzioni e la moltiplicazione<br />
<strong>di</strong> una funzione per uno scalare nel modo solito, ovvero:<br />
(f 1 + f 2 )(x) := f 1 (x) + f 2 (x); (af)(x) := a f(x).<br />
Esempio 3. Fissiamo un numero naturale N, e consideriamo l’insieme P n<br />
dei polinomi <strong>di</strong> grado N. Allora la nozione usuale <strong>di</strong> somma <strong>di</strong> polinomi e <strong>di</strong><br />
moltiplicazione <strong>di</strong> un polinomio per un numero forniscono a P n la struttura <strong>di</strong><br />
spazio vettoriale.<br />
Esempio 4 Sia a(t) x ′′ + b(t)x ′ + c(t)x = 0 un’equazione <strong>di</strong>fferenziale lineare<br />
omogenea del secondo or<strong>di</strong>ne. Lo spazio delle sue soluzioni è uno spazio<br />
vettoriale. 1 Questo è un modo compatto <strong>di</strong> <strong>di</strong>re che la somma <strong>di</strong> due soluzioni<br />
dell’equanzione in questione è ancora una soluzione, e che se moltiplichiamo<br />
una soluzione per uno scalare (cioè un numero, identificabile con una funzione<br />
costante), otteniamo ancora una soluzione dell’equazione. La affermazione che<br />
l’integrale generale della equazione a(t) x ′′ +b(t)x ′ +c(t)x = 0 è la somma <strong>di</strong> due<br />
soluzioni in<strong>di</strong>pendenti è un altro modo <strong>di</strong> <strong>di</strong>re che lo spazio della soluzioni ha<br />
<strong>di</strong>mensione 2. In generale, se l’equazione <strong>di</strong>ferenziale ha or<strong>di</strong>ne n, la <strong>di</strong>mensione<br />
dello spazio delle sue soluzioni ha <strong>di</strong>mensione n.<br />
1.1 Generatori, basi (in)<strong>di</strong>pendenza lineare<br />
Sia V uno spazio vettoriale. Si <strong>di</strong>ce che un insieme <strong>di</strong> elementi {v 1 , v 2 , · · · , v n }<br />
è un insieme (finito) <strong>di</strong> generatori per V , o anche che {v 1 , v 2 , · · · , v n } generano<br />
V se ogni elemento x ∈ V può essere scritto come combinazione lineare degli<br />
elementi {v 1 , v 2 , · · · , v n }; in una formule, se<br />
∀w ∈ V esistono n scalari<br />
a 1 , a 2 , · · · , a n tali che w = a 1 v 1 + a 2 v 2 + · · ·a n v n .<br />
(1.1)<br />
Si <strong>di</strong>ce che un insieme <strong>di</strong> elementi <strong>di</strong> V è linearmente <strong>di</strong>pendente se esiste una<br />
loro combinazione lineare che <strong>di</strong>a come risultato il vettore 0, con coefficienti non<br />
tutti nulli, ovvero, in formule<br />
0 =<br />
n∑<br />
a n v n = 0, con almeno uno degli a k ≠ 0.<br />
k=1<br />
Nel caso contrario, (cioè, se l’unica combinazione lineare dei v i che <strong>di</strong>a il vettore<br />
0 è quella con tutti i coefficienti a k = 0), l’insieme {v 1 , v 2 , · · · , v n } si <strong>di</strong>ce<br />
linearmente in<strong>di</strong>pendente.<br />
Se uno spazio vettoriale V ammette un insieme finito <strong>di</strong> generatori, esso si<br />
<strong>di</strong>ce finito <strong>di</strong>mensionale. Dato un sistema <strong>di</strong> generatori V = {v 1 , v 2 , · · · , v n } <strong>di</strong><br />
uno spazio vettoriale, possono accadere due situazioni:<br />
1 Questa proprietà è vera per equazioni <strong>di</strong>fferenziali lineari omogenee <strong>di</strong> qualsiasi or<strong>di</strong>ne.<br />
4
1. V è linearmente in<strong>di</strong>pendente;<br />
2. V è linearmente <strong>di</strong>pendente.<br />
Nel caso 2) è facile rendersi conto che è possibile (iterativamente) arrivare a<br />
selezionare un sottoinsieme stretto V ′ V che è ancora un insieme <strong>di</strong> generatori<br />
<strong>di</strong> V , e sod<strong>di</strong>sfa la proprietà 1), ovvero è possibile selezionare un numero<br />
”minimale” <strong>di</strong> elementi <strong>di</strong> V che generino ancora V .<br />
Definizione 1.2 Sia V finito-<strong>di</strong>mensionale. Un insieme lineramente in<strong>di</strong>pendente<br />
<strong>di</strong> generatori <strong>di</strong> V è detto base <strong>di</strong> V . Si <strong>di</strong>mostra che il numero <strong>di</strong> elementi<br />
in due basi <strong>di</strong>stinte <strong>di</strong> V è lo stesso. Questo numero è detto <strong>di</strong>mensione <strong>di</strong> V .<br />
Uno spazio vettoriale che non ammette alcun sistema fnito <strong>di</strong> generatori si <strong>di</strong>ce<br />
infinito-<strong>di</strong>mensionale.<br />
Esempio 1, cos(2x), sin 2 (x) non sono in<strong>di</strong>pendenti nello spazio delle funzioni<br />
perio<strong>di</strong>che. Infatti, una delle possibili forme della regola <strong>di</strong> duplicazione degli<br />
archi è<br />
cos(2x) = cos 2 (x) − sin 2 (x) = 1 − 2 sin 2 (x),<br />
ovvero<br />
cos(2x) − 1 + 2 sin 2 (x) = 0<br />
2 <strong>Applicazioni</strong> lineari e matrici<br />
In questa sezione, salvo dove espressamente in<strong>di</strong>cato, gli spazi vettoriali (o,<br />
altrimenti detto, lineari) considerati saranno <strong>di</strong> <strong>di</strong>mensione finita.<br />
Siano V e W due spazi lineari <strong>di</strong> <strong>di</strong>mensione rispettivamente M ed N, e sia<br />
L : V → W<br />
una applicazione lineare. Fissiamo due basi {v 1 , v 2 , . . ., v M } e {w 1 , w 2 , . . .,w N }<br />
rispettivamente in V e W. Lo scopo è trovare una rappresentazione opportuna<br />
<strong>di</strong> L.<br />
La prima osservazione è la seguente: per conoscere il valore che la applicazione<br />
lineare (che è una “funzione”) L assume su un qualsiasi x ∈ V , è<br />
sufficiente conoscere i valori L(v i ), i = 1, . . .,M che L assume sugli elementi<br />
della base considerata.<br />
Infatti, dato che {v i } i=1,M è una base <strong>di</strong> V , ogni vettore x ∈ V si rappresenta<br />
in uno ed un solo modo come combinazione lineare <strong>di</strong> elementi della base, ovvero<br />
x =<br />
M∑<br />
x i v i ;<br />
i=1<br />
5
Dato che L è lineare si ha:<br />
M∑<br />
L(x) = L( x i v i ) =<br />
i=1<br />
M∑<br />
x i L(v i )<br />
il che “<strong>di</strong>mostra” l’affermazione.<br />
Ora, per ogni i fissato, consideriamo il vettore L(v i ) ∈ W; dato che la<br />
famiglia {w 1 , . . .,w N } è una base in W, potremo sviluppare questo vettore lungo<br />
tale base; in altre parole, sono univocamente determinati, (per ogni valore <strong>di</strong><br />
i = 1, . . .,M), gli N scalari l ji tali che valga:<br />
N∑<br />
Per i fissato, i = 1, . . .,M, L(v i ) = l ji w j . (2.1)<br />
Quin<strong>di</strong>, date le due basi {v i } e {w j } in V e W, per le proprietà note delle basi in<br />
uno spazio lineare, risultano definiti univocamente gli N · M scalari l ji definito<br />
da (2.1).<br />
Notando che tali scalari hanno, in modo naturale, un doppio in<strong>di</strong>ce (osserviamo<br />
che, in generale, N ≠ M), è naturale arrangiarli in una tabella, che per convenzione<br />
– e como<strong>di</strong>tà, come si vedrà dopo – avrà N(= <strong>di</strong>mensione del codominio)<br />
righe ed M = <strong>di</strong>mensione del dominio colonne, come qui sotto:<br />
⎧<br />
⎪⎨<br />
Nrighe<br />
⎪⎩<br />
i=1<br />
j=1<br />
Mcolonne<br />
⎡{ }} ⎤{<br />
l 11 l 12 · · · l 1M<br />
l 21 l 22 · · · l 2M<br />
. . . .<br />
⎢<br />
⎥<br />
⎣<br />
⎦<br />
l N1 l N2 · · · l NM<br />
Tale tabella si chiama Matrice rappresentativa <strong>di</strong> L nelle basi {v i } e {w j }; i<br />
numeri l ij vengono anche detti elementi <strong>di</strong> matrice <strong>di</strong> L relativi alle basi considerate.<br />
Dunque, dati due spazi V e W, (rispettivamente <strong>di</strong> <strong>di</strong>mensione M ed N),<br />
muniti <strong>di</strong> base (risp.{v 1 , v 2 , . . .,v M } e {w 1 , w 2 , . . .,w N }) , ad un operatore lineare<br />
possiamo associare una matrice ad N righe ed M colonne (detta matrice<br />
N × N). È vero anche il viceversa, ovvero che a due spazi muniti <strong>di</strong> base come<br />
sopra ed ad una matrice ad N righe ed M colonne L = {l ij } possiamo associare<br />
univocamente un operatore lineare.<br />
Basta procedere a ritroso: Consideriamo, per i = 1, . . .,M i vettori y i in W<br />
definiti da<br />
M∑<br />
y i = l ji w j<br />
j=1<br />
6
e <strong>di</strong>ciamo che tali vettori y i sono i valori che l’opratore (da costruire) L assume<br />
sui vettori <strong>di</strong> base, ovvero, definiamo L(v i ) := y i . Per quanto detto all’inizio<br />
della sezione, questo basta per definire L, come operatore lineare, su un qualsiasi<br />
vettore x ∈ V ; infatti, ponimao per definizione,<br />
M∑<br />
M∑ M∑<br />
se x = x i v i , allora L(x) := x i y i ≡ x i L(v i ). (2.2)<br />
i=1<br />
È imme<strong>di</strong>ato verificare che la formula qui sopra definisce (per costruzione!) una<br />
applicazione lineare. Questo proce<strong>di</strong>mento si chiama “estensione per linearità”<br />
<strong>di</strong> una funzione definita sugli elementi <strong>di</strong> una base.<br />
Osservazione 1. Un modo esplicito per costruire la matrice rappresentativa<br />
L <strong>di</strong> un operatore L : V → W rispetto alle basi {v 1 , v 2 , . . .,v M } e<br />
{w 1 , w 2 , . . .,w N } <strong>di</strong> V e W è il seguente: Si considera il primo vettore della base<br />
v 1 , si calcola L(v 1 ) e lo si sviluppa lungo la base dei w j come L(v 1 ) = ∑ N<br />
j=1 l j1w j ;<br />
questo dà luogo ad una N-upla <strong>di</strong> scalari {l 11 , l 21 , . . .,l N1 }; Tale N-upla (or<strong>di</strong>nata)<br />
forma la prima colonna della matrice L; considerando il secondo vettore<br />
v 2 , si calcola L(v 2 ) e si ottiene un’altra N-upla <strong>di</strong> scalari, {l 12 , l 22 , . . .,l N2 }, che<br />
va a formare la seconda colonna <strong>di</strong> L; e così via, fino all’ultimo elemento della<br />
base <strong>di</strong> V , v M . Esempio. La matrice rappresentativa dell’applicazione lineare<br />
0, che associa ad igni vettore <strong>di</strong> V il vettore 0 ∈ W, è la matrice in cui tutti gli<br />
elementi sono nulli.<br />
Sia W = V ; la matrice che rappresenta l’applicazione lineare identità (Id(x) =<br />
x, ∀x ∈ V ) è la matrice il cui elemento 1 ij è 1 se i = j, e 0 altrimenti, ovvero,<br />
in simboli ij = δ ij , dove δ ij è il simbolo <strong>di</strong> Kronecker. Graficamente, 1 è una<br />
matrice quadrata (il numero <strong>di</strong> righe è uguale a quello delle colonne) con 1 sulla<br />
<strong>di</strong>agoinale principale (quella che va da alto-sx a basso-dx) e 0 in tutti gli altri<br />
“posti”.<br />
Esempio(Meno banale). Sia V lo spazio dei polinomi in una indeterminata t<br />
<strong>di</strong> grado d ≤ 2, e W lo spazio dei polinomi (sempre in T) <strong>di</strong> grado non superiore<br />
a 3. Consideriamo in V la base {v 1 = 1, v 2 = t −1, v 3 = t 2 −2t}, e in W la base<br />
standard, {w 1 = 1, w 2 = t, w 3 = t 2 , w 4 = t 3 }; consideriamo l’operatore<br />
L : V → W<br />
p(t) ↦→<br />
d p(t) + (2 + t)p(t) + ∫ t<br />
p(s)ds,<br />
dt 0<br />
ed esemplifichiamo le costruzioni fatte in questo caso.<br />
Per prima cosa, notiamo che L è ben definito; infatti, l’integrale <strong>di</strong> un polinomio<br />
<strong>di</strong> or<strong>di</strong>ne p è un integrale <strong>di</strong> or<strong>di</strong>ne al più p+1, e quin<strong>di</strong> L manda elementi<br />
<strong>di</strong> V in elementi <strong>di</strong> W. La linearità <strong>di</strong> L è evidente. Verifichiamo prima che<br />
la famiglia {v 1 , v 2 , v 3 } sia una base <strong>di</strong> V ; la <strong>di</strong>mensione <strong>di</strong> V è 3, quin<strong>di</strong> basta<br />
verificare l’in<strong>di</strong>pendenza lineare dei v i . Supponiamo che ∑ 3<br />
i=1 c iv i = 0 (ovvero<br />
consideriamo una combinazione lineare dei polinomi v i che <strong>di</strong>a il polinomio nullo.<br />
Si avrà: 0 = c 1 (1) + c 2 (t − 1) + c 3 (t 2 − t) = 0. raccogliendo le potenze <strong>di</strong> t si ha<br />
i=1<br />
i=1<br />
0 = (c 1 − c 2 ) + (c 2 − c 3 )t + c 3 t 2 ( come polinomio),<br />
7
ovvero, per il principio <strong>di</strong> identità dei polinomi, {c 3 = 0, (c 2 −c 3 ) = 0, (c 1 −c 2 ) =<br />
0}. Ma la soluzione <strong>di</strong> queste equazioni è c 1 = c 2 = c 3 = 0, e dunque i v i sono<br />
in<strong>di</strong>pendenti.<br />
Dato che (t n ) ′ = nt n−1 , e ∫ t<br />
0 sn ds = 1<br />
n + 1 tn+1 , si ha:<br />
L(v 1 ) = d ∫ t<br />
dt (1) + (2 + t) 1 + ds = 0 + (2 + t) + t = 2 + 2t<br />
0<br />
2w 1 + 2w 2 + 0w 3 + 0w 4 (a);<br />
L(v 2 ) = d ∫ t<br />
dt (t − 1) + (2 + t)(t − 1) + (s − 1)ds = 1 + (t 2 + t − 2) + 1 2 t2 − t = −1 + 3 2 t2 =<br />
L(v 3 ) = d dt (t2 − t) + (2 + t)(t 2 − t) +<br />
0<br />
= −1w 1 + 0w 2 + 3 2 w 3 + 0w 4 (b);<br />
∫ t<br />
= 4 3 t3 + 1 2 t2 − 1 = −1w 1 + 0w 2 + 1 2 w 3 + 4 3 w 4 (c).<br />
0<br />
(s 2 − s)ds = 2t − 1 + (t 3 + t 2 − 2t) + ( 1 3 t3 − 1 2 t2 ) =<br />
(2.3)<br />
Le colonne della matrice (4 × 3) L che vogliamo costruire si leggono or<strong>di</strong>natamente<br />
da (a), (b), (c) <strong>di</strong> questa equazione. Ovvero:<br />
⎡ ⎤<br />
2 −1 −1<br />
2 0 0<br />
L =<br />
3 1<br />
0<br />
2 2<br />
⎢ ⎥<br />
⎣ 4 ⎦<br />
0 0<br />
3<br />
Se avessimo voluto calcolare la matrice che rappresenta L, rispetto alle basi<br />
standard sia <strong>di</strong> V che <strong>di</strong> W, avremmo dovuto calcolare:<br />
L(v ′ 1 ) = L(v 1) = 2 + 2t<br />
L(v 2 ′ = d ∫ t<br />
dt (t) + (2 + t)(t) + s ds = 1 + 2t + 3 2 t2<br />
L(v ′ 3 ) = d dt (t2 ) + (2 + t)(t 2 ) +<br />
0<br />
∫ t<br />
0<br />
s 2 ds = 2t + 2t 2 + 4 3 t3<br />
8
e, dunque, la matrice che rappresenta L nelle basi standard è<br />
⎡ ⎤<br />
2 1 0<br />
2 2 2<br />
L ′ =<br />
0 3 2<br />
2<br />
⎢ ⎥<br />
⎣ 4 ⎦<br />
0 0<br />
3<br />
Nota. Da questo esempio, si evince la necessità <strong>di</strong> specificare le basi nella<br />
costruzione della matrice rappresentativa <strong>di</strong> un operatore. Infatti, nel nostro<br />
caso si ha che lo stesso operatore è rappresentato su basi <strong>di</strong>verse da <strong>di</strong>verse<br />
matrici. Questo punto verrà ulteriormente esaminato più oltre.<br />
Osserviamo che la formula (2.2) fornisce un modo algoritmico e rapido per<br />
calcolare il valore L(x) – o meglio, lo sviluppo <strong>di</strong> L(x) nella base dei w k , una<br />
volta noti lo sviloppu <strong>di</strong> x ∈ V sulla base dei v i , e la matrice L rappresentativa<br />
<strong>di</strong> L nelle basi considerate.<br />
Infatti, lo sviluppo <strong>di</strong> x sui v i sarà della forma x = ∑ i v i; allora,<br />
M∑ M∑ ∑ M∑ N∑<br />
L(x) = L( x i v i ) = x i L(v i )) = (l ji w j );<br />
i=1<br />
i=1<br />
Scambiando l’or<strong>di</strong>ne della somma nell’ultima espressione (cosa lecita) si ha<br />
⎛<br />
L(x) = ∑ j<br />
j<br />
∑<br />
⎜ l ji x i<br />
⎟<br />
⎝ i ⎠ w j<br />
} {{ }<br />
=(L(x)) j<br />
⎞<br />
Ovvero, le componenti (L(x)) j <strong>di</strong> L(x) lungo la base w j <strong>di</strong> W sono dati dalle<br />
somme ∑ N<br />
i=1 l jix i .<br />
È comodo dare una visualizzazione grafica a questo proce<strong>di</strong>mento. Consideriamo<br />
la matrice L, <strong>di</strong> elementi l ji e or<strong>di</strong>niamo in una colonna le componenti<br />
x i <strong>di</strong> x lungo v i ; giustapponendo questi due oggetti,<br />
⎡<br />
⎤⎛<br />
⎞<br />
l 11 l 12 · · · l 1M x 1<br />
l 21 l 22 · · · l 2M<br />
x 2<br />
. . . .<br />
.<br />
⎢<br />
⎥⎜<br />
⎟<br />
⎣<br />
⎦⎝<br />
⎠<br />
l N1 l N2 · · · l NM x M<br />
9<br />
i=1<br />
j+1
si vede che, e.g, la componente (L(x)) 1 è pari al “prodotto scalare” della prima<br />
riga <strong>di</strong> L (che e’ identificabile con la M-upla [l 11 , l 12 , · · ·l 1M ]) per la M-upla<br />
data da [x 1 , x 2 , · · · , x M ]. Analogamente, la componente (L(x)) 2 sarà data dal<br />
prodotto scalare della seconda riga <strong>di</strong> L con la M-upla delle x i etc. etc.<br />
Osservazione. Se W è dotato <strong>di</strong> una struttura euclidea ( , ) W , e la base w j<br />
è una base ortonormale, il calcolo degli elementi della matrice L si può effettuare<br />
attraverso il prodotto scalare; ovvero:<br />
l ji = (w j , L(e i )) W .<br />
Come è stato osservato più sopra, lo spazio degli operatori lineari ha una<br />
struttura <strong>di</strong> <strong>algebra</strong>. Ovvero, sono definite, per due operatori L 1 , L 2 : V → W,<br />
e per uno sclare α sono definite la somma (L 1 + L 2 ) : V → W e il prodotto per<br />
α, (α · L) : V → W. Inoltre, se L : V → W e Λ : W → Y , è definito il prodotto<br />
(cioè, la composizione) dei due operatori,<br />
T ≡ Λ ◦ L : V −→ Y<br />
x ↦→ Λ(L(x))<br />
(2.4)<br />
Supponiamo, come prima che questi spazi siano dotati <strong>di</strong> basi, rispettivamente<br />
{v i } i=1,...,M , {w j } j=1,...,M , e {y k } k=1,...,P , dove M, N, P sono rispettivamente le<br />
<strong>di</strong>mensioni degli spazi V, W, e Y .<br />
È naturale domandarsi come si traducano, a livello <strong>di</strong> metrici rappresentative,<br />
le operazioni <strong>di</strong> somma, prodotto per uno scalare e composizione per i<br />
corrispondenti operatori lineari.<br />
Per le prime due operazioni, la risposta è imme<strong>di</strong>ata (e la verifica lasciata al<br />
lettore).<br />
A) La somma <strong>di</strong> due operatori definiti da V a valori in W è rappresentata dalla<br />
somma elemento per elemento delle corrispondenti matrici. Ovvero, se L 1 ha,<br />
rispetto alle basi considerate, elementi <strong>di</strong> matrice {l (1)<br />
ji } ed L 2 ha elementi <strong>di</strong><br />
matrice {l (2)<br />
ji }, la somma S = (L 1 + L 2 ) avrà elementi <strong>di</strong> matrice dati da<br />
s i j = l (1)<br />
ji + l (2)<br />
ji<br />
Esempio. Siano L 1 , L 2 : R 2 → R 3 rappresentati da<br />
⎡ ⎤ ⎡<br />
1 0<br />
0 2<br />
L 1 = ⎣ −1 2 ⎦ L 2 = ⎣ 4 −1<br />
0 4<br />
2 −5<br />
allora la somma S = (L 1 + L 2 ) è rappresentata dalla matrice<br />
⎡<br />
⎤ ⎡ ⎤<br />
1 + 0 0 + 2 1 2<br />
S = ⎣ −1 + 4 2 + (−1) ⎦ = ⎣ 3 1 ⎦<br />
0 + 2 4 + (−5) 2 −1<br />
⎤<br />
⎦ ;<br />
10
L’operazione <strong>di</strong> composizione <strong>di</strong> due matrici merita, invece, uno sguardo<br />
più attento. Consideriamo la relazione (2.4). Chiamiamo L e Λ le matrici che<br />
rappresentano, rispettivamente, L : V → W e Λ : W → Y ; i loro elementi<br />
saranno [l j,i ] j=1,...,N<br />
i=1,...,M e [λ k,j] k=1,...,P<br />
j=1,...,N<br />
. Il nostro problema è esprimere gli elementi<br />
della matrice T che rappresenta T : V → Y , T = Λ ◦L in termini degli elementi<br />
<strong>di</strong> matrice l ji , λ kj ; ovvero, considerato l’i-esimo elemento v i della base <strong>di</strong> V ,<br />
dobbiamo sviluppare T(v i ) sulla base assegnata degli y k , ovvero scrivere<br />
Ora,<br />
T(v i ) =<br />
P∑<br />
t ki y k . (2.5)<br />
k=1<br />
T(v i ) = Λ(L(v i )) = (Per la definizione dei l ji ) = Λ(<br />
= (Per la linearità <strong>di</strong> Λ) =<br />
=<br />
N∑<br />
l ji w j ) =<br />
j=1<br />
N∑<br />
l ji Λ(w j ) = Per la definizione dei λ jk =<br />
j=1<br />
(<br />
N∑ ( ∑<br />
P ) )<br />
l ji λ kj y j =<br />
j=1<br />
k=1<br />
(Scambiando l’or<strong>di</strong>ne delle due somme finite e dei fattori numerici l ji e λ kj )<br />
(<br />
P∑ N<br />
)<br />
∑<br />
= (λ kj l ji y k .<br />
k=1<br />
j=1<br />
Confrontando quest’ultima espressione con la (2.5) otteniamo il risultato desiderato:<br />
N∑<br />
t ki = (λ kj l ji . (2.6)<br />
j=1<br />
A parole: l’elemento <strong>di</strong> posto (k, i) della matrice T associata alla composizione<br />
dei due operatori Λ e L (in quest’or<strong>di</strong>ne, ovvero T = Λ◦L si calcola nel seguente<br />
modo, una volta note le matrici rappresentative <strong>di</strong> Λ e ̷L:<br />
si considerano la k-esima riga <strong>di</strong> Λ e la i-esima colonna <strong>di</strong> L (entrambe sono<br />
N-uple <strong>di</strong> scalari) e se ne fa il “prodotto scalare” (in R n ).<br />
Esempio. Sia M = 2, N = 3, P = 4. Allora Λ e L sono le matrici (risp. 4 × 2 e<br />
3 × 2)<br />
Λ =<br />
⎡<br />
⎢<br />
⎣<br />
⎤<br />
λ 11 λ 12 λ 13<br />
λ 21 λ 22 λ 23<br />
λ 31 λ 32 λ 33<br />
λ 41 λ 42 λ 43<br />
⎡<br />
⎥<br />
⎦ L = ⎣<br />
⎤<br />
l 11 l 12<br />
l 21 l 22<br />
⎦ (2.7)<br />
l 31 l 22<br />
La matrice T manda uno spazio vettoriale <strong>di</strong> <strong>di</strong>mensione 2 in uno <strong>di</strong> <strong>di</strong>mensione<br />
4, quin<strong>di</strong> sarà una matrice 4 × 2. L’elemento, e.g., <strong>di</strong> posto (3, 2) della matrice<br />
11
T si ottiene facendo il prodotto scalare del “vettore a tre componenti”<br />
⎡ ⎤<br />
l 12<br />
[λ 31 , λ 32 , λ 33 ] con il “vettore a tre componenti” ⎣ l<br />
} {{ }<br />
22<br />
⎦<br />
terza riga <strong>di</strong> Λ<br />
l 32<br />
} {{ }<br />
seconda colonna <strong>di</strong> L.<br />
Si ottiene, esplicitamente,<br />
T 32 = λ 31 l 12 + λ 32 l 22 + λ 33 l 32 .<br />
In termini algoritmici, per calcolare la matrice T basta giustapporre la matrici<br />
Λ e L come nella (2.7), e ripetere il proce<strong>di</strong>mento esplicitato qui sopra facendo<br />
variare gli in<strong>di</strong>ci <strong>di</strong> riga <strong>di</strong> T (qui da 1 a 4) e <strong>di</strong> colonna <strong>di</strong> T (qui da 1 a 2).<br />
Si <strong>di</strong>ce che la matrice T è il prodotto righe per colonne delle matrici Λ e L,<br />
e si scrive T = Λ · L<br />
Osservazione. Consideriamo il caso <strong>di</strong> matrici che rappresentano operatori<br />
con dominio e codominio coincidenti (ovvero <strong>di</strong> operatori L : V → V , per<br />
qualche spazio V <strong>di</strong> <strong>di</strong>mensione M, dotato <strong>di</strong> una base {v i } i=1,...,M ); Chiamiamo<br />
questo spazio Mat(N). Le operazioni che abbiamo considerato (somma,<br />
prodotto per uno scalare, e prodotto righe per colonne, che viene chiamato<br />
prodotto tout court) sono compatibili l’una con l’altra (per esempio, (L 1 + L 2 ) ·<br />
L 3 = L 1 · L 3 + L 2 · L 3 , e così via).<br />
Rispetto al prodotto <strong>di</strong> scalari, ci sono però due importanti <strong>di</strong>fferenze:<br />
1. Per il prodotto <strong>di</strong> numeri reali (o complessi), la equazione a·b = 0 implica<br />
che o a = 0 o b = 0 (eventualmente entrambi). Ciò non è vero per il<br />
prodotto <strong>di</strong> due matrici.<br />
Consideriamo ad esempio le due matrici<br />
( 0 1<br />
M 1 =<br />
0 0<br />
)<br />
, M 2 =<br />
( 1 0<br />
0 0<br />
)<br />
. (2.8)<br />
Entrambe sono non nulle (la matrice nulla, introdotta più sopra, è quella<br />
in cui tutti gli elementi sono nulli); peraltro,<br />
( ) ( ) ( )<br />
0 1 1 0 0 0<br />
M 1 · M 2 = · = = 0.<br />
0 0 0 0 0 0<br />
2. Per il prodotto tra scalari, vale la proprietà <strong>di</strong> commutatività, ovvero,<br />
a · b = b · a, ∀ a, b.<br />
Questo non è più vero, in generale per il prodotto tra matrici (ovvero, per il<br />
prodotto(=composizione) <strong>di</strong> due operatori lineari in uno spazio vettoriale).<br />
12
Le due matrici definite in (2.8) forniscono un esempio <strong>di</strong> questo fenomeno.<br />
Infatti, abbiamo già verificato che M 1 · M 2 = 0. Viceversa,<br />
( ) ( ) ( )<br />
1 0 0 1 0 1<br />
M 2 · M 1 = · = ≠ 0.<br />
0 0 0 0 0 0<br />
È d’uso definire la <strong>di</strong>fferenza dei prodotti M 1 · M 2 − M 2 · M 1 commutatore tra<br />
(in quest’or<strong>di</strong>ne) M 1 ed M 2 , e denotarla come<br />
Si osservi che<br />
M 1 · M 2 − M 2 · M 1 := [M 1 , M 2 ]<br />
[M 1 , M 2 ] = −[M 2 , M 1 ]<br />
Osservazione. L’affermazione che due matrici non commutano in generale<br />
non significa che, date due matrici M 1 ed M 2 non valga mai M 1 · M 2 = M 2 ·<br />
M 1 ; per esempio, le matrici 0 e 1 commutano con qualsiasi altra matrice. La<br />
affermazione significa piuttosto che fissata una matrice M 1 , la con<strong>di</strong>zione su<br />
un’altra matrice M 2 <strong>di</strong> commutazione con M 1 è, in generale, non banale.<br />
Esempio. Sia M una matrice 2 × 2 della forma<br />
M =<br />
(<br />
a 0<br />
0 b<br />
)<br />
, a ≠ b,<br />
e sia L una matrice 2 × 2 generica,<br />
( )<br />
L11 L<br />
L = 12<br />
.<br />
L 21 L 22<br />
Allora il commutatore [M, L] è dato da<br />
( ) ( ) ( ) ( a 0 L11 L<br />
[M, L] = · 12 L11 L<br />
− 12 a 0<br />
·<br />
0 b L 21 L 22 L 21 L 22 0 b<br />
)<br />
=<br />
=<br />
( ) ( ) (<br />
aL11 aL 12 aL11 bL<br />
−<br />
12<br />
=<br />
bL 21 bL 22 aL 21 bL 22<br />
0 (a − b)L 12<br />
(b − a)L 21 0<br />
)<br />
.<br />
Ovvero, L commuta con M se e solo se i suoi elementi fuori della <strong>di</strong>agonale<br />
L 12 , L 21 sono nulli.<br />
Esercizio. Dimostrare che questo è vero per matrici N × N.<br />
Esercizio. Calcolare i tre commutatori [σ i , σ j ], i < j, dove le matrici complesse<br />
σ i , i = 1..3 sono date rispettivamente da<br />
σ 1 =<br />
( 0 1<br />
−1 0<br />
)<br />
, σ 2 =<br />
( 0 i<br />
i 0<br />
) ( i 0<br />
, σ 3 =<br />
0 −i<br />
)<br />
. (2.9)<br />
Queste matrici (o, talvolta, il loro prodotto con −i) sono dette matrici <strong>di</strong> Pauli e<br />
giocano un ruolo importante nella teoria del momento angolare intrinseco degli<br />
13
elettroni e <strong>di</strong> altre particelle elementari.<br />
Esempio La proprietà <strong>di</strong> non–commutatività è una proprietà intrinseca degli<br />
operatori e non <strong>di</strong>pende dalla loro rappresentazione matriciale. Ad esempio,<br />
consideriamo lo spazio V = C ∞ (R) delle funzioni definite sull’asse reale (e.g.,<br />
a valori reali), derivabili un numero arbitrario <strong>di</strong> volte. Consideriamo i due<br />
operatori:<br />
ˆx : V → V<br />
f(x) ↦→ xf(x) , ˆ∂ : V → V<br />
f(x) ↦→ f ′ (x) . (2.10)<br />
A parole, ˆx associa ad una funzione f il prodotto tra f e la funzione x, mentre<br />
ˆ∂ associa ad una funzione la sua derivata prima. È imme<strong>di</strong>ato verificare che<br />
questi due operatori sono ben definiti. Infatti, la derivata prima <strong>di</strong> una funzione<br />
derivabile un numero arbitrario <strong>di</strong> volte è anch’essa derivabile un numero arbitrario<br />
<strong>di</strong> volte, e il prodotto xf(x) è derivabile un numero arbitrario <strong>di</strong> volte.<br />
La linearità <strong>di</strong> queste due operazioni è ovvia.<br />
Vogliamo calcolare [ˆ∂, ˆx].<br />
Per una qualsiasi funzione f(x), si ha:<br />
(ˆ∂ ◦ ˆx)(f)(x) = d<br />
dx (xf(x)) = f(x) + xf ′ (x);<br />
mentre<br />
(ˆx ◦ ˆ∂)(f)(x) = x d<br />
dx (f(x)) = xf ′ (x);<br />
Sottraendo queste espressioni si verifica che, per ogni funzione f(x), si ha<br />
[ˆ∂, ˆx](f(x)) = f(x),<br />
e dunque si ottiene [ˆ∂, ˆx] = 1.<br />
Questa relazione (o, meglio, la corrispondente con l’operatore −iˆ∂, dove è<br />
una costante fondamentale, la cui <strong>di</strong>mensione è quella <strong>di</strong> un momento angolare,<br />
detta costante <strong>di</strong> Planck ridotta 2 ) è fondamentale in meccanica quantistica.<br />
3 Determinanti e matrici inverse<br />
Come è stato asserito in una delle lezioni precedenti, se la applicazione lineare<br />
L : V → W è invertibile (cioè è iniettiva e suriettiva), la sua inversa è ancora una<br />
applicazione lineare. Vogliamo, in questa lezione, approfon<strong>di</strong>re questo concetto.<br />
Per prima cosa, si può osservare che il dato <strong>di</strong> una applicazione lineare<br />
definisce due sottospazi vettoriali notevoli,<br />
Ker(L) ⊂ V := {x ∈ V|L(x) = 0},<br />
Im(L) ⊂ W := {y ∈ W |y = L(x) per qualche x ∈ V }<br />
(3.1)<br />
2 Ridotta significa <strong>di</strong>visa per 2π<br />
14
Il primo spazio si chiama nucleo (detto Ker dall’inglese kernel), il secondo Immagine<br />
<strong>di</strong> L. Verifichiamo che Ker(L) è un sottospazio vettoriale del dominio.<br />
Dobbiamo dunqie verificare che se x, y sono tali che L(x) = L(y) = 0, ogni loro<br />
combinazione lineare è ancora in Ker(L), ovvero, per igni scelta <strong>di</strong> scalari α, β,<br />
si ha<br />
L(α x + β y) = 0<br />
Questo segue dalla linarità <strong>di</strong> L. Infatti:<br />
L(α x + β y) = α L(x) + β L(y) = α 0 + β 0 = 0.<br />
Analogamente si verifica che Im(L) è sottospazio vettoriale <strong>di</strong> W. U n legame<br />
notevole tar le <strong>di</strong>mensioni <strong>di</strong> questi due spazi è dato dal seguente teorema, che<br />
non <strong>di</strong>mostriamo:<br />
Proposizione 3.1 (Teorema della nullità più rango) Se V e W sono <strong>di</strong> <strong>di</strong>mensione<br />
finita vale che<br />
<strong>di</strong>mKer } {{ }(L) + } <strong>di</strong>mIm {{ }(L) = <strong>di</strong>mV. (3.2)<br />
nullità rango<br />
La prima conseguenza <strong>di</strong> questa formula è che se L : V → W con V e W <strong>di</strong><br />
<strong>di</strong>mensione <strong>di</strong>fferente, allora L non può essere invertibile. Infatti questa formula<br />
<strong>di</strong>ce (o meghlio riba<strong>di</strong>sce) che la <strong>di</strong>mensione dell’immagine <strong>di</strong> L non può eccedere<br />
quella del dominio V . Quin<strong>di</strong>, se <strong>di</strong>mW > <strong>di</strong>mV, L non può essre suriettivo.<br />
Viceversa, per definizione, <strong>di</strong>mIm(L) ≤ <strong>di</strong>mW; quin<strong>di</strong> se <strong>di</strong>mV > <strong>di</strong>mW, si ha,<br />
necessariamente <strong>di</strong>mKer(L) > 0. Questo significa che esiste almeno un vettore<br />
non nullo ξ nel nucleo <strong>di</strong> L; ma allora tutti i multipli <strong>di</strong> ξ sono nel nucleo, per<br />
la linearità <strong>di</strong> L, e dunque L non è iniettivo.<br />
Proposizione 3.2 Sia L : V → W un’operatore lineare tra spazi della stessa<br />
<strong>di</strong>mensione N; allora L è invertibile se e solo se Ker(L) = {0}.<br />
Dimostrazione. La necessità <strong>di</strong> questa affermazione è ovvia. Dato che L è<br />
lineare, L(0) = 0; se L è invertibile (cioè, in particolare, iniettivo), il suo nucleo<br />
non può contenere alcun altro elemento.<br />
La sufficienza è un po’ più sottile, e la <strong>di</strong>mostrazione serve, tar l’altro, a<br />
enucleare alcune osservazioni che verranno utili in seguito. Sia {v 1 , . . .,v N } una<br />
(qualsiasi) base <strong>di</strong> V . Allora gli N vettori L(v 1 ), . . .,L vN <strong>di</strong> W sono (in<strong>di</strong>pendentemente<br />
dall’invertibilità o meno <strong>di</strong> L) un sistema <strong>di</strong> generatori per lo spazio<br />
vettoriale Im(L). Infatti, y ∈ Im(L) ⇐⇒ y = L(x), per x ∈ V . Sviluppando<br />
tale x lungo la base dei v i , si ha x = ∑ i x iv i ; dunque,<br />
L(x) = ∑ i<br />
x i L(v i )<br />
il che <strong>di</strong>mostra l’affermazione.<br />
15
Ritornando al nostro caso, dobbiamo <strong>di</strong>mostrare che, se V e W hanno la<br />
stessa <strong>di</strong>mensione e il nucleo <strong>di</strong> L è ridotto al solo elemento 0 ∈ V , allora L è<br />
iniettivo e suriettivo.<br />
Per l’inietrtività si procede così: sia L(x) = L(y); allora L(x−y) = 0, ovvero<br />
x − y è nel nucleo <strong>di</strong> L. Ma dunque x − y = 0 ⇐⇒ x = y.<br />
Per la suriettività, consideriamo una combinazione lineare ∑ i c iL(v i ), e supponiamo<br />
che questa <strong>di</strong>a zero (in W), ovvero ∑ i c iL(v i ) = 0. Per la linearit1‘a<br />
<strong>di</strong> L, si ha<br />
0 = ∑ c i L(v i ) = ∑ L ( c i v i ) = L( ∑ c i v i )<br />
i<br />
i<br />
i<br />
Dunque il vettore ∑ i c iv i è nel nucleo <strong>di</strong> L, e dunque è il vettore nullo, dato<br />
che sto supponendo Ker(L) = {0}. Ma v i é una base <strong>di</strong> V , e dunque i c i sono<br />
tutti nulli. Questo <strong>di</strong>mostra che gli N vettori L(v i ( sono anch’essi in<strong>di</strong>pendenti,<br />
e dunque, dato che <strong>di</strong>m(W) = <strong>di</strong>mV = N formano una base <strong>di</strong> W. Ovvero, W<br />
ha una base formata da elemnti nell’immagine <strong>di</strong> L, e dunque L è suriettivo.<br />
Vogliamo ora caratterizzare ”operativamente” l’esistenza <strong>di</strong> inversi <strong>di</strong> operatori,<br />
in termini delle matrici rappresentative. Ciò si effettua tramite la generalizzazione<br />
al caso <strong>di</strong> <strong>di</strong>mensione N della nozione <strong>di</strong> determinante (che, nel caso<br />
<strong>di</strong> N = 3, come si è visto, nel corso <strong>di</strong> <strong>Matematica</strong> II (Stewart, §3) rappresenta<br />
il prodotto misto <strong>di</strong> tre vettori).<br />
Ricor<strong>di</strong>amo che, dati tre vettori v 1 , v 2 , v 3 nello spazio euclideo E 3 , sviluppati<br />
rispetto alla base ortonormale⃗i,⃗j, ⃗ k come<br />
v 1 = v 1 1 ⃗ i + v 1 2 ⃗ j + v 1 3 ⃗ k, v 2 = v 2 1 ⃗ i + v 2 2 ⃗ j + v 2 3 ⃗ k, v 3 = v 3 1 ⃗ i + v 3 2 ⃗ j + v 3 3 ⃗ k,<br />
il loro triplo prodotto misto v 1 · (v 2 × v 3 ) si calcola considerando la matrice 3<br />
⎡<br />
M := ⎣<br />
v1 1 v1 2 v1<br />
3<br />
v2 1 v2 2 v2<br />
3<br />
v3 1 v3 2 v3<br />
3<br />
e calcolando, per esempio rispetto alla prima colonna,<br />
det 3 M =<br />
v<br />
(−1) 1+1 (v1 2( 1 det 2<br />
2 v2<br />
3<br />
v3 2 v3<br />
3<br />
rior<strong>di</strong>nando i termini<br />
⎤<br />
⎦<br />
)<br />
) + (−1) 2+1 v 1 2 (det 2(<br />
v<br />
2<br />
1 v 3 1<br />
v 2 3 v 3 3<br />
□<br />
)<br />
) + (−1) 3+1 v 1 3 (det 2(<br />
v<br />
2<br />
1 v 3 1<br />
v 2 2 v 3 2<br />
v 1 1 v2 2 v3 3 + v2 1 v3 2 v2 3 + v3 1 v1 2 v2 3 − v1 1 v3 2 v2 3 − v2 1 v1 2 v3 3 − v3 1 v2 2 v1 3 . (3.3)<br />
)<br />
) =<br />
3 Nel corso <strong>di</strong> matematica II si considerava la matrice trasposta, ovvero con le righe scambiate<br />
con le colonne<br />
16
Ora, possiamo considerare la funzione Det 3 come una funzione che alla terna<br />
or<strong>di</strong>nata <strong>di</strong> vettori v 1 , v 2 , v 3 , cioè alle colonne delle loro componenti v j i associa<br />
un numero reale. Questa funzione gode delle seguenti proprietà:<br />
1.<br />
Det 3 ([cv 1 , v 2 , v 3 ]) = Det 3 ([v 1 , cv 2 , v 3 ]) = Det 3 ([v 1 , v 2 , cv 3 ]) ≡ c De 3 ([v 1 , v 2 , v 3 ]),<br />
ovvero se moltiplico una delle tre colonne per uno scalare il determinante<br />
è moltiplicato per lo stesso numero (omogeneità);<br />
2. Se, e.g., v 1 = x + y, allora<br />
(Ad<strong>di</strong>tività)<br />
Det 3 ([v 1 , v 2 , v 3 ]) = Det 3 ([x, v 2 , v 3 ]) + Det 3 ([y, v 2 , v 3 ])<br />
3. Se i, j, k è una permutazione <strong>di</strong> 1, 2, 3, allora<br />
4.<br />
Det 3 ([v i , v j , v k ]) = ±Det 3 ([v 1 , v 2 , v 3 ]),<br />
Dove il segno è + se la permutazione è pari (ovvero si ottiene con un<br />
numero pari <strong>di</strong> scambi <strong>di</strong> numeri a<strong>di</strong>acenti), ed è − se è <strong>di</strong>spari, ovvero si<br />
ottiene con un numero <strong>di</strong>spari <strong>di</strong> scambi elementari. (Completa antisimmetria).<br />
(Normalizzazione).<br />
Det 3 ([⃗i,⃗j, ⃗ k]) = 1<br />
Nel caso <strong>di</strong> spazi vettoriali a <strong>di</strong>mensione N, si considerano collezioni <strong>di</strong> N vettori,<br />
e si definisce una funzione Det, che alle N-uple <strong>di</strong> vettori (e dunque, considerando<br />
il loro sviluppo lungo una base, a matrici quadrate <strong>di</strong> or<strong>di</strong>ne N) che<br />
gode delle (corrispettive) delle quattro proprietà qui ricordate. Questa funzione,<br />
si può, operativamente, definira in due mo<strong>di</strong>:<br />
Iterativamente. Si osserva, dalla prima riga della (3.3) che il determinante <strong>di</strong><br />
matrici 3 × 3 è definito attraverso il determinante <strong>di</strong> matrici 2 × 2, dove<br />
( )<br />
v11 v<br />
Det 12<br />
2 = v<br />
v 21 v 11 v 22 − v 12 v 21 . (3.4)<br />
22<br />
Allora si definisce il determinante <strong>di</strong> una matrice N × N, Det(M) attraverso il<br />
suo sviluppo secondo una colonna, come segue.<br />
Si fissa una colonna, e.g., la k-esima; allora il determinante <strong>di</strong> M si scrive<br />
come somma <strong>di</strong> N termini,<br />
Det N (M) =m 1,k · (−1) 1+k Det N−1 ˜M1,k +<br />
m 2,k · (−1) 2+k Det N−1 ˜M2,k +<br />
· · ·+<br />
m N,k · (−1) N+k Det N−1 ˜M N,k ,<br />
17<br />
(3.5)
dove ˜M h,k è la matrice (N − 1) × (N − 1) che si ottiene dalla M rimuovendo la<br />
h-esima riga e la k-esima colonna. Si noti che la prima delle formule (3.3) segue<br />
queta regola, con k = 1 (prima colonna).<br />
Per via combinatoria Si considera l’insieme P N <strong>di</strong> tutte le permutazioni degli<br />
N numeri [1, 2, 3, . . ., N]; è noto che questo insieme (in effetti è un gruppo) è<br />
costituito da N! elementi, ed è generato da scambi elementari, ovvero tra due<br />
elementio a<strong>di</strong>acenti (e.g., lo scambio che manda [1, 2, 3, . . ., N] in [2, 1, 3 . . ., N]).<br />
Un elemento π è detto pari se si ottiene con un numero pari n π <strong>di</strong> scambi<br />
elementari, e <strong>di</strong>spari altrimenti. Il segno sgn(π) <strong>di</strong> una permutazione π ∈ P N<br />
è, per definizione, il numero (−1) nπ (cioè è 1 se la permutazione è pari, −1 se è<br />
<strong>di</strong>spari.<br />
Data una matrice N × N, M, con elementi m ij , si può definire/calcolare il<br />
suo determinante attraverso la formula<br />
Det N (M) = ∑<br />
sgn(π) M 1π(1) M 2 π(2) · · ·M N π(N) (3.6)<br />
} {{ }<br />
π∈P N<br />
N termini<br />
La seconda riga della (3.3) dà un esempio <strong>di</strong> tale fomula. Si noti che il numero<br />
delle permutazioni della stringa [1, 2, 3] è 3! = 6; le permutazioni [1, 2, 3], [2, 3, 1], [3, 1, 2]<br />
sono pari, le permutazioni [2, 1, 3], [1, 3, 2], [3, 2, 1] sono <strong>di</strong>spari.<br />
Vale che:<br />
• Il determinante definito attraverso la (3.5) coincide con quello definito<br />
attraverso la (3.6).<br />
• Il determinante così efinito per matrici N ×N (ovvero per N-uple <strong>di</strong> vettori<br />
in uno spazio N-<strong>di</strong>mensionale dotato <strong>di</strong> una base gode delle proprietà 1–4<br />
del prodotto triplo <strong>di</strong> vettori in E 3 .<br />
Ulteriori proprietà notevoli del determinante, che si desumono agevolmente dalla<br />
proprietà base e/o dalla definizione sono:<br />
1. Il determinante della matrice identità 1 N è 1.<br />
2. data una matrice M ad elementi m ij , si definisce la sua trasposta come la<br />
matrice ottenuta scambiando le righe <strong>di</strong> M con le sue colonne, ovvero la<br />
matrice M T il cui elemento <strong>di</strong> posto ij è l’elemento m ji (pittoricamente,<br />
si scambiamo gli elementi <strong>di</strong> M con una riflessione lungo la <strong>di</strong>agonale<br />
principale). Allora vale che<br />
Det(M) = Det(M T )<br />
3. Una matrice si <strong>di</strong>ce triangolare superiore (risp. inferiore) se tutti gli elementi<br />
sopra (risp. sotto) la <strong>di</strong>agonale principale sono nulli. Il determinante<br />
<strong>di</strong> una matrice triangolare superiore (inferiore) è il prodotto degli<br />
elementi sulla <strong>di</strong>agonale principale.<br />
18
4. (Teorema <strong>di</strong> Binet) Il determinante del prodotto righe per colonne <strong>di</strong> due<br />
matrici è il prodotto dei determinanti, i.e.<br />
Det(M 1 · M 2 ) = Det(M 1 ) Det(M 2 )<br />
5. Se due colonne (o righe, per quanto detto sopra) <strong>di</strong> M sono linearmente<br />
<strong>di</strong>pendenti, allora<br />
Det(M) = 0<br />
Per il prodotto triplo <strong>di</strong> tre vettori, questa proprietà è ben nota. In effetti<br />
questa è una conseguenza <strong>di</strong>retta delle proprietà 1 e 2 della lista.<br />
Vale anche il converso dell’ultima proprietà, espressa dalla seguente relazione:<br />
Proposizione 3.3 Det(M) ≠ 0 se e solo se le colonne (e le righe) <strong>di</strong> M sono<br />
lineramente in<strong>di</strong>pendenti.<br />
Un’altra proprietà è la seguente. Se Det(M) ≠ 0 allora è definita univocamente<br />
l’inversa (denotata M −1 ) della matrice M, che sod<strong>di</strong>sfa le relazioni definitorie<br />
M −1 · M = M · M −1 = 1. (3.7)<br />
La matrice M −1 si calcola nel seguente modo: in analogia alla nella (3.5) associamo<br />
alla matrice M la matrice ̂M definita nel seguente modo:<br />
̂M ij = (−1) i+j Det(˜M ij ),<br />
dove, come sopra,è la matrice (N −1)×(N −1) che si ottiene dalla M rimuovendo<br />
la i-esima riga e la j-esima colonna.<br />
Questa matrice si chiama matrice ”cofattore” (il suo elemento ij è, come si<br />
può vedere, il coefficiente (”cofattore”) del termine m ij nello sviluppo (3.6) del<br />
determinante <strong>di</strong> M). Allora, la matrice inversa M −1 è la trasposta <strong>di</strong> ̂M <strong>di</strong>visa<br />
per il determinante <strong>di</strong> M. Si noti che dal teorema <strong>di</strong> Binet segue che<br />
Det(M −1 ) =<br />
1<br />
Det(M) .<br />
Proposizione 3.4 Sia L : V → V un operatore lineare; allora L è invertibile<br />
se e solo se per una (e dunque, come si vedrà, per ogni) sua rappresentazione<br />
matriciale L = [l ij ], si ha Det(L) ≠ 0.<br />
Dimostrazione. Abbiamo visto più sopra che L è invertibile se e solo se, data<br />
una base v i i vettori L(v i ) sono linearmente in<strong>di</strong>pendenti. Ma le colonne della<br />
matrice L che rappresenta L nella base v i sono proprio le componenti dei vettori<br />
L(v i ). Quin<strong>di</strong> L è invertibile se ammette una rappresentazione matriciale con<br />
una matrice invertibile. La proprietà è in<strong>di</strong>pendente dalla scelta della base.<br />
19
Infatti, se v i ′ è un’altra base <strong>di</strong> V , risultano definiti univocamente gli N 2 numeri<br />
G ij tali che<br />
v i ′ = ∑ G ji v i<br />
j<br />
Evidentemente, vale che se<br />
v i = ∑ j<br />
G ′ jiv ′ j<br />
allora, le due matrici G ′ e G sono una l’inversa dell’altra.<br />
Se L è la matrice che rappresenta L nella base dei v i , la matrice L ′<br />
rappresenta L nella base dei v i ′ è data dal prodotto<br />
che<br />
L ′ = G −1 LG<br />
(la verifica della vali<strong>di</strong>tà <strong>di</strong> questa affermazione è imme<strong>di</strong>ata). Dunque dal<br />
teorema <strong>di</strong> Binet,<br />
Det(L ′ ) = Det(G −1 LG) = Det(G −1 )Det(L)Det(G) = Det(L).<br />
Per il futuro, è utile sottolineare le affermazioni qui sopra. La relazione<br />
□<br />
v ′ i = ∑ j<br />
G ji v i<br />
si legge così: la rappresentazione matriciale <strong>di</strong> L nella base v i ′ si ottiene coniugando<br />
(ovvero con il prodotto G −1 LG) la matrice che rappresenta L nella base<br />
dei v i con la matrice le cui colonne sono le componenti dei vettori della nuova<br />
base rispetto alla precedente.<br />
Osservazione. Dalla legge <strong>di</strong> coniugio si deduce la seguente affermazione:<br />
affermazioni concernenti una rappresentazione matriciale <strong>di</strong> un operatore L sono<br />
intrinseche, ovvero proprie dell’operatore L se e solo se sono invarianti per coniugio<br />
tramite una qualsiasi matrice invertibile G. Ad esempio:<br />
L 12 è nullo non è invariante per coniugio.<br />
L 13 + L 24 = 3 non è invariante per coniugio.<br />
Invece:<br />
Da sopra, il determinante <strong>di</strong> un operatore si definisce come il determinante <strong>di</strong><br />
una sua (qualsiasi) rappresentazione matriciale.<br />
Un’altra proprietà: definiamo la Traccia <strong>di</strong> un operatore nel seguente modo.<br />
Consideriamo una (qualsiasi) rappresentazione matriciale L <strong>di</strong> L, e definiamo<br />
n∑<br />
Tr(L) = L ii ,<br />
ovvero la somma degli elementi <strong>di</strong>agonali della matrice L. Verifichiamo che il<br />
numero Tr(L) è in<strong>di</strong>pendente dalla rappresentazione matriciale. A questo scopo,<br />
ci serve il seguente<br />
20<br />
i=1
Lemma 3.5 Per ogni coppia <strong>di</strong> matrici A, B si ha<br />
Tr(AB) = Tr(AB).<br />
Considerato vero il lemma (ve<strong>di</strong> sotto) osserviamo che se L ′ è un’altra rappresentazione<br />
matriciale <strong>di</strong> L, deve esistere una matrice G (la matrice del cambiamento<br />
<strong>di</strong> base) per cui<br />
L ′ = G −1 LG.<br />
Dunque:<br />
Tr(L ′ ) = Tr(G} {{ −1 L}<br />
}{{} G ) = (Lemma) = Tr(G} {{ G −1<br />
} L) = Tr(L).<br />
=A =B<br />
=1<br />
Questo prova l’asserto, una volta che si sia provata la vali<strong>di</strong>tà del lemma. Questa<br />
segue dal fatto che gli elementi sulla <strong>di</strong>agonale del prodotto AB è<br />
[AB] ii = ∑ k<br />
A ik B ki<br />
Dunque,<br />
Tr(AB) =<br />
n∑<br />
[AB] ii =<br />
i=1<br />
n∑<br />
i=1<br />
( n∑<br />
k=1<br />
A ik B ki<br />
)<br />
=<br />
n∑<br />
k=1<br />
( n∑<br />
i=1<br />
B ki A ik<br />
)<br />
=<br />
n∑<br />
[BA] kk = Tr(BA),<br />
k=1<br />
dove l’unico passaggio non banale è l’inversione (lecita) dell’or<strong>di</strong>ne in quale<br />
vengono effettuate le somme sugli in<strong>di</strong>ci i e k (e il fatto che gli elementi A ij , B ij<br />
sono dei numeri reali (o complessi).<br />
<strong>Applicazioni</strong> delle nozioni qui esposte sono state già viste nella teoria delle<br />
equazioni lineari (eventualmente non omogenee).<br />
Consideriamo un sistema <strong>di</strong> N equazioni lineari non omogenee nelle M incognite<br />
{x 1 , x 2 , . . .,x M }. Queste si scrivono nella forma<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
a 11 x 1 + a 12 x + a 13 x 3 + · · ·a 1M x M = b 1<br />
a 21 x 1 + a 22 x + a 23 x 3 + · · ·a 2M x M = b 2<br />
.<br />
(3.8)<br />
a N1 x 1 + a N2 x + a N3 x 3 + · · ·a NM x M = b N<br />
Qui, gli NM elementi a ji sono scalari (che possona naturalmente essere arrangiati<br />
in una matrice A = [a ji ] j=1,...,N<br />
i=1,...,M , mentre gli N scalari [b 1, b 2 , . . ., b N ] formano<br />
il cosiddetto vettore dei termini noti. Possiamo dunque pensare al lato sinistro<br />
<strong>di</strong> (3.8) come alla rappresentazione <strong>di</strong> un operatore L : R M → T M , rispetto<br />
alla nase standard dei due spazi coinvolti, ed al lato destro (cioè al vettore dei<br />
termini noti) come alla assegnazione <strong>di</strong> un vettore B ∈ R N .<br />
In questo senso, il problema della soluzione <strong>di</strong> (3.8) può essere riformulato<br />
in questo modo:<br />
21
Trovare un (tutti i) vettori [x 1 , x 2 , · · · , x M ] in R M che vengono mandati<br />
dalla applicazione A, rappresentata dalla matrice A = a ji nel vettore B =<br />
[b 1 , . . .,b N ] ∈ R N .<br />
In particolare, consideriamo il caso in cui N = M (la matrice A è dunque<br />
quadrata), e B = [0, 0, · · · , 0] (sistema omogeneo), ovvero il sistema<br />
⎧<br />
a 11 x 1 + a 12 x + a 13 x 3 + · · ·a 1N x N = 0<br />
⎪⎨ a 21 x 1 + a 22 x + a 23 x 3 + · · ·a 2N x M = 0<br />
⎪⎩<br />
.<br />
a N1 x 1 + a N2 x + a N3 x 3 + · · ·a NN x N = 0<br />
(3.9)<br />
Le soluzioni <strong>di</strong> questo sistema sono dunque gli elementi del nucleo dell’operatore<br />
A rappresentato dalla matrice quadrata [a ji ] i,j=1,...,N . Dalla teoria esposta più<br />
sopra, abbiamo che:<br />
1. Se DetA ≠ 0 il nucleo dell’operatore A, rappresentato dalla matrice A<br />
è solo il vettore nullo, cioè il sistema (3.11) ha solo la soluzione {x 1 =<br />
0, x 2 = 0, . . .,x N = 0}.<br />
2. Se Det(A) = 0 il nucleo dell’operatore A non è banale, cioè esiste almeno<br />
un vettore (e dunque tutti i suoi multipli scalari) ¯x non nullo nel nucleo.<br />
Se [¯x 1 , ¯x x , . . ., ¯x N ] sono le sue compenenti, questa N-upla fornisce una<br />
soluzione (detta non banale) del sistema lineare.<br />
Infine, nel caso Det(A) = 0, è naturale porsi il problema <strong>di</strong> come trovare una<br />
soluzione non banale del sistema. Per risolvere questo problema si possono fare<br />
le seguenti osservazioni/ipotesi:<br />
Det(A) = 0 significa che Det(A T ) = 0; quin<strong>di</strong> le colonne <strong>di</strong> A T (che sono le<br />
righe <strong>di</strong> A) non sono linearmente in<strong>di</strong>pendenti. Questo vuole <strong>di</strong>re che c’è una<br />
equazione ”ridondante”, ovvero che una delle equazioni del sistema (3.11) è una<br />
combinazione lineare delle altre equazioni. Quin<strong>di</strong> per trovare le soluzioni del<br />
sistema in questione, posso considerare un sistema con una equazione in meno.<br />
Supponiamo <strong>di</strong> potere omettere l’ultima. Allora dobbiamo stu<strong>di</strong>are le soluzione<br />
del sistema em ridotto (ad N variabili ed N − 1 equazioni)<br />
⎧<br />
a 11 x 1 + a 12 x + a 13 x 3 + · · ·a 1N x N = 0<br />
⎪⎨ a 21 x 1 + a 22 x + a 23 x 3 + · · ·a 2N x M = 0<br />
⎪⎩<br />
.<br />
a N−1,1 x 1 + a N−1,2 x + a N−1,3 x 3 + · · ·a N−1,N x N = 0.<br />
(3.10)<br />
Supponendo che il determinante della matrice (N − 1) × (N − 1) ottenuta dalla<br />
A rimuovendo l’ultima riga e l’ultima colonna, riscriviamo il sistema come un<br />
sistema <strong>di</strong> N − 1 equazioni in N − 1 incognite, considerando l’ultima variabile<br />
22
x N come un parametro, nella forma<br />
⎧<br />
a 11 x 1 + a 12 x + a 13 x 3 + · · ·a 1,N−1 x N−1 = −a 1,N x N := β 1<br />
⎪⎨ a 21 x 1 + a 22 x + a 23 x 3 + · · ·a 2,N−1 x N−1 = −a 2,N x N := β 2<br />
⎪⎩<br />
.<br />
a N−1,1 x 1 + a N−1,2 x + a N−1,3 x 3 + · · ·a N−1,N−1 x N−1<br />
= −a N−1,N x N := β N−1<br />
(3.11)<br />
Quest’ultimo sistema si considera, ora, come un sistema non omogeneo (ripetiamo,<br />
<strong>di</strong> N − 1 equazioni in N − 1 incognite), con matrice dei coefficienti à N,N<br />
che ha determinante non nullo. La soluzione a questo sistema si può trovare<br />
con la regola <strong>di</strong> Cramer, ed è data dal vettore (ad N − 1 componenti)<br />
⎡ ⎤ ⎡ ⎤<br />
˜x 1<br />
β 1<br />
˜x 2<br />
β 2<br />
= Ã N,N ⎢ ⎥ ⎢ ⎥<br />
⎣ . ⎦ ⎣ . ⎦<br />
˜x N−1 ] β N−1<br />
In definitiva, la soluzione non banale del sistema degenere (3.8) è data dal<br />
vettore (ad N componenti)<br />
⎡ ⎤<br />
−a 1N<br />
−a 2N<br />
x = x N ·<br />
⎢<br />
.<br />
⎥<br />
⎣ −a N−1,N<br />
⎦<br />
1<br />
Questa formula – valida nel caso in cui Det(Ã N,N ) ≠ 0 – fornisce, al variare <strong>di</strong><br />
x N , le componenti del generico vettore del nucleo dell’operatore rappresentato<br />
dalla matrice A.<br />
4 Autovalori ed Autovettori<br />
La nozione <strong>di</strong> autovalore ed autovettore <strong>di</strong> un operatore e/o <strong>di</strong> una matrice sono<br />
relativi al seguente problema. Supponiamo <strong>di</strong> avere un operatore L, definito in<br />
uno spazio V <strong>di</strong> <strong>di</strong>mensione N per il quale esistano N vettori in<strong>di</strong>pendenti ψ i ,<br />
ed N scalari λ i tali che<br />
L · ψ i = λ i ψ i , i = 1, . . .,N. (4.1)<br />
Allora, nella base degli ψ i , l’operatore in questione è rappresentato dalla matrice<br />
<strong>di</strong>agonale <strong>di</strong>ag(λ i ), cioè quella che ha, sulla <strong>di</strong>agonale principale, gli scalari<br />
[λ 1 , λ 2 , . . .,λ N ].<br />
23
L’azione dell’operatore L si descrive in modo semplice. Se x = ∑ i x iψ i è la<br />
decomposizione <strong>di</strong> un vettore lungo al base degli ψ i , allora<br />
L(x) = ∑ i<br />
(x i )Lψ i = ∑ i<br />
(λ i x i )ψ i ,<br />
ovvero L agisce moltiplicando ciascuna componente <strong>di</strong> x rispetto alla base ψ i<br />
per il corrispondente scalare λ i . Se v i = ∑ j G jiψ j è un’altra base <strong>di</strong> V , allora<br />
la matrice che rappresenta L rispetto alla nuova base è data dalla matrice L =<br />
G −1 · <strong>di</strong>ag(λ i )G, che, in generale non è <strong>di</strong>agonale.<br />
Il problema che però ci vogliamo/dobbiamo porre è il seguente. Dato un<br />
operatore L : V → V , possiamo trovare una base nella quale L sia <strong>di</strong>agonale?<br />
E, se sì, come?<br />
Definizione 4.1 Sia L : V → V , ψ ≠ 0 ∈ V l e λ uno scalare. Si <strong>di</strong>ce che λ<br />
è un autovalore <strong>di</strong> L, con autovettore ψ (e si <strong>di</strong>ce che ψ è un autovettore <strong>di</strong> L<br />
relativo all’autovalore λ) se vale che<br />
Lψ = λψ, con ψ ≠ 0. (4.2)<br />
Nota Bene. La con<strong>di</strong>zione ψ ≠ 0 è fondamentale. Infatti la relazione L 0 = λ0<br />
è vera per ogni scalare λ, e non <strong>di</strong>ce nulla su L. La seguente osservazione è,<br />
nella sua semplicità, cruciale. Riscrivendo la (4.2) nella forma<br />
Lψ = λψ ⇔ (L − λ1)ψ = 0, (4.3)<br />
(nel prosieguo, ometteremo il simbolo 1), abbiamo che λ è un autovalore <strong>di</strong> L<br />
se e solo se l’operatore L − λ ha nucleo non banale (cioè esiste un vettore non<br />
nullo ψ ∈ Ker(L −λ)). Questo pone delle con<strong>di</strong>zioni algebriche non banali su λ.<br />
Infatti, sia v i una base <strong>di</strong> V , e consideriamo la rappresentazione matriciale <strong>di</strong> L<br />
(e <strong>di</strong> L−λ) definita dalla v i . Come sappiamo, la con<strong>di</strong>zione che il nucleo <strong>di</strong> L−λ<br />
sia non banale si traduce nella richiesta che la matrice L − λ rappresentativa <strong>di</strong><br />
L − λ abbia determinante nullo.<br />
Proposizione 4.2 Se λ è un autovalore, allora il polinomio in λ (<strong>di</strong> or<strong>di</strong>ne<br />
N = <strong>di</strong>m(V ) definito da<br />
P L (λ) = Det(L − λ1) ≡ Det(l ij − λδ ij ) = 0 (4.4)<br />
ha λ come ra<strong>di</strong>ce.<br />
In più questa con<strong>di</strong>zione non <strong>di</strong>pende dalla scelta della base.<br />
Dimostrazione. Se λ è un autovalore, allora il determinante <strong>di</strong> l ij − λδ ij<br />
si annulla, per quanto detto sopra. Dobbiamo solo fare vedere che questa con<strong>di</strong>zione<br />
è in<strong>di</strong>pendente dalla scelta della base in V . In effetti, vale che non solo<br />
gli zeri, ma il polinomio Det(l ij − λδ ij ) è definito da L, ovvero non cambia al<br />
cambiare della base. Abbiamo già osservato che se v ′ j = ∑ i G ijv i è un’altra base<br />
24
<strong>di</strong> V , allora la matrice G <strong>di</strong> elementi G ij è invertibile, e le matrici rappresentative<br />
- nelle due basi v i e v j ′ <strong>di</strong> L sono legate dalla relazione<br />
L ′ = Gg · LG −1<br />
Dato che posso scrivere λ1 = G −1 · λ1G ottengo<br />
Det(L ′ − λ1) = Det(G −1 · LG − G −1 λ1G) = Det(G −1 (L − λ1)G) =<br />
per il teorema <strong>di</strong> Binet = Det(G −1 )Det(L − λ1)Det(G) = Det(L − λ1),<br />
dove nell’ultima uguaglianza della prima riga si è raccolto a sinistra il fattore<br />
G −1 e a destra il fattore G, mentre nell’ultima uguaglianza della seconda riga si<br />
è usato il fatto che Det(G −1 1<br />
) =<br />
Det(G) .<br />
Il polinomio Det(L − λ1) si chiama polinomio caratteristico dell’operatore L (o<br />
anche associato all’operatore L). Il polinomio caratteristico <strong>di</strong> un operatore<br />
L : V → V è un polinomio <strong>di</strong> or<strong>di</strong>ne N = <strong>di</strong>m(V ), con coefficiente <strong>di</strong> or<strong>di</strong>ne più<br />
alto dato da c N = (−1) N 4 .<br />
Proposizione 4.3 Siano ψ 1 e ψ 2 autovettori <strong>di</strong> L : V → V relativi ad autovalori<br />
<strong>di</strong>stinti, cioè valgano<br />
Lψ 1 = λ 1 ψ 1 , Lψ 2 = λ 2 ψ 2 , con λ 1 ≠ λ 2 .<br />
Allora ψ 1 e ψ 2 sono linearmente in<strong>di</strong>pendenti.<br />
Dimostrazione. Supponiamo che ci sia una combinazione lineare<br />
allora L(c 1 ψ 1 + c 2 ψ 2 ) = 0 e dunque vale che<br />
c 1 ψ 1 + c 2 ψ 2 = 0; (4.5)<br />
c 1 λ 1 ψ 1 + c 2 λ 2 ψ 2 = 0. (4.6)<br />
Se λ 1 ≠ λ 2 , allora almeno uno dei due autovalori non è nullo; supponiamo<br />
λ 1 ≠ 0. Moltiplicando (4.5) per λ 1 e sottraendo questa da (4.6) si trova<br />
c 2 (λ 2 − λ 1 )ψ 2 = 0<br />
Ma ψ 2 non è il vettore nullo, e (λ 2 −λ 1 ) ≠ 0. Quin<strong>di</strong> deve essere c 2 = 0. Quin<strong>di</strong>,<br />
sostituendo nella (4.5), si ha che anche c 1 = 0, il che chiude la <strong>di</strong>mostrazione.<br />
4 Talvolta il polinomio caratteristico <strong>di</strong> L è definito da Det(λ − L). La nostra definizione e<br />
questa <strong>di</strong>fferiscono per il fattore moltiplicativo (−1) N .<br />
25<br />
□<br />
□
Per induzione, si <strong>di</strong>mostra che questa proprietà è vera anche per il caso <strong>di</strong> M<br />
autovettori corrispondenti ad M autovalori <strong>di</strong>stinti, ovvero vale che:<br />
Proposizione 4.4 Siano {ψ i } i=1,...,M M autovettori <strong>di</strong> L : V → V relativi ad<br />
M autovalori <strong>di</strong>stinti λ 1 ≠ λ 2 ≠ · · · , λ M . Allora gli {ψ i } i=1,...,M sono linearmente<br />
in<strong>di</strong>pendenti.<br />
Questo considerazione mostrano che se un operatore definito su uno spazio a<br />
<strong>di</strong>mensione N allora può avere al più N autovalori <strong>di</strong>stinti, e, in questo caso, gli<br />
autovettori relativi a tali autovalori formano una base <strong>di</strong> V . Quin<strong>di</strong> in questa<br />
base L è rappresentato da una matrice <strong>di</strong>agonale (si <strong>di</strong>ce che L è <strong>di</strong>agonalizzabile.<br />
Esempio. Consideriamo la matrice <strong>di</strong> Pauli iσ 1 =<br />
rappresentatrice dell’operatore<br />
σ 1 : C 2 → C 2<br />
( 0 1<br />
1 0<br />
)<br />
, pensata come<br />
Il polinomio caratteristico <strong>di</strong> σ 1 è<br />
(<br />
−λ 1<br />
Det(<br />
1 −λ<br />
)<br />
) = λ 2 − 1.<br />
Quin<strong>di</strong> σ 1 ammette due autovalori <strong>di</strong>stinti, λ 1 = 1, λ 2 = −1. Per trovare<br />
autovettori relativi a questi due autovalori, dobbiamo determinare il nucleo <strong>di</strong><br />
σ 1 −1 (per λ 1 ) e <strong>di</strong> σ 1 +1 (ovvero sostituire λ = ±1 nella equazione (σ 1 −λ1)ψ =<br />
0). Detto ψ = [ψ 1 , ψ 2 ] dobbiamo (incominciando dal caso <strong>di</strong> λ 1 ) risovere il<br />
sistema (<br />
−1 1<br />
1 −1<br />
)(<br />
ψ1<br />
) (<br />
0<br />
=<br />
ψ 2 0<br />
)<br />
, ⇔<br />
{<br />
−psi1 + ψ 2 = 0<br />
ψ 1 − ψ 2 = 0<br />
Le soluzioni <strong>di</strong> questo sistema (le due equazioni sono una l’opposto dell’altra...)<br />
sono tutti i vettori ψ tali che la prima compopnente sia uguale alla seconda,<br />
ovvero, gli autovettori relativi a λ 1 = 1 sono dati da<br />
( ) a<br />
ψ 1 = , a ≠ 0. (4.7)<br />
a<br />
Un calcolo analogo porta alla caratterizzazione degli autovettori relativi a λ 2 =<br />
−1 come a tutti i vettori della forma<br />
( ) −b<br />
ψ 2 = , b ≠ 0. (4.8)<br />
b<br />
Osserviame che ψ 1 e ψ 2 forniscono, per ogni scelta degli scalari, (eventualmnete<br />
complessi) a, b una base in C 2 . È utile verificare la legge <strong>di</strong> trasformazione delle<br />
rappresentazioni matriciali degli operatori in questo caso.<br />
26
( 0 1<br />
La matrice σ 1 =<br />
1 0<br />
)<br />
è riferita alla base naturale <strong>di</strong> C 2 data da<br />
(<br />
1<br />
e 1 =<br />
0<br />
) (<br />
0<br />
, e 2 =<br />
1<br />
Fissati a, b non nulli, la matrice che definisce i vettori ψ 1 (a), ψ 2 (b) rispetto alla<br />
base standard è<br />
[ ]<br />
[ ]<br />
a −b<br />
1/2 a<br />
−1<br />
1/2 a −1<br />
G = , con inversa G −1 =<br />
.<br />
a b<br />
−1/2 b −1 1/2 b −1<br />
)<br />
.<br />
Se consideriamo il prodotto G −1 σ 1 G otteniamo<br />
[ ]<br />
1/2 a<br />
−1<br />
1/2 a −1 ( ) [<br />
0 1 a −b<br />
· ·<br />
−1/2 b −1 1/2 b −1 1 0 a b<br />
} {{ }<br />
[ ] [<br />
1/2 a<br />
−1<br />
1/2 a −1 a −b<br />
·<br />
1/2 b −1 −1/2 b −1 a b<br />
]<br />
]<br />
=<br />
( 1 0<br />
0 −1<br />
)<br />
(4.9)<br />
In altre parole, la trasformazione G che manda i vettori della base standard nei<br />
vettori della base degli autovettori <strong>di</strong> σ 1 , <strong>di</strong>agonalizza σ 1 .<br />
Esempio 2 Consideriamo la matrice<br />
⎡ ⎤<br />
A =<br />
Il suo polinomio caratteristico è<br />
⎢<br />
⎣<br />
2 1 1<br />
1 2 3<br />
1 −1 −2<br />
⎥<br />
⎦<br />
λ 3 − 3λ 2 − 2λ = λ(λ + 1)(λ − 3),<br />
e dunque i suoi autovalori sono λ 1 = 0, λ 2 = −1, λ 3 = 3 (Osserviamo che la<br />
presenza dell’autovalore 0 significa che il nucleo <strong>di</strong> A è non banale. Infatti, la<br />
terza riga è la <strong>di</strong>fferenza delle prime due.<br />
Calcoliamo l’autovettore relativo a λ 1 . Dato che, appunto, la terza equazione<br />
è combinazione lineare delle prime due, possiamo considerare il sistema in due<br />
equazioni e tre incognite (ψ 1 , ψ 2 ψ 3 ) dato dalle prime due righe <strong>di</strong> Aψ = 0,<br />
ovvero il sistema<br />
{ {<br />
2ψ1 + ψ 2 + ψ 3 = 0 2ψ1 + ψ<br />
ovvero<br />
2 = −ψ 3<br />
ψ 1 + 2ψ 2 + 3ψ 3 = 0 ψ 1 + 2ψ 2 = −3ψ 3<br />
Scriviamo questo sistema matricialmente come<br />
( )( ) ( )<br />
2 1 ψ1 −ψ3<br />
= . (4.10)<br />
1 2 ψ 2 −3ψ 3<br />
27
Ci accorgiamo che il determinante della matrice 2×2 associata a questo sistema<br />
non omogeneo, cioè<br />
( ) 2 1<br />
 33 =<br />
1 2<br />
è invertibile, con inversa data da<br />
(Â33) −1 =<br />
( 2<br />
3<br />
− 1 3<br />
− 1 3<br />
2<br />
3<br />
)<br />
Dunque la soluzione generale <strong>di</strong> (4.10) è<br />
( ) ( 2<br />
) ( ) (<br />
psi1<br />
− 1 1 −ψ3<br />
=<br />
3 3<br />
2 · =<br />
ψ 3 3<br />
ψ 2 −3ψ 3 − 5ψ 3 3<br />
− 1 3<br />
3<br />
)<br />
.<br />
Dunque l’autovettore relativo all’autovalore 0 <strong>di</strong> A si scrive come<br />
⎡<br />
1<br />
ψ ⎤ ⎡ ⎤<br />
3 3 1<br />
ψ 1 = ⎣ − 5ψ ⎦<br />
3 3 = µ ⎣ −5 , ⎦<br />
ψ 3 3<br />
dove µ = ψ 3 /3 è un qualsiasi numero non nullo.<br />
Con conti analoghi, si vede che gli autovettori relativi agli altri due autovalori<br />
sono<br />
⎡ ⎤<br />
0<br />
λ 2 = −1, ψ 2 = µ ⎣ −1 ⎦<br />
1<br />
e<br />
⎡ ⎤<br />
1<br />
λ 3 = 3, ψ 3 = µ ⎣ 1 ⎦<br />
0<br />
In quest’ultimo caso si ha però che<br />
⎡ ⎤<br />
−1 1 1<br />
A − 31 = ⎢<br />
⎣<br />
1 −1 3 ⎥<br />
⎦<br />
1 −1 −5<br />
e dunque non si può utilizzare la matrice Â33) per definire il sistema lineare 2×2<br />
da risolvere. Una buona scelta è utilizzare Â31), ovvero considerare il sistema<br />
{<br />
ψ2 + ψ 3 = ψ 1<br />
−ψ 2 + 3ψ 3 = −ψ 1<br />
28
5 Prodotti scalari e hermitiani.<br />
La nozione <strong>di</strong> prodotto scalare in R 3 e si generalizza nel seguente modo:<br />
Definizione 5.1 Sia V uno spazio lineare /R. Un prodotto scalare su V e’<br />
una applicazione (“funzione”)<br />
che sod<strong>di</strong>sfi:<br />
1. (x, y) = (y, x) (simmetria)<br />
(·, ·) : V × V → R<br />
2. (x, y + z) = (x, y) + (y + z) (linearità)<br />
3. (c x, y) = c(x, y) (omogeneità)<br />
4. (x, x) ≥ 0 e (x, x) = 0 ⇔ x = 0 (positività)<br />
Notiamo che, grazie alla proprietà 1) valgono anche:<br />
(x + y, z) = (x, z) + (y + z), e (x, c y) = c(x, y).<br />
Si può dunque <strong>di</strong>re che un prodotto scalare su uno spazio vettoriale reale V è<br />
una applicazione simmetrica, “bilineare” (proprietà 2) e 3)) e definita positiva<br />
<strong>di</strong> V ×V in R. Esempio. Sullo spazio standard R n delle n-uple <strong>di</strong> numeri reali<br />
si ha il prodotto scalare standard: se x = (x 1 , x 2 , . . ., x n ) e y = (y 1 , y 2 , . . .,y n ),<br />
allora si pone:<br />
n∑<br />
(x,y) = x i y i .<br />
Esempio. Sempre in R n si possono porre “<strong>di</strong>versi” prodotti scalari. Per esempio,<br />
fissata una n-upla <strong>di</strong> numeri positivi a = a 1 , a 2 , . . .,a n , si può porre<br />
(x,y) a =<br />
i=1<br />
n∑<br />
a i x i y i<br />
Esempio Prodotto scalare “standard” in C I .<br />
Sia I = [a, b] un intervallo (chiuso e limitato) della retta reale, e consideriamo<br />
lo spazio delle funzioni continue C I definite su I a valori reali.<br />
Sappiamo che C I è uno spazio vettoriale. Poniamo, per definizione,<br />
(f, g) =<br />
∫ b<br />
a<br />
i=1<br />
f(x) g(x) dx.<br />
Vogliamo verificare che (·, ·) : C I × C I → R è un prodotto scalare.<br />
Per prima cosa, notiamo che è ben definito. Infatti, se f e g sono funzioni<br />
continue su un intervallo chiuso e limitato, lo è anche il loro prodotto, e quin<strong>di</strong><br />
l’integrale ∫ b<br />
a fg(d) x è un numero reale.<br />
29
Le proprietà <strong>di</strong> simmetria, linearità e omoigeneità sono ovvie. La proprità<br />
<strong>di</strong> positività segue dal fatto che (f, f) = ∫ b<br />
a f2 (x) dx, e dunque (f, f) ≥ 0. In<br />
particolare, (f, f) = 0 se e solo se f = 0 per tutti gli x, ovvero fè la funzione<br />
nulla, cioè lo zero dello spazio vettoriale C I .<br />
Analogamene al caso <strong>di</strong> R n , se ψ(x) è una funzione non negativa, la legge<br />
(f, g) ψ =<br />
∫ b<br />
a<br />
f(x)g(x)ψ(x) dx<br />
definisce un prodotto scalare in C I .<br />
Consideriamo ora spazi vettoriali sui numeri complessi.<br />
Definizione 5.2 Sia V uno spazio lineare /C. Un prodotto scalare, detto anche,<br />
se è il caso <strong>di</strong> <strong>di</strong>stinguere, un prodotto hermitiano su V e’ una applicazione<br />
(“funzione”)<br />
(·, ·) : V × V → C<br />
che sod<strong>di</strong>sfi:<br />
1. (x, y) = (y, x) (simmetria hermitiana)<br />
2. (x, y + z) = (x, y) + (y + z) (linearità)<br />
3. (x, c y) = c(x, y) (omogeneità)<br />
4. (x, x) ≥ 0 e (x, x) = 0 ⇔ x = 0 (positività)<br />
Notiamo che, grazie alla proprietà 1) e 2) valgono anche:<br />
(x + y, z) = (x, z) + (y, z), e (c x, y) = c(x, y).<br />
Si può dunque <strong>di</strong>re che un prodotto scalare su uno spazio vettoriale complesso<br />
V è una applicazione simmetrica, “sesquilineare” 5 (proprietà 2) e 3)) e definita<br />
positiva <strong>di</strong> V × V in C.<br />
Esempio. Il prodotto scalare standard in C n è definito nel seguente modo.<br />
Siano se x = (x 1 , x 2 , . . .,x n ) e y = (y 1 , y 2 , . . .,y n ) elementi <strong>di</strong> C n . Il prodotto<br />
scalare (o hermitiano, o euclideo) standard è definito da<br />
(x,y) =<br />
n∑<br />
x i y i .<br />
i=1<br />
Esempio. Se C I (C) è lo spazio delle funzioni continue sull’intevallo I = [a, b] a<br />
valori complessi, allora la legge<br />
(f, g) =<br />
∫ b<br />
a<br />
f(x)g(x) dx<br />
5 sesqui=1 e 1 2 . 30
dà luogo ad un prodotto hermitiano in C I (C).<br />
Nota. Si noti che nel caso complesso, è cruciale prendere il complesso coniugato<br />
delle componenti (e.g., in C n ). Se si ponesse, in completa analogia con il caso<br />
reale,<br />
n∑<br />
〈x,y〉 = x i y i<br />
si otterrebbe una forma bilineare in C n , che non gode della proprietà <strong>di</strong> positività.<br />
Per rendersi conto <strong>di</strong> ciò, basta considerare, in C 2 , il vettore η = (1, i) ≠<br />
0. Allora,<br />
(η, η) = 1 1 + i i = 1 − i 2 = 2, mentre 〈η, η〉 = 1 1 + i i = 1 + i 2 = 0<br />
i=1<br />
6 Spazi euclidei e normati<br />
Proposizione 6.1 (Disuguaglianza <strong>di</strong> Cauchy-Schwartz) Sia (V, (, )) uno spazio<br />
euclideo. Allora, per ogni coppia v 1 , v 2 vale che<br />
|(v 1 , v 2 )| 2 ≤ (v 1 , v 1 )(v 2 , v 2 ), (6.1)<br />
e l’uguaglianza vale solo se v 2 = cv 2 (cioè se v 1 e v 2 sono linearmente <strong>di</strong>pendenti).<br />
Dimostrazione. Se uno dei due vettori è nullo, la affermazione è vera. Quin<strong>di</strong><br />
possiamo supporre che entrambi i vettori siano non nulli. Definiamo x =<br />
(v 2 , v 2 ), y = (v 1 , v 2 ) e consideriamo la combinazione lineare<br />
ξ = xv 1 − yv 2<br />
Dalla proprietà <strong>di</strong> positività del prodotto scalare, abbiamo (ξ, ξ) ≥ 0. Dunque<br />
0 ≤ (ξ, ξ) = (xv 1 −yv 2 , xv 1 −yv 2 ) = |x| 2 (v 1 , v 1 )−xy(v 2 , v 1 )−xy(v 1 , v 2 )+|y| 2 (v 2 , v 2 ).<br />
ovvero, sostituendo, le espressioni <strong>di</strong> x e y,<br />
|(v 2 , v 2 )| 2 (v 1 , v 1 )−(v 2 , v 2 )(v 1 , v 2 )(v 2 , v 1 )−(v 1 , v 1 )(v 1 , v 2 )(v 1 , v 2 )+|(v 1 , v 2 )| 2 (v 2 , v 2 ) ≥ 0.<br />
Notando che (v i , v i ) > 0 e che (v 2 , v 1 ) = (v 1 , v 2 ), si ottiene<br />
0 ≤ (v 2 , v 2 ) 2 (v 1 , v 1 ) − (v 2 , v 2 )|(v 1 , v 2 )| 2 ,<br />
e dunque, <strong>di</strong>videndo per (v 2 , v 2 ), si ha che<br />
|(v 1 , v 2 )| 2 ≤ (v 1 , v 1 )(v 2 , v 2 ),<br />
che è quello che si doveva mostrare.<br />
In particolare, notiamo che l’uguaglianza vale sse ξ = 0, ovvero sse v 1 e v 2<br />
sono linearmente <strong>di</strong>pendenti.<br />
31
In uno spazio euclideo si può definire un concetto <strong>di</strong> lunghezza (detta norma)<br />
<strong>di</strong> un vettore. Definiamo norma <strong>di</strong> v ∈ V la quantità<br />
‖v‖ = √ (v, v). (6.2)<br />
Proposizione 6.2 La norma <strong>di</strong> un vettore è una applicazione ‖ · ‖ : V → R<br />
che sod<strong>di</strong>sfa le seguenti proprietà<br />
1. ‖v‖ ≥ 0, con ugualianza sse v = 0 (positività);<br />
2. ‖c v‖ = |c|‖v| (omogeneità);<br />
3. ‖v + u‖ ≤ ‖v‖ + ‖u‖ (<strong>di</strong>suguaglianza triangolare).<br />
Dimostrazione Le prime due proprietà seguono imme<strong>di</strong>atamente dall proprietà<br />
2 e 3 del prodotto scalare. Per l’ultima, osservato che la <strong>di</strong>suguaglianza <strong>di</strong><br />
Cauchy–Schwartz si può scrivere come<br />
il che implica le due <strong>di</strong>suguaglianze<br />
Consideriamo<br />
|(v 1 , v 2 )| 2 ≤ ‖v 1 ‖ 2 ‖v 2 ‖ 2 , (6.3)<br />
(v 1 , v 2 ) ≤ ‖v 1 ‖‖v 2 ‖, |(v 1 , v 2 )| ≤ ‖v 1 ‖‖v 2 ‖.<br />
‖v 1 + v 2 ‖ 2 = (v 1 + v 2 , v 1 + v 2 ) = (v 1 , v 1 ) + (v 1 , v 2 ) + v 1 , v 2 ) + (v 2 , v 2 ) =<br />
‖v 1 ‖ 2 + ‖v 2 ‖ 2 + (v 1 , v 2 ) + v 1 , v 2 ).<br />
Utilizzando le <strong>di</strong>suguaglianze <strong>di</strong> cui sopra, si ha<br />
‖v 1 + v 2 ‖ 2 ≤ ‖v 1 ‖ 2 + ‖v 2 ‖ 2 + 2‖v 1 ‖‖v 2 ‖ = (‖v 1 ‖ + ‖v 2 ‖) 2<br />
e dunque, dato che entranbi i membri <strong>di</strong> questa equazione sono numeri reali non<br />
negativi, la tesi si ottiene prendendo la ra<strong>di</strong>ce quadrata.<br />
6.1 Ortogonalità e sue prime applicazioni<br />
Consideriamo uno spazio vettoriale V dotato <strong>di</strong> un prodotto interno (o hermitiano,<br />
se V è sui complessi) ( , ).<br />
Definizione 6.3 Due vettori v 1 , v 2 si <strong>di</strong>cono ortogonali sse (v 1 , v 2 ) = 0.<br />
Dalla definizone ve<strong>di</strong>amo subito che lo 0 <strong>di</strong> V è l’unico vettore <strong>di</strong> V ortogonale<br />
a se stesso. Infatti (0 , 0) = 0, e (v , v) = 0 ↔ v = 0 (proprietà 3 del prodotto<br />
euclideo/hermitiano).<br />
32<br />
□<br />
□
Proposizione 6.4 Siano v 1 , v 2 , non nulli e ortogonali; allora v 1 e v 2 sono linearmente<br />
in<strong>di</strong>pendenti.<br />
Dim. Sia c 1 v 1 + c 2 v 2 = 0 una combinazione lineare <strong>di</strong> v 1 e v 2 che <strong>di</strong>a 0.<br />
Dobbiamo verificare che c 1 = c 2 = 0. Dal fatto che (0 , 0) = 0 abbiamo<br />
0 = (c 1 v 1 + c 2 v 2 , c 1 v 1 + c 2 v 2 )<br />
Sviluppando questa uguaglianza si ha (consideriamo il caso hermitiano)<br />
0 = ¯c 1 c 1 (v 1 , v 1 ) + ¯c 1 c 2 (v 1 , v 2 ) + ¯c 2 c 1 (v 2 , v 1 ) + ¯c 2 c 2 (v 2 , v 2 ).<br />
Dato che (v 1 , v 2 ) = (v 2 , v 1 ) sono per ipotesi nulli, ne otteniamo<br />
0 = |c 1 | 2 (v 1 , v 1 ) + |c 2 | 2 (v 2 , v 2 )<br />
I due adden<strong>di</strong> del membro destro sono non negativi, e dunque deve valere<br />
|c 1 | 2 (v 1 , v 1 ) = |c 2 | 2 (v 2 , v 2 ) = 0; dato che i vettori v 1 , v 2 non sono nulli (e dunque<br />
(v i , v i ) > 0), ne possiamo concludere che c 1 = c 2 = 0<br />
Osserviamo che, più in generale, vale la seguente proprietà:<br />
Sia {v 1 , . . .,v k } un insieme <strong>di</strong> vettori non nulli <strong>di</strong> V , che sod<strong>di</strong>sfino<br />
(v i , v j ) = 0, i ≠ j = 1, . . ., k.<br />
Allora questi vettori sono lineramente in<strong>di</strong>pendenti. Infatti basta notare che,<br />
detto ξ = ∑ k<br />
i=1 x iv i , si ha<br />
□<br />
k∑<br />
(ξ, ξ) = i x j (v i , v j ) =<br />
i,j=1x ∑ i<br />
|x i |(v i , v i ).<br />
Esempio 1. Nello spazio R n , questa proprietà, applicata a vettori v i = e li , dove<br />
e i è la n-upla data da (0, 0, . . ., 0 1 , 0, . . ., 0), riba<strong>di</strong>sce che questi vettori sono<br />
}{{}<br />
posto i<br />
in<strong>di</strong>pendenti. Peraltro, garantisce che, per esempio, i vettori v = (1, 1, 0, . . ., 0)<br />
ed u = (1, −1, 0, . . ., 0) sono in<strong>di</strong>pendenti.<br />
Nota. Una coseguenza <strong>di</strong> questa proprietà è che, presi n + k vettori v α non<br />
nulli in uno spazio vettoriale euclideo V n <strong>di</strong> <strong>di</strong>mensione n deve aversi, per quelche<br />
α, β, (v α , v β ) ≠ 0. Viceversa, una base <strong>di</strong> V n formata da vettori ortogonali a<br />
due a due si chiama base ortogonale. In particolare, se questi vettori sono tutti<br />
<strong>di</strong> norma uguale a 1, la base si <strong>di</strong>ce base ortonormale. Ad esempio, la terna<br />
−→ i ,<br />
−→ j ,<br />
−→ k è una base ortonormale dello spazio euclideo R 3 , dotato del prodotto<br />
scalare standard.<br />
33
Esempio 2. Consideriamo lo spazio delle funzioni (<strong>di</strong>ciamo continue) C [−π,π]<br />
nell’intervallo I = [−π, π], e i vettori u n ∈ C [−π,π] definiti da<br />
u 0 (x) = 1, u 2n−1 (x) = cos(n x), u 2n = sin(n x), n = 1, 2, 3, . . ..<br />
Questo insieme (o sistema, o famiglia) <strong>di</strong> vettori è ortogonale.<br />
Infatti, consideriamo n ≠ m e il prodotto scalare<br />
(u n , u m ) =<br />
∫ π<br />
−π<br />
u n (x)u m (x) dx.<br />
Ora, se n è nullo, abbiamo (u 0 , u m ) = ∫ u I n(x)dx = 0; supponiamo che sia n<br />
che m siano non nulli e (per esempio), sia n = 2k − 1, m = 2l. Allora si ha<br />
∫<br />
(u n , u m ) = cos(k x) sin(l x) dx<br />
Integrando per parti si ha<br />
(u n , u m ) = 1 k sin(k x) sin(l x)∣ ∣ π −π − l k<br />
dato che le funzioni sono perio<strong>di</strong>che otteniamo<br />
(u n , u m ) = − l ∫<br />
sin(k x) cos(l x)dx.<br />
k<br />
I<br />
I<br />
∫<br />
I<br />
sin(k x) cos(l x)dx.<br />
Se k = l, abbiamo dunque (u n , u m ) = −(u n , u m ) e dunque (u n , u m ) = 0. se<br />
k ≠ l, si ha, analogamente,<br />
∫<br />
sin(k x) cos(l x) = − l ∫<br />
cos(k x) sin(l x) dx<br />
k<br />
e dunque otteniamo che<br />
I<br />
(u 2k−1 , u 2l ) = l2<br />
k 2(u 2k−1, u 2l )<br />
che <strong>di</strong>mostra che (u 2k−1 , u 2l ) = 0, ∀ k, l. Il caso n, m entrambi pari o <strong>di</strong>spari<br />
si tratta analogamente. Dunque gli u n sono un sistema ortogonale in C [−π,π] .<br />
Ricordando che ∫<br />
∫<br />
cos 2 (n x) dx = sin 2 (n x)dx = π<br />
I<br />
e osservamdo che (u 0 , u 0 ) = 2π si vede che la famiglia<br />
v 0 = u 0<br />
√<br />
2π<br />
, v n = u n<br />
√ π<br />
I<br />
I<br />
34
è ortonormale in C [−π,π] .<br />
Esempio 3. Una variante dell’esempio 2. Sia V C lo spazio delle funzioni perio<strong>di</strong>che<br />
da I = [−π, π] a valori complessi. Consideriamo, in V C C la famiglia<br />
{e n } n∈Z definita da:<br />
e 0 (x) = 1, e n (x) = exp(i n x), n ≠ 0. (6.4)<br />
Questa è una famiglia ortogonale. Infatti, consideriamo il prodotto scalare<br />
∫<br />
∫<br />
∫<br />
(e n , e m ) = e n (x)e m (x) dx = exp(−i n x) exp(i m x) dx ≡ exp(i(n−m) x)dx<br />
I<br />
Supponiamo n ≠ m. Integrando<br />
I<br />
1<br />
∣<br />
(e n , e m ) = ∣ exp(i(n − m) x) π<br />
i(n − m)<br />
= 0, −π<br />
per la perio<strong>di</strong>cità della funzione esponenziale con argomento immaginario. Se,<br />
ora, n = m (eventualmente entrambi = 0) abbiamo<br />
∫<br />
(e n , e n ) = 1 dx = 2π.<br />
I<br />
Dunque la famiglia ortonormale corrispondente alla famiglia e n si ottene come<br />
v n = √ en<br />
2π<br />
.<br />
Basi ortonormali godono <strong>di</strong> una proprietà fondamentale, ovvero che le componenti<br />
dello sviluppo <strong>di</strong> un generico vettore v sulla base in questione si calcolano<br />
attraverso prodotti scalari. Ovvero, vale che<br />
Proposizione 6.5 Sia {e 1 , . . .,e n } una (qualsiasi) base ortonormale in V n . Lo<br />
sviluppo dell’elemento v ∈ V lungo V è dato da<br />
I<br />
v = ∑ i<br />
v i e i , con v i = (v, e i ). (6.5)<br />
In altre parole, le componenti <strong>di</strong> v lungo la base e i sono i prodotti scalari (e i , v).<br />
Dimostrazione. Dato che e i sono una base, lo sviluppo<br />
v = ∑ i<br />
v i e i<br />
è univocamente determinato. Scegliamo un in<strong>di</strong>ce k e pren<strong>di</strong>amo il prodotto<br />
scalare (e k , v) <strong>di</strong> entrambi i membri <strong>di</strong> questa uguaglianza; a sinistra abbiamo<br />
(v, e k ), mentre a destra (grazie alla linearità del prodotto euclideo)<br />
∑<br />
v i (e k , e i ) = v k perchè (e k , e i ) = 0 se i ≠ k, e vale 1 per i = k.<br />
i<br />
Nota. Questa <strong>di</strong>mostrazione è fatta per spazi <strong>di</strong> <strong>di</strong>mensione finita. Peraltro<br />
vale anche in <strong>di</strong>mensione infinita.<br />
35
Proposizione 6.6 (Formule <strong>di</strong> Parseval) Sia V n uno spazio vettoriale (complesso)<br />
<strong>di</strong> <strong>di</strong>mensione finita, e {e i } i=1,...,n una sua base ortonormale. Allora, per<br />
ogni coppia <strong>di</strong> vettori x, y ∈ V n ,<br />
(y, x) =<br />
n∑<br />
(e i , y)(e i , x). (6.6)<br />
i=1<br />
In particolare, ‖x‖ 2 = ∑ i |(e i, x)| 2 .<br />
Dimostrazione. Scriviamo, secondo la (6.5),<br />
x = ∑ i<br />
(e i , x)e i<br />
e calcoliamo (y, x); sfruttando sempre la linearità <strong>di</strong> ( , ) abbiamo<br />
(y, x) = (y, ∑ (e i , x)e i ) = ∑ ( ) ∑<br />
y, (ei , x)e i = (e i , x)(y, e i ) = ∑<br />
i<br />
i<br />
i<br />
i<br />
(e i , y)(e i , x),<br />
come affermato. La seconda affermazione si ottiene prendendo y = x.<br />
□<br />
7 Operatori Hermitiani (simmetrici)<br />
Il problema <strong>di</strong> determinare se e quando un operatore è <strong>di</strong>agonalizzabile non è <strong>di</strong><br />
facile risoluzione. In questa ultima lezione introdurremo una classe <strong>di</strong> operatori<br />
lineari, detti operatori Hermitiani definiti su spazi euclidei (complessi), per i<br />
quali vale un teorema <strong>di</strong> <strong>di</strong>agonalizzazione.<br />
Consideriamo uno spazio vettoriale euclideo complesso (V, (,)); sia L : V →<br />
V . L’aggiunto <strong>di</strong> L è quell’operatore L † che verifica<br />
(y, Lx) = (L † y, x) = (x, L † y), ∀ x, y ∈ V. (7.1)<br />
Per definizione, (L 1 + L 2 ) † = L † 1 + L † 2, e (zL) † = zL † .<br />
Esempio 1. Se V è <strong>di</strong> <strong>di</strong>mensione finita, l’aggiunto <strong>di</strong> un operatore esiste<br />
sempre. In particolare, se L è la rappresentazione matriciale <strong>di</strong> L rispetto ad<br />
una base ortonormale {e i } i=1,...,N=<strong>di</strong>mV , gli elementi <strong>di</strong> matrice [l † ] ij sono dati<br />
dai complessi coniugati degli elementi della matrice trasposta L T , ovvero, in<br />
formule,<br />
l † ij = l ji<br />
Per rendersi conto <strong>di</strong> questo fatto, basta ricordare che rispetto ad una base<br />
ortonormale, l’elemento <strong>di</strong> matrice l ij si calcola come<br />
l ij = (e i , L(e j ))<br />
36
Dunque, l’elemento l † ij è<br />
(e i , L † (e j )) = (L † (e j ), e i ) = (e j , L(e i )) = l ji ,<br />
dove, nella terza uguaglianza si è usata (“al contrario”) la definizione <strong>di</strong> aggiunto.<br />
Per como<strong>di</strong>tà, data una matrice L, si chiama matrice aggiunta (o, anche,<br />
coniugata Hermitiana) <strong>di</strong> L, la matrice il cui elemento <strong>di</strong> posto i, j è il complesso<br />
coniugato dell’elemento <strong>di</strong> posto j, i della matrice L. In poche parole, la matrice<br />
aggiunta è la coniugata della trasposta (o la trasposta della coniugata).<br />
Nota Nel caso reale, la matrice aggiunta si riduce alla matrice trasposta.<br />
Esempio 2 Sia C ∞ ([a, b]) lo spazio delle funzioni perio<strong>di</strong>che definite sull’intervallo<br />
[a, b], derivabili un numero arbitrario <strong>di</strong> volte, dotato del prodotto euclideo<br />
(f, g) =<br />
∫ b<br />
a<br />
f(x)g(x) dx ,<br />
e consideriamo l’operatore ˆ∂, che associa ad f(x) la sua derivata. Verifichiamo<br />
che ˆ∂ † = −ˆ∂.<br />
∫ b<br />
(f, ˆ∂(g)) = f(x) d (g(x)) dx = ( integrando per parti )<br />
a dx<br />
f(x)g(x) ∣ ∫ b<br />
b − ( d f(x))g(x) dx =<br />
a<br />
a dx<br />
( dato che le funzioni sono perio<strong>di</strong>che )<br />
=<br />
∫ b<br />
a<br />
− d<br />
dx (f(x))g(x) dx = (−ˆ∂f, g).<br />
Definizione 7.1 Un operatore si chiama autoaggiunto o hermitiano se L = L † ;<br />
una matrice si chiama autoaggiunta o hermitiana se è uguale alla sua aggiunta.<br />
Un operatore si <strong>di</strong>ce antiautoaggiunto (o anti hermitiano) se il suo aggiunto è il<br />
suo opposto (cioè, L+L † = 0). Osserviamo che se L è hermitiano, i L è antihermitiano<br />
e viceversa. Nel caso reale, una matrice hermitiana è una matrice che<br />
coincide con la sua trasposta, ed è detta più comunemente matrice simmetrica<br />
(omettendo ”rispetto alla riflessione secondo la <strong>di</strong>agonale principale”).<br />
Esempi. Le matrici <strong>di</strong> Pauli definite in (2.9) sono (così come l’operatore ˆ∂<br />
<strong>di</strong>scusso qui sopra, antiautoaggiunte. L’operatore iˆ∂ è autoaggiunto.<br />
Nel seguito considereremo autovalori ed autovettori <strong>di</strong> operatori (matrici)<br />
hermitiani.<br />
Nota. Un operatore autoaggiunto è rappresentato, in una base ortonormale<br />
da una matrice autoaggiunta. Questa proprietà è invariante per coniugio per<br />
matrici unitarie, ovvero matrici la cui inversa coincide con la aggiunta. Due<br />
basi ortonormali in uno spazio vettoriale complesso (finito <strong>di</strong>mensionale) sono<br />
37
collegate da una matrice unitaria.<br />
Esercizio. Dimostrare queste affermazioni, ricordando che<br />
e<br />
(AB) † = B † A † notare l’inversione dell’or<strong>di</strong>ne<br />
(G −1 ) † = (G † ) −1 .<br />
Esercizio. Dimostrare anche queste ultime due affermazioni.<br />
Proposizione 7.2 Se λ è un autovalore <strong>di</strong> un operatore hermitiano H, allora<br />
λ è reale (λ = λ; nel caso <strong>di</strong> operatori antihermitiani, λ è immaginario puro.<br />
Dimostrazione. Se λ è un autovalore <strong>di</strong> H, allora esiste un vettore non nullo<br />
ψ tale che<br />
Hψ = λψ, ⇒, (ψ, Hψ) = (ψ, λψ) = λ(ψ, ψ);<br />
Ma (ψ, Hψ) = (H † ψ, ψ); dato che H † = H, quest’ultima equazione <strong>di</strong>venta<br />
(λψ, ψ) = λ(ψ, ψ).<br />
Nella sezione precedente, abbiamo visto che autovettori <strong>di</strong> un operatore qualsiasi<br />
relativi ad autovalori <strong>di</strong>stinti sono linearmente in<strong>di</strong>pendenti. Per operatori<br />
Hermitiani, vale una proprietà più forte, ovvero:<br />
Proposizione 7.3 Siano λ 1 e λ 2 due autovalori <strong>di</strong>stinti <strong>di</strong> un operatore Hermitiano<br />
H : V → V , e siano ψ 1 e ψ 2 due autovettori relativi, ovvero,<br />
Hψ 1 = λ 1 ψ 1 , Hψ 2 = λ 2 ψ 2 , con λ i ∈ R, ψ i ≠ 0, i = 1, 2. (7.2)<br />
Allora ψ 1 e ψ 2 sono ortogonali.<br />
Dimostrazione. Da un lato<br />
(ψ 1 , Hψ 2 ) = (ψ 1 , λ 2 ψ 2 ) = λ 2 (ψ 1 , ψ 2 )<br />
Dall’altro (utilizzando H = H † e il fatto che gli autovalori sono reali),<br />
(ψ 1 , Hψ 2 ) = (H † (ψ 1 ), ψ 2 ) = (Hψ 1 , ψ 2 ) = (λ 1 ψ 1 , ψ 2 ) = λ 1 (ψ 1 , ψ 2 )<br />
Sottraendo queste due relazioni si ha<br />
0 = (ψ 1 , Hψ 2 ) − (ψ 1 , Hψ 2 ) = (λ 2 − λ 1 )(ψ 1 , ψ 2 ).<br />
Dato che abbiamo supposto λ 1 ≠ λ 2 deve essere (ψ 1 , ψ 2 ) = 0.<br />
□<br />
□<br />
38
Nota La semplicità della <strong>di</strong>mostrazione <strong>di</strong> questa proposizione non rende giustizia<br />
alla sua importanza. Di fatto, la proprietà <strong>di</strong> ortogonalità <strong>di</strong> autovettori<br />
relativi ad autovalori <strong>di</strong>fferenti è l’elemento cruciale che assicura la <strong>di</strong>agonalizzabilità<br />
<strong>di</strong> operatori (matrici) Hermitiani.<br />
Una generalizzazione della proprietà qui sopra è la seguente. Dato uno spazio<br />
Euclideo V , ed un suo sottospazio vettoriale, W ⊂ V , il complemento ortogonale<br />
W ⊥ <strong>di</strong> W in V è definito nel seguente modo:<br />
W ⊥ := {y ∈ V t.c. (y, x) = 0, ∀ x ∈ W }, (7.3)<br />
o, a parole, è l’insieme (che si <strong>di</strong>mostra essere un sottospazio vettoriale <strong>di</strong> V )<br />
<strong>di</strong> tutti quei vettori che sono ortogonali (secondo ( , )) a ogni elemento del<br />
sottospazio assegnato W.<br />
Proposizione 7.4 Sia H : V → V un operatore hermitiano, e sia W un sottospazio<br />
invariante per H, ovvero tale che<br />
H x ∈ W ∀ x ∈ W. (7.4)<br />
Allora anche il suo complemento ortogonale W ⊥ è invariante sotto H, ovvero<br />
H y ∈ W ⊥ ∀ y ∈ W ⊥ . (7.5)<br />
Dimostrazione. Esplicitando la (7.5), dobbiamo <strong>di</strong>mostrare che per tutti gli<br />
y tali che (y, x) = 0, ∀x ∈ W<br />
succede che<br />
(x, Hy) = 0, ∀x ∈ W.<br />
Ora:<br />
(x, Hy) = ((H † x), y) = (H è hermitiano ) = (Hx, y), ∀x, y.<br />
Ma, se x ∈ W, Hx ∈ W per l’ipotesi (7.4), e quin<strong>di</strong> (Hx, y) = 0, dato che<br />
y ∈ W ⊥ . Dunque (x, Hy) = 0 se x ∈ W, ovvero Hy ∈ W ⊥ .<br />
Da questi risultati segue la <strong>di</strong>agonalizzabilità <strong>di</strong> un operatore Hermitiano H,<br />
ovvero che H “ammette una base <strong>di</strong> autovettori”. L’argomento procede per<br />
induzione “a ritroso”. Descriviamolo algoritmicamente.<br />
Passo 1<br />
Si considera dapprima H 1 ≡ H : V → V ; il polinomio caratteristico <strong>di</strong> H 0<br />
ammette (per il teorema fondamentale dell’<strong>algebra</strong>) una ra<strong>di</strong>ce λ 1 . In particolare<br />
questa è una ra<strong>di</strong>ce reale. In corrispondenza <strong>di</strong> λ 1 , esiste 6 almeno un autovettore<br />
ψ 1 ,<br />
H 1 ψ 1 = λ 1 ψ 1<br />
6 Questo è un teorema: data una ra<strong>di</strong>ce del polinomio caratteristico <strong>di</strong> una matrice, allora<br />
esiste almeno un autovettore. Il problema della non <strong>di</strong>agonalizzabilità <strong>di</strong> una matrice nasce dal<br />
fatto che non è detto che ad una ra<strong>di</strong>ce <strong>di</strong> or<strong>di</strong>ne n del polinomio caratteristico corrispondano<br />
esattamente n auutovalori in<strong>di</strong>pendenti<br />
39<br />
□
Considero allora V 1 := {spazio generato da ψ 1 }, e, soprattutto, il suo complemento<br />
ortogonale V1 ⊥ . Per la proposizione (7.4), H definisce un operatore<br />
H 2 := H| V ⊥<br />
1<br />
: V ⊥<br />
1 → V ⊥<br />
1 .<br />
Questo operatore è ben definito ed Hermitiano. Quin<strong>di</strong> posso tornare al passo<br />
1, e riapplicare l’argomento.<br />
Dopo un numero N = <strong>di</strong>mV <strong>di</strong> passi si costruisce la base richiesta.<br />
Il proce<strong>di</strong>mento qui sopra illustra anche l’ultima particolarità saliente degli<br />
operatori Hermitiani. Consideriamo la sequenza degli autovalori 7 λ 1 , λ 2 , · · · , λ N ,<br />
e quella degli autovettori relativi {ψ 1 , ψ 2 , . . .,ψ N }. Per costruzione, gli ψ j sono<br />
ortogonali l’un l’altro, i.e., (ψ i , ψ j ) = 0, i ≠ j. Quin<strong>di</strong>, eventualmente <strong>di</strong>videndo<br />
per ‖ψ j ‖, posso considerare una nuova sequenza <strong>di</strong> autovettori {ψ ′ 1, ψ ′ 2, · · · , ψ ′ N },<br />
fatta da vettori ortonormali, i.e.,<br />
(ψ ′ i, ψ ′ j) = δ ij .<br />
Se {v k } è una base ortonormale <strong>di</strong> V (e.g., la base standard in C N ), allora<br />
una matrice U che <strong>di</strong>agonalizza (la matrice H rappresentativa <strong>di</strong>) H, si ottiene<br />
giustapponendo le colonne delle componenti degli autovettori ψ i ′ rispetto alla<br />
base considerata.<br />
La aggiunta <strong>di</strong> U è la matrice la cui i-esima riga è formata dai complessi<br />
coniugati <strong>di</strong> queste componenti. Consideriamo il prodotto della matrici U † · U.<br />
L’elemento <strong>di</strong> posto k, j, è, per definizione, la somma termine a termine (su l)<br />
dei prodotti degli elementi <strong>di</strong> posto k, l <strong>di</strong> U † (cioè il complesso coniugato della<br />
componente l-esima del k-esimo autovettore) per gli elementi <strong>di</strong> posto l, j <strong>di</strong> U,<br />
ovvero la componente l-esima del j-esimo autovettore. In breve,<br />
[<br />
U† · U ] = (ψ kj k, ψ j ) V = δ kj<br />
In modo compatto, U † · U = 1. Quin<strong>di</strong> la matrice U che <strong>di</strong>agonalizza un operatore<br />
Hermitiano rispetto ad una base ortonormale <strong>di</strong> autovettori sod<strong>di</strong>sfa la<br />
con<strong>di</strong>zione<br />
U −1 = U † ;<br />
una tale matrice si <strong>di</strong>ce Unitaria (la corrispondente con<strong>di</strong>zione nel caso reale è<br />
O −1 = O T , e la matrice viene detta ortogonale). Un operatore che, in una base<br />
ortonormale, viene rappresentato da una matrice unitaria si <strong>di</strong>ce unitario.<br />
Gli operatori unitari godono della seguente proprietà caratteristica:<br />
Proposizione 7.5 U : V → V è unitario se e solo se, ∀ x, y ∈ V ,<br />
(U(y), U(x)) = (x, y), (7.6)<br />
cioè se conserva i prodotti scalari tra vettori (e, in particolare, le loro norme).<br />
7 Non è detto che i λ i siano tutti <strong>di</strong>stinti, ma questo non importa<br />
40
Dimostrazione Da un lato, possiamo scrivere il membro sinistro della (7.6)<br />
come<br />
(U(y), U(x)) = (U † (U(y)), x) = ( se U † · U = 1) = (y, x).<br />
D’altro canto, sia e i una base ortonormale <strong>di</strong> V . Allora<br />
U(e k ) = ∑ j<br />
U kj e j ,<br />
Allora,<br />
(U(e k ), U(e l )) = ∑ j<br />
∑<br />
U k jU ln (e j , e n ).<br />
Ma la base è ortonormale, dunque (e j , e n ) = δ jn . La somma doppia <strong>di</strong> quest’ultima<br />
equazione <strong>di</strong>venta una somma singola (per la proprietà del simbolo δ <strong>di</strong> Kronecker,<br />
e.g., su j, ovvero<br />
n<br />
(U(e k ), U(e l )) = ∑ j<br />
∑<br />
U k jU ln δ jn = ∑ n<br />
n<br />
[U † ] n k<br />
{}}{<br />
U kn U ln = ∑ n<br />
U ln U † nk = [UU † ] lk .<br />
Dato che (U(e k ), U(e l )) = (e k , e l ) = δ kl = δ lk , ne segue che [UU † ] lk = δ lk .<br />
Ritornando a considerare un operatore autoaggiunto H, possiamo sintetizzare<br />
le considerazioni fin qui fatte nel seguente<br />
Teorema 7.6 Un operatore (matrice) autoaggiunto (a) si <strong>di</strong>agonalizza tramite<br />
un operatore (matrice) unitario (a).<br />
Nel caso dello spazio euclideo V = E 3 , un operatore lineare ortogonale<br />
é dunque un operatore lineare che conserva gli angoli tra i vettori e le loro<br />
lunghezze. Dunque è un operatore che rappresenta una rotazione rigida attorno<br />
ad un asse 8 .<br />
7.1 Uno spazio euclideo notevole<br />
In questa sezione finale stu<strong>di</strong>eremo in modo informale uno spazio euclideo complesso<br />
(in generale, specie nel caso infinito <strong>di</strong>mensionale, tali spazi si chiamano<br />
spazi <strong>di</strong> Hilbert) <strong>di</strong> notevole interesse in meccanica quantistica.<br />
Definizione 7.7 Chiamiamo ′ L 2 (R, C) lo spazio delle funzioni f, definite sull’asse<br />
reale a valori complessi, derivabili infinite volte, ”a quadrato integrabili”, ovvero<br />
tali che valga<br />
∫<br />
|f(x)| 2 dx < ∞. (7.7)<br />
8 A meno <strong>di</strong> riflessioni.<br />
R<br />
□<br />
41
Lo spazio ′ L 2 (R, C) è dotato <strong>di</strong> un prodotto scalare definito, come negli altri<br />
casi <strong>di</strong> spazi <strong>di</strong> funzioni su intervalli della retta reale, da<br />
∫<br />
(f, g) = f(x)g(x) dx. (7.8)<br />
R<br />
Infatti, una applicazione, <strong>di</strong>retta ma non banale, della <strong>di</strong>suguaglianza <strong>di</strong> Cauchy–<br />
Schwartz mostra che,<br />
∫ ∫<br />
∫<br />
|f(x)| 2 dx e |g(x)| 2 dx < ∞ ⇒ f(x)g(x) dx < ∞,<br />
R<br />
R<br />
ovvero che, date f, g ∈ ′ L 2 (R, C), allora (f, g) è ben definito; il fatto che sia<br />
un prodotto euclideo si mostra come nel caso <strong>di</strong> funzioni definite su intervalli.<br />
Osserviamo che ogni f ∈ ′ L 2 (R, C) si annulla all’infinito (cioè lim x→±∞ f(x) =<br />
0); questo permette <strong>di</strong> rendersi conto che gli operatori −iˆ∂, e dunque anche<br />
−∂ 2 x = (−iˆ∂) 2 sono hermitiani su ′ L 2 (R, C). In ′ L 2 (R, C) consideriamo lo spazio<br />
F delle funzioni della forma<br />
Su F definiamo l’operatore<br />
f(x) = P(x) exp (− x2<br />
), dove P è un polinomio.<br />
2<br />
R<br />
Ĥ : F −→ F<br />
f(x) ↦→ (− 1 2 ∂2 x + 1 ̂x 2 2 )(f(x)) = − 1f ′′ (x) + x 2 f(x).<br />
2<br />
(7.9)<br />
Vogliamo verificare che l’operatore Ĥ ammette, la sequenza <strong>di</strong> numeri<br />
λ n = (n + 1 ), n = 0, 1, . . .<br />
2<br />
come autovalori, e come corrispondenti autovettori funzioni f n della forma<br />
f n = P n (x) exp (− x2<br />
2 ),<br />
per polinomi P n <strong>di</strong> grado n, univocamente definiti (a meno <strong>di</strong> una costante<br />
moltiplicativa, come è ovvio).<br />
Per semplicità notazionale, consideriamo l’operatore Ĥ motiplicato per 2,<br />
ovvero mostriamo che<br />
Ĥ ′ := −∂x 2 + x2<br />
ha autovalori dati da λ n = 2n + 1, n = 0, 1, . . ..<br />
Proce<strong>di</strong>amo prima con esempi <strong>di</strong> grado basso, cominciando come ovvio con<br />
n = 0. Abbiamo, detta ψ 0 := exp (− x2<br />
2 ),<br />
dψ 0<br />
dx = −xψ 0,<br />
d 2<br />
dx 2ψ 0 = −ψ 0 + x dψ 0<br />
dx = −ψ 0 + x 2 ψ 0 (7.10)<br />
42
Dunque,<br />
Ĥ ′ (ψ 0 ) = −(∂ 2 x + x 2 )(ψ 0 ) = −(−ψ 0 + x 2 ψ 0 ) + ψ 0 = ψ 0 .<br />
Dunque, la affermazione è vera per n = 0. Consideriamo il caso n = 1, e<br />
ψ 1 = (x + a)ψ 0 . Abbiamo, in questo caso,<br />
ψ 1 ′ = aψ 0 − x(x + a)ψ 0 , ⇒, ψ 1 ” = (x 3 + ax 2 − 3 x − a)ψ 0<br />
Allora,<br />
Ĥ ′ (ψ 1 ) = ( −(x 3 + ax 2 − 3 x − a) + (x 2 (x + a)) ) ψ 0 = (3x + a)ψ 0 .<br />
D’altro canto, λψ 1 = (λ x + λ a)ψ 0 ; dunque l’uguaglianza<br />
Ĥ ′ ψ 1 = λψ 1<br />
è vera se e solo se λ = 3, a = 0; ve<strong>di</strong>amo che per n = 1 la affermazione è vera,<br />
con ψ 1 = xψ 0 .<br />
Per n generico, si può procedere nel seguente modo:<br />
Si osserva che<br />
il che implica che<br />
d 2<br />
exp (−x2<br />
f(x 2 )) = ( f ′′ (x) − 2 x − f(x) + x 2 f(x) ) exp (− x2<br />
2 )),<br />
H(f(x) exp (− x2<br />
2 )) = (− (f ′′ (x) + 2 x + f(x)) exp (− x2<br />
2 ).<br />
e dunque l’equazione agli autovalori Ĥ′ ψ = λψ si scrive come<br />
(− (f ′′ (x) + 2 x + (1 − λ)f(x))exp (− x2<br />
2 ) = 0, ⇔ f ′′ (x) + 2 x + (1 − λ)f(x).<br />
(7.11)<br />
Ora, se f(x) = P n (x) è un polinomio <strong>di</strong> grado n, con coefficiente lea<strong>di</strong>ng 1,<br />
ovvero<br />
∑n−1<br />
n∑<br />
P n (x) = x n + x k , o P n = a k x k , a n = 1,<br />
abbiamo che la (7.11) <strong>di</strong>viene:<br />
−<br />
k=2<br />
k=0<br />
n∑<br />
n∑<br />
(k(k − 1)a i )(x k−2 + ( (2ka k x k ) +<br />
k=1<br />
k=0<br />
n∑<br />
((1 − λ)a k x k ) = 0. (7.12)<br />
Quin<strong>di</strong> per risolvere il nostro problema basta verificare che questa equazione è<br />
risolubile nello spazio dei polinomi, ovvero dei coefficienti {a 0 , . . .,a n−1 }.<br />
43<br />
k=0
Consideriamo il temine <strong>di</strong> or<strong>di</strong>ne più elevato (ovvero n) in (7.12); il primo<br />
addendo non contribuisce; dunque si ha<br />
(2n + 1 − λ) = 0 ⇒ λ n = 2n + 1.<br />
Questa prima equazione determina λ n = 2n + 1, e dunque, per lo stu<strong>di</strong>o delle<br />
equazioni successive possiamo considerare la equazione<br />
−<br />
n∑<br />
n∑<br />
(k(k − 1)a k )(x k−2 + ( (2ka k x k ) +<br />
k=2<br />
k=1<br />
n∑<br />
((−2n)a k x k ) = 0. (7.13)<br />
Per il termine <strong>di</strong> or<strong>di</strong>ne n − 1 <strong>di</strong> P n si ha (anche qui il primo addendo non<br />
contribuisce):<br />
k=0<br />
2(n − 1)a n−1 − 2na n−1 ≡ (−2)a n−1 = 0 ⇔ a n−1 = 0.<br />
La equazione per a n−2 è (qui c’entra anche il primo addendo)<br />
La equazione per a n−3 è<br />
=1<br />
{}}{<br />
− (n − 2)(n − 3) a n +2(n − 2)a n−2 − 2na n−2<br />
≡ −(n − 2)(n − 3) − 2a n−2 = 0<br />
⇔ a n−2 = − 1 (n − 2)(n − 3)<br />
4<br />
−(n −3)(n −4)a n−1 +2(n −3)a n−3 −2na n−3 ≡ −(n −3)(n −4)a n−1 −6a n−3 = 0<br />
Ma abbiamo visto che a n−1 = 0, e dunque anche a n−3 = 0.<br />
In generale, guardando in faccia la (7.13) si osserva che, per i coefficienti a i<br />
questa dà luogo ad equazioni ricorsive che determinano il termine a p−2 , noto il<br />
termine a p ; infatti si ha, per p = n − l, l = 2, . . ., n − 1<br />
−(n − l − 1)(n − l − 2)a n−l − 2la n−l−2 = 0<br />
e, per l’ultimo termine (p = 0 ↔ l = n), (qui il secondo addendo della (7.13)<br />
non contribuisce)<br />
Questo conclude la <strong>di</strong>mostrazione.<br />
−2a 2 − 2na 0 = 0, ⇔ a 0 = − 1 n a 2.<br />
Osservazioni. 1) È evidente che P n(x) non è la funzione nulla; dato che<br />
∫<br />
(ψ n , ψ n ) = Pn(x) 2 exp(−x 2 ) dx<br />
R<br />
è un numero finito (l’integrando decade esponenzialmente), chiamiamolo c 9 n ,<br />
se considero ψ n ′ = ψn<br />
c n<br />
ho<br />
9 E.g., c 0 = ∫ R exp(−x2 )dx = √ π<br />
44
i) Ĥψ′ n = (n + 1 2 )ψ′ n<br />
ii) (ψ n ′ , ψ′ n ) = 1 (gli autovettori “primati” hanno norma pari ad 1).<br />
2) (ψ n , ψ m ) = 0 se n ≠ m (Autovettori corrispondenti ad autovalori <strong>di</strong>stiniti<br />
sono “ortogonali”!); in particolare si ha anche che<br />
(ψ n ′ , ψ′ m ) = 0 se n ≠ m,<br />
ovvero i vettori {ψ ′ n } n=0,1,2,... formano una famiglia (o sistema) <strong>di</strong> vettori ortonormali<br />
in L 2 (R, C) 10<br />
3) I polinomi corrispondenti ai vettori ψ ′ n, ovvero<br />
P ′ n ≡ ψ′ n exp(x2 ) ≡ P n<br />
√<br />
cn<br />
si chiamano Polinomi <strong>di</strong> Hermite. Osserviamo che la relazione <strong>di</strong> ricorrenza<br />
a k+2 = G(a k ), a n = 1, a n−1 = 0<br />
implica che i polinomi <strong>di</strong> Hermite sono pari se n è pari e <strong>di</strong>spari se n è <strong>di</strong>spari.<br />
10 In un senso opportuno, essi formano una base nello spazio <strong>di</strong> Hilbert L 2 (R, C) .<br />
45