Sistemi di equazioni differenziali lineari - Sezione di Matematica
Sistemi di equazioni differenziali lineari - Sezione di Matematica
Sistemi di equazioni differenziali lineari - Sezione di Matematica
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
SISTEMI DI EQUAZIONI DIFFERENZIALI LINEARI<br />
DANIELE ANDREUCCI<br />
DIP. METODI E MODELLI, UNIVERSITÀ LA SAPIENZA<br />
VIA A.SCARPA 16, 00161 ROMA, ITALY<br />
andreucci@dmmm.uniroma1.it<br />
1. Lo spazio delle soluzioni<br />
Un sistema N × N lineare omogeneo <strong>di</strong> <strong>equazioni</strong> <strong>di</strong>fferenziali or<strong>di</strong>narie è<br />
y ′ 1 = a 11(t)y 1 + a 12 (t)y 2 + · · · + a 1N (t)y N ,<br />
y ′ 2 = a 21(t)y 1 + a 22 (t)y 2 + · · · + a 2N (t)y N , (1.1)<br />
. . .<br />
y ′ N = a N1(t)y 1 + a N2 (t)y 2 + · · · + a NN (t)y N ,<br />
ove le a ij sono assegnate funzioni continue su un certo intervallo J <strong>di</strong> R, e la<br />
soluzione (y 1 , . . ., y N ) è una N-upla <strong>di</strong> funzioni C 1 (J).<br />
Con una notazione più compatta, possiamo riscrivere (1.1) come<br />
ove<br />
⎛<br />
⎞<br />
a 11 (t) a 12 (t) . . . a 1N (t)<br />
A(t) = ⎜ a 21 (t) a 22 (t) . . . a 2N (t)<br />
⎟<br />
⎝. . . . . . . . . . . . . . . . . . . . . . . . . . . . . ⎠<br />
a N1 (t) a N2 (t) . . . a NN (t)<br />
y ′ = A(t)y , (1.2)<br />
⎛ ⎞<br />
y 1 (t)<br />
y = y(t) = ⎜ y 2 (t)<br />
⎟<br />
⎝ . . . ⎠ , t ∈ J .<br />
y N (t)<br />
Le soluzioni <strong>di</strong> (1.2) costituiscono uno spazio vettoriale rispetto alle usuali operazioni<br />
<strong>di</strong> somma tra vettori e prodotto per scalari. Più specificamente<br />
Proposizione<br />
∑<br />
1.1. Siano y i , i = 1, . . . , p, soluzioni <strong>di</strong> (1.2).<br />
p<br />
i=1 c iy i lo è, per ogni scelta <strong>di</strong> scalari c i ∈ R.<br />
Dimostrazione. Ovviamente<br />
d<br />
p∑ p∑<br />
c i y i = c i y i ′ dt<br />
=<br />
i=1<br />
i=1<br />
p∑<br />
c i A(t)y i = A(t)<br />
i=1<br />
p∑<br />
c i y i .<br />
i=1<br />
Allora anche<br />
Dunque lo spazio vettoriale S delle soluzioni <strong>di</strong> (1.2) deve avere una base, la cui<br />
car<strong>di</strong>nalità coincide—per definizione—con la <strong>di</strong>mensione dello spazio medesimo.<br />
Ricor<strong>di</strong>amo che p elementi y 1 ,. . . , y p <strong>di</strong> S si <strong>di</strong>cono linearmente in<strong>di</strong>pendenti se<br />
e solo se da<br />
c 1 y 1 + c 2 y 2 + · · · + c p y p = 0 , c i ∈ R , i = 1 , . . ., p ,<br />
segue c i = 0 per ogni i. Si osservi però che gli elementi dello spazio vettoriale<br />
S sono funzioni; dunque l’elemento nullo 0 nell’uguaglianza sopra va inteso<br />
come funzione identicamente nulla. Possiamo quin<strong>di</strong> enunciare la definizione <strong>di</strong><br />
1<br />
□
2 DANIELE ANDREUCCI<br />
lineare in<strong>di</strong>pendenza <strong>di</strong> funzioni in S così: y 1 ,. . . , y p in S si <strong>di</strong>cono linearmente<br />
in<strong>di</strong>pendenti se e solo se da<br />
c 1 y 1 (t) + c 2 y 2 (t) + · · · + c p y p (t) = 0 , per ogni t ∈ J,<br />
ove i c i sono scalari, segue c i = 0 per ogni i.<br />
Il nostro prossimo passo sarà la determinazione <strong>di</strong> una base <strong>di</strong> S, e quin<strong>di</strong> della<br />
sua <strong>di</strong>mensione. Useremo il<br />
Lemma 1.1. Siano y i , i = 1,. . . , p soluzioni <strong>di</strong> (1.2). Allora le y i sono linearmente<br />
in<strong>di</strong>pendenti in S se e solo se i loro valori y i (t 0 ) in un arbitrario fissato<br />
t 0 ∈ J sono linearmente in<strong>di</strong>pendenti come vettori <strong>di</strong> R N .<br />
Dimostrazione. Equivalentemente, <strong>di</strong>mostriamo che le y i sono linearmente <strong>di</strong>pendenti<br />
in S se e solo se i vettori y i (t 0 ) sono linearmente <strong>di</strong>pendenti in R N .<br />
Siano le y i linearmente <strong>di</strong>pendenti; allora esistono p scalari, c i , non tutti nulli,<br />
tali che<br />
c 1 y 1 (t) + c 2 y 2 (t) + · · · + c p y p (t) = 0 , per ogni t ∈ J.<br />
Sostituendo in questa uguaglianza t = t 0 si ottiene che i vettori y i (t 0 ) sono linearmente<br />
<strong>di</strong>pendenti in R N .<br />
Viceversa, supponiamo che i vettori y i (t 0 ) siano linearmente <strong>di</strong>pendenti in R N .<br />
Allora esistono p scalari, c i , non tutti nulli, tali che<br />
c 1 y 1 (t 0 ) + c 2 y 2 (t 0 ) + · · · + c p y p (t 0 ) = 0 .<br />
Definiamo, per questa scelta degli scalari c i , la funzione<br />
p∑<br />
y(t) = c i y i (t) , t ∈ J .<br />
i=1<br />
La y è una soluzione <strong>di</strong> (1.2), per la Proposizione 1.1, ed assume il dato <strong>di</strong> Cauchy<br />
nullo in t 0 . Quin<strong>di</strong>, per il teorema <strong>di</strong> unicità, deve essere nulla per ogni t ∈ J.<br />
Ma, visto che i c i non sono tutti nulli, questo implica che le y i sono linearmente<br />
<strong>di</strong>pendenti in S.<br />
□<br />
Possiamo ora <strong>di</strong>mostrare<br />
Teorema 1.1. Sia {v i | i = 1, . . ., N} una base <strong>di</strong> R N (ossia i v i siano N vettori<br />
<strong>di</strong> R N linearmente in<strong>di</strong>pendenti). Allora le N soluzioni dei problemi <strong>di</strong> Cauchy:<br />
{<br />
{<br />
{<br />
y 1 ′ = A(t)y 1 , y 2 ′ = A(t)y 2 ,<br />
y<br />
N ′ . . .<br />
= A(t)y N ,<br />
(1.3)<br />
y 1 (t 0 ) = v 1 ; y 2 (t 0 ) = v 2 ;<br />
y N (t 0 ) = v N ;<br />
costituiscono una base <strong>di</strong> S. Qui t 0 ∈ J è fissato ad arbitrio (ma è lo stesso in<br />
ognuno degli N problemi <strong>di</strong> Cauchy).<br />
Dimostrazione. Per il Lemma 1.1, le y i , i = 1, . . . , N, sono linearmente in<strong>di</strong>pendenti,<br />
e occorre pertanto solo <strong>di</strong>mostrare che generano tutto S. In altri termini,<br />
vogliamo mostrare che ogni soluzione y <strong>di</strong> (1.2) si può scrivere come combinazione<br />
lineare a coefficienti costanti <strong>di</strong> y 1 , . . . , y N .<br />
Fissiamo allora una y soluzione <strong>di</strong> (1.2). Dato che per ipotesi i v i costituiscono<br />
una base <strong>di</strong> R N , esisteranno certamente N scalari c i , . . . , c N tali che<br />
N∑ N∑<br />
y(t 0 ) = c i v i = c i y i (t 0 ) .<br />
i=1<br />
i=1
SISTEMI DI EQUAZIONI DIFFERENZIALI LINEARI 3<br />
Sia z definita da z(t) = ∑ N<br />
i=1 c iy i (t), per ogni t ∈ J. Allora sia z che y risolvono<br />
{<br />
w ′ = A(t)w ,<br />
w(t 0 ) = y(t 0 ) .<br />
Per il teorema <strong>di</strong> unicità deve quin<strong>di</strong> valere z ≡ y in J, ossia<br />
N∑<br />
y(t) = c i y i (t) , per ogni t ∈ J.<br />
i=1<br />
□<br />
Segue subito<br />
Corollario 1.1. La <strong>di</strong>mensione <strong>di</strong> S è uguale a N.<br />
Abbiamo quin<strong>di</strong> <strong>di</strong>mostrato che tutte e sole le soluzioni <strong>di</strong> (1.2) si possono scrivere<br />
come<br />
N∑<br />
y(t) = c i y i (t) , t ∈ J , (1.4)<br />
i=1<br />
ove le y i sono una N-upla fissata <strong>di</strong> soluzioni linearmente in<strong>di</strong>pendenti (cioè una<br />
base <strong>di</strong> S), e le c i variano ad arbitrio in R. La (1.4) è perciò un integrale generale<br />
<strong>di</strong> (1.2).<br />
2. Matrici risolventi<br />
Osservazione 2.1. Ricor<strong>di</strong>amo che, per la definizione del prodotto righe per colonne,<br />
le colonne della matrice prodotto<br />
C = AB , A matrice N × N e B, C matrici N × p,<br />
sono combinazioni <strong>lineari</strong> delle colonne <strong>di</strong> A. Più specificamente, se denotiamo<br />
con col j (C) = (c ij ) N i=1 la j-esima colonna della matrice C, e A = (a ij), B = (b ij ),<br />
vale<br />
( N<br />
col j (C) = (c ij ) N i=1 = ∑<br />
) N N∑<br />
a ih b hj = b hj (a ih ) N i=1 = ∑<br />
N b hj col h (A) .<br />
h=1 i=1 h=1<br />
h=1<br />
Ne segue che l’integrale generale (1.4) può essere messo nella forma vettoriale<br />
y = Y (t)C , (2.1)<br />
ove Y è una matrice le cui colonne siano N soluzioni linearmente in<strong>di</strong>pendenti <strong>di</strong><br />
(1.2), e C ∈ R N è un arbitrario vettore colonna <strong>di</strong> scalari. Poniamo allora la<br />
Definizione 2.1. Una matrice Y le cui colonne costituiscano una base <strong>di</strong> S si<br />
<strong>di</strong>ce matrice risolvente del sistema (1.2).<br />
Il seguente lemma, <strong>di</strong> <strong>di</strong>mostrazione quasi banale, risulta <strong>di</strong> grande importanza:<br />
Lemma 2.1. Sia Y una matrice risolvente <strong>di</strong> (1.2), e sia B una matrice non<br />
singolare N × N (cioè det(B) ≠ 0) a coefficienti reali. Allora anche Y B è una<br />
matrice risolvente <strong>di</strong> (1.2).
4 DANIELE ANDREUCCI<br />
Dimostrazione. Visto che ovviamente Y B è non singolare perché<br />
det(Y (t)B) = det(Y (t)) det(B) ≠ 0 ,<br />
basterà <strong>di</strong>mostrare che tutte le colonne <strong>di</strong> Y B sono soluzioni <strong>di</strong> (1.2). Ma questo<br />
segue subito dall’Osservazione 2.1 e dalla Proposizione 1.1.<br />
□<br />
Una conseguenza importante <strong>di</strong> questo risultato è il seguente teorema, che dà un<br />
modo canonico <strong>di</strong> scrivere le soluzioni <strong>di</strong> problemi <strong>di</strong> Cauchy <strong>di</strong> (1.2).<br />
Teorema 2.1. Sia t 0 ∈ J e sia Y una matrice risolvente <strong>di</strong> (1.2). Allora, posto<br />
Φ(t, t 0 ) = Y (t)Y (t 0 ) −1 , l’unica soluzione <strong>di</strong><br />
u 0 ∈ R N , è data da<br />
y ′ = A(t)y , y(t 0 ) = u 0 , (2.2)<br />
y(t) = Φ(t, t 0 )u 0 , t ∈ J . (2.3)<br />
Inoltre la matrice Φ non <strong>di</strong>pende da Y , ossia date due <strong>di</strong>verse matrici risolventi<br />
Y 1 e Y 2 vale Y 1 (t)Y 1 (t 0 ) −1 = Y 2 (t)Y 2 (t 0 ) −1 per ogni t ∈ J; più in generale, se<br />
Φ 0 (t, t 0 ) è un’altra matrice con la proprietà <strong>di</strong> fornire tutte le soluzioni <strong>di</strong> (2.2)<br />
secondo (2.3), questa coincide con Φ(t, t 0 ).<br />
Dimostrazione. Che la y definita in (2.3) sia una soluzione <strong>di</strong> (1.2) segue subito<br />
dall’Osservazione 2.1 e dal Lemma 2.1. Inoltre<br />
y(t 0 ) = Φ(t 0 , t 0 )u 0 = Y (t 0 )Y (t 0 ) −1 u 0 = Iu 0 = u 0 .<br />
Dunque la y è effettivamente l’unica soluzione <strong>di</strong> (2.2).<br />
Siano poi Φ 1 (t, t 0 ) = Y 1 (t)Y 1 (t 0 ) −1 , Φ 2 (t, t 0 ) = Y 2 (t)Y 2 (t 0 ) −1 ; per quanto sopra le<br />
due funzioni<br />
y 1 (t) = Φ 1 (t, t 0 )u 0 , y 2 (t) = Φ 2 (t, t 0 )u 0 , t ∈ J ,<br />
sono entrambe soluzioni <strong>di</strong> (2.2). Per il teorema <strong>di</strong> unicità, esse devono coincidere<br />
per ogni t ∈ J, ossia per ogni fissato t ∈ J,<br />
Z := Φ 1 (t, t 0 ) − Φ 2 (t, t 0 ) ,<br />
deve sod<strong>di</strong>sfare Zu 0 = 0 per ogni u 0 ∈ R N . Ne segue che Z è la matrice nulla.<br />
Nello stesso modo si procede per una Φ 0 come nell’enunciato.<br />
□<br />
Definizione 2.2. La matrice Φ(t, t 0 ) si <strong>di</strong>ce matrice risolvente canonica, o matrice<br />
<strong>di</strong> transizione, <strong>di</strong> (1.2) in t = t 0 .<br />
3. Matrici risolventi per sistemi a coefficienti costanti<br />
In questa sezione ci occupiamo del caso in cui la matrice A ha tutti i coefficienti<br />
costanti, ossia a ij ∈ R per ogni ij. Il sistema <strong>di</strong>viene allora<br />
y ′ = Ay , A matrice costante. (3.1)<br />
Diamo senza <strong>di</strong>mostrazione il seguente fondamentale<br />
Teorema 3.1. Sia A una qualunque matrice reale N × N. La matrice esponenziale<br />
e tA e tA :=<br />
∞∑ t i A i<br />
i=0<br />
i!<br />
= I + tA + t2 A 2<br />
2!<br />
+ t3 A 3<br />
3!<br />
+ . . . , (3.2)
SISTEMI DI EQUAZIONI DIFFERENZIALI LINEARI 5<br />
risulta definita per ogni t ∈ R, e vale<br />
d<br />
dt etA = Ae tA , per ogni t ∈ R. (3.3)<br />
Si ricor<strong>di</strong> che la derivazione <strong>di</strong> matrici, come anche la convergenza <strong>di</strong> una serie<br />
<strong>di</strong> matrici, va intesa elemento per elemento, come nel caso dei vettori. In (3.2)<br />
le potenze A i vanno calcolate secondo l’usuale prodotto righe per colonne. Si<br />
osservi che per t = 0<br />
∞∑<br />
e 0A 0 i A i<br />
= = I .<br />
i!<br />
i=0<br />
La serie <strong>di</strong> matrici in (3.2) è formalmente ricopiata dallo sviluppo in serie della<br />
funzione esponenziale <strong>di</strong> numeri reali: ve<strong>di</strong> il paragrafo 3.2 sotto. Alternativamente,<br />
proprio la (3.3) permetterebbe <strong>di</strong> definire e tA come l’unica soluzione <strong>di</strong><br />
Y ′ = AY con Y (0) = I.<br />
Il teorema asserisce che la serie in (3.2) converge in modo tale da rendere rigoroso<br />
lo scambio delle operazioni <strong>di</strong> serie e <strong>di</strong> derivazione (qui inteso solo formalmente)<br />
d<br />
dt etA = d dt<br />
∞∑ t i A i<br />
=<br />
i!<br />
i=0<br />
∞∑<br />
i=0<br />
d t i A i<br />
dt i!<br />
=<br />
∞∑<br />
i=1<br />
i ti−1 A i<br />
i!<br />
∞∑<br />
i=1<br />
Usando la formula (3.3) possiamo <strong>di</strong>mostrare il<br />
=<br />
A ti−1 A i−1<br />
(i − 1)!<br />
∞∑ t j A j<br />
= A = Ae tA .<br />
j!<br />
Teorema 3.2. La matrice <strong>di</strong> transizione <strong>di</strong> (3.1) in t = 0 è e tA . Quin<strong>di</strong> la<br />
soluzione <strong>di</strong><br />
y ′ = Ay , y(0) = u 0 , (3.4)<br />
u 0 ∈ R N , è data da<br />
j=0<br />
y(t) = e tA u 0 , t ∈ R . (3.5)<br />
Dimostrazione. Vale infatti per ogni u 0 ∈ R N e t ∈ R:<br />
inoltre<br />
d<br />
dt y(t) = d dt (etA u 0 ) =<br />
( d<br />
dt etA )<br />
u 0 = Ae tA u 0 = Ay(t) ;<br />
y(0) = e 0A u 0 = Iu 0 = u 0 .<br />
Dunque la matrice esponenziale coincide con l’unica matrice risolvente canonica<br />
<strong>di</strong> (3.1), secondo il risultato <strong>di</strong> Teorema 2.1.<br />
□<br />
Osservazione 3.1. È facile verificare che la matrice risolvente canonica per (3.1)<br />
in t = t 0 è e (t−t 0)A .<br />
3.1. Calcolo effettivo <strong>di</strong> una matrice risolvente. In genere la matrice e tA<br />
non può essere calcolata esattamente senza sommare la serie infinita in (3.2).<br />
Tuttavia esiste un metodo che permette <strong>di</strong> trovare (basandosi su questa serie)<br />
N soluzioni linearmente in<strong>di</strong>pendenti, evitando il calcolo della serie completa.<br />
Con queste soluzioni si costruisce subito l’integrale generale del sistema, come<br />
spiegato sopra. Una volta trovata così una matrice risolvente Y (t), la matrice <strong>di</strong><br />
transizione in t = 0 è data da Y (t)Y (0) −1 (ve<strong>di</strong> Teorema 2.1).
6 DANIELE ANDREUCCI<br />
Si noti però che i calcoli necessari sono comunque <strong>di</strong> solito troppo complessi per<br />
essere svolti a mano.<br />
L’idea. Fissata una base (ξ 1 , . . ., ξ N ) <strong>di</strong> R N , e assegnato un qualunque dato <strong>di</strong><br />
Cauchy u 0 , con u 0 = ∑ N<br />
h=1 c hξ h , c h ∈ R, la soluzione <strong>di</strong> (3.4) si può scrivere<br />
y(t) = e tA u 0 = e tA<br />
N ∑<br />
h=1<br />
c h ξ h =<br />
N∑<br />
c h (e tA ξ h ) =<br />
h=1<br />
N∑<br />
∑<br />
∞<br />
c h<br />
h=1 i=0<br />
t i A i<br />
ξ h . (3.6)<br />
i!<br />
L’idea consiste nello scegliere opportunamente la base ξ h , in modo che tutte le N<br />
serie ∑ ∞<br />
i=0 ti A i<br />
ξ<br />
i! h , h = 1, . . . , N possano, in sostanza, essere calcolate sommando<br />
solo un numero finito <strong>di</strong> termini <strong>di</strong>versi da 0, ossia si riducano a somme finite.<br />
Autovettori reali. Cominciamo con l’osservare che questa proprietà è senza dubbio<br />
goduta dagli autovettori della matrice: sia ξ ∈ R N , ξ ≠ 0, un autovettore <strong>di</strong> A<br />
corrispondente a un autovalore λ ∈ R, ossia<br />
Allora vale<br />
Aξ = λξ , ossia (A − λI)ξ = 0 . (3.7)<br />
e t(A−λI) ξ =<br />
∞∑ t i (A − λI) i<br />
ξ =<br />
i!<br />
i=0<br />
Iξ + t(A − λI)ξ + t2 (A − λI) 2 ξ<br />
2!<br />
+ t3 (A − λI) 3 ξ<br />
3!<br />
+ . . . = Iξ = ξ .<br />
Quin<strong>di</strong> se per esempio la matrice A ha una base <strong>di</strong> autovettori ξ h come sopra<br />
(con autovalori λ h ∈ R), le N soluzioni linearmente in<strong>di</strong>pendenti sono 1<br />
e tA ξ h = e t(λ hI+A−λ h I) ξ h = e tλ hI e t(A−λ hI) ξ h = e tλ hI ξ h = e λ ht ξ h . (3.8)<br />
Si noti che ragionando come sopra, si <strong>di</strong>mostra che e tA ξ è una soluzione (complessa),<br />
anche se ξ è un autovettore corrispondente a un autovalore complesso. Poiché<br />
a noi interessano soluzioni reali, il caso <strong>di</strong> autovalori complessi viene trattato a<br />
parte nel seguito.<br />
Autovettori generalizzati. Poiché però non tutte le matrici hanno una base <strong>di</strong><br />
autovettori, occorre in generale cercare i vettori linearmente in<strong>di</strong>pendenti ξ h non<br />
solo tra gli autovettori, ma tra gli autovettori generalizzati <strong>di</strong> A: per definizione<br />
si <strong>di</strong>ce che ξ ∈ C N , ξ ≠ 0, è un autovettore generalizzato <strong>di</strong> A se esistono un<br />
autovalore λ ∈ C <strong>di</strong> A e un m ∈ N tali che<br />
(A − λI) m ξ = 0 . (3.9)<br />
Più precisamente, si <strong>di</strong>ce che ξ è un autovettore m-generalizzato corrispondente<br />
a λ. Chiaramente, se m = 1 l’autovettore generalizzato è un autovettore in senso<br />
tra<strong>di</strong>zionale.<br />
1 La seconda e l’ultima uguaglianza in (3.8) richiederebbero una <strong>di</strong>mostrazione, che è facile nel<br />
caso dell’ultima uguaglianza, ma lo è meno nel caso della seconda.
SISTEMI DI EQUAZIONI DIFFERENZIALI LINEARI 7<br />
Se ξ è un autovettore m-generalizzato <strong>di</strong> A corrispondente a λ, vale<br />
e t(A−λI) ξ =<br />
∞∑ t i (A − λI) i<br />
ξ =<br />
i!<br />
i=0<br />
m−1<br />
∑<br />
i=0<br />
Iξ + t(A − λI)ξ + t2 (A − λI) 2 ξ<br />
2!<br />
t i (A − λI) i<br />
ξ =<br />
i!<br />
+ · · · + tm−1 (A − λI) m−1 ξ<br />
(m − 1)!<br />
=: Q(t; λ, ξ) ,<br />
(3.10)<br />
ove Q è un polinomio <strong>di</strong> grado m−1 in t (naturalmente con coefficienti vettoriali).<br />
Dunque<br />
e tA ξ = e t(λI+A−λI) ξ = e tλI e t(A−λI) ξ = e tλI Q(t; λ, ξ) = e λt Q(t; λ, ξ) . (3.11)<br />
Osserviamo per inciso che Q(t; λ, ξ) = ξ se m = 1. Dunque anche gli autovettori<br />
generalizzati danno luogo a soluzioni che si possono calcolare sommando solo un<br />
numero finito <strong>di</strong> termini nella serie e tA ξ. Se si trova una base <strong>di</strong> autovettori generalizzati<br />
reali, è a questo punto chiaro come procedere per scrivere un integrale<br />
generale <strong>di</strong> (3.1).<br />
Il caso <strong>di</strong> autovalori complessi. Tuttavia, si noti che in generale gli autovalori<br />
possono essere complessi. Dato che gli autovalori <strong>di</strong> A sono tutte e sole le ra<strong>di</strong>ci<br />
dell’equazione polinomiale a coefficienti reali<br />
det(A − λI) = 0 , (3.12)<br />
se λ = β +iγ (β, γ ∈ R, γ ≠ 0) è un autovalore, anche il suo coniugato ¯λ = β −iγ<br />
lo è. In questo caso, con la notazione <strong>di</strong> (3.11), osserviamo che<br />
e tA ξ = e βt (cos γt + i sin γt)[Q 1 (t) + iQ 2 (t)] , (3.13)<br />
ove Q 1 (t) = Re Q(t; λ, ξ), Q 2 (t) = Im Q(t; λ, ξ).<br />
(3.13) si riscrive come<br />
Svolte le moltiplicazioni, la<br />
e tA ξ = e βt (Q 1 (t) cosγt − Q 2 (t) sin γt) + ie βt (Q 2 (t) cos γt + Q 1 (t) sinγt)<br />
=: y 1 (t) + iy 2 (t) ,<br />
con y i , i = 1, 2 funzioni reali. È facile verificare che y 1 e y 2 sono separatamente<br />
soluzioni del sistema <strong>di</strong>fferenziale. Infatti, sappiamo la che e tA ξ è una soluzione<br />
e dunque:<br />
[y 1 (t) + iy 2 (t)] ′ = [e tA ξ] ′ = Ae tA ξ = A[y 1 (t) + iy 2 (t)] = [Ay 1 (t) + iAy 2 (t)] .<br />
Dato che A è una matrice reale, uguagliando le parti reale e immaginaria dei<br />
membri <strong>di</strong> destra e <strong>di</strong> sinistra si ottiene y<br />
i ′ = Ay i, i = 1, 2. Perciò da ogni soluzione<br />
complessa si estraggono due soluzioni reali del sistema; questo è il motivo per cui<br />
nello schema illustrato sotto, considereremo solo uno degli autovalori complessi<br />
λ per ogni coppia <strong>di</strong> coniugio λ, ¯λ <strong>di</strong> soluzioni <strong>di</strong> (3.12).<br />
Ecco infine il metodo <strong>di</strong> calcolo, che <strong>di</strong>amo senza <strong>di</strong>mostrazione:<br />
1) Si determinino tutti gli autovalori <strong>di</strong> A, ossia tutte le ra<strong>di</strong>ci <strong>di</strong>stinte λ k ∈ C,<br />
k = 1, . . . , p dell’equazione (3.12); quin<strong>di</strong> 1 ≤ p ≤ N. Sia ν k la molteplicità<br />
algebrica <strong>di</strong> λ k ; dunque ∑ p<br />
k=1 ν k = N.<br />
2) Per ogni autovalore reale λ k , e per uno tra λ k e ¯λ k in ogni coppia <strong>di</strong> autovalori<br />
complessi coniugati: si trovino tutti gli autovettori linearmente in<strong>di</strong>pendenti con<br />
autovalore λ k . Se questi sono in numero inferiore a ν k , si cerchino gli autovettori<br />
2-generalizzati corrispondenti a λ k , poi quelli 3-generalizzati, e così via. Ad ogni
8 DANIELE ANDREUCCI<br />
passo si troverà almeno un autovettore generalizzato linearmente in<strong>di</strong>pendente<br />
dai precedenti, finché se ne saranno trovati esattamente ν k .<br />
3) Per ogni autovalore reale λ k : siano ξ kh , h = 1, . . . , ν k autovettori generalizzati<br />
(reali) corrispondenti a λ k e linearmente in<strong>di</strong>pendenti; allora le<br />
e λ kt Q(t; λ k , ξ k1 ) , e λ kt Q(t; λ k , ξ k2 ) , . . . e λ kt Q(t; λ k , ξ kνk ) ,<br />
sono ν k soluzioni linearmente in<strong>di</strong>pendenti <strong>di</strong> (3.1). Si noti che i Q(t; λ k , ξ kh )<br />
(definiti in (3.10)) sono polinomi in t <strong>di</strong> gra<strong>di</strong> (in genere) <strong>di</strong>versi tra <strong>di</strong> loro, ma<br />
comunque inferiori a ν k .<br />
4) Per ogni coppia <strong>di</strong> autovalori complessi coniugati λ k = β k + iγ k , ¯λ k = β k −<br />
iγ k : siano ξ kh , h = 1, . . . , ν k autovettori generalizzati corrispondenti a λ k e<br />
linearmente in<strong>di</strong>pendenti; allora, posto per ogni ξ kh<br />
con Q 1 e Q 2 polinomi reali, le<br />
Q(t; λ k , ξ kh ) = Q 1 (t; λ k , ξ kh ) + iQ 2 (t; λ k , ξ kh ) ,<br />
e β kt [Q 1 (t; λ k , ξ kh ) cos(γ k t) − Q 2 (t; λ k , ξ kh ) sin(γ k t)] ,<br />
e β kt [Q 2 (t; λ k , ξ kh ) cos(γ k t) + Q 1 (t; λ k , ξ kh ) sin(γ k t)] ,<br />
sono 2ν k soluzioni linearmente in<strong>di</strong>pendenti <strong>di</strong> (3.1). Si noti che i Q i (t; λ k , ξ kh )<br />
sono polinomi in t <strong>di</strong> gra<strong>di</strong> (in genere) <strong>di</strong>versi tra <strong>di</strong> loro, ma comunque inferiori<br />
a ν k .<br />
5) Le soluzioni trovate nei punti 3) e 4) sono in numero complessivo <strong>di</strong> N e<br />
sono linearmente in<strong>di</strong>pendenti; dunque danno un integrale generale del sistema<br />
<strong>di</strong>fferenziale a coefficienti costanti (3.1). In altri termini, la matrice Y le cui<br />
colonne sono le N soluzioni trovate sopra è una matrice risolvente.<br />
3.2. Complementi: La serie esponenziale. Per ogni t ∈ R vale<br />
∫ t<br />
e t = 1 +<br />
0<br />
= 1 + t +<br />
= 1 + t +<br />
e τ 1<br />
dτ 1 = 1 +<br />
∫ t ∫ τ 1<br />
0 0<br />
∫ t<br />
0<br />
∫ t<br />
0<br />
(<br />
1 +<br />
∫ τ 1<br />
e τ 2<br />
dτ 2 dτ 1 = 1 + t +<br />
τ 1 dτ 1 +<br />
∫t<br />
= 1 + t + t2 2 +<br />
0<br />
∫t<br />
= 1 + t + t2 2 +<br />
0<br />
∫ t ∫ τ 1 ∫ τ 2<br />
0 0<br />
∫ τ 1 ∫ τ 2<br />
0<br />
0<br />
0<br />
(<br />
1 +<br />
τ 2 1<br />
2 dτ 1 +<br />
∫t<br />
= 1 + t + t2 2 + t3<br />
2 · 3 +<br />
0<br />
0<br />
e τ 2<br />
dτ 2<br />
)<br />
dτ 1<br />
∫ t ∫ τ 1<br />
0<br />
0<br />
e τ 3<br />
dτ 3 dτ 2 dτ 1<br />
∫ τ 3<br />
0<br />
∫ t ∫ τ 1 ∫ τ 2 ∫ τ 3<br />
0 0 0<br />
∫ τ 1 ∫ τ 2 ∫ τ 3<br />
0<br />
0<br />
0<br />
(<br />
1 +<br />
∫ τ 2<br />
e τ 4<br />
dτ 4<br />
)<br />
dτ 3 dτ 2 dτ 1<br />
0<br />
0<br />
e τ 4<br />
dτ 4 dτ 3 dτ 2 dτ 1<br />
e τ 4<br />
dτ 4 dτ 3 dτ 2 dτ 1 .<br />
e τ 3<br />
dτ 3<br />
)<br />
dτ 2 dτ 1<br />
(3.14)
SISTEMI DI EQUAZIONI DIFFERENZIALI LINEARI 9<br />
È chiaro che procedendo in questo modo si arriva a <strong>di</strong>mostrare per ogni n ≥ 0<br />
e t = 1 + t + t2<br />
2! + t3<br />
3! + · · · + tn<br />
n! + R n+1(t) , (3.15)<br />
ove R n+1 è dato dagli n + 1 integrali ripetuti<br />
Vale<br />
|R n+1 (t)| ≤<br />
R n+1 (t) =<br />
∫ |t| ∫ τ 1<br />
0<br />
0<br />
∫ t ∫ τ 1<br />
0<br />
. . .<br />
0<br />
∫ τ n<br />
0<br />
. . .<br />
∫ τ n<br />
0<br />
e τ n+1<br />
dτ n+1 . . . dτ 2 dτ 1 . (3.16)<br />
e |t| dτ n+1 . . . dτ 2 dτ 1 = e |t| |t| n+1<br />
(n + 1)! .<br />
Sia k ≥ 1 il più grande intero minore o uguale a |t| se |t| ≥ 1, o k = 1 altrimenti.<br />
Quin<strong>di</strong> per n → ∞ si ha<br />
|R n+1 (t)| ≤ e |t||t| |t|<br />
1 2 . . . |t|<br />
k ·<br />
|t|<br />
k + 1 . . . |t|<br />
n + 1<br />
( )<br />
|t|<br />
|t| n+1−k<br />
n + 1 ≤ C(t) → 0 ,<br />
k + 1<br />
= C(t) |t|<br />
k + 1 . . .<br />
perché |t| < k + 1. Qui C(t) risulta definita dall’uguaglianza sopra e non <strong>di</strong>pende<br />
da n perché k non <strong>di</strong>pende da n.<br />
Dunque prendendo il limite n → ∞ in (3.15) si ottiene per ogni t ∈ R<br />
e t = 1 + t + t2<br />
2! + t3<br />
3! + · · · + tn<br />
∞ n! + · · · = ∑ t n<br />
n! . (3.17)<br />
Questo sviluppo in serie <strong>di</strong> e t vale, <strong>di</strong> fatto, anche per tutti i numeri complessi t.<br />
n=0<br />
4. Il caso delle <strong>equazioni</strong> <strong>di</strong> or<strong>di</strong>ne n<br />
Consideriamo sistemi che provengono da <strong>equazioni</strong> <strong>lineari</strong> a coefficienti costanti,<br />
nella forma<br />
y (n) + a 1 y (n−1) + a 2 y (n−2) + · · · + a n−1 y ′ + a n y = 0 , (4.1)<br />
con a 1 , . . . a n numeri reali, e n ≥ 1.<br />
Con le posizioni<br />
y 1 = y , y 2 = y ′ , y 3 = y ′′ , . . . y n = y (n−1) ,<br />
la (4.1) può essere scritta nella forma vettoriale, o <strong>di</strong> sistema,<br />
y 1 ′ = y 2 ,<br />
y 2 ′ = y 3 ,<br />
. . .<br />
y n−2 ′ = y n ,<br />
y n ′ = −a ny 1 − a n−1 y 2 − · · · − a 1 y n .<br />
(4.2)
10 DANIELE ANDREUCCI<br />
La corrispondente matrice dei coefficienti è data da<br />
⎛<br />
⎞<br />
0 1 0 . . . 0<br />
0 0 1 . . . 0<br />
A =<br />
⎜. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .<br />
⎟<br />
⎝ 0 0 0 . . . 1 ⎠ . (4.3)<br />
−a n −a n−1 −a n−2 . . . −a 1<br />
Seguendo le idee del paragrafo 3.1, siamo interessati a trovare gli autovalori <strong>di</strong> A.<br />
Vale<br />
Proposizione 4.1. Per ogni λ ∈ R si ha<br />
(−1) n det(A − λI) = λ n + a 1 λ n−1 + a 2 λ n−2 + · · · + a n−1 λ + a n . (4.4)<br />
Dimostrazione. Proce<strong>di</strong>amo per induzione. Per n = 2<br />
det(A − λI) =<br />
∣ −λ 1<br />
−a 2 −a 1 − λ∣ = λ2 + a 1 λ + a 2 .<br />
Quin<strong>di</strong> la (4.4) è verificata in questo caso.<br />
Supponiamo poi lo sia nel caso n − 1. Allora vale<br />
−λ 1 0 . . . 0<br />
0 −λ 1 . . . 0<br />
det(A − λI) =<br />
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .<br />
0 0 0 . . . 1<br />
∣−a n −a n−1 −a n−2 . . . −a 1 − λ∣<br />
∣ −λ 1 . . . 0<br />
∣∣∣∣∣∣∣ 1 0 . . . 0<br />
= −λ<br />
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .<br />
0 0 . . . 1<br />
+ (−1) n −λ 1 . . . 0<br />
a n . . . . . . . . . . . . . .<br />
∣−a n−1 −a n−2 . . . −a 1 − λ∣<br />
0 0 . . . 1∣<br />
= −λ(−1) n−1 (λ n−1 + a 1 λ n−2 + a 2 λ n−3 + · · · + a n−1 ) + (−1) n a n<br />
Si è usata qui l’ipotesi <strong>di</strong> induzione.<br />
= (−1) n (λ n + a 1 λ n−1 + a 2 λ n−2 + · · · + a n−1 λ + a n ) .<br />
Definizione 4.1. Il polinomio nel termine <strong>di</strong> destra della (4.4) si <strong>di</strong>ce polinomio<br />
caratteristico dell’equazione (4.1), mentre l’equazione<br />
si <strong>di</strong>ce equazione caratteristica.<br />
λ n + a 1 λ n−1 + a 2 λ n−2 + · · · + a n−1 λ + a n = 0 (4.5)<br />
Procedendo come in<strong>di</strong>cato nel paragrafo 3.1 si perviene al seguente metodo <strong>di</strong><br />
calcolo dell’integrale generale della (4.1):<br />
(1) Determinare tutte le ra<strong>di</strong>ci dell’equazione caratteristica (4.5); in<strong>di</strong>chiamo<br />
con λ 1 , . . . λ r le ra<strong>di</strong>ci reali <strong>di</strong>stinte, e con α 1 ± iβ 1 , . . . α s ± iβ s le ra<strong>di</strong>ci<br />
complesse coniugate <strong>di</strong>stinte (i è l’unità immaginaria, e α k , β k sono reali).<br />
(2) Ad ogni ra<strong>di</strong>ce reale λ k , <strong>di</strong> molteplicità algebrica 1 ≤ ν k ≤ n si associano le<br />
ν k funzioni<br />
e λ kt , te λ kt , t 2 e λ kt , . . . t ν k−1 e λ kt . (4.6)<br />
□
SISTEMI DI EQUAZIONI DIFFERENZIALI LINEARI 11<br />
(3) Ad ogni coppia <strong>di</strong> ra<strong>di</strong>ci complesse coniugate α k ± iβ k , <strong>di</strong> molteplicità<br />
algebrica 1 ≤ ˜ν k ≤ n si associano le 2˜ν k funzioni<br />
sin(β k t)e α kt , t sin(β k t)e α kt , . . . t˜ν k−1 sin(β k t)e α kt ,<br />
cos(β k t)e α kt , t cos(β k t)e α kt , . . . t˜ν k−1 cos(β k t)e α kt .<br />
(4) Le funzioni in (4.6) e in (4.7) sono in numero <strong>di</strong><br />
ν 1 + · · · + ν r + 2˜ν 1 + · · · + 2˜ν s = n ,<br />
(4.7)<br />
e costituiscono una base per lo spazio delle soluzioni <strong>di</strong> (4.1), ossia ogni<br />
soluzione <strong>di</strong> quest’ultima si esprime come combinazione lineare a coefficienti<br />
costanti <strong>di</strong> tali funzioni.