10.11.2014 Views

Sistemi di equazioni differenziali lineari - Sezione di Matematica

Sistemi di equazioni differenziali lineari - Sezione di Matematica

Sistemi di equazioni differenziali lineari - Sezione di Matematica

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

SISTEMI DI EQUAZIONI DIFFERENZIALI LINEARI<br />

DANIELE ANDREUCCI<br />

DIP. METODI E MODELLI, UNIVERSITÀ LA SAPIENZA<br />

VIA A.SCARPA 16, 00161 ROMA, ITALY<br />

andreucci@dmmm.uniroma1.it<br />

1. Lo spazio delle soluzioni<br />

Un sistema N × N lineare omogeneo <strong>di</strong> <strong>equazioni</strong> <strong>di</strong>fferenziali or<strong>di</strong>narie è<br />

y ′ 1 = a 11(t)y 1 + a 12 (t)y 2 + · · · + a 1N (t)y N ,<br />

y ′ 2 = a 21(t)y 1 + a 22 (t)y 2 + · · · + a 2N (t)y N , (1.1)<br />

. . .<br />

y ′ N = a N1(t)y 1 + a N2 (t)y 2 + · · · + a NN (t)y N ,<br />

ove le a ij sono assegnate funzioni continue su un certo intervallo J <strong>di</strong> R, e la<br />

soluzione (y 1 , . . ., y N ) è una N-upla <strong>di</strong> funzioni C 1 (J).<br />

Con una notazione più compatta, possiamo riscrivere (1.1) come<br />

ove<br />

⎛<br />

⎞<br />

a 11 (t) a 12 (t) . . . a 1N (t)<br />

A(t) = ⎜ a 21 (t) a 22 (t) . . . a 2N (t)<br />

⎟<br />

⎝. . . . . . . . . . . . . . . . . . . . . . . . . . . . . ⎠<br />

a N1 (t) a N2 (t) . . . a NN (t)<br />

y ′ = A(t)y , (1.2)<br />

⎛ ⎞<br />

y 1 (t)<br />

y = y(t) = ⎜ y 2 (t)<br />

⎟<br />

⎝ . . . ⎠ , t ∈ J .<br />

y N (t)<br />

Le soluzioni <strong>di</strong> (1.2) costituiscono uno spazio vettoriale rispetto alle usuali operazioni<br />

<strong>di</strong> somma tra vettori e prodotto per scalari. Più specificamente<br />

Proposizione<br />

∑<br />

1.1. Siano y i , i = 1, . . . , p, soluzioni <strong>di</strong> (1.2).<br />

p<br />

i=1 c iy i lo è, per ogni scelta <strong>di</strong> scalari c i ∈ R.<br />

Dimostrazione. Ovviamente<br />

d<br />

p∑ p∑<br />

c i y i = c i y i ′ dt<br />

=<br />

i=1<br />

i=1<br />

p∑<br />

c i A(t)y i = A(t)<br />

i=1<br />

p∑<br />

c i y i .<br />

i=1<br />

Allora anche<br />

Dunque lo spazio vettoriale S delle soluzioni <strong>di</strong> (1.2) deve avere una base, la cui<br />

car<strong>di</strong>nalità coincide—per definizione—con la <strong>di</strong>mensione dello spazio medesimo.<br />

Ricor<strong>di</strong>amo che p elementi y 1 ,. . . , y p <strong>di</strong> S si <strong>di</strong>cono linearmente in<strong>di</strong>pendenti se<br />

e solo se da<br />

c 1 y 1 + c 2 y 2 + · · · + c p y p = 0 , c i ∈ R , i = 1 , . . ., p ,<br />

segue c i = 0 per ogni i. Si osservi però che gli elementi dello spazio vettoriale<br />

S sono funzioni; dunque l’elemento nullo 0 nell’uguaglianza sopra va inteso<br />

come funzione identicamente nulla. Possiamo quin<strong>di</strong> enunciare la definizione <strong>di</strong><br />

1<br />


2 DANIELE ANDREUCCI<br />

lineare in<strong>di</strong>pendenza <strong>di</strong> funzioni in S così: y 1 ,. . . , y p in S si <strong>di</strong>cono linearmente<br />

in<strong>di</strong>pendenti se e solo se da<br />

c 1 y 1 (t) + c 2 y 2 (t) + · · · + c p y p (t) = 0 , per ogni t ∈ J,<br />

ove i c i sono scalari, segue c i = 0 per ogni i.<br />

Il nostro prossimo passo sarà la determinazione <strong>di</strong> una base <strong>di</strong> S, e quin<strong>di</strong> della<br />

sua <strong>di</strong>mensione. Useremo il<br />

Lemma 1.1. Siano y i , i = 1,. . . , p soluzioni <strong>di</strong> (1.2). Allora le y i sono linearmente<br />

in<strong>di</strong>pendenti in S se e solo se i loro valori y i (t 0 ) in un arbitrario fissato<br />

t 0 ∈ J sono linearmente in<strong>di</strong>pendenti come vettori <strong>di</strong> R N .<br />

Dimostrazione. Equivalentemente, <strong>di</strong>mostriamo che le y i sono linearmente <strong>di</strong>pendenti<br />

in S se e solo se i vettori y i (t 0 ) sono linearmente <strong>di</strong>pendenti in R N .<br />

Siano le y i linearmente <strong>di</strong>pendenti; allora esistono p scalari, c i , non tutti nulli,<br />

tali che<br />

c 1 y 1 (t) + c 2 y 2 (t) + · · · + c p y p (t) = 0 , per ogni t ∈ J.<br />

Sostituendo in questa uguaglianza t = t 0 si ottiene che i vettori y i (t 0 ) sono linearmente<br />

<strong>di</strong>pendenti in R N .<br />

Viceversa, supponiamo che i vettori y i (t 0 ) siano linearmente <strong>di</strong>pendenti in R N .<br />

Allora esistono p scalari, c i , non tutti nulli, tali che<br />

c 1 y 1 (t 0 ) + c 2 y 2 (t 0 ) + · · · + c p y p (t 0 ) = 0 .<br />

Definiamo, per questa scelta degli scalari c i , la funzione<br />

p∑<br />

y(t) = c i y i (t) , t ∈ J .<br />

i=1<br />

La y è una soluzione <strong>di</strong> (1.2), per la Proposizione 1.1, ed assume il dato <strong>di</strong> Cauchy<br />

nullo in t 0 . Quin<strong>di</strong>, per il teorema <strong>di</strong> unicità, deve essere nulla per ogni t ∈ J.<br />

Ma, visto che i c i non sono tutti nulli, questo implica che le y i sono linearmente<br />

<strong>di</strong>pendenti in S.<br />

□<br />

Possiamo ora <strong>di</strong>mostrare<br />

Teorema 1.1. Sia {v i | i = 1, . . ., N} una base <strong>di</strong> R N (ossia i v i siano N vettori<br />

<strong>di</strong> R N linearmente in<strong>di</strong>pendenti). Allora le N soluzioni dei problemi <strong>di</strong> Cauchy:<br />

{<br />

{<br />

{<br />

y 1 ′ = A(t)y 1 , y 2 ′ = A(t)y 2 ,<br />

y<br />

N ′ . . .<br />

= A(t)y N ,<br />

(1.3)<br />

y 1 (t 0 ) = v 1 ; y 2 (t 0 ) = v 2 ;<br />

y N (t 0 ) = v N ;<br />

costituiscono una base <strong>di</strong> S. Qui t 0 ∈ J è fissato ad arbitrio (ma è lo stesso in<br />

ognuno degli N problemi <strong>di</strong> Cauchy).<br />

Dimostrazione. Per il Lemma 1.1, le y i , i = 1, . . . , N, sono linearmente in<strong>di</strong>pendenti,<br />

e occorre pertanto solo <strong>di</strong>mostrare che generano tutto S. In altri termini,<br />

vogliamo mostrare che ogni soluzione y <strong>di</strong> (1.2) si può scrivere come combinazione<br />

lineare a coefficienti costanti <strong>di</strong> y 1 , . . . , y N .<br />

Fissiamo allora una y soluzione <strong>di</strong> (1.2). Dato che per ipotesi i v i costituiscono<br />

una base <strong>di</strong> R N , esisteranno certamente N scalari c i , . . . , c N tali che<br />

N∑ N∑<br />

y(t 0 ) = c i v i = c i y i (t 0 ) .<br />

i=1<br />

i=1


SISTEMI DI EQUAZIONI DIFFERENZIALI LINEARI 3<br />

Sia z definita da z(t) = ∑ N<br />

i=1 c iy i (t), per ogni t ∈ J. Allora sia z che y risolvono<br />

{<br />

w ′ = A(t)w ,<br />

w(t 0 ) = y(t 0 ) .<br />

Per il teorema <strong>di</strong> unicità deve quin<strong>di</strong> valere z ≡ y in J, ossia<br />

N∑<br />

y(t) = c i y i (t) , per ogni t ∈ J.<br />

i=1<br />

□<br />

Segue subito<br />

Corollario 1.1. La <strong>di</strong>mensione <strong>di</strong> S è uguale a N.<br />

Abbiamo quin<strong>di</strong> <strong>di</strong>mostrato che tutte e sole le soluzioni <strong>di</strong> (1.2) si possono scrivere<br />

come<br />

N∑<br />

y(t) = c i y i (t) , t ∈ J , (1.4)<br />

i=1<br />

ove le y i sono una N-upla fissata <strong>di</strong> soluzioni linearmente in<strong>di</strong>pendenti (cioè una<br />

base <strong>di</strong> S), e le c i variano ad arbitrio in R. La (1.4) è perciò un integrale generale<br />

<strong>di</strong> (1.2).<br />

2. Matrici risolventi<br />

Osservazione 2.1. Ricor<strong>di</strong>amo che, per la definizione del prodotto righe per colonne,<br />

le colonne della matrice prodotto<br />

C = AB , A matrice N × N e B, C matrici N × p,<br />

sono combinazioni <strong>lineari</strong> delle colonne <strong>di</strong> A. Più specificamente, se denotiamo<br />

con col j (C) = (c ij ) N i=1 la j-esima colonna della matrice C, e A = (a ij), B = (b ij ),<br />

vale<br />

( N<br />

col j (C) = (c ij ) N i=1 = ∑<br />

) N N∑<br />

a ih b hj = b hj (a ih ) N i=1 = ∑<br />

N b hj col h (A) .<br />

h=1 i=1 h=1<br />

h=1<br />

Ne segue che l’integrale generale (1.4) può essere messo nella forma vettoriale<br />

y = Y (t)C , (2.1)<br />

ove Y è una matrice le cui colonne siano N soluzioni linearmente in<strong>di</strong>pendenti <strong>di</strong><br />

(1.2), e C ∈ R N è un arbitrario vettore colonna <strong>di</strong> scalari. Poniamo allora la<br />

Definizione 2.1. Una matrice Y le cui colonne costituiscano una base <strong>di</strong> S si<br />

<strong>di</strong>ce matrice risolvente del sistema (1.2).<br />

Il seguente lemma, <strong>di</strong> <strong>di</strong>mostrazione quasi banale, risulta <strong>di</strong> grande importanza:<br />

Lemma 2.1. Sia Y una matrice risolvente <strong>di</strong> (1.2), e sia B una matrice non<br />

singolare N × N (cioè det(B) ≠ 0) a coefficienti reali. Allora anche Y B è una<br />

matrice risolvente <strong>di</strong> (1.2).


4 DANIELE ANDREUCCI<br />

Dimostrazione. Visto che ovviamente Y B è non singolare perché<br />

det(Y (t)B) = det(Y (t)) det(B) ≠ 0 ,<br />

basterà <strong>di</strong>mostrare che tutte le colonne <strong>di</strong> Y B sono soluzioni <strong>di</strong> (1.2). Ma questo<br />

segue subito dall’Osservazione 2.1 e dalla Proposizione 1.1.<br />

□<br />

Una conseguenza importante <strong>di</strong> questo risultato è il seguente teorema, che dà un<br />

modo canonico <strong>di</strong> scrivere le soluzioni <strong>di</strong> problemi <strong>di</strong> Cauchy <strong>di</strong> (1.2).<br />

Teorema 2.1. Sia t 0 ∈ J e sia Y una matrice risolvente <strong>di</strong> (1.2). Allora, posto<br />

Φ(t, t 0 ) = Y (t)Y (t 0 ) −1 , l’unica soluzione <strong>di</strong><br />

u 0 ∈ R N , è data da<br />

y ′ = A(t)y , y(t 0 ) = u 0 , (2.2)<br />

y(t) = Φ(t, t 0 )u 0 , t ∈ J . (2.3)<br />

Inoltre la matrice Φ non <strong>di</strong>pende da Y , ossia date due <strong>di</strong>verse matrici risolventi<br />

Y 1 e Y 2 vale Y 1 (t)Y 1 (t 0 ) −1 = Y 2 (t)Y 2 (t 0 ) −1 per ogni t ∈ J; più in generale, se<br />

Φ 0 (t, t 0 ) è un’altra matrice con la proprietà <strong>di</strong> fornire tutte le soluzioni <strong>di</strong> (2.2)<br />

secondo (2.3), questa coincide con Φ(t, t 0 ).<br />

Dimostrazione. Che la y definita in (2.3) sia una soluzione <strong>di</strong> (1.2) segue subito<br />

dall’Osservazione 2.1 e dal Lemma 2.1. Inoltre<br />

y(t 0 ) = Φ(t 0 , t 0 )u 0 = Y (t 0 )Y (t 0 ) −1 u 0 = Iu 0 = u 0 .<br />

Dunque la y è effettivamente l’unica soluzione <strong>di</strong> (2.2).<br />

Siano poi Φ 1 (t, t 0 ) = Y 1 (t)Y 1 (t 0 ) −1 , Φ 2 (t, t 0 ) = Y 2 (t)Y 2 (t 0 ) −1 ; per quanto sopra le<br />

due funzioni<br />

y 1 (t) = Φ 1 (t, t 0 )u 0 , y 2 (t) = Φ 2 (t, t 0 )u 0 , t ∈ J ,<br />

sono entrambe soluzioni <strong>di</strong> (2.2). Per il teorema <strong>di</strong> unicità, esse devono coincidere<br />

per ogni t ∈ J, ossia per ogni fissato t ∈ J,<br />

Z := Φ 1 (t, t 0 ) − Φ 2 (t, t 0 ) ,<br />

deve sod<strong>di</strong>sfare Zu 0 = 0 per ogni u 0 ∈ R N . Ne segue che Z è la matrice nulla.<br />

Nello stesso modo si procede per una Φ 0 come nell’enunciato.<br />

□<br />

Definizione 2.2. La matrice Φ(t, t 0 ) si <strong>di</strong>ce matrice risolvente canonica, o matrice<br />

<strong>di</strong> transizione, <strong>di</strong> (1.2) in t = t 0 .<br />

3. Matrici risolventi per sistemi a coefficienti costanti<br />

In questa sezione ci occupiamo del caso in cui la matrice A ha tutti i coefficienti<br />

costanti, ossia a ij ∈ R per ogni ij. Il sistema <strong>di</strong>viene allora<br />

y ′ = Ay , A matrice costante. (3.1)<br />

Diamo senza <strong>di</strong>mostrazione il seguente fondamentale<br />

Teorema 3.1. Sia A una qualunque matrice reale N × N. La matrice esponenziale<br />

e tA e tA :=<br />

∞∑ t i A i<br />

i=0<br />

i!<br />

= I + tA + t2 A 2<br />

2!<br />

+ t3 A 3<br />

3!<br />

+ . . . , (3.2)


SISTEMI DI EQUAZIONI DIFFERENZIALI LINEARI 5<br />

risulta definita per ogni t ∈ R, e vale<br />

d<br />

dt etA = Ae tA , per ogni t ∈ R. (3.3)<br />

Si ricor<strong>di</strong> che la derivazione <strong>di</strong> matrici, come anche la convergenza <strong>di</strong> una serie<br />

<strong>di</strong> matrici, va intesa elemento per elemento, come nel caso dei vettori. In (3.2)<br />

le potenze A i vanno calcolate secondo l’usuale prodotto righe per colonne. Si<br />

osservi che per t = 0<br />

∞∑<br />

e 0A 0 i A i<br />

= = I .<br />

i!<br />

i=0<br />

La serie <strong>di</strong> matrici in (3.2) è formalmente ricopiata dallo sviluppo in serie della<br />

funzione esponenziale <strong>di</strong> numeri reali: ve<strong>di</strong> il paragrafo 3.2 sotto. Alternativamente,<br />

proprio la (3.3) permetterebbe <strong>di</strong> definire e tA come l’unica soluzione <strong>di</strong><br />

Y ′ = AY con Y (0) = I.<br />

Il teorema asserisce che la serie in (3.2) converge in modo tale da rendere rigoroso<br />

lo scambio delle operazioni <strong>di</strong> serie e <strong>di</strong> derivazione (qui inteso solo formalmente)<br />

d<br />

dt etA = d dt<br />

∞∑ t i A i<br />

=<br />

i!<br />

i=0<br />

∞∑<br />

i=0<br />

d t i A i<br />

dt i!<br />

=<br />

∞∑<br />

i=1<br />

i ti−1 A i<br />

i!<br />

∞∑<br />

i=1<br />

Usando la formula (3.3) possiamo <strong>di</strong>mostrare il<br />

=<br />

A ti−1 A i−1<br />

(i − 1)!<br />

∞∑ t j A j<br />

= A = Ae tA .<br />

j!<br />

Teorema 3.2. La matrice <strong>di</strong> transizione <strong>di</strong> (3.1) in t = 0 è e tA . Quin<strong>di</strong> la<br />

soluzione <strong>di</strong><br />

y ′ = Ay , y(0) = u 0 , (3.4)<br />

u 0 ∈ R N , è data da<br />

j=0<br />

y(t) = e tA u 0 , t ∈ R . (3.5)<br />

Dimostrazione. Vale infatti per ogni u 0 ∈ R N e t ∈ R:<br />

inoltre<br />

d<br />

dt y(t) = d dt (etA u 0 ) =<br />

( d<br />

dt etA )<br />

u 0 = Ae tA u 0 = Ay(t) ;<br />

y(0) = e 0A u 0 = Iu 0 = u 0 .<br />

Dunque la matrice esponenziale coincide con l’unica matrice risolvente canonica<br />

<strong>di</strong> (3.1), secondo il risultato <strong>di</strong> Teorema 2.1.<br />

□<br />

Osservazione 3.1. È facile verificare che la matrice risolvente canonica per (3.1)<br />

in t = t 0 è e (t−t 0)A .<br />

3.1. Calcolo effettivo <strong>di</strong> una matrice risolvente. In genere la matrice e tA<br />

non può essere calcolata esattamente senza sommare la serie infinita in (3.2).<br />

Tuttavia esiste un metodo che permette <strong>di</strong> trovare (basandosi su questa serie)<br />

N soluzioni linearmente in<strong>di</strong>pendenti, evitando il calcolo della serie completa.<br />

Con queste soluzioni si costruisce subito l’integrale generale del sistema, come<br />

spiegato sopra. Una volta trovata così una matrice risolvente Y (t), la matrice <strong>di</strong><br />

transizione in t = 0 è data da Y (t)Y (0) −1 (ve<strong>di</strong> Teorema 2.1).


6 DANIELE ANDREUCCI<br />

Si noti però che i calcoli necessari sono comunque <strong>di</strong> solito troppo complessi per<br />

essere svolti a mano.<br />

L’idea. Fissata una base (ξ 1 , . . ., ξ N ) <strong>di</strong> R N , e assegnato un qualunque dato <strong>di</strong><br />

Cauchy u 0 , con u 0 = ∑ N<br />

h=1 c hξ h , c h ∈ R, la soluzione <strong>di</strong> (3.4) si può scrivere<br />

y(t) = e tA u 0 = e tA<br />

N ∑<br />

h=1<br />

c h ξ h =<br />

N∑<br />

c h (e tA ξ h ) =<br />

h=1<br />

N∑<br />

∑<br />

∞<br />

c h<br />

h=1 i=0<br />

t i A i<br />

ξ h . (3.6)<br />

i!<br />

L’idea consiste nello scegliere opportunamente la base ξ h , in modo che tutte le N<br />

serie ∑ ∞<br />

i=0 ti A i<br />

ξ<br />

i! h , h = 1, . . . , N possano, in sostanza, essere calcolate sommando<br />

solo un numero finito <strong>di</strong> termini <strong>di</strong>versi da 0, ossia si riducano a somme finite.<br />

Autovettori reali. Cominciamo con l’osservare che questa proprietà è senza dubbio<br />

goduta dagli autovettori della matrice: sia ξ ∈ R N , ξ ≠ 0, un autovettore <strong>di</strong> A<br />

corrispondente a un autovalore λ ∈ R, ossia<br />

Allora vale<br />

Aξ = λξ , ossia (A − λI)ξ = 0 . (3.7)<br />

e t(A−λI) ξ =<br />

∞∑ t i (A − λI) i<br />

ξ =<br />

i!<br />

i=0<br />

Iξ + t(A − λI)ξ + t2 (A − λI) 2 ξ<br />

2!<br />

+ t3 (A − λI) 3 ξ<br />

3!<br />

+ . . . = Iξ = ξ .<br />

Quin<strong>di</strong> se per esempio la matrice A ha una base <strong>di</strong> autovettori ξ h come sopra<br />

(con autovalori λ h ∈ R), le N soluzioni linearmente in<strong>di</strong>pendenti sono 1<br />

e tA ξ h = e t(λ hI+A−λ h I) ξ h = e tλ hI e t(A−λ hI) ξ h = e tλ hI ξ h = e λ ht ξ h . (3.8)<br />

Si noti che ragionando come sopra, si <strong>di</strong>mostra che e tA ξ è una soluzione (complessa),<br />

anche se ξ è un autovettore corrispondente a un autovalore complesso. Poiché<br />

a noi interessano soluzioni reali, il caso <strong>di</strong> autovalori complessi viene trattato a<br />

parte nel seguito.<br />

Autovettori generalizzati. Poiché però non tutte le matrici hanno una base <strong>di</strong><br />

autovettori, occorre in generale cercare i vettori linearmente in<strong>di</strong>pendenti ξ h non<br />

solo tra gli autovettori, ma tra gli autovettori generalizzati <strong>di</strong> A: per definizione<br />

si <strong>di</strong>ce che ξ ∈ C N , ξ ≠ 0, è un autovettore generalizzato <strong>di</strong> A se esistono un<br />

autovalore λ ∈ C <strong>di</strong> A e un m ∈ N tali che<br />

(A − λI) m ξ = 0 . (3.9)<br />

Più precisamente, si <strong>di</strong>ce che ξ è un autovettore m-generalizzato corrispondente<br />

a λ. Chiaramente, se m = 1 l’autovettore generalizzato è un autovettore in senso<br />

tra<strong>di</strong>zionale.<br />

1 La seconda e l’ultima uguaglianza in (3.8) richiederebbero una <strong>di</strong>mostrazione, che è facile nel<br />

caso dell’ultima uguaglianza, ma lo è meno nel caso della seconda.


SISTEMI DI EQUAZIONI DIFFERENZIALI LINEARI 7<br />

Se ξ è un autovettore m-generalizzato <strong>di</strong> A corrispondente a λ, vale<br />

e t(A−λI) ξ =<br />

∞∑ t i (A − λI) i<br />

ξ =<br />

i!<br />

i=0<br />

m−1<br />

∑<br />

i=0<br />

Iξ + t(A − λI)ξ + t2 (A − λI) 2 ξ<br />

2!<br />

t i (A − λI) i<br />

ξ =<br />

i!<br />

+ · · · + tm−1 (A − λI) m−1 ξ<br />

(m − 1)!<br />

=: Q(t; λ, ξ) ,<br />

(3.10)<br />

ove Q è un polinomio <strong>di</strong> grado m−1 in t (naturalmente con coefficienti vettoriali).<br />

Dunque<br />

e tA ξ = e t(λI+A−λI) ξ = e tλI e t(A−λI) ξ = e tλI Q(t; λ, ξ) = e λt Q(t; λ, ξ) . (3.11)<br />

Osserviamo per inciso che Q(t; λ, ξ) = ξ se m = 1. Dunque anche gli autovettori<br />

generalizzati danno luogo a soluzioni che si possono calcolare sommando solo un<br />

numero finito <strong>di</strong> termini nella serie e tA ξ. Se si trova una base <strong>di</strong> autovettori generalizzati<br />

reali, è a questo punto chiaro come procedere per scrivere un integrale<br />

generale <strong>di</strong> (3.1).<br />

Il caso <strong>di</strong> autovalori complessi. Tuttavia, si noti che in generale gli autovalori<br />

possono essere complessi. Dato che gli autovalori <strong>di</strong> A sono tutte e sole le ra<strong>di</strong>ci<br />

dell’equazione polinomiale a coefficienti reali<br />

det(A − λI) = 0 , (3.12)<br />

se λ = β +iγ (β, γ ∈ R, γ ≠ 0) è un autovalore, anche il suo coniugato ¯λ = β −iγ<br />

lo è. In questo caso, con la notazione <strong>di</strong> (3.11), osserviamo che<br />

e tA ξ = e βt (cos γt + i sin γt)[Q 1 (t) + iQ 2 (t)] , (3.13)<br />

ove Q 1 (t) = Re Q(t; λ, ξ), Q 2 (t) = Im Q(t; λ, ξ).<br />

(3.13) si riscrive come<br />

Svolte le moltiplicazioni, la<br />

e tA ξ = e βt (Q 1 (t) cosγt − Q 2 (t) sin γt) + ie βt (Q 2 (t) cos γt + Q 1 (t) sinγt)<br />

=: y 1 (t) + iy 2 (t) ,<br />

con y i , i = 1, 2 funzioni reali. È facile verificare che y 1 e y 2 sono separatamente<br />

soluzioni del sistema <strong>di</strong>fferenziale. Infatti, sappiamo la che e tA ξ è una soluzione<br />

e dunque:<br />

[y 1 (t) + iy 2 (t)] ′ = [e tA ξ] ′ = Ae tA ξ = A[y 1 (t) + iy 2 (t)] = [Ay 1 (t) + iAy 2 (t)] .<br />

Dato che A è una matrice reale, uguagliando le parti reale e immaginaria dei<br />

membri <strong>di</strong> destra e <strong>di</strong> sinistra si ottiene y<br />

i ′ = Ay i, i = 1, 2. Perciò da ogni soluzione<br />

complessa si estraggono due soluzioni reali del sistema; questo è il motivo per cui<br />

nello schema illustrato sotto, considereremo solo uno degli autovalori complessi<br />

λ per ogni coppia <strong>di</strong> coniugio λ, ¯λ <strong>di</strong> soluzioni <strong>di</strong> (3.12).<br />

Ecco infine il metodo <strong>di</strong> calcolo, che <strong>di</strong>amo senza <strong>di</strong>mostrazione:<br />

1) Si determinino tutti gli autovalori <strong>di</strong> A, ossia tutte le ra<strong>di</strong>ci <strong>di</strong>stinte λ k ∈ C,<br />

k = 1, . . . , p dell’equazione (3.12); quin<strong>di</strong> 1 ≤ p ≤ N. Sia ν k la molteplicità<br />

algebrica <strong>di</strong> λ k ; dunque ∑ p<br />

k=1 ν k = N.<br />

2) Per ogni autovalore reale λ k , e per uno tra λ k e ¯λ k in ogni coppia <strong>di</strong> autovalori<br />

complessi coniugati: si trovino tutti gli autovettori linearmente in<strong>di</strong>pendenti con<br />

autovalore λ k . Se questi sono in numero inferiore a ν k , si cerchino gli autovettori<br />

2-generalizzati corrispondenti a λ k , poi quelli 3-generalizzati, e così via. Ad ogni


8 DANIELE ANDREUCCI<br />

passo si troverà almeno un autovettore generalizzato linearmente in<strong>di</strong>pendente<br />

dai precedenti, finché se ne saranno trovati esattamente ν k .<br />

3) Per ogni autovalore reale λ k : siano ξ kh , h = 1, . . . , ν k autovettori generalizzati<br />

(reali) corrispondenti a λ k e linearmente in<strong>di</strong>pendenti; allora le<br />

e λ kt Q(t; λ k , ξ k1 ) , e λ kt Q(t; λ k , ξ k2 ) , . . . e λ kt Q(t; λ k , ξ kνk ) ,<br />

sono ν k soluzioni linearmente in<strong>di</strong>pendenti <strong>di</strong> (3.1). Si noti che i Q(t; λ k , ξ kh )<br />

(definiti in (3.10)) sono polinomi in t <strong>di</strong> gra<strong>di</strong> (in genere) <strong>di</strong>versi tra <strong>di</strong> loro, ma<br />

comunque inferiori a ν k .<br />

4) Per ogni coppia <strong>di</strong> autovalori complessi coniugati λ k = β k + iγ k , ¯λ k = β k −<br />

iγ k : siano ξ kh , h = 1, . . . , ν k autovettori generalizzati corrispondenti a λ k e<br />

linearmente in<strong>di</strong>pendenti; allora, posto per ogni ξ kh<br />

con Q 1 e Q 2 polinomi reali, le<br />

Q(t; λ k , ξ kh ) = Q 1 (t; λ k , ξ kh ) + iQ 2 (t; λ k , ξ kh ) ,<br />

e β kt [Q 1 (t; λ k , ξ kh ) cos(γ k t) − Q 2 (t; λ k , ξ kh ) sin(γ k t)] ,<br />

e β kt [Q 2 (t; λ k , ξ kh ) cos(γ k t) + Q 1 (t; λ k , ξ kh ) sin(γ k t)] ,<br />

sono 2ν k soluzioni linearmente in<strong>di</strong>pendenti <strong>di</strong> (3.1). Si noti che i Q i (t; λ k , ξ kh )<br />

sono polinomi in t <strong>di</strong> gra<strong>di</strong> (in genere) <strong>di</strong>versi tra <strong>di</strong> loro, ma comunque inferiori<br />

a ν k .<br />

5) Le soluzioni trovate nei punti 3) e 4) sono in numero complessivo <strong>di</strong> N e<br />

sono linearmente in<strong>di</strong>pendenti; dunque danno un integrale generale del sistema<br />

<strong>di</strong>fferenziale a coefficienti costanti (3.1). In altri termini, la matrice Y le cui<br />

colonne sono le N soluzioni trovate sopra è una matrice risolvente.<br />

3.2. Complementi: La serie esponenziale. Per ogni t ∈ R vale<br />

∫ t<br />

e t = 1 +<br />

0<br />

= 1 + t +<br />

= 1 + t +<br />

e τ 1<br />

dτ 1 = 1 +<br />

∫ t ∫ τ 1<br />

0 0<br />

∫ t<br />

0<br />

∫ t<br />

0<br />

(<br />

1 +<br />

∫ τ 1<br />

e τ 2<br />

dτ 2 dτ 1 = 1 + t +<br />

τ 1 dτ 1 +<br />

∫t<br />

= 1 + t + t2 2 +<br />

0<br />

∫t<br />

= 1 + t + t2 2 +<br />

0<br />

∫ t ∫ τ 1 ∫ τ 2<br />

0 0<br />

∫ τ 1 ∫ τ 2<br />

0<br />

0<br />

0<br />

(<br />

1 +<br />

τ 2 1<br />

2 dτ 1 +<br />

∫t<br />

= 1 + t + t2 2 + t3<br />

2 · 3 +<br />

0<br />

0<br />

e τ 2<br />

dτ 2<br />

)<br />

dτ 1<br />

∫ t ∫ τ 1<br />

0<br />

0<br />

e τ 3<br />

dτ 3 dτ 2 dτ 1<br />

∫ τ 3<br />

0<br />

∫ t ∫ τ 1 ∫ τ 2 ∫ τ 3<br />

0 0 0<br />

∫ τ 1 ∫ τ 2 ∫ τ 3<br />

0<br />

0<br />

0<br />

(<br />

1 +<br />

∫ τ 2<br />

e τ 4<br />

dτ 4<br />

)<br />

dτ 3 dτ 2 dτ 1<br />

0<br />

0<br />

e τ 4<br />

dτ 4 dτ 3 dτ 2 dτ 1<br />

e τ 4<br />

dτ 4 dτ 3 dτ 2 dτ 1 .<br />

e τ 3<br />

dτ 3<br />

)<br />

dτ 2 dτ 1<br />

(3.14)


SISTEMI DI EQUAZIONI DIFFERENZIALI LINEARI 9<br />

È chiaro che procedendo in questo modo si arriva a <strong>di</strong>mostrare per ogni n ≥ 0<br />

e t = 1 + t + t2<br />

2! + t3<br />

3! + · · · + tn<br />

n! + R n+1(t) , (3.15)<br />

ove R n+1 è dato dagli n + 1 integrali ripetuti<br />

Vale<br />

|R n+1 (t)| ≤<br />

R n+1 (t) =<br />

∫ |t| ∫ τ 1<br />

0<br />

0<br />

∫ t ∫ τ 1<br />

0<br />

. . .<br />

0<br />

∫ τ n<br />

0<br />

. . .<br />

∫ τ n<br />

0<br />

e τ n+1<br />

dτ n+1 . . . dτ 2 dτ 1 . (3.16)<br />

e |t| dτ n+1 . . . dτ 2 dτ 1 = e |t| |t| n+1<br />

(n + 1)! .<br />

Sia k ≥ 1 il più grande intero minore o uguale a |t| se |t| ≥ 1, o k = 1 altrimenti.<br />

Quin<strong>di</strong> per n → ∞ si ha<br />

|R n+1 (t)| ≤ e |t||t| |t|<br />

1 2 . . . |t|<br />

k ·<br />

|t|<br />

k + 1 . . . |t|<br />

n + 1<br />

( )<br />

|t|<br />

|t| n+1−k<br />

n + 1 ≤ C(t) → 0 ,<br />

k + 1<br />

= C(t) |t|<br />

k + 1 . . .<br />

perché |t| < k + 1. Qui C(t) risulta definita dall’uguaglianza sopra e non <strong>di</strong>pende<br />

da n perché k non <strong>di</strong>pende da n.<br />

Dunque prendendo il limite n → ∞ in (3.15) si ottiene per ogni t ∈ R<br />

e t = 1 + t + t2<br />

2! + t3<br />

3! + · · · + tn<br />

∞ n! + · · · = ∑ t n<br />

n! . (3.17)<br />

Questo sviluppo in serie <strong>di</strong> e t vale, <strong>di</strong> fatto, anche per tutti i numeri complessi t.<br />

n=0<br />

4. Il caso delle <strong>equazioni</strong> <strong>di</strong> or<strong>di</strong>ne n<br />

Consideriamo sistemi che provengono da <strong>equazioni</strong> <strong>lineari</strong> a coefficienti costanti,<br />

nella forma<br />

y (n) + a 1 y (n−1) + a 2 y (n−2) + · · · + a n−1 y ′ + a n y = 0 , (4.1)<br />

con a 1 , . . . a n numeri reali, e n ≥ 1.<br />

Con le posizioni<br />

y 1 = y , y 2 = y ′ , y 3 = y ′′ , . . . y n = y (n−1) ,<br />

la (4.1) può essere scritta nella forma vettoriale, o <strong>di</strong> sistema,<br />

y 1 ′ = y 2 ,<br />

y 2 ′ = y 3 ,<br />

. . .<br />

y n−2 ′ = y n ,<br />

y n ′ = −a ny 1 − a n−1 y 2 − · · · − a 1 y n .<br />

(4.2)


10 DANIELE ANDREUCCI<br />

La corrispondente matrice dei coefficienti è data da<br />

⎛<br />

⎞<br />

0 1 0 . . . 0<br />

0 0 1 . . . 0<br />

A =<br />

⎜. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .<br />

⎟<br />

⎝ 0 0 0 . . . 1 ⎠ . (4.3)<br />

−a n −a n−1 −a n−2 . . . −a 1<br />

Seguendo le idee del paragrafo 3.1, siamo interessati a trovare gli autovalori <strong>di</strong> A.<br />

Vale<br />

Proposizione 4.1. Per ogni λ ∈ R si ha<br />

(−1) n det(A − λI) = λ n + a 1 λ n−1 + a 2 λ n−2 + · · · + a n−1 λ + a n . (4.4)<br />

Dimostrazione. Proce<strong>di</strong>amo per induzione. Per n = 2<br />

det(A − λI) =<br />

∣ −λ 1<br />

−a 2 −a 1 − λ∣ = λ2 + a 1 λ + a 2 .<br />

Quin<strong>di</strong> la (4.4) è verificata in questo caso.<br />

Supponiamo poi lo sia nel caso n − 1. Allora vale<br />

−λ 1 0 . . . 0<br />

0 −λ 1 . . . 0<br />

det(A − λI) =<br />

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .<br />

0 0 0 . . . 1<br />

∣−a n −a n−1 −a n−2 . . . −a 1 − λ∣<br />

∣ −λ 1 . . . 0<br />

∣∣∣∣∣∣∣ 1 0 . . . 0<br />

= −λ<br />

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .<br />

0 0 . . . 1<br />

+ (−1) n −λ 1 . . . 0<br />

a n . . . . . . . . . . . . . .<br />

∣−a n−1 −a n−2 . . . −a 1 − λ∣<br />

0 0 . . . 1∣<br />

= −λ(−1) n−1 (λ n−1 + a 1 λ n−2 + a 2 λ n−3 + · · · + a n−1 ) + (−1) n a n<br />

Si è usata qui l’ipotesi <strong>di</strong> induzione.<br />

= (−1) n (λ n + a 1 λ n−1 + a 2 λ n−2 + · · · + a n−1 λ + a n ) .<br />

Definizione 4.1. Il polinomio nel termine <strong>di</strong> destra della (4.4) si <strong>di</strong>ce polinomio<br />

caratteristico dell’equazione (4.1), mentre l’equazione<br />

si <strong>di</strong>ce equazione caratteristica.<br />

λ n + a 1 λ n−1 + a 2 λ n−2 + · · · + a n−1 λ + a n = 0 (4.5)<br />

Procedendo come in<strong>di</strong>cato nel paragrafo 3.1 si perviene al seguente metodo <strong>di</strong><br />

calcolo dell’integrale generale della (4.1):<br />

(1) Determinare tutte le ra<strong>di</strong>ci dell’equazione caratteristica (4.5); in<strong>di</strong>chiamo<br />

con λ 1 , . . . λ r le ra<strong>di</strong>ci reali <strong>di</strong>stinte, e con α 1 ± iβ 1 , . . . α s ± iβ s le ra<strong>di</strong>ci<br />

complesse coniugate <strong>di</strong>stinte (i è l’unità immaginaria, e α k , β k sono reali).<br />

(2) Ad ogni ra<strong>di</strong>ce reale λ k , <strong>di</strong> molteplicità algebrica 1 ≤ ν k ≤ n si associano le<br />

ν k funzioni<br />

e λ kt , te λ kt , t 2 e λ kt , . . . t ν k−1 e λ kt . (4.6)<br />


SISTEMI DI EQUAZIONI DIFFERENZIALI LINEARI 11<br />

(3) Ad ogni coppia <strong>di</strong> ra<strong>di</strong>ci complesse coniugate α k ± iβ k , <strong>di</strong> molteplicità<br />

algebrica 1 ≤ ˜ν k ≤ n si associano le 2˜ν k funzioni<br />

sin(β k t)e α kt , t sin(β k t)e α kt , . . . t˜ν k−1 sin(β k t)e α kt ,<br />

cos(β k t)e α kt , t cos(β k t)e α kt , . . . t˜ν k−1 cos(β k t)e α kt .<br />

(4) Le funzioni in (4.6) e in (4.7) sono in numero <strong>di</strong><br />

ν 1 + · · · + ν r + 2˜ν 1 + · · · + 2˜ν s = n ,<br />

(4.7)<br />

e costituiscono una base per lo spazio delle soluzioni <strong>di</strong> (4.1), ossia ogni<br />

soluzione <strong>di</strong> quest’ultima si esprime come combinazione lineare a coefficienti<br />

costanti <strong>di</strong> tali funzioni.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!