30.06.2013 Views

Recueil d'Examens (2001 - 2004) Contrôle des EDP - lamsin

Recueil d'Examens (2001 - 2004) Contrôle des EDP - lamsin

Recueil d'Examens (2001 - 2004) Contrôle des EDP - lamsin

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Université de Tunis El Manar<br />

<strong>Recueil</strong> <strong>d'Examens</strong> (<strong>2001</strong> - <strong>2004</strong>)<br />

<strong>Contrôle</strong> <strong>des</strong> <strong>EDP</strong><br />

Mastère (DEA) de Mathématiques Appliquées<br />

Ecole Nationale d'Ingénieurs de Tunis<br />

B.P. 37 – 1002 Le Belvédère Tunis – Tunisie<br />

Tél. (+216) 71 874 700 Fax : (+216) 71 872 729 http://www.enit.rnu.tn


E.N.I.T. DEA de Mathématiques Appliquées<br />

Examen – <strong>Contrôle</strong> optimal<br />

Enseignants : F. Bonnans – H. El Fekih – J.P. Raymond<br />

Date : 2 mars 2002 Durée : 3H00<br />

Les parties A et B sont indépendantes.<br />

Partie A<br />

(Documents autorisés : polycopiés du cours et notes personnelles.)<br />

A.1- Un problème linéaire quadratique<br />

On considère le système dynamique<br />

<br />

¨x(t) + 2 ˙x(t) + x(t) = u(t), t ≥ 0,<br />

(1)<br />

x(0) = x0, ˙x(0) = v0,<br />

associé au critère<br />

(2)<br />

J(u, x) = 1<br />

T 2 2 2<br />

2 u(t) + αx(t) + β ˙x(t)<br />

0<br />

<br />

avec α ≥ 0 et β ≥ 0.<br />

On considère dans cette section le problème de minimisation de (2) sous contrainte (1).<br />

1. On se ramène au premier ordre en posant h(t) = x(t) et v(t) = ˙x(t), et on note ph, pv les<br />

composantes de l’état adjoint. Montrer que le hamiltonien du problème avec les nouvelles<br />

variables est<br />

H(u, h, v, ph, pv) = 1<br />

2 2 2<br />

2 u + αh + βv + phv + pv(u − h − 2v).<br />

2. Donner l’équation de l’état adjoint.<br />

3. Exprimer la commande en fonction de l’état et de l’état adjoint grâce au principe de<br />

Pontryagin.<br />

4. Donner le principe de l’application de l’algorithme de tir a cet exemple.<br />

A.2- Contrainte sur l’état<br />

Soit γ ∈ R. On ajoute au problème la contrainte sur l’état<br />

(3)<br />

h(t) ≤ γ<br />

On utilisera autant que possible les calculs déjà faits dans la partie précédente.<br />

1. Donner l’équation de l’état adjoint.<br />

2. Montrer que, sur un arc frontière, le multiplicateur est régulier.<br />

3. Montrer que, sur un arc frontière, l’état adjoint est constant, et calculer sa valeur ainsi<br />

que celles de u.<br />

4. En déduire la valeur de ˙η sur un arc frontière. Montrer que, si γ < 0, il ne peut y avoir<br />

d’arc frontière.<br />

5. Comment sera le saut de l’état adjoint en un point de jonction ?


Examen – <strong>Contrôle</strong> optimal 2 mars 2002<br />

Partie B<br />

(Documents non autorisés)<br />

Partie B.1<br />

Soit L et T deux nombres réels > 0, f ∈ L 2 ((0, L) × (0, T )), z0 ∈ L 2 (0, L) et u ∈ L 2 (0, T ).<br />

On considère l’équation<br />

(4)<br />

⎧<br />

⎨<br />

⎩<br />

zt − zxx + z = f, dans (0, L) × (0, T ),<br />

z(0, t) = 0, zx(L, t) = u(t), dans (0, T ),<br />

z(x, 0) = z0(x), dans (0, L),<br />

et on suppose qu’elle admet une solution faible unique dans C([0, T ]; L 2 (0, L)) vérifiant :<br />

z 2 C([0,T ];L 2 (0,L)) + z2 L 2 (0,T ;H 1 (0,L)) ≤ C(f2 L 2 ((0,L)×(0,T )) + u2 L 2 (0,T ) + z0 2 L 2 (0,L) )<br />

1- Soit J la fonctionnelle définie sur C([0, T ]; L 2 (0, L)) × L 2 (0, T ) par<br />

J(z, u) = 1<br />

2<br />

L<br />

0<br />

z(x, T ) 2 dx + 1<br />

2<br />

On considère le problème de contrôle<br />

<br />

(P1) inf<br />

T L<br />

0<br />

0<br />

z(x, t) 2 dx dt + 1<br />

2<br />

T<br />

u 2 (t) dt.<br />

J(z, u) | (z, u) ∈ C([0, T ]; L 2 (0, L)) × L 2 (0, T ) et (z, u) vérifie (4)<br />

1.1 Montrer que ce problème de contrôle admet une solution unique.<br />

1.2 Écrire les conditions d’optimalité permettant de caractériser le contrôle optimal ū à l’aide<br />

d’une équation adjointe.<br />

Partie B.2<br />

2- Pour tout g ∈ R, on note vg la solution de l’équation<br />

(5)<br />

−vxx + v = 0 dans (0, L), vx(0) = g, vx(L) = 0.<br />

Lorsque g ∈ L 2 (0, T ), on note vg(x, t) = v g(t)(x). Cela signifie que vg(x, t) est la solution de<br />

l’équation (5) correspondant à g = g(t), c’est à dire solution de<br />

(6)<br />

−vxx(x, t) + v(x, t) = 0 dans (0, L), vx(0, t) = g(t), vx(L, t) = 0,<br />

pour presque tout t ∈ (0, T ).<br />

On considère le système couplé<br />

(7)<br />

⎧<br />

zt − zxx + z = f,<br />

⎪⎨<br />

z(0, t) = 0, zx(L, t) = vg(L, t),<br />

z(x, 0) = z0(x),<br />

dans (0, L) × (0, T ),<br />

dans (0, T ),<br />

dans (0, L),<br />

⎪⎩<br />

Soit I la fonctionnelle<br />

I(z, g) = 1<br />

2<br />

−vxx(x, t) + v(x, t) = 0 dans (0, L) × (0, T )<br />

vx(0, t) = g(t), vx(L, t) = 0 dans (0, T ).<br />

L<br />

On considère le problème de contrôle<br />

<br />

(P2) inf<br />

0<br />

z(x, T ) 2 dx + 1<br />

T<br />

2 0<br />

L<br />

0<br />

0<br />

<br />

.<br />

z(x, t) 2 dx dt + 1<br />

T<br />

g<br />

2 0<br />

2 (t) dt.<br />

I(z, g) | (z, g) ∈ C([0, T ]; L 2 (0, L)) × L 2 (0, T ) et (z, g) vérifie (7)<br />

Montrer que ce problème de contrôle admet une solution unique.<br />

DEA Mathématiques Appliquées 2/4<br />

<br />

.


Examen – <strong>Contrôle</strong> optimal 2 mars 2002<br />

3- On note (z(g), v(g)) la solution de l’équation (7). Soit h ∈ L2 (0, T ). Quel est le système<br />

vérifié par le couple (ζ(h), w(h)) défini par<br />

<br />

<br />

(ζ(h), w(h)) = limλ→0 (z(g + λh), v(g + λh)) − (z(g), v(g)) /λ.<br />

Pour simplifier les écritures, z(g), v(g), ζ(h), w(h) seront notés z, v, ζ et w.<br />

4- On pose F (g) = I(z(g), g). Calculer F ′ (g)h en fonction de z, g, h et ζ.<br />

5-Intégrer par parties l’expression<br />

T L<br />

(ζt − ζxx + ζ)p dxdt,<br />

0<br />

0<br />

où p va jouer le rôle de l’état adjoint associé à z(g). Déterminer l’équation que doit vérifier p<br />

pour que<br />

L<br />

0<br />

T<br />

z(x, T )ζ(x, T ) dx +<br />

0<br />

6-Intégrer par parties l’expression<br />

L<br />

T<br />

z(x, t)ζ(x, t) dxdt = w(L, t)p(L, t) dt.<br />

0<br />

L<br />

(−wxx + w)q dxdt,<br />

0<br />

où q va jouer le rôle de l’état adjoint associé à v. Déterminer l’équation que doit vérifier q pour<br />

que<br />

T<br />

7- Exprimer F ′ (g)h en fonction de g, q et de h.<br />

0<br />

T<br />

w(L, t)p(L, t) dt = − h(t)q(0, t) dt.<br />

0<br />

8- Écrire les conditions d’optimalité permettant de caractériser le contrôle optimal ¯g de (P2) à<br />

l’aide d’un système couplé d’équations adjointes vérifiées par un couple (p, q).<br />

DEA Mathématiques Appliquées 3/4<br />

0


ENIT – Mastère de Mathématiques Appliquées Date : 3 avril 2003<br />

Examen – <strong>Contrôle</strong> optimal Durée : 3H30<br />

Enseignants : H. El Fekih – J.P. Raymond – H. Zidani Documents non autorisés<br />

Les parties A et B sont indépendantes.<br />

Les étudiants sont priés de remettre <strong>des</strong> copies séparées pour chaque partie.<br />

Partie A<br />

Soient M > 0 et T > 0 <strong>des</strong> constantes positives.<br />

I. <strong>Contrôle</strong> d’une équation elliptique avec conditions de Robin.<br />

1. Soit f ∈ L 2 (0, 1) et u ∈ R. Montrer, avec le théorème de Lax-Milgram, que l’équation<br />

(1)<br />

y − yxx = f dans (0, 1), y(0) = 0, yx(1) + My(1) = Mu,<br />

admet une solution unique dans un espace V que l’on définira avec précision.<br />

2. Pour tout y ∈ L 2 (0, 1) et tout u ∈ R on définit la fonctionnelle<br />

J(y, u) = 1<br />

2<br />

1<br />

0<br />

|y − yd| 2 dx + 1<br />

2 |u|2 ,<br />

où yd ∈ L2 (0, 1). On admet que le problème de contrôle<br />

<br />

<br />

(PR) inf J(y, u) | u ∈ R, (y, u) vérifie (1) ,<br />

admet une solution unique. Caractériser cette solution en écrivant les conditions d’optimalité<br />

du premier ordre à l’aide d’une équation adjointe.<br />

II. <strong>Contrôle</strong> d’une équation elliptique avec conditions de Dirichlet.<br />

3. Pour étudier l’équation<br />

(2)<br />

y − yxx = f dans (0, 1), y(0) = 0, y(1) = u ∈ R,<br />

on cherche y sous la forme y = z + w où w = x(2 − x)u. Écrire l’équation vérifiée par z. En<br />

déduire que l’équation (2) admet une solution unique dans H1 (0, 1).<br />

4. On admet que le problème de contrôle<br />

<br />

<br />

(PD) inf J(y, u) | u ∈ R, (y, u) vérifie (2) ,<br />

admet une solution unique. Caractériser cette solution en écrivant les conditions d’optimalité<br />

du premier ordre à l’aide d’une équation adjointe.<br />

III. <strong>Contrôle</strong> d’une équation parabolique avec conditions de Robin.<br />

5. On pose<br />

et<br />

Montrer que<br />

(3)<br />

D(A) = {y ∈ H 2 (0, 1) | y(0) = 0, yx(1) + My(1) = 0},<br />

1<br />

0<br />

Ay = yxx pour tout y ∈ D(A).<br />

yxxy dx ≤ 0 pour tout y ∈ D(A).


Examen – <strong>Contrôle</strong> optimal 3 avril 2003<br />

Nous rappelons que la condion (3) étant vérifiée, avec la question 1, on peut appliquer le<br />

Théorème de Hille-Yoshida pour montrer que (A, D(A)) est le générateur infinitésimal d’un<br />

semi-groupe de contractions dans L 2 (0, 1). Nous rappelons que, pour tout f ∈ L 2 ((0, 1)×(0, T )),<br />

l’équation ⎧⎪⎨<br />

(4)<br />

⎪⎩<br />

yt − yxx = f, dans (0, 1) × (0, T ),<br />

y(0, t) = 0, yx(1, t) + My(1, t) = 0, dans (0, T ),<br />

y(x, 0) = 0, dans (0, 1).<br />

admet une solution faible unique qui vérifie<br />

De plus, si y0 ∈ L 2 (0, 1) l’équation<br />

(5)<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

y L 2 (0,T ;H 2 (0,1)) + y C([0,T ];H 1 (0,1)) ≤ Cf L 2 (0,T ;L 2 (0,1)).<br />

yt − yxx = 0, dans (0, 1) × (0, T ),<br />

y(0, t) = 0, yx(1, t) + My(1, t) = 0, dans (0, T ),<br />

y(x, 0) = y0, dans (0, 1).<br />

admet une solution unique qui vérifie<br />

y L 2 (0,T ;H 1 (0,1)) + y C([0,T ];L 2 (0,1)) ≤ Cy0 L 2 (0,1).<br />

Pour étudier l’équation<br />

⎧<br />

⎪⎨<br />

yt − yxx = 0, dans (0, 1) × (0, T ),<br />

(6) y(0, t) = 0,<br />

⎪⎩<br />

y(x, 0) = y0,<br />

yx(1, t) + My(1, t) = Mu(t), dans (0, T ),<br />

dans (0, 1).<br />

avec u ∈ L2 (0, T ) on étudie d’abord le cas où u ∈ H1 0 (0, T ). On cherche y sous la forme y = z+w<br />

où w = x(2 − x)u. Écrire l’équation vérifiée par z. En déduire que, si u ∈ H1 0 (0, T ), l’équation<br />

(6) admet une solution unique dans L 2 (0, T ; H 1 (0, 1))∩C([0, T ]; L 2 (0, 1)) (on utilisera l’équation<br />

vérifiée par z). En utilisant directement l’équation (6) montrer que cette solution y vérifie<br />

(7)<br />

y L 2 (0,T ;H 1 (0,1)) + y C([0,T ];L 2 (0,1)) ≤ C(y0 L 2 (0,1) + u L 2 (0,T )).<br />

En déduire que si u ∈ L 2 (0, T ), l’équation (6) admet une solution unique dans L 2 (0, T ;<br />

H 1 (0, 1)) ∩ C([0, T ]; L 2 (0, 1)), et que cette solution vérifie l’estimation (7).<br />

6. On pose<br />

I(y, u) = 1<br />

2<br />

1<br />

0<br />

y(x, T ) 2 dx + 1<br />

T<br />

2 0<br />

avec yd ∈ L 2 (0, T ; L 2 (0, 1)). On admet que le problème de contrôle<br />

1<br />

0<br />

|y(x, t) − yd(x, t)| 2 dxdt + 1<br />

T<br />

|u(t)|<br />

2 0<br />

2 dt,<br />

<br />

(P PR) inf I(y, u) | u ∈ L 2 <br />

(0, T ), (y, u) vérifie (6) ,<br />

admet une solution unique. Caractériser cette solution en écrivant les conditions d’optimalité<br />

du premier ordre à l’aide d’une équation adjointe.<br />

IV. Passage à la limite.<br />

7. Montrer que la solution y de l’équation (1) vérifie<br />

1<br />

(y<br />

0<br />

2 x + y 2 )dx + M|y(1)| 2 1<br />

= My(1)u +<br />

0<br />

y f dx.<br />

ENIT-Mastère de Mathématiques Appliquées 2/4


Examen – <strong>Contrôle</strong> optimal 3 avril 2003<br />

En déduire que<br />

|y(1)| ≤ (|u| + f L 2 (0,1)),<br />

si M ≥ 1. En remarquant que la solution y de l’équation (1) vérifie<br />

avec g = y(1), montrer que<br />

y − yxx = f dans (0, 1), y(0) = 0, y(1) = g ∈ R,<br />

où la constante C1 est indépendante de M.<br />

y H 2 (0,1) ≤ C1(|u| + f L 2 (0,1)),<br />

8. Soit y M (u) la solution de l’équation (1) et y ∞ (u) la solution de l’équation (2). Montrer que<br />

lim<br />

M→∞ yM (u) − y ∞ (u)L2 (0,1) = 0.<br />

Indication : On pourra écrire l’équation vérifiée par y M (u) − y ∞ (u) avec <strong>des</strong> conditions de<br />

Dirichlet ou de Robin.<br />

9. Soit (¯y M , ū M ) la solution de (PR) et (¯y ∞ , ū ∞ ) la solution de (PD). Montrer que la suite<br />

(ū M )M est bornée dans R. Montrer que (¯y M , ū M )M converge dans L 2 (0, 1) × R vers (¯y ∞ , ū ∞ ).<br />

(On pourra montrer la convergence <strong>des</strong> états adjoints.)<br />

V. Étudier le passage à la limite quand M tend vers l’infini pour le problème parabolique.<br />

Partie B<br />

Exercice 1. Soit h une fonction de classe C 1 sur IR n et soit<br />

U = {u ∈ IR, |u| ≤ 1}.<br />

On considère le problème de contrôle optimal défini par l’équation d’état:<br />

(1) ˙ysx(t) = u(t) pour s < t < T, ysx(s) = x,<br />

et le critère:<br />

(2) J(ysx, u) = h(ysx(T )),<br />

avec encore u ∈ L 2 (]s, T [, U). On note V la fonction valeur :<br />

1. Montrer que:<br />

V (x, s) = Inf{J(ysx, u) | u ∈ L 2 (]s, T [, U), (ysx, u) vérifie (1)}.<br />

(3) V (x, s) = inf<br />

z∈IR n h(z),<br />

,|x−z|≤T −s<br />

pour x ∈ IR n et s < T .<br />

2. Montrer qu’il existe toujours au moins un contrôle optimal.<br />

3. Donner un exemple de non-unicité du contrôle optimal.<br />

4. Ecrire la condition nécessaire d’optimalité fournie par le principe de Pontryagine en<br />

exprimant le contrôle optimal en fonction de l’état adjoint (quand c’est possible). Est<br />

ce toujours une condition suffisante?<br />

ENIT-Mastère de Mathématiques Appliquées 3/4


Examen – <strong>Contrôle</strong> optimal 3 avril 2003<br />

5. Ecrire l’équation de Hamilton-Jacobi-Bellman vérifiée par V en tout point de différentiabilité<br />

et déterminer un feedback optimal.<br />

Exercice 2. Dans sa phase finale la manoeuvre d’alunissage peut être modélisée (après de<br />

gran<strong>des</strong> simplification) par l’équation:<br />

(1) ¨ h(t) = m −1 u(t), t ≥ 0,<br />

où h est l’altitude, m la masse de l’engin, et u la somme (normalisée) <strong>des</strong> forces extérieures<br />

supposée vérifier u(t) ∈] − 1, 1[ à tout instant. Le problème est d’emmener l’engin à vitesse et<br />

altitude nulles en un temps minimal.<br />

On notera v := ˙ h la vitesse, et (vo, ho) := (v(0), h(0) la condition initiale.<br />

1. Ecrire le problème de contrôle optimal. Est ce que le système est commandable?<br />

2. Expliquer pourqoi le problème a une solution unique et écrire les conditions d’optimalité<br />

sous forme de principe de Pontryagin. (Le contrôle optimal et le temps optimal seront<br />

désignés respectivement par ū et ¯ T )<br />

3. Montrer que l’état adjoint ne pourrait pas s’annuler sur tout l’intervalle (0, ¯ T ).<br />

4. En déduir que le contrôle optimal vérifie:<br />

et ū change de signe au plus 1 fois.<br />

ū(t) ∈ {−1, 1}<br />

5. Montrer que si ū ≡ 1 sur (0, ¯ T ), alors la trajectoire atteint la cible si et seulement si<br />

vo = ¯ T , et ho = − 1<br />

2 ¯ T 2 .<br />

Supposons maintenant que ū ≡ 1 sur (0, ¯ T ), sous quelle condition sur vo, ho, la trajectoire<br />

optimale atteint-elle la cible?<br />

6. Donner la synthèse de la solution optimale.<br />

ENIT-Mastère de Mathématiques Appliquées 4/4


E.N.I.T. Mastère de Mathématiques Appliquées<br />

Examen – Session de rattrapage<br />

<strong>Contrôle</strong> Optimal<br />

Enseignants : H. El Fekih – J.P. Raymond – H. Zidani Durée : 1H30<br />

Date : 30 avril 2003 Documents non autorisés<br />

Exercice 1<br />

On introduit le système dynamique<br />

<br />

¨x(t) + 2 ˙x(t) + x(t)<br />

(1)<br />

x(0) = x0, ˙x(0)<br />

=<br />

=<br />

u(t),<br />

v0,<br />

t ≥ 0,<br />

associé au critère<br />

(2) J(u, x) = 1<br />

2<br />

avec α ≥ 0 et β ≥ 0.<br />

T<br />

0<br />

u(t) 2 + αx(t) 2 + β ˙x(t) 2 <br />

On considère le problème de minimisation de (2) sous contrainte (1).<br />

1. On se ramène au premier ordre en posant h(t) = x(t) et v(t) = ˙x(t), et on note ph,<br />

pv les composantes de l’état adjoint. Montrer que le hamiltonien du problème avec les<br />

nouvelles variables est<br />

H(u, h, v, ph, pv) = 1<br />

2<br />

2. Donner l’équation de l’état adjoint.<br />

u 2 + αh 2 + βv 2 + phv + pv(u − h − 2v).<br />

3. Exprimer la commande en fonction de l’état et de l’état adjoint grâce au principe de<br />

Pontryagin.


Exercice 2<br />

On considère l’équation différentielle<br />

(1)<br />

<br />

˙x(t) + ax(t) = u(t),<br />

x(0) = x0<br />

t ∈ (0, T )<br />

avec T > 0, x0 ∈ R, a ∈ R ∗ + et u ∈ L 2 (0, T ).<br />

1– Donner la solution xu de (1) et montrer qu’elle est dans H 1 (0, T ).<br />

2– Montrer que l’application u ↦→ xu est continue et dérivable de L 2 (0, T ) dans L 2 (0, T ).<br />

3– Soit xd ∈ L 2 (0, T ) et J la fonction objectif définie par<br />

J(x, u) = 1<br />

2<br />

Montrer que le problème de contrôle<br />

(2)<br />

T<br />

0<br />

(x − xd) 2 dt + 1<br />

T<br />

u<br />

2 0<br />

2 dt<br />

min{J(x, u); u ∈ L 2 (0, T ), (x, u) vérifie (1)}<br />

admet une solution unique. Caratériser cette solution en écrivant les conditions d’optimalité<br />

du premier ordre à l’aide d’une équation adjointe. On notera p l’état adjoint, ¯x l’état optimal<br />

et ū le contrôle optimal.<br />

4– On suppose que xd ≡ 0. Montrer que p(t) = F (t)¯x(t) où F est solution de l’équation<br />

différentielle de Riccati :<br />

(3)<br />

˙<br />

F (t) − 2aF (t) − F 2 (t) + 1 = 0.<br />

Soit G(t) = F (T − t). Ecrire l’équation différentielle vérifiée par G en spécifiant la condition<br />

initiale. En déduire une loi de commande reliant le contrôle optimal et l’état optimal.<br />

2


ENIT – Mastère de Mathématiques Appliquées Date : 30 mars <strong>2004</strong><br />

Examen – <strong>Contrôle</strong> optimal Durée : 3H00<br />

Enseignants : F. Bonnans – H. El Fekih – M. Mnif Documents non autorisés<br />

Les parties A, B et C sont indépendantes.<br />

Les étudiants sont priés de remettre <strong>des</strong> copies séparées pour chaque partie.<br />

Partie A : <strong>Contrôle</strong> d’une équation elliptique avec condition de Robin<br />

Soit Ω un domaine borné de R2 , f ∈ L2 (Ω) et u ∈ L2 (Γ), Γ = ∂Ω. On considère le problème :<br />

<br />

−∆y = f, dans Ω<br />

(1)<br />

∂y<br />

+ y = u,<br />

∂n<br />

sur Γ<br />

A.1. Ecrire la formulation variationnelle du problème (1).<br />

A.2. Montrer que le problème (1) admet une solution unique y dans H 1 (Ω), vérifiant<br />

y H 1 (Ω) ≤ C(u L 2 (Γ) + f L 2 (Ω))<br />

où C désigne une constante réelle > 0.<br />

A.3. Pour tout u ∈ L 2 (Γ) et y ∈ L 2 (Ω), on définit la fonctionnelle objectif<br />

J(y, u) = 1<br />

2 y − yd 2 H1 1<br />

(Ω) +<br />

2 u2 L2 (Γ)<br />

où yd ∈ H1 (Ω). Montrer que le problème<br />

<br />

inf J(y, u) | u ∈ L 2 <br />

(2)<br />

(Γ), (y, u) vérifie (1)<br />

admet une solution unique.<br />

A.4. Caractériser cette solution en écrivant les conditions d’optimalité du premier ordre à<br />

l’aide d’une équation adjointe.<br />

A.5. Proposer un algorithme, en décrivant brièvement les principales étapes, pour calculer une<br />

approximation de la commande optimale solution de (2).<br />

Partie B : Gestion de portefeuille<br />

On considère un poblème de gestion de portefeuille en temps continu et sans consommation<br />

sur un horizon fini T > 0. On considère un investisseur possèdant un actif sans risque de prix<br />

S0(t) vérifiant<br />

dS0(t) = rS0(t)dt<br />

avec r > 0 et un actif risqué S1(t) vérifiant<br />

dS1(t) = αS1(t)dt + σS1(t)dW (t).<br />

L’investisseur a la possibilité d’acheter ou de vendre l’actif risqué à tout instant et sans coûts de<br />

transaction. On note s0(t) le capital détenu dans l’actif sans risque, s1(t) le capital investi dans<br />

l’actif risqué et ρ(t) = s0(t) + s1(t) la fortune totale de l’in vestisseur à l’instant t. On appelle<br />

politique d’investissement le processus y(t) = s1(t)<br />

ρ(t) représentant la proportion de capital investi<br />

dans l’actif risqué à chaque instant t. On dira q’une politique y(.) est admissible si ρ(t) ≥ 0,<br />

∀t ≤ T . L’objectif de l’investisseur est de calculer<br />

V (t, ρ) = sup<br />

y(.)admissible<br />

E{log ρ(T )|ρ(t) = ρ}


Examen – <strong>Contrôle</strong> optimal 30 mars <strong>2004</strong><br />

B.1. Vérifier que ρ(t) suit l’évolution:<br />

dρ(t) = (rρ(t) + ρ(t)(α − r)y(t))dt + ρ(t)σy(t)dW (t), ρ(0) = ρ<br />

B.2. Ecrire l’équation d’Hamiton-Jacobi-Bellman (HJB) satisfaite par la fonction valeur V .<br />

B.3. Résoudre l’équation HJB, pour cela, on cherchera V de la forme V (t, ρ) = log(ρ)+λ(T −t)<br />

où λ est une constante à déterminer.<br />

B.4. En déduire la politique optimale d’investissement.<br />

Partie C: Opérateurs non expansifs et schéma pour l’équation HJB<br />

Opérateurs non expansifs<br />

On étudie quelques propriétés générales liées à la non expansivité.<br />

Soit T : IR n → IR n . On dit que T est croissant si pour tout x et y dans IR n , avec x ≥ y (soit<br />

xi ≥ yi pour tout i) on a T (x) ≥ T (y).<br />

Si x ∈ IR et α ∈ IR, on note x + α le vecteur de coordonnées xi + α. On dit que T translate<br />

les constantes si T (x + α) = T (x) + α pour tout x ∈ IR et α ∈ IR.<br />

C.1. Soient x et y dans IR n . Montrer que<br />

(3)<br />

(4)<br />

T (y) ≤ T (x) + maxi(yi − xi).<br />

C.2. En déduire avec la relation symétrique que<br />

T (y) − T (x)∞ ≤ yi − xi∞.<br />

autrement dit que T est non expansif.<br />

C.3. Vérifier les hypothèses de croissance et de translation <strong>des</strong> constantes pour l’opérateur<br />

étudié dans la théorie de la commande optimale <strong>des</strong> chaînes de Markov,<br />

⎧<br />

⎨<br />

T (v) := β inf<br />

⎩ ci(u) + <br />

⎫<br />

⎬<br />

Mij(u)vj , i = 1, . . . , m.<br />

⎭ (5)<br />

u∈Ui<br />

j<br />

sous les notations et hypothèses du cours : Ui compact de IR m , Mij(ui) matrice stochastique<br />

quand ui ∈ Ui pour tout i, et ci(u) fonction continue.<br />

C.4. Soient K1 et K2 deux ensembles quelconques, et Tk1,k2 , pour k1 ∈ K1, et k2 ∈ K2,<br />

une famille d’opérateurs vérifiant chacun les hypothèses de croissance et de translation <strong>des</strong><br />

constantes. Montrer que<br />

T (x) := inf sup Tk1,k2 (x)<br />

(6)<br />

k1∈K1 k2∈K2<br />

vérifie aussi les hypothèses de croissance et de translation <strong>des</strong> constantes. (On pourra pour<br />

commencer supposer que K1 ou K2 est réduit à un seul élément).<br />

Schéma pour l’équation HJB<br />

On s’intéresse à l’équation (sans contrôle, ou si on préfère avec un seul contrôle possible)<br />

<br />

−DtV (t, x) = ℓ(t, x) + f(t, x) · DxV (t, x) + ∆V (t, x), t ∈ [0, T ], x ∈ IR n V (T, x)<br />

,<br />

= 0, x ∈ IR n (7)<br />

.<br />

avec ℓ et f lipschitziennes et bornées, et ∆V (t, x) = D2 x2V (t, x) + · · · + D<br />

1<br />

2 x2 V (t, x) opérateur de<br />

n<br />

Laplace.<br />

C.5. Montrer que cette équation a une solution unique au sens de viscosité.<br />

C.6. Interpéter cette solution comme l’espérance d’un critère associé à un système dynamique<br />

stochastique.<br />

ENIT-Mastère de Mathématiques Appliquées 2/4


Examen – <strong>Contrôle</strong> optimal 30 mars <strong>2004</strong><br />

C.7. Formuler un schéma de discrétisation, de type différences finies, qui s’interprète comme<br />

un principe de programmation dynamique pour un problème de commande optimale d’une chaîne<br />

de Markov que l’on explicitera.<br />

C.8. Mêmes questions avec cette fois l’équation<br />

(8)<br />

⎧<br />

⎨<br />

⎩<br />

−DtV (t, x) = ℓ(t, x) + f(t, x) · DxV (t, x)<br />

+ 2<br />

i,j=1 D2 xixj V (t, x), t ∈ [0, T ], x ∈ IRn ,<br />

V (T, x) = 0, x ∈ IR n .<br />

ENIT-Mastère de Mathématiques Appliquées 3/4

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!