Recueil d'Examens (2001 - 2004) Contrôle des EDP - lamsin
Recueil d'Examens (2001 - 2004) Contrôle des EDP - lamsin
Recueil d'Examens (2001 - 2004) Contrôle des EDP - lamsin
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Université de Tunis El Manar<br />
<strong>Recueil</strong> <strong>d'Examens</strong> (<strong>2001</strong> - <strong>2004</strong>)<br />
<strong>Contrôle</strong> <strong>des</strong> <strong>EDP</strong><br />
Mastère (DEA) de Mathématiques Appliquées<br />
Ecole Nationale d'Ingénieurs de Tunis<br />
B.P. 37 – 1002 Le Belvédère Tunis – Tunisie<br />
Tél. (+216) 71 874 700 Fax : (+216) 71 872 729 http://www.enit.rnu.tn
E.N.I.T. DEA de Mathématiques Appliquées<br />
Examen – <strong>Contrôle</strong> optimal<br />
Enseignants : F. Bonnans – H. El Fekih – J.P. Raymond<br />
Date : 2 mars 2002 Durée : 3H00<br />
Les parties A et B sont indépendantes.<br />
Partie A<br />
(Documents autorisés : polycopiés du cours et notes personnelles.)<br />
A.1- Un problème linéaire quadratique<br />
On considère le système dynamique<br />
<br />
¨x(t) + 2 ˙x(t) + x(t) = u(t), t ≥ 0,<br />
(1)<br />
x(0) = x0, ˙x(0) = v0,<br />
associé au critère<br />
(2)<br />
J(u, x) = 1<br />
T 2 2 2<br />
2 u(t) + αx(t) + β ˙x(t)<br />
0<br />
<br />
avec α ≥ 0 et β ≥ 0.<br />
On considère dans cette section le problème de minimisation de (2) sous contrainte (1).<br />
1. On se ramène au premier ordre en posant h(t) = x(t) et v(t) = ˙x(t), et on note ph, pv les<br />
composantes de l’état adjoint. Montrer que le hamiltonien du problème avec les nouvelles<br />
variables est<br />
H(u, h, v, ph, pv) = 1<br />
2 2 2<br />
2 u + αh + βv + phv + pv(u − h − 2v).<br />
2. Donner l’équation de l’état adjoint.<br />
3. Exprimer la commande en fonction de l’état et de l’état adjoint grâce au principe de<br />
Pontryagin.<br />
4. Donner le principe de l’application de l’algorithme de tir a cet exemple.<br />
A.2- Contrainte sur l’état<br />
Soit γ ∈ R. On ajoute au problème la contrainte sur l’état<br />
(3)<br />
h(t) ≤ γ<br />
On utilisera autant que possible les calculs déjà faits dans la partie précédente.<br />
1. Donner l’équation de l’état adjoint.<br />
2. Montrer que, sur un arc frontière, le multiplicateur est régulier.<br />
3. Montrer que, sur un arc frontière, l’état adjoint est constant, et calculer sa valeur ainsi<br />
que celles de u.<br />
4. En déduire la valeur de ˙η sur un arc frontière. Montrer que, si γ < 0, il ne peut y avoir<br />
d’arc frontière.<br />
5. Comment sera le saut de l’état adjoint en un point de jonction ?
Examen – <strong>Contrôle</strong> optimal 2 mars 2002<br />
Partie B<br />
(Documents non autorisés)<br />
Partie B.1<br />
Soit L et T deux nombres réels > 0, f ∈ L 2 ((0, L) × (0, T )), z0 ∈ L 2 (0, L) et u ∈ L 2 (0, T ).<br />
On considère l’équation<br />
(4)<br />
⎧<br />
⎨<br />
⎩<br />
zt − zxx + z = f, dans (0, L) × (0, T ),<br />
z(0, t) = 0, zx(L, t) = u(t), dans (0, T ),<br />
z(x, 0) = z0(x), dans (0, L),<br />
et on suppose qu’elle admet une solution faible unique dans C([0, T ]; L 2 (0, L)) vérifiant :<br />
z 2 C([0,T ];L 2 (0,L)) + z2 L 2 (0,T ;H 1 (0,L)) ≤ C(f2 L 2 ((0,L)×(0,T )) + u2 L 2 (0,T ) + z0 2 L 2 (0,L) )<br />
1- Soit J la fonctionnelle définie sur C([0, T ]; L 2 (0, L)) × L 2 (0, T ) par<br />
J(z, u) = 1<br />
2<br />
L<br />
0<br />
z(x, T ) 2 dx + 1<br />
2<br />
On considère le problème de contrôle<br />
<br />
(P1) inf<br />
T L<br />
0<br />
0<br />
z(x, t) 2 dx dt + 1<br />
2<br />
T<br />
u 2 (t) dt.<br />
J(z, u) | (z, u) ∈ C([0, T ]; L 2 (0, L)) × L 2 (0, T ) et (z, u) vérifie (4)<br />
1.1 Montrer que ce problème de contrôle admet une solution unique.<br />
1.2 Écrire les conditions d’optimalité permettant de caractériser le contrôle optimal ū à l’aide<br />
d’une équation adjointe.<br />
Partie B.2<br />
2- Pour tout g ∈ R, on note vg la solution de l’équation<br />
(5)<br />
−vxx + v = 0 dans (0, L), vx(0) = g, vx(L) = 0.<br />
Lorsque g ∈ L 2 (0, T ), on note vg(x, t) = v g(t)(x). Cela signifie que vg(x, t) est la solution de<br />
l’équation (5) correspondant à g = g(t), c’est à dire solution de<br />
(6)<br />
−vxx(x, t) + v(x, t) = 0 dans (0, L), vx(0, t) = g(t), vx(L, t) = 0,<br />
pour presque tout t ∈ (0, T ).<br />
On considère le système couplé<br />
(7)<br />
⎧<br />
zt − zxx + z = f,<br />
⎪⎨<br />
z(0, t) = 0, zx(L, t) = vg(L, t),<br />
z(x, 0) = z0(x),<br />
dans (0, L) × (0, T ),<br />
dans (0, T ),<br />
dans (0, L),<br />
⎪⎩<br />
Soit I la fonctionnelle<br />
I(z, g) = 1<br />
2<br />
−vxx(x, t) + v(x, t) = 0 dans (0, L) × (0, T )<br />
vx(0, t) = g(t), vx(L, t) = 0 dans (0, T ).<br />
L<br />
On considère le problème de contrôle<br />
<br />
(P2) inf<br />
0<br />
z(x, T ) 2 dx + 1<br />
T<br />
2 0<br />
L<br />
0<br />
0<br />
<br />
.<br />
z(x, t) 2 dx dt + 1<br />
T<br />
g<br />
2 0<br />
2 (t) dt.<br />
I(z, g) | (z, g) ∈ C([0, T ]; L 2 (0, L)) × L 2 (0, T ) et (z, g) vérifie (7)<br />
Montrer que ce problème de contrôle admet une solution unique.<br />
DEA Mathématiques Appliquées 2/4<br />
<br />
.
Examen – <strong>Contrôle</strong> optimal 2 mars 2002<br />
3- On note (z(g), v(g)) la solution de l’équation (7). Soit h ∈ L2 (0, T ). Quel est le système<br />
vérifié par le couple (ζ(h), w(h)) défini par<br />
<br />
<br />
(ζ(h), w(h)) = limλ→0 (z(g + λh), v(g + λh)) − (z(g), v(g)) /λ.<br />
Pour simplifier les écritures, z(g), v(g), ζ(h), w(h) seront notés z, v, ζ et w.<br />
4- On pose F (g) = I(z(g), g). Calculer F ′ (g)h en fonction de z, g, h et ζ.<br />
5-Intégrer par parties l’expression<br />
T L<br />
(ζt − ζxx + ζ)p dxdt,<br />
0<br />
0<br />
où p va jouer le rôle de l’état adjoint associé à z(g). Déterminer l’équation que doit vérifier p<br />
pour que<br />
L<br />
0<br />
T<br />
z(x, T )ζ(x, T ) dx +<br />
0<br />
6-Intégrer par parties l’expression<br />
L<br />
T<br />
z(x, t)ζ(x, t) dxdt = w(L, t)p(L, t) dt.<br />
0<br />
L<br />
(−wxx + w)q dxdt,<br />
0<br />
où q va jouer le rôle de l’état adjoint associé à v. Déterminer l’équation que doit vérifier q pour<br />
que<br />
T<br />
7- Exprimer F ′ (g)h en fonction de g, q et de h.<br />
0<br />
T<br />
w(L, t)p(L, t) dt = − h(t)q(0, t) dt.<br />
0<br />
8- Écrire les conditions d’optimalité permettant de caractériser le contrôle optimal ¯g de (P2) à<br />
l’aide d’un système couplé d’équations adjointes vérifiées par un couple (p, q).<br />
DEA Mathématiques Appliquées 3/4<br />
0
ENIT – Mastère de Mathématiques Appliquées Date : 3 avril 2003<br />
Examen – <strong>Contrôle</strong> optimal Durée : 3H30<br />
Enseignants : H. El Fekih – J.P. Raymond – H. Zidani Documents non autorisés<br />
Les parties A et B sont indépendantes.<br />
Les étudiants sont priés de remettre <strong>des</strong> copies séparées pour chaque partie.<br />
Partie A<br />
Soient M > 0 et T > 0 <strong>des</strong> constantes positives.<br />
I. <strong>Contrôle</strong> d’une équation elliptique avec conditions de Robin.<br />
1. Soit f ∈ L 2 (0, 1) et u ∈ R. Montrer, avec le théorème de Lax-Milgram, que l’équation<br />
(1)<br />
y − yxx = f dans (0, 1), y(0) = 0, yx(1) + My(1) = Mu,<br />
admet une solution unique dans un espace V que l’on définira avec précision.<br />
2. Pour tout y ∈ L 2 (0, 1) et tout u ∈ R on définit la fonctionnelle<br />
J(y, u) = 1<br />
2<br />
1<br />
0<br />
|y − yd| 2 dx + 1<br />
2 |u|2 ,<br />
où yd ∈ L2 (0, 1). On admet que le problème de contrôle<br />
<br />
<br />
(PR) inf J(y, u) | u ∈ R, (y, u) vérifie (1) ,<br />
admet une solution unique. Caractériser cette solution en écrivant les conditions d’optimalité<br />
du premier ordre à l’aide d’une équation adjointe.<br />
II. <strong>Contrôle</strong> d’une équation elliptique avec conditions de Dirichlet.<br />
3. Pour étudier l’équation<br />
(2)<br />
y − yxx = f dans (0, 1), y(0) = 0, y(1) = u ∈ R,<br />
on cherche y sous la forme y = z + w où w = x(2 − x)u. Écrire l’équation vérifiée par z. En<br />
déduire que l’équation (2) admet une solution unique dans H1 (0, 1).<br />
4. On admet que le problème de contrôle<br />
<br />
<br />
(PD) inf J(y, u) | u ∈ R, (y, u) vérifie (2) ,<br />
admet une solution unique. Caractériser cette solution en écrivant les conditions d’optimalité<br />
du premier ordre à l’aide d’une équation adjointe.<br />
III. <strong>Contrôle</strong> d’une équation parabolique avec conditions de Robin.<br />
5. On pose<br />
et<br />
Montrer que<br />
(3)<br />
D(A) = {y ∈ H 2 (0, 1) | y(0) = 0, yx(1) + My(1) = 0},<br />
1<br />
0<br />
Ay = yxx pour tout y ∈ D(A).<br />
yxxy dx ≤ 0 pour tout y ∈ D(A).
Examen – <strong>Contrôle</strong> optimal 3 avril 2003<br />
Nous rappelons que la condion (3) étant vérifiée, avec la question 1, on peut appliquer le<br />
Théorème de Hille-Yoshida pour montrer que (A, D(A)) est le générateur infinitésimal d’un<br />
semi-groupe de contractions dans L 2 (0, 1). Nous rappelons que, pour tout f ∈ L 2 ((0, 1)×(0, T )),<br />
l’équation ⎧⎪⎨<br />
(4)<br />
⎪⎩<br />
yt − yxx = f, dans (0, 1) × (0, T ),<br />
y(0, t) = 0, yx(1, t) + My(1, t) = 0, dans (0, T ),<br />
y(x, 0) = 0, dans (0, 1).<br />
admet une solution faible unique qui vérifie<br />
De plus, si y0 ∈ L 2 (0, 1) l’équation<br />
(5)<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
y L 2 (0,T ;H 2 (0,1)) + y C([0,T ];H 1 (0,1)) ≤ Cf L 2 (0,T ;L 2 (0,1)).<br />
yt − yxx = 0, dans (0, 1) × (0, T ),<br />
y(0, t) = 0, yx(1, t) + My(1, t) = 0, dans (0, T ),<br />
y(x, 0) = y0, dans (0, 1).<br />
admet une solution unique qui vérifie<br />
y L 2 (0,T ;H 1 (0,1)) + y C([0,T ];L 2 (0,1)) ≤ Cy0 L 2 (0,1).<br />
Pour étudier l’équation<br />
⎧<br />
⎪⎨<br />
yt − yxx = 0, dans (0, 1) × (0, T ),<br />
(6) y(0, t) = 0,<br />
⎪⎩<br />
y(x, 0) = y0,<br />
yx(1, t) + My(1, t) = Mu(t), dans (0, T ),<br />
dans (0, 1).<br />
avec u ∈ L2 (0, T ) on étudie d’abord le cas où u ∈ H1 0 (0, T ). On cherche y sous la forme y = z+w<br />
où w = x(2 − x)u. Écrire l’équation vérifiée par z. En déduire que, si u ∈ H1 0 (0, T ), l’équation<br />
(6) admet une solution unique dans L 2 (0, T ; H 1 (0, 1))∩C([0, T ]; L 2 (0, 1)) (on utilisera l’équation<br />
vérifiée par z). En utilisant directement l’équation (6) montrer que cette solution y vérifie<br />
(7)<br />
y L 2 (0,T ;H 1 (0,1)) + y C([0,T ];L 2 (0,1)) ≤ C(y0 L 2 (0,1) + u L 2 (0,T )).<br />
En déduire que si u ∈ L 2 (0, T ), l’équation (6) admet une solution unique dans L 2 (0, T ;<br />
H 1 (0, 1)) ∩ C([0, T ]; L 2 (0, 1)), et que cette solution vérifie l’estimation (7).<br />
6. On pose<br />
I(y, u) = 1<br />
2<br />
1<br />
0<br />
y(x, T ) 2 dx + 1<br />
T<br />
2 0<br />
avec yd ∈ L 2 (0, T ; L 2 (0, 1)). On admet que le problème de contrôle<br />
1<br />
0<br />
|y(x, t) − yd(x, t)| 2 dxdt + 1<br />
T<br />
|u(t)|<br />
2 0<br />
2 dt,<br />
<br />
(P PR) inf I(y, u) | u ∈ L 2 <br />
(0, T ), (y, u) vérifie (6) ,<br />
admet une solution unique. Caractériser cette solution en écrivant les conditions d’optimalité<br />
du premier ordre à l’aide d’une équation adjointe.<br />
IV. Passage à la limite.<br />
7. Montrer que la solution y de l’équation (1) vérifie<br />
1<br />
(y<br />
0<br />
2 x + y 2 )dx + M|y(1)| 2 1<br />
= My(1)u +<br />
0<br />
y f dx.<br />
ENIT-Mastère de Mathématiques Appliquées 2/4
Examen – <strong>Contrôle</strong> optimal 3 avril 2003<br />
En déduire que<br />
|y(1)| ≤ (|u| + f L 2 (0,1)),<br />
si M ≥ 1. En remarquant que la solution y de l’équation (1) vérifie<br />
avec g = y(1), montrer que<br />
y − yxx = f dans (0, 1), y(0) = 0, y(1) = g ∈ R,<br />
où la constante C1 est indépendante de M.<br />
y H 2 (0,1) ≤ C1(|u| + f L 2 (0,1)),<br />
8. Soit y M (u) la solution de l’équation (1) et y ∞ (u) la solution de l’équation (2). Montrer que<br />
lim<br />
M→∞ yM (u) − y ∞ (u)L2 (0,1) = 0.<br />
Indication : On pourra écrire l’équation vérifiée par y M (u) − y ∞ (u) avec <strong>des</strong> conditions de<br />
Dirichlet ou de Robin.<br />
9. Soit (¯y M , ū M ) la solution de (PR) et (¯y ∞ , ū ∞ ) la solution de (PD). Montrer que la suite<br />
(ū M )M est bornée dans R. Montrer que (¯y M , ū M )M converge dans L 2 (0, 1) × R vers (¯y ∞ , ū ∞ ).<br />
(On pourra montrer la convergence <strong>des</strong> états adjoints.)<br />
V. Étudier le passage à la limite quand M tend vers l’infini pour le problème parabolique.<br />
Partie B<br />
Exercice 1. Soit h une fonction de classe C 1 sur IR n et soit<br />
U = {u ∈ IR, |u| ≤ 1}.<br />
On considère le problème de contrôle optimal défini par l’équation d’état:<br />
(1) ˙ysx(t) = u(t) pour s < t < T, ysx(s) = x,<br />
et le critère:<br />
(2) J(ysx, u) = h(ysx(T )),<br />
avec encore u ∈ L 2 (]s, T [, U). On note V la fonction valeur :<br />
1. Montrer que:<br />
V (x, s) = Inf{J(ysx, u) | u ∈ L 2 (]s, T [, U), (ysx, u) vérifie (1)}.<br />
(3) V (x, s) = inf<br />
z∈IR n h(z),<br />
,|x−z|≤T −s<br />
pour x ∈ IR n et s < T .<br />
2. Montrer qu’il existe toujours au moins un contrôle optimal.<br />
3. Donner un exemple de non-unicité du contrôle optimal.<br />
4. Ecrire la condition nécessaire d’optimalité fournie par le principe de Pontryagine en<br />
exprimant le contrôle optimal en fonction de l’état adjoint (quand c’est possible). Est<br />
ce toujours une condition suffisante?<br />
ENIT-Mastère de Mathématiques Appliquées 3/4
Examen – <strong>Contrôle</strong> optimal 3 avril 2003<br />
5. Ecrire l’équation de Hamilton-Jacobi-Bellman vérifiée par V en tout point de différentiabilité<br />
et déterminer un feedback optimal.<br />
Exercice 2. Dans sa phase finale la manoeuvre d’alunissage peut être modélisée (après de<br />
gran<strong>des</strong> simplification) par l’équation:<br />
(1) ¨ h(t) = m −1 u(t), t ≥ 0,<br />
où h est l’altitude, m la masse de l’engin, et u la somme (normalisée) <strong>des</strong> forces extérieures<br />
supposée vérifier u(t) ∈] − 1, 1[ à tout instant. Le problème est d’emmener l’engin à vitesse et<br />
altitude nulles en un temps minimal.<br />
On notera v := ˙ h la vitesse, et (vo, ho) := (v(0), h(0) la condition initiale.<br />
1. Ecrire le problème de contrôle optimal. Est ce que le système est commandable?<br />
2. Expliquer pourqoi le problème a une solution unique et écrire les conditions d’optimalité<br />
sous forme de principe de Pontryagin. (Le contrôle optimal et le temps optimal seront<br />
désignés respectivement par ū et ¯ T )<br />
3. Montrer que l’état adjoint ne pourrait pas s’annuler sur tout l’intervalle (0, ¯ T ).<br />
4. En déduir que le contrôle optimal vérifie:<br />
et ū change de signe au plus 1 fois.<br />
ū(t) ∈ {−1, 1}<br />
5. Montrer que si ū ≡ 1 sur (0, ¯ T ), alors la trajectoire atteint la cible si et seulement si<br />
vo = ¯ T , et ho = − 1<br />
2 ¯ T 2 .<br />
Supposons maintenant que ū ≡ 1 sur (0, ¯ T ), sous quelle condition sur vo, ho, la trajectoire<br />
optimale atteint-elle la cible?<br />
6. Donner la synthèse de la solution optimale.<br />
ENIT-Mastère de Mathématiques Appliquées 4/4
E.N.I.T. Mastère de Mathématiques Appliquées<br />
Examen – Session de rattrapage<br />
<strong>Contrôle</strong> Optimal<br />
Enseignants : H. El Fekih – J.P. Raymond – H. Zidani Durée : 1H30<br />
Date : 30 avril 2003 Documents non autorisés<br />
Exercice 1<br />
On introduit le système dynamique<br />
<br />
¨x(t) + 2 ˙x(t) + x(t)<br />
(1)<br />
x(0) = x0, ˙x(0)<br />
=<br />
=<br />
u(t),<br />
v0,<br />
t ≥ 0,<br />
associé au critère<br />
(2) J(u, x) = 1<br />
2<br />
avec α ≥ 0 et β ≥ 0.<br />
T<br />
0<br />
u(t) 2 + αx(t) 2 + β ˙x(t) 2 <br />
On considère le problème de minimisation de (2) sous contrainte (1).<br />
1. On se ramène au premier ordre en posant h(t) = x(t) et v(t) = ˙x(t), et on note ph,<br />
pv les composantes de l’état adjoint. Montrer que le hamiltonien du problème avec les<br />
nouvelles variables est<br />
H(u, h, v, ph, pv) = 1<br />
2<br />
2. Donner l’équation de l’état adjoint.<br />
u 2 + αh 2 + βv 2 + phv + pv(u − h − 2v).<br />
3. Exprimer la commande en fonction de l’état et de l’état adjoint grâce au principe de<br />
Pontryagin.
Exercice 2<br />
On considère l’équation différentielle<br />
(1)<br />
<br />
˙x(t) + ax(t) = u(t),<br />
x(0) = x0<br />
t ∈ (0, T )<br />
avec T > 0, x0 ∈ R, a ∈ R ∗ + et u ∈ L 2 (0, T ).<br />
1– Donner la solution xu de (1) et montrer qu’elle est dans H 1 (0, T ).<br />
2– Montrer que l’application u ↦→ xu est continue et dérivable de L 2 (0, T ) dans L 2 (0, T ).<br />
3– Soit xd ∈ L 2 (0, T ) et J la fonction objectif définie par<br />
J(x, u) = 1<br />
2<br />
Montrer que le problème de contrôle<br />
(2)<br />
T<br />
0<br />
(x − xd) 2 dt + 1<br />
T<br />
u<br />
2 0<br />
2 dt<br />
min{J(x, u); u ∈ L 2 (0, T ), (x, u) vérifie (1)}<br />
admet une solution unique. Caratériser cette solution en écrivant les conditions d’optimalité<br />
du premier ordre à l’aide d’une équation adjointe. On notera p l’état adjoint, ¯x l’état optimal<br />
et ū le contrôle optimal.<br />
4– On suppose que xd ≡ 0. Montrer que p(t) = F (t)¯x(t) où F est solution de l’équation<br />
différentielle de Riccati :<br />
(3)<br />
˙<br />
F (t) − 2aF (t) − F 2 (t) + 1 = 0.<br />
Soit G(t) = F (T − t). Ecrire l’équation différentielle vérifiée par G en spécifiant la condition<br />
initiale. En déduire une loi de commande reliant le contrôle optimal et l’état optimal.<br />
2
ENIT – Mastère de Mathématiques Appliquées Date : 30 mars <strong>2004</strong><br />
Examen – <strong>Contrôle</strong> optimal Durée : 3H00<br />
Enseignants : F. Bonnans – H. El Fekih – M. Mnif Documents non autorisés<br />
Les parties A, B et C sont indépendantes.<br />
Les étudiants sont priés de remettre <strong>des</strong> copies séparées pour chaque partie.<br />
Partie A : <strong>Contrôle</strong> d’une équation elliptique avec condition de Robin<br />
Soit Ω un domaine borné de R2 , f ∈ L2 (Ω) et u ∈ L2 (Γ), Γ = ∂Ω. On considère le problème :<br />
<br />
−∆y = f, dans Ω<br />
(1)<br />
∂y<br />
+ y = u,<br />
∂n<br />
sur Γ<br />
A.1. Ecrire la formulation variationnelle du problème (1).<br />
A.2. Montrer que le problème (1) admet une solution unique y dans H 1 (Ω), vérifiant<br />
y H 1 (Ω) ≤ C(u L 2 (Γ) + f L 2 (Ω))<br />
où C désigne une constante réelle > 0.<br />
A.3. Pour tout u ∈ L 2 (Γ) et y ∈ L 2 (Ω), on définit la fonctionnelle objectif<br />
J(y, u) = 1<br />
2 y − yd 2 H1 1<br />
(Ω) +<br />
2 u2 L2 (Γ)<br />
où yd ∈ H1 (Ω). Montrer que le problème<br />
<br />
inf J(y, u) | u ∈ L 2 <br />
(2)<br />
(Γ), (y, u) vérifie (1)<br />
admet une solution unique.<br />
A.4. Caractériser cette solution en écrivant les conditions d’optimalité du premier ordre à<br />
l’aide d’une équation adjointe.<br />
A.5. Proposer un algorithme, en décrivant brièvement les principales étapes, pour calculer une<br />
approximation de la commande optimale solution de (2).<br />
Partie B : Gestion de portefeuille<br />
On considère un poblème de gestion de portefeuille en temps continu et sans consommation<br />
sur un horizon fini T > 0. On considère un investisseur possèdant un actif sans risque de prix<br />
S0(t) vérifiant<br />
dS0(t) = rS0(t)dt<br />
avec r > 0 et un actif risqué S1(t) vérifiant<br />
dS1(t) = αS1(t)dt + σS1(t)dW (t).<br />
L’investisseur a la possibilité d’acheter ou de vendre l’actif risqué à tout instant et sans coûts de<br />
transaction. On note s0(t) le capital détenu dans l’actif sans risque, s1(t) le capital investi dans<br />
l’actif risqué et ρ(t) = s0(t) + s1(t) la fortune totale de l’in vestisseur à l’instant t. On appelle<br />
politique d’investissement le processus y(t) = s1(t)<br />
ρ(t) représentant la proportion de capital investi<br />
dans l’actif risqué à chaque instant t. On dira q’une politique y(.) est admissible si ρ(t) ≥ 0,<br />
∀t ≤ T . L’objectif de l’investisseur est de calculer<br />
V (t, ρ) = sup<br />
y(.)admissible<br />
E{log ρ(T )|ρ(t) = ρ}
Examen – <strong>Contrôle</strong> optimal 30 mars <strong>2004</strong><br />
B.1. Vérifier que ρ(t) suit l’évolution:<br />
dρ(t) = (rρ(t) + ρ(t)(α − r)y(t))dt + ρ(t)σy(t)dW (t), ρ(0) = ρ<br />
B.2. Ecrire l’équation d’Hamiton-Jacobi-Bellman (HJB) satisfaite par la fonction valeur V .<br />
B.3. Résoudre l’équation HJB, pour cela, on cherchera V de la forme V (t, ρ) = log(ρ)+λ(T −t)<br />
où λ est une constante à déterminer.<br />
B.4. En déduire la politique optimale d’investissement.<br />
Partie C: Opérateurs non expansifs et schéma pour l’équation HJB<br />
Opérateurs non expansifs<br />
On étudie quelques propriétés générales liées à la non expansivité.<br />
Soit T : IR n → IR n . On dit que T est croissant si pour tout x et y dans IR n , avec x ≥ y (soit<br />
xi ≥ yi pour tout i) on a T (x) ≥ T (y).<br />
Si x ∈ IR et α ∈ IR, on note x + α le vecteur de coordonnées xi + α. On dit que T translate<br />
les constantes si T (x + α) = T (x) + α pour tout x ∈ IR et α ∈ IR.<br />
C.1. Soient x et y dans IR n . Montrer que<br />
(3)<br />
(4)<br />
T (y) ≤ T (x) + maxi(yi − xi).<br />
C.2. En déduire avec la relation symétrique que<br />
T (y) − T (x)∞ ≤ yi − xi∞.<br />
autrement dit que T est non expansif.<br />
C.3. Vérifier les hypothèses de croissance et de translation <strong>des</strong> constantes pour l’opérateur<br />
étudié dans la théorie de la commande optimale <strong>des</strong> chaînes de Markov,<br />
⎧<br />
⎨<br />
T (v) := β inf<br />
⎩ ci(u) + <br />
⎫<br />
⎬<br />
Mij(u)vj , i = 1, . . . , m.<br />
⎭ (5)<br />
u∈Ui<br />
j<br />
sous les notations et hypothèses du cours : Ui compact de IR m , Mij(ui) matrice stochastique<br />
quand ui ∈ Ui pour tout i, et ci(u) fonction continue.<br />
C.4. Soient K1 et K2 deux ensembles quelconques, et Tk1,k2 , pour k1 ∈ K1, et k2 ∈ K2,<br />
une famille d’opérateurs vérifiant chacun les hypothèses de croissance et de translation <strong>des</strong><br />
constantes. Montrer que<br />
T (x) := inf sup Tk1,k2 (x)<br />
(6)<br />
k1∈K1 k2∈K2<br />
vérifie aussi les hypothèses de croissance et de translation <strong>des</strong> constantes. (On pourra pour<br />
commencer supposer que K1 ou K2 est réduit à un seul élément).<br />
Schéma pour l’équation HJB<br />
On s’intéresse à l’équation (sans contrôle, ou si on préfère avec un seul contrôle possible)<br />
<br />
−DtV (t, x) = ℓ(t, x) + f(t, x) · DxV (t, x) + ∆V (t, x), t ∈ [0, T ], x ∈ IR n V (T, x)<br />
,<br />
= 0, x ∈ IR n (7)<br />
.<br />
avec ℓ et f lipschitziennes et bornées, et ∆V (t, x) = D2 x2V (t, x) + · · · + D<br />
1<br />
2 x2 V (t, x) opérateur de<br />
n<br />
Laplace.<br />
C.5. Montrer que cette équation a une solution unique au sens de viscosité.<br />
C.6. Interpéter cette solution comme l’espérance d’un critère associé à un système dynamique<br />
stochastique.<br />
ENIT-Mastère de Mathématiques Appliquées 2/4
Examen – <strong>Contrôle</strong> optimal 30 mars <strong>2004</strong><br />
C.7. Formuler un schéma de discrétisation, de type différences finies, qui s’interprète comme<br />
un principe de programmation dynamique pour un problème de commande optimale d’une chaîne<br />
de Markov que l’on explicitera.<br />
C.8. Mêmes questions avec cette fois l’équation<br />
(8)<br />
⎧<br />
⎨<br />
⎩<br />
−DtV (t, x) = ℓ(t, x) + f(t, x) · DxV (t, x)<br />
+ 2<br />
i,j=1 D2 xixj V (t, x), t ∈ [0, T ], x ∈ IRn ,<br />
V (T, x) = 0, x ∈ IR n .<br />
ENIT-Mastère de Mathématiques Appliquées 3/4