13.07.2015 Views

Adrien Richou - Institut de Mathématiques de Bordeaux

Adrien Richou - Institut de Mathématiques de Bordeaux

Adrien Richou - Institut de Mathématiques de Bordeaux

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Chapitre 1IntroductionLa première partie traite <strong>de</strong>s résultats connus au sujet <strong>de</strong>s EDSRs tandis que les trois parties suivantessont indépendantes et abor<strong>de</strong>nt les résultats nouveaux obtenus au cours <strong>de</strong> cette thèse. Le début <strong>de</strong> cechapitre s’inspire fortement <strong>de</strong> l’introduction <strong>de</strong> [19].1.1 Rappels préliminaires sur la théorie <strong>de</strong>s EDSRsL’objet <strong>de</strong> cette thèse est l’étu<strong>de</strong> <strong>de</strong> certaines équations différentielles stochastiques rétrogra<strong>de</strong>s (notéesEDSRs). Commençons donc par rappeler qu’une EDSR est une équation du type∫ T∫ TY t = ξ + f(s, Y s , Z s )ds − Z s dW s , 0 t T, (1.1)ttoù (W t ) 0tT est un mouvement brownien d-dimensionnel défini sur un espace <strong>de</strong> probabilité complet(Ω, F, P) dont la filtration naturelle augmentée est notée (F t ) 0tT . Les données d’une telle équation sontd’une part la condition terminale ξ, qui est une variable aléatoire F T -mesurable à valeur dans R k et d’autrepart, le générateur f, fonction aléatoire définie sur [0, T] × Ω × R k × R k×d , à valeur dans R k et mesurablepar rapport aux tribus P ⊗ B(R k ) ⊗ B(R k×d ) et B(R k ), P désignant la tribu <strong>de</strong>s événements prévisibles.Résoudre une telle équation consiste à trouver un couple <strong>de</strong> processus (Y t , Z t ) 0tT adapté par rapport àla filtration engendrée par le mouvement brownien W et vérifiant l’équation (1.1). Donnons une définitionplus précise.Définition 1.1 Une solution <strong>de</strong> l’EDSR (1.1) est un couple <strong>de</strong> processus (Y, Z) à valeur dans R k × R k×dtel que, Y est continu et adapté, Z est prévisible et P-p.s., t ↦→ Z t appartient à L 2 ([0, T]), t ↦→ f(t, Y t , Z t )appartient à L 1 ([0, T]). et∫ T∫ TY t = ξ + f(s, Y s , Z s )ds − Z s dW s , 0 t T.ttAvant <strong>de</strong> poursuivre il peut être bon d’expliquer un peu plus intuitivement la notion d’EDSR. Supposonsque l’on souhaite résoudre l’équation différentielle suivante :− dY tdt = f(t, Y t),t ∈ [0, T],avec la condition terminale Y T = ξ - d’où la dénomination « rétrogra<strong>de</strong> » - en imposant que, pour tout instantt ∈ [0, T], Y t ne dépen<strong>de</strong> pas du futur après t, c’est à dire que le processus Y soit adapté par rapport à lafiltration (F t ) t∈[0,T] . Prenons un exemple simple : f = 0. On doit donc résoudre l’équation différentiellesuivante :− dY tdt = 0, t ∈ [0, T], avec, Y T = ξ.Le candidat naturel pour être solution est alors Y t = ξ. Malheureusement ce <strong>de</strong>rnier n’est pas adapté si ξn’est pas déterministe. Nous pouvons également considérer la meilleure approximation, dans L 2 , adaptée,1


2 CHAPITRE 1. INTRODUCTIONdonnée par la martingale Y t = E[ξ|F t ]. Le théorème <strong>de</strong> représentation <strong>de</strong>s martingales browniennes nousassure alors l’existence d’un processus Z <strong>de</strong> carré intégrable et adapté tel que :Un simple calcul montre ainsi queY t = E[ξ|F t ] = E[ξ] +∫ t0Z s dW s .∫ TY t = ξ − Z s dW s , i.e. − dY t = −Z t dW t , avec Y T = ξ.tLa secon<strong>de</strong> inconnue Z permet donc au processus Y d’être adapté. Pour gar<strong>de</strong>r le plus <strong>de</strong> généralité possible,on peut alors faire dépendre f <strong>de</strong> Z et ainsi l’équation différentielle initiale <strong>de</strong>vient l’équation différentiellestochastique rétrogra<strong>de</strong> suivante :1.1.1 Résultats connus−dY t = f(t, Y t , Z t )dt − Z t dW t , avec, Y T = ξ.Les EDSRs ont été introduites, dans le cas où le générateur est une fonction linéaire, par Bismut [15].Néanmoins, le point <strong>de</strong> départ <strong>de</strong> la théorie <strong>de</strong>s équations rétrogra<strong>de</strong>s est l’article <strong>de</strong> Pardoux et Peng [73],dans lequel ces <strong>de</strong>ux auteurs considèrent <strong>de</strong>s EDSRs dont le générateur est non linéaire par rapport aux<strong>de</strong>ux variables y et z. Rappelons ce résultat.Théorème 1.2 Supposons le générateur f lipschitzien par rapport à (y, z), uniformément en (t, ω), et[]E|ξ| 2 +∫ T0|f(s, 0, 0)| 2 ds< +∞.Alors l’EDSR (1.1) possè<strong>de</strong> une unique solution (Y, Z) telle que Z soit un processus <strong>de</strong> carré intégrable.Il convient <strong>de</strong> noter que ce résultat peut être démontré en suivant les mêmes idées que pour obtenir l’existenceet l’unicité d’une solution pour <strong>de</strong>s équations différentielles ordinaires ou stochastiques : l’article [73]repose sur l’utilisation du lemme <strong>de</strong> Gronwall mais il est également possible d’utiliser un argument <strong>de</strong> pointfixe (cf [40] par exemple).Après la publication du théorème cité précé<strong>de</strong>mment, <strong>de</strong> nombreux auteurs ont cherché à affaiblir leshypothèses sous lesquelles on peut obtenir l’existence et l’unicité <strong>de</strong> l’EDSR (1.1). La liste complète seraittrop longue à énumérer. On peut tout <strong>de</strong> même diviser les résultats obtenus en <strong>de</strong>ux catégories : ceux valablesen toutes dimensions, lorsque Y est à valeur dans R k , et ceux qui sont propres à la dimension 1, Y étant alorsun processus réel. En ce qui concerne le premier point, les résultats reposent généralement sur l’obtentiond’estimations a priori déduites d’une variante du lemme <strong>de</strong> Gronwall ou bien d’un théorème du point fixe.Signalons notamment l’article [21] qui donne <strong>de</strong>s résultats d’existence et d’unicité pour <strong>de</strong>s EDSRs dont lacondition terminale appartient à un L p pour p > 1 et dont le générateur est supposé lipschitzien en z maisseulement « monotone » en y. Cette condition <strong>de</strong> monotonie s’écrit :∃µ, ∀y, y ′ , (y − y ′ ).(f(., y, .) − f(., y ′ , .)) µ |y − y ′ | 2 .Notons également que le cas p = 1 est étudié dans ce même article. Pour le second point, à savoir Y àvaleurs réelles, les hypothèses peuvent être affaiblies à l’ai<strong>de</strong> du théorème <strong>de</strong> comparaison 1 . En particulier,Lepeltier et San Martín ont construit <strong>de</strong>s solutions maximales et minimales lorsque le générateur estseulement continu en (y, z) et à croissance linéaire. Mais, une <strong>de</strong>s avancées les plus significatives pour cettethéorie est due à Kobylanski [59] qui a construit <strong>de</strong>s solutions pour <strong>de</strong>s EDSRs quadratiques, c’est à dire<strong>de</strong>s EDSRs dont le générateur est à croissance quadratique par rapport à la variable z. Pour être plus précis,une EDSR du type (1.1) est dite quadratique lorsque le générateur f satisfait la condition :∀t, y, z, |f(t, y, z)| α t + β |y| + γ 2 |z|2 , P-p.s.,1 Ce <strong>de</strong>rnier permet, si l’on sait comparer <strong>de</strong>ux générateurs f 1 , f 2 ainsi que <strong>de</strong>ux conditions terminales ξ 1 et ξ 2 , <strong>de</strong> comparer les<strong>de</strong>ux solutions associées Y 1 et Y 2 .


1.1. RAPPELS PRÉLIMINAIRES SUR LA THÉORIE DES EDSRS 3où β, γ sont <strong>de</strong>s constantes positives et α est un processus adapté positif satisfaisant la propriété d’intégrabilitésuivante :∃C > 0,∫ T0α s ds C,P-p.s..La question <strong>de</strong> l’unicité est également traitée dans ce même article avec <strong>de</strong>s hypothèses supplémentaires.Une partie <strong>de</strong>s résultats <strong>de</strong> Kobylanski a ensuite été étendue à un cadre plus général par Lepeltier et SanMartín [63]. Cette généralisation concerne en fait la croissance du générateur par rapport à la variable y, lacroissance par rapport à z étant toujours quadratique. Une <strong>de</strong>s caractéristiques <strong>de</strong>s résultats obtenus dansces travaux est que la condition terminale ξ est supposée bornée. Or cette condition n’est pas naturelle car sil’on prend l’EDSR <strong>de</strong> générateur |z| 2 /2 on peut montrer par une simple transformation exponentielle queY t := ln E[e ξ |F t ] est une solution. On voit ainsi que la bornitu<strong>de</strong> <strong>de</strong> ξ est une condition a priori trop forte,la simple existence d’un moment exponentiel semblant suffire. Forts <strong>de</strong> cette remarque, Briand et Hu ontmontré dans [24] un résultat d’existence ainsi qu’un résultat d’unicité dans l’article [25]. L’article [36] quifait l’objet du chapitre 4 consiste justement à améliorer ce résultat d’unicité.Pour terminer, notons que <strong>de</strong>s résultats supplémentaires peuvent être obtenus pour les EDSRs quadratiquesdont la condition terminale est bornée : sous <strong>de</strong>s hypothèses plus fortes concernant la conditionterminale et le générateur on peut montrer que l’intégrale stochastique du processus Z par rapport au mouvementbrownien W est une martingale à oscillation moyenne bornée, également appelée martingale OMBou BMO. Ceci permet notamment aux auteurs <strong>de</strong> [54] d’obtenir un résultat d’unicité. Les auteurs <strong>de</strong>s articles[20] et [1] obtiennent également <strong>de</strong>s estimations sur les solutions qui permettent d’en déduire un résultat <strong>de</strong>stabilité. Ce type d’argument est essentiel pour obtenir les résultats du chapitre 5.1.1.2 Quelques champs d’application <strong>de</strong>s EDSRsDepuis les premiers résultats théoriques obtenus pour les EDSRs, cette théorie n’a cessé <strong>de</strong> se développeren raison <strong>de</strong> ses applications dans les domaines <strong>de</strong>s équations aux dérivées partielles (EDPs), <strong>de</strong>la finance et du contrôle stochastique. Pour ce qui est <strong>de</strong>s applications <strong>de</strong>s EDSRs aux EDPs, il convientd’introduire la classe particulière <strong>de</strong>s EDSRs markoviennes. Pour ces équations, l’aléatoire du générateuret <strong>de</strong> la condition terminale est donné par une diffusion. Plus précisément (Y, Z) est solution <strong>de</strong> l’EDSRoù X est solution <strong>de</strong> l’EDS∫ T∫ TY t = g(X T ) + f(s, X s , Y s , Z s )ds − Z s dW s , (1.2)ttX t = x +∫ t0b(s, X s )ds +et f et g sont <strong>de</strong>s fonctions déterministes. Considérons l’EDP∫ t0σ(s, X s )dW s ,∂ t u + Lu + f(., ., u, t ∇uσ) = 0, u(T, .) = g, (1.3)avec L le générateur du semi-groupe <strong>de</strong> la diffusion X donné parLv = 1 2 Tr(σt σ∇ 2 v) + t b∇v,et supposons que cette EDP possè<strong>de</strong> une solution suffisamment régulière u. En appliquant la formule d’Itô,on montre finalement que (u(t, X t ), t ∇uσ(t, X t )) 0tT est solution <strong>de</strong> l’EDSR (1.2). En particulier, laformule u(0, x) = Y 0 généralise la formule <strong>de</strong> Feynman-Kac qui donne une interprétation probabiliste à lasolution d’une EDP. Cette relation entre les EDPs et les EDSRs s’utilise dans les <strong>de</strong>ux sens : on peut étudierl’EDSR pour obtenir certaines propriétés <strong>de</strong> l’EDP associée ou faire le contraire. Une autre applicationpossible <strong>de</strong> ce type <strong>de</strong> formule est la simulation numérique <strong>de</strong> solutions d’EDPs en utilisant <strong>de</strong>s métho<strong>de</strong>sprobabilistes. Peng [72] est le premier à remarquer ce lien entre les EDSRs et les EDPs en travaillantavec <strong>de</strong>s solutions classiques (pour les EDPs). Néanmoins, la théorie <strong>de</strong>s EDSRs permet <strong>de</strong> travailler <strong>de</strong>manière naturelle avec <strong>de</strong>s solutions <strong>de</strong> viscosité (cf [72]). Nous allons rappeler rapi<strong>de</strong>ment la définitiond’une solution <strong>de</strong> viscosité. Pour plus <strong>de</strong> détails, nous renvoyons le lecteur au livre <strong>de</strong> Barles [10].


1.1. RAPPELS PRÉLIMINAIRES SUR LA THÉORIE DES EDSRS 5avec 0 = t 0 < ... < t n = T une partition <strong>de</strong> [0, T]. Le processus ainsi obtenu a le bon goût d’être encoreadapté. De plus, il est possible d’obtenir assez facilement une vitesse <strong>de</strong> convergence pour ce schéma. Enfin,un tel algorithme est facilement implantable 4 sur un ordinateur. Considérons maintenant (Y, Z) la solution<strong>de</strong> l’EDSR∫ T∫ TY t = ξ + f(s, Y s , Z s )ds − Z s dW s ,ttque l’on souhaite approcher par un couple (Y n , Z n ) <strong>de</strong> processus adaptés à temps discret. Si l’on remplace∫ ti+1t if(s, Y s , Z s )ds par (t i+1 −t i )f(t i , Yt ni, Zt n i) alors le théorème <strong>de</strong> représentation martingale nous assurel’existence d’un processus ( ˜Z t n) t∈[0,T] tel que l’on ait∫ ti+1Yt ni= Yt ni+1+ f(t i , Yt ni, Zt n i)(t i+1 − t i ) − ˜Zn s dW s .t iPour Zt n inous allons prendre la meilleure approximation <strong>de</strong> ˜Z n par une variable aléatoire F ti -mesurabledans L 2 (Ω × [t i , t i+1 ]), à savoirZ n t i:= (t i+1 − t i ) −1 E[∫ ti+1t i] []∣ ˜Zn s ds∣F ti = (t i+1 − t i ) −1 E Yt n∣i+1(W ti+1 − W ti ) ∣F tid’après l’isométrie <strong>de</strong> l’intégrale d’Itô. Cela nous permet d’obtenir un premier schéma <strong>de</strong> discrétisation entemps donné par⎧⎪⎨⎪⎩Yt nn= ξZt n i= (t i+1 − t i ) −1 EY nt i= E[]Yt n∣i+1(W ti+1 − W ti ) ∣F ti[ ∣ ]Yt n ∣∣Ftii+1+ (t i+1 − t i )f(t i , Yt ni, Zt n i), i ∈ {0, ..., n − 1}.Un tel schéma est implicite car Yt niest solution d’une équation non linéaire. Néanmoins, si l’on suppose quef est une fonction lipschitz en y alors un argument <strong>de</strong> point fixe[nous assure ∣ ] l’existence et l’unicité d’unesolution lorsque h est suffisamment petit car dans ce cas y ↦→ E Yt n ∣∣Ftii+1+ (t i+1 − t i )f(t i , y, Zt n i) estune contraction dans L 2 (F ti ). Notons qu’il est également possible <strong>de</strong> modifier légèrement ce schéma pourle rendre explicite en considérant⎧⎪⎨⎪⎩Yt nn= ξZt n i= (t i+1 − t i ) −1 EY nt i= E]∣t i+1(W ti+1 − W ti ) ∣F ti ]t i+1, Zt n ∣i) ∣F ti , i ∈ {0, ..., n − 1}.[Y n[Y nt i+1+ (t i+1 − t i )f(t i , Y nContrairement au schéma d’Euler pour les EDSs, l’algorithme obtenu n’est pas implantable tel quel car ilreste à évaluer les espérances conditionnelles.Discrétisation temporelle et évaluation <strong>de</strong>s espérances conditionnelles. Comme nous allons pouvoirle constater, il existe <strong>de</strong> nombreux travaux traitant <strong>de</strong> la simulation <strong>de</strong>s EDSRs. Commençons par traiterceux qui s’appuient sur la discrétisation temporelle <strong>de</strong> l’EDSR décrite peu avant. Tout d’abord dans [85]puis dans [83], Zhang établit <strong>de</strong>s propriétés fines <strong>de</strong> solutions d’EDSRs. En particulier, il obtient un résultatfondamental sur la régularité L 2 <strong>de</strong> Z. Si on note 0 = t 0 < t 1 < . . . < t n = T une subdivision <strong>de</strong> [0, T] eton définit[∫1ti+1]∣¯Z ti = E Z s ds∣F ti , ∀i ∈ {0, . . .,n − 1},t i+1 − t i t ialors Zhang montre que sous certaines conditions, on an−1∑[∫ ti+1]∣E ∣Zt − ¯Z∣ti 2dt Cδ n ,t ii=04 L’utilisation du verbe « implanter » en lieu et place du néologisme « implémenter » est un sujet régulièrement débattu même si lesecond terme a été officiellement adopté par la commission générale <strong>de</strong> terminologie et <strong>de</strong> néologie le 20 avril 2007. Pour ma part, jeme bornerai à utiliser uniquement le premier terme.(1.5)(1.6)


6 CHAPITRE 1. INTRODUCTIONavec δ n le pas <strong>de</strong> la subdivision. Ce résultat lui permet d’établir une vitesse <strong>de</strong> convergence dans [85] pourun schéma moins naturel que (1.5) puis pour le schéma (1.5) dans [83]. Par contre la question <strong>de</strong> l’évaluation<strong>de</strong>s espérances conditionnelles n’est pas abordée.Dans [17], Bouchard et Touzi étudient également la vitesse <strong>de</strong> convergence du schéma implicite (1.5).De plus ils utilisent <strong>de</strong>s techniques du calcul <strong>de</strong> Malliavin tirées <strong>de</strong> l’article [16] pour approcher ces espérancesconditionnelles. Les auteurs analysent la propagation <strong>de</strong> l’erreur sur Y mais pas sur Z. En outre, leschéma numérique semble difficile et coûteux à mettre en place en <strong>de</strong>hors du cas où X est un mouvementbrownien ou un mouvement brownien géométrique.Dans [47], Gobet, Lemor et Warin donnent un schéma totalement implantable et étudient sa vitesse <strong>de</strong>convergence. Celui-ci se base également sur le schéma implicite (1.5). En se plaçant dans un cadre markovien,la solution (Y t , Z t ) t∈[0,T] <strong>de</strong> l’EDSR peut s’exprimer comme un couple <strong>de</strong> fonctions du temps et <strong>de</strong>X : (u(t, X t ), v(t, X t )) t∈[0,T] . Ainsi, évaluer les espérances conditionnelles revient à évaluer ces fonctionsu et v. Pour ce faire, les auteurs proposent d’évaluer leur projection sur un sous-espace vectoriel fonctionnel: typiquement les bases considérées peuvent être une base d’hypercubes <strong>de</strong> taille fixée ou bien une base<strong>de</strong> polynômes <strong>de</strong> <strong>de</strong>gré donné sur ces hypercubes. Ensuite, ces projections sont elles-mêmes évaluées parune métho<strong>de</strong> <strong>de</strong> Monte-Carlo : on simule dans un premier temps <strong>de</strong>s réalisations <strong>de</strong> X, ou d’un processusapprochant X, puis on détermine la projection <strong>de</strong>s fonctions u et v à l’ai<strong>de</strong> d’une métho<strong>de</strong> <strong>de</strong>s moindrescarrés. Le schéma étant implicite, il est nécessaire d’ajouter à chaque pas <strong>de</strong> temps <strong>de</strong>s itérations <strong>de</strong> Picardafin d’approcher le point fixe. Dans l’article [48], ces trois mêmes auteurs proposent un travail similaire enpartant cette fois du schéma explicite (1.6). Notons que ces <strong>de</strong>ux papiers sont tirés <strong>de</strong> la thèse [62] où <strong>de</strong>nombreuses simulations numériques sont développées.Nous avons vu que le schéma proposé par Gobet, Lemor et Warin dans l’article [47] se fait <strong>de</strong> manièrerétrogra<strong>de</strong> en partant <strong>de</strong> T . Dans l’article [13], Ben<strong>de</strong>r et Denk présentent une amélioration <strong>de</strong> ce schémaen proposant une évaluation <strong>de</strong>s espérances conditionnelles non plus <strong>de</strong> manière rétrogra<strong>de</strong> mais progressive: l’idée est <strong>de</strong> considérer les itérations <strong>de</strong> Picard avant l’évaluation <strong>de</strong>s espérances. Ainsi, si l’on note(Y n,k , Z n,k ) la kième itérée <strong>de</strong> Picard <strong>de</strong> l’EDSR discrétisée, nous avons⎧⎪⎨Y n,0 = 0Z n,0 = 0[Wti+1(−W tit i+1−t i)∣ ], Z n,k−1 ∣∣Ftit j) , i ∈ {0, ..., n − 1},Z n,kt i= E ξ + ∑ n−1j=i+1 (t j+1 − t j )f(t j , Y n,k−1t[j⎪⎩ Y n,kt i= E ξ + ∑ ]n−1j=i (t j+1 − t j )f(t j , Y n,k−1t j, Z n,k−1 ∣t j) ∣F ti , i ∈ {0, ..., n},(1.7)puis, dans un second temps, les espérances conditionnelles <strong>de</strong> ce schéma progressif sont évaluées à l’ai<strong>de</strong><strong>de</strong>s mêmes outils que ceux <strong>de</strong>s articles [47, 48].Dans l’article [45], Gobet et Labart obtiennent pour <strong>de</strong>s EDSRs markoviennes un développement plusfin <strong>de</strong> l’erreur d’approximation temporelle du schéma (1.6) sous <strong>de</strong>s conditions fortes <strong>de</strong> régularité pour f,g, b et σ. Les auteurs trouvent notamment une meilleure vitesse <strong>de</strong> convergence que celle <strong>de</strong> [48] lorsquel’on sait simuler <strong>de</strong> manière exacte le processus progressif X ce qui est le cas par exemple du mouvementbrownien, du mouvement brownien géométrique ou bien <strong>de</strong>s processus d’Ornstein-Uhlenbeck.Tous les articles précé<strong>de</strong>nts établissent leurs résultats <strong>de</strong> vitesse <strong>de</strong> convergence lorsque g est une fonctionlipschitz. Dans l’article [50], Gobet et Makhlouf étudient la vitesse <strong>de</strong> convergence du schéma (1.6)lorsque g est peu régulière. Pour mesurer ce manque <strong>de</strong> régularité ils introduisent l’espaceL 2,α :={g t.q. E[g(X T ) 2 ] + sup0t


1.1. RAPPELS PRÉLIMINAIRES SUR LA THÉORIE DES EDSRS 7près <strong>de</strong> T , afin <strong>de</strong> retrouver la régularité L 2 <strong>de</strong> Z classique et donc la vitesse <strong>de</strong> convergence habituelle duschéma (1.6). La grille non uniforme est donnée par{ (t k := T − T 1 − k ) 1}β, 0 k n , (1.8)navec β < α lorsque α < 1.Marches aléatoires. Une autre idée naturelle pour simuler <strong>de</strong>s EDSRs consiste à remplacer le mouvementbrownien W par une marche aléatoire. Pour être précis, considérons une suite (ε n ) 1kn i.i.d. <strong>de</strong> variables<strong>de</strong> Ra<strong>de</strong>macher symétriques, notons G k := σ(ε 1 , ..., ε k ) et posons h := T/n le pas <strong>de</strong> discrétisation. Leschéma considéré est donc :⎧⎪⎨⎪⎩Yt nn= ξ n[ ∣ ]Zt n i= h −1/2 E Yt n ∣∣Gii+1ε i+1Y nt i= Y nt i+1+ hf(Y nt i, Z n t i) − √ hε i+1 , i ∈ {0, ..., n − 1},avec ξ n une variable aléatoire <strong>de</strong> carré intégrable G-mesurable qui converge vers ξ dans L 1 . Le schémaest implicite et donc il est bien défini pour n suffisamment grand et f lipschitz en y. De plus, Y ti est G i -mesurable car elle est G i+1 -mesurable et orthogonale à ε i+1 . Dans l’article [22], Briand, Delyon et Mémindémontrent la convergence <strong>de</strong> ce schéma. Ce résultat repose sur un schéma d’approximation <strong>de</strong> Picard et<strong>de</strong>s résultats concernant la convergence <strong>de</strong>s filtrations tirés <strong>de</strong> [29]. Malheureusement aucune vitesse <strong>de</strong>convergence n’est établie. Toldo, dans les articles [81, 82], prolonge ce résultat <strong>de</strong> convergence aux EDSRsdont le temps terminal est aléatoire.Dans [65], les auteurs adaptent le schéma (1.9) pour le rendre explicite en s’appuyant sur le schémad’approximation <strong>de</strong> Picard. Comme précé<strong>de</strong>mment, aucune vitesse <strong>de</strong> convergence n’est établie. De plusleur résultat <strong>de</strong> convergence se restreint au cas où le générateur f ne dépend pas <strong>de</strong> z.Dans [27], Cheridito et Stadje prolongent les résultats <strong>de</strong> l’article [22] au cas <strong>de</strong>s EDSRs dont le générateura une croissance sous-quadratique par rapport à z. Comme pour la plupart <strong>de</strong>s résultats sur les EDSRs<strong>de</strong> générateur non lipschitz en z, leur preuve repose sur un théorème <strong>de</strong> comparaison. Encore une fois, laconvergence est prouvée mais aucune vitesse n’est établie.Systèmes progressifs rétrogra<strong>de</strong>s. De manière plus générale, ces questions concernant la simulation numériquese sont posées pour les systèmes d’équations différentielles stochastiques progressives rétrogra<strong>de</strong>s.Rappelons que la particularité <strong>de</strong> tels systèmes est d’avoir une diffusion dont les coefficients peuvent dépendre<strong>de</strong> Y et Z. Plus précisément, la solution d’un système d’EDSPR est un triplé (X, Y, Z) <strong>de</strong> processusadaptés vérifiant, ∀t ∈ [0, T],{X t = x + ∫ t0 b(s, X s, Y s , Z s )ds + ∫ t0 σ(s, X s, Y s )dW s ,Y t = g(X T ) + ∫ Ttf(s, X s , Y s , Z s )ds − ∫ T(1.10)tZ s dW s .Concernant les résultats théoriques sur l’existence et l’unicité <strong>de</strong> solutions nous renvoyons le lecteur àl’article [33] ainsi qu’à sa bibliographie. Dans [66], Ma, Protter et Yong établissent le lien entre la solutiondu système (1.10) et la solution, au sens classique du terme, d’une EDP. Les auteurs soumettent alors l’idée<strong>de</strong> résoudre l’EDSPR en résolvant l’EDP associée. Puis, dans l’article [38], Douglas, Ma et Protter étudientla convergence ainsi que la vitesse d’un schéma aux différences finies pour résoudre l’EDP associée ausystème (1.10). Malheureusement, ce type <strong>de</strong> résolution n’est pas envisageable en gran<strong>de</strong> dimension. Deplus, les résultats établis nécessitent <strong>de</strong>s conditions <strong>de</strong> régularité très fortes : notamment g doit être un peuplus <strong>de</strong> quatre fois différentiable, à dérivées bornées, et σ doit être uniformément elliptique.Dans l’article [34], Delarue et Menozzi proposent un schéma directement implantable pour résoudre lesystème (1.10). Leur algorithme s’appuie sur <strong>de</strong>s techniques <strong>de</strong> quantification 5 à l’ai<strong>de</strong> <strong>de</strong> grilles détermi-5 Les métho<strong>de</strong>s <strong>de</strong> quantification optimale consistent à approcher <strong>de</strong> manière discrète <strong>de</strong>s vecteurs aléatoires sous la contrainte d’uncritère d’optimalité. Par exemple, on peut chercher à remplacer un vecteur aléatoire X ∈ L 2 (Ω, R d ) par un vecteur aléatoire ˆXprenant au plus N valeurs en minimisant l’erreur L 2 commise :ˆX = arg minn‖X − Y ‖ 2˛˛Y : Ω → R d , mesurable, t.q. Card(Y (Ω)) NPour plus <strong>de</strong> détails, notamment sur les métho<strong>de</strong>s numériques permettant <strong>de</strong> résoudre cette problématique, nous renvoyons le lecteur àl’article [71].o.(1.9)


8 CHAPITRE 1. INTRODUCTIONnistes : la résolution fait uniquement appel à <strong>de</strong>s métho<strong>de</strong>s probabilistes contrairement à l’algorithme <strong>de</strong>l’article [38]. Une vitesse <strong>de</strong> convergence est établie ce qui permet en pratique <strong>de</strong> régler « intelligemment »les nombreux paramètres intervenant dans leur schéma. De plus, les hypothèses <strong>de</strong> régularité sont fortementréduites par rapport à [38].Autres métho<strong>de</strong>s. Dans [6], Bally présente un schéma <strong>de</strong> discrétisation en temps basé sur les temps <strong>de</strong>sauts d’un processus <strong>de</strong> Poisson. Cette métho<strong>de</strong> lui permet <strong>de</strong> ne pas utiliser la régularité inconnue <strong>de</strong> Zet <strong>de</strong> déduire une vitesse <strong>de</strong> convergence par rapport à l’intensité du processus <strong>de</strong> Poisson. Cependant, leschéma numérique, pour être implantable, nécessite le calcul d’intégrales <strong>de</strong> gran<strong>de</strong> dimension ce qui n’estpas traité dans cet article.Dans [28], Chevance propose un schéma <strong>de</strong> discrétisation pour <strong>de</strong>s EDSRs markoviennes dont le générateurest indépendant <strong>de</strong> z, la discrétisation spatiale étant traitée à l’ai<strong>de</strong> <strong>de</strong> métho<strong>de</strong>s <strong>de</strong> quantificationoptimale. L’algorithme ainsi obtenu est entièrement implantable. Une borne pour l’erreur sur Y est établiemais sous <strong>de</strong>s hypothèses <strong>de</strong> régularité très fortes sur g et f, tandis que l’erreur sur Z n’est pas étudiée.Dans [7], Bally et Pagès proposent un schéma numérique basé sur <strong>de</strong>s techniques <strong>de</strong> quantificationpour <strong>de</strong>s EDSRs markoviennes dont le générateur est indépendant <strong>de</strong> z et qui peuvent être réfléchies. Cettemétho<strong>de</strong> est également développée dans les articles [70, 8]. L’idée est <strong>de</strong> remplacer X par une chaîne <strong>de</strong>Markov à temps discret et à nombre d’états finis, ces états étant obtenus par <strong>de</strong>s métho<strong>de</strong>s <strong>de</strong> quantificationoptimale. Une fois estimées les probabilités <strong>de</strong> transition pour cette chaîne <strong>de</strong> Markov, les auteurs peuventfacilement implanter une équation <strong>de</strong> programmation dynamique pour résoudre l’EDSR initiale. Cet algorithmes’avère très efficace lorsque X est un mouvement brownien ou une fonction explicite du mouvementbrownien (un mouvement brownien géométrique par exemple). Dans ce cas, les grilles <strong>de</strong> quantificationainsi que les probabilités <strong>de</strong> transition sont calculées une fois pour toute. Dans le cas contraire, il peut êtrenécessaire <strong>de</strong> les recalculer chaque fois que l’algorithme est relancé ce qui peut être rédhibitoire en terme<strong>de</strong> temps.Dans [46], Gobet et Labart proposent un algorithme basé sur le schéma <strong>de</strong> Picard. Notons (Y k , Z k ) lakième itérée <strong>de</strong> Picard d’une EDSR markovienne définie récursivement par la suite d’EDSRs linéaires{ Y 0 = 0, Z 0 = 0,Yt k = g(X T ) + ∫ Tf(s, Xt s , Ysk−1 , Zsk−1 )ds − ∫ TZ k t s dW s.Sous <strong>de</strong>s conditions <strong>de</strong> régularité suffisantes, ces EDSRs peuvent être reliées à une suite d’EDPs : en notantY kt := u k (t, X t ) et Z k t := t ∇u k (t, X t )σ(t, X t ), nous avons∂ t u k+1 + Lu k+1 + f(., ., u k , t ∇u k σ) = 0, u k+1 (T, .) = g.Puisque ces EDPs sont linéaires, la formule <strong>de</strong> Feynman-Kac permet <strong>de</strong> les résoudre numériquement à l’ai<strong>de</strong>d’une métho<strong>de</strong> <strong>de</strong> Monte-Carlo. Pour ce faire les auteurs utilisent une technique <strong>de</strong> réduction <strong>de</strong> variancedécrite dans [49] ce qui leur permet d’obtenir une bonne vitesse <strong>de</strong> convergence. De plus, leur schémad’approximation fournit une solution régulière en espace et en temps. Par contre, afin <strong>de</strong> pouvoir utiliser lacorrespondance entre les EDSRs et les EDPs, leur résultat <strong>de</strong> convergence est établie sous <strong>de</strong>s hypothèses<strong>de</strong> régularité fortes : σ est uniformément elliptique et g est un peu plus <strong>de</strong> <strong>de</strong>ux fois différentiable.1.2 Étu<strong>de</strong> <strong>de</strong>s EDSRs ergodiquesL’objet <strong>de</strong> la partie I est l’étu<strong>de</strong> d’EDSRs ergodiques, également notées EDSREs. Dans toute cette partieon considère <strong>de</strong>s EDSRs markoviennes à valeurs réelles.1.2.1 Résultats connusOn suppose que la diffusion X est solution <strong>de</strong> l’EDS suivante :X t = x +∫ tb(X s )ds +∫ t00σ(X s )dW s .


1.2. ÉTUDE DES EDSRS ERGODIQUES 9En prenant la condition terminale nulle et en faisant tendre T vers +∞, il est possible <strong>de</strong> définir une nouvelleclasse d’EDSR, appelée EDSR en horizon infini, qui s’écritY t = Y T +∫ Ttf(X s , Y s , Z s )ds −∫ TtZ s dW s , ∀t, T tels que 0 t T. (1.11)Un résultat d’existence et d’unicité a été obtenu par Briand et Hu [23] et généralisé par Royer.Théorème 1.4 On suppose qu’il existe K 0 et µ > 0 tels que1. f est uniformément lipschitz en y et en z, <strong>de</strong> constante <strong>de</strong> lipschitz K,2. f est strictement monotone en y : ∀x, y, y ′ , z3. |f(., 0, 0)| K.(y − y ′ ).(f(x, y, z) − f(x, y ′ , z)) −µ |y − y ′ | 2 ,Alors l’EDSR (1.11) possè<strong>de</strong> une unique solution (Y, Z) t0 progressivement mesurable telle que Y estcontinu borné et[∫ +∞]E e −2µt |Z t | 2 dt < +∞.0De plus on a l’estimation |Y | K µ .Ces EDSRs markoviennes permettent notamment d’avoir une représentation probabiliste <strong>de</strong>s EDPs elliptiquessemi-linéaires du typeLu(x) + f(x, u(x), t ∇uσ(x)) = 0,avec L le générateur du semi-groupe associé à X. Lorsque f ne dépend plus <strong>de</strong> y, la condition <strong>de</strong> strictemonotonie n’est plus vérifiée. Il apparaît alors dans les inconnues une constante, appelée constante d’ergodicité.L’EDSR (1.11) <strong>de</strong>vient :Y t = Y T +∫ Tt[f(X s , Z s ) − λ]ds −∫ TtZ s dW s , ∀t, T tels que 0 t T. (1.12)La solution <strong>de</strong> cette EDSR, appelée EDSR ergodique, est alors un triplé (Y, Z, λ). Ce type d’équation a étéintroduit dans l’article [42] <strong>de</strong> Fuhrman, Hu et Tessitore, avec un processus X à valeur dans un espace <strong>de</strong>Banach, et permet <strong>de</strong> traiter <strong>de</strong>s problèmes <strong>de</strong> contrôle ergodique <strong>de</strong> la forme :I(x, ρ) = limsupT →+∞[ ∫1 TT Eρ,T0L(X x s , ρ s )dsoù ρ est un processus adapté à valeur dans un espace métrique séparable U et E ρ,T est l’espérance parrapport à la probabilité P ρ T sous laquelle W ρ t = W t + ∫ t0 R(ρ s)ds est un mouvement brownien. Il existeune littérature abondante traitant ces problèmes d’un point <strong>de</strong> vue analytique en étudiant l’équation <strong>de</strong>Hamilton-Jacobi-Bellman associée, nous pouvons citer par exemple les papiers d’Arisawa et Lions [4] etd’Arisawa [2], mais le point <strong>de</strong> vue probabiliste n’a été envisagé que très récemment.1.2.2 Résultats nouveauxLe but du chapitre 2 est <strong>de</strong> construire <strong>de</strong>s EDSRs ergodiques associées à <strong>de</strong>s EDPs ergodiques définiessur un compact, ayant <strong>de</strong>s conditions <strong>de</strong> Neumann au bord et telles que la constante d’ergodicité apparaîtdans la condition au bord. Pour ce faire, nous allons considérer l’EDSR généralisée en horizon infinisuivante : pour tous 0 t T < +∞,Y xt = Y x T +∫ Tt[ψ(X x s , Z x s ) − λ]ds +∫ Tt],∫ T[g(Xs x ) − µ]dKs x − Zs x dW s . (1.13)tDans cette équation (X x , K x ) est la solution d’une EDS réfléchie dans un domaine borné régulier G ={φ > 0} qui est donnée par{Xt x = x + ∫ t0 b(Xx s )ds + ∫ t0 σ(Xx s )dW s + ∫ t0 ∇φ(Xx s )dKs x , t 0;Kt x = ∫ t0½Xs x∈∂G dKs x , K x (1.14)est croissant.


10 CHAPITRE 1. INTRODUCTIONLa solution d’une telle équation est un triplé (Y, Z, µ). µ - appelée « coût ergodique à la frontière » - faitpartie <strong>de</strong>s inconnues tandis que λ est simplement un paramètre. Lorsque ψ et g sont <strong>de</strong>s fonctions <strong>de</strong> y strictementmonotones, Pardoux et Zhang [74] ont montré 6 qu’il existe une unique solution « classique » (Y, Z).L’apparition <strong>de</strong> cette nouvelle inconnue s’explique donc par la non monotonie stricte <strong>de</strong> ces fonctions.Il existe dans la littérature <strong>de</strong> nombreux articles qui traitent par <strong>de</strong>s métho<strong>de</strong>s analytiques les problèmes<strong>de</strong> contrôles ergodiques avec <strong>de</strong>s conditions frontières. Nous pouvons citer par exemple les travaux <strong>de</strong>Bensoussan et Frehse [14] dans le cas <strong>de</strong> conditions homogènes à la frontière, ou bien l’article <strong>de</strong> Lasryet Lions [61] dans le cas <strong>de</strong> conditions plus générales. Néanmoins, dans ces publications, la constante µn’apparaît pas et la constante λ fait partie <strong>de</strong>s inconnues. Il semblerait que les seuls travaux où la constanted’ergodicité µ est présente dans la condition <strong>de</strong> Neumann sont ceux d’Arisawa [3], <strong>de</strong> Barles et Da Lio [11]et <strong>de</strong> Barles et coll. [12]. Il est bon <strong>de</strong> rappeler une <strong>de</strong>rnière fois que les constantes λ et µ n’ont pas lemême rôle : notre résultat principal dit que sous <strong>de</strong> bonnes hypothèses, pour tout λ il existe une constanteµ telle que (1.13) a une solution. À première vue λ ne joue pas <strong>de</strong> rôle et pourrait être incorporée à ψ,néanmoins notre stratégie <strong>de</strong> preuve l’utilise : nous montrons tout d’abord que pour tout µ, il existe uneunique constante λ := λ(µ) pour laquelle (1.13) a une solution et ensuite nous prouvons que λ(R) = R.Pour être plus précis, nous commençons par traiter le cas d’EDSREs avec une condition <strong>de</strong> Neumannnulle dans un domaine régulier borné. Comme dans [42], nous introduisons une EDSR en horizon infini <strong>de</strong>générateur strictement monotone :Y x,αt= Y x,αT+∫ Tt[ψ(X x s , Z x,αs) − αY x,α ]ds −s∫ TtZ x,αs dW s , 0 t T < +∞, (1.15)avec α > 0. Ensuite nous voulons prouver que (Y x,α − Y 0,α0 , Z x,α , αY 0,α0 ) converge, lorsque α → 0, versune solution (Y x , Z x , λ) <strong>de</strong> l’EDSRE (1.13) avec g = 0 et µ = 0 fixé. Le point clé <strong>de</strong> la démonstrationconsiste à montrer que v α (x) := Y x,α0 est une fonction lipschitz en x uniformément en α. Pour ce faire,on utilise <strong>de</strong>s hypothèses très fortes sur b, σ et le domaine pour que, en moyenne, les trajectoires <strong>de</strong> X serejoignent à l’infini avec une vitesse exponentielle : nous supposons que G est convexe et, si l’on note η laconstante <strong>de</strong> dissipativité <strong>de</strong> b et σ donnée parη :=supx,y∈G,x≠y{ t(x − y)(b(x) − b(y))|x − y| 2 + Tr[(σ(x) − }σ(y))t (σ(x) − σ(y))]2|x − y| 2 ,nous supposons également que η est strictement inférieure à une constante négative explicite. Notons qu’unecondition <strong>de</strong> stricte dissipativité est également présente dans l’article [42]. Cette condition étant relativementforte, Debussche, Hu et Tessitore proposent une métho<strong>de</strong> pour s’en affranchir dans l’article [32].Dans un <strong>de</strong>uxième temps nous nous ramenons à une condition <strong>de</strong> Neumann non nulle en considérantṽ une fonction vérifiant ∂ṽ∂n (x) + g(x) = µ, ∀x ∈ ∂G. À l’ai<strong>de</strong> du processus ṽ(Xx ) nous pouvons alorsmodifier l’EDSRE initiale (1.13) pour pouvoir obtenir une EDSRE avec condition <strong>de</strong> Neumann nulle et ainsiappliquer le résultat d’existence précé<strong>de</strong>nt. À ce sta<strong>de</strong> <strong>de</strong> la démonstration nous obtenons les théorèmes 2.9et 2.10 qui nous assurent que pour tout µ, il existe une unique constante λ := λ(µ) pour laquelle (1.13) aune solution.Enfin, dans un troisième temps, l’étu<strong>de</strong> <strong>de</strong> la fonction µ ↦→ λ(µ) montre qu’elle est continue et décroissante.Sous certaines conditions, nous avons également λ(µ) µ→+∞−→ −∞ et λ(µ) µ→−∞−→ +∞ ce qui permet<strong>de</strong> conclure : pour tout λ, il existe une constante µ pour laquelle (1.13) a une solution. Lorsque ψ est bornée(cf théorème 2.13), ce résultat est vrai si nous supposons que∫E[K1 x ]ν(dx) > 0x∈Gavec ν l’unique mesure invariante <strong>de</strong> X. Cette hypothèse naturelle signifie que la frontière doit être suffisammentvue dans le temps par le processus X. Malheureusement, l’application <strong>de</strong>s EDSREs aux problèmes<strong>de</strong> contrôle nécessite que ψ soit non borné. Dans ce cas, l’étu<strong>de</strong> est beaucoup plus compliquée : voir lesthéorèmes 2.15 et 2.20.6 En fait ces auteurs ont montré un résultat d’existence et d’unicité lorsque la constante <strong>de</strong> monotonie µ est supérieure à une valeurexplicite. Néanmoins il est possible <strong>de</strong> généraliser ce résultat pour µ > 0 en appliquant la même démarche que dans l’article [23] : cf.le théorème 3.1.


1.2. ÉTUDE DES EDSRS ERGODIQUES 11Une fois obtenus ces résultats d’existence, nous pouvons les appliquer à <strong>de</strong>s problèmes <strong>de</strong> contrôle optimaldont les coûts sont donnés par[ ∫1 T∫ ]TI(x, ρ) = limsupT →+∞ T Eρ,T L(Xs x , ρ s)ds + [g(Xs x ) − µ]dKx s ,J(x, ρ) = limsupT →+∞0{ +∞ si E ρ,T [[KT x] = 0,1 ∫ TE ρ,T [KT x]Eρ,T 0 [L(Xx s , ρ s ) − λ]ds + ∫ T0 g(Xx s )dKsx0]sinon,où ρ est un processus adapté à valeur dans un espace métrique séparable U et E ρ,T est l’espérance parrapport à la probabilité P ρ T sous laquelle W ρ t = W t + ∫ t0 R(ρ s)ds est un mouvement brownien. Avec <strong>de</strong>shypothèses appropriées et en prenantψ(x, z) = inf {L(x, u) + zR(u)}u∈Udans (1.13), nous prouvons alors que λ = inf ρ I(x, ρ) et µ = inf ρ J(x, ρ) où l’infimum est pris sur tous lescontrôles admissibles (cf. théorèmes 2.27 et 2.29).Ce chapitre est organisé ainsi : les EDSREs avec conditions <strong>de</strong> Neumann nulles sont étudiées dans lapartie 2.2, la partie 2.3 est dédiée aux EDSREs avec conditions non nulles, le cas particulier <strong>de</strong>s processus<strong>de</strong> Kolmogorov réfléchis (pour X) est envisagé dans la partie 2.4, la partie 2.5 donne <strong>de</strong>s liens avec les EDPsergodiques tandis que la partie 2.6 traite <strong>de</strong>s applications aux problèmes <strong>de</strong> contrôles ergodiques et, enfin,l’avant-<strong>de</strong>rnière partie fournie quelques résultats supplémentaires lorsque G est non convexe.1.2.3 Quelques résultats complémentairesLe but du chapitre 3 est <strong>de</strong> donner quelques résultats complémentaires au chapitre 2. Ces résultats nese trouvent pas dans l’article [76]. Tout d’abord, nous étudions la possibilité <strong>de</strong> montrer <strong>de</strong> manière plusdirecte l’existence d’une solution (Y, Z, µ) pour l’EDSRE∫ TYt x = YT x + ψ(Xs x , Zs x )ds +t∫ Tt∫ T[g(Xs x ) − µ]dKs x − Zs x dW s .tL’idée consiste à traduire en termes probabilistes la démonstration <strong>de</strong> l’article [11] ce qui revient à introduirel’EDSR en horizon infiniY x,αt= Y x,αT+∫ Tt[ψ(Xs x , Zx,α s ) − α 2 Ys x,α ]ds +∫ Tt[g(X x s∫ Tx,α) − αYs]dKs x − Zs x,α dW s .tEn premier lieu, il convient <strong>de</strong> savoir si cette EDSR possè<strong>de</strong> une solution éventuellement unique. Ce typed’équation a déjà été envisagé, pour Y en dimension quelconque, dans l’article [74], mais l’étu<strong>de</strong> proposéefait apparaître <strong>de</strong>s hypothèses techniques dont nous souhaitons nous affranchir. En utilisant les spécificités<strong>de</strong> la dimension 1, Briand et Hu [23] proposent un résultat qui va dans ce sens mais se cantonnent auxEDSRs non généralisées. Il est néanmoins possible <strong>de</strong> reprendre leur démonstration pour l’adapter à notresituation : nous obtenons ainsi le théorème 3.1. Puis dans un second temps nous expliquons en quoi lesrésultats obtenus ne sont pas suffisants pour pouvoir conclure. A posteriori, cette métho<strong>de</strong> « directe » semblenécessiter <strong>de</strong>s estimations et <strong>de</strong>s résultats <strong>de</strong> convergence plus fins que ceux employés dans le chapitre 2.Dans une secon<strong>de</strong> partie, nous obtenons un nouveau théorème d’existence d’une solution (Y, Z, µ) pourl’EDSRE∫ TYt x = YT x + ψ(Xs x , Zs x )ds +t∫ Tt∫ T[g(Xs x ) − µ]dKs x − Zs x dW s ,tlorsque ψ est non borné. Dans le chapitre 2, les théorèmes 2.15 et 2.20 proposent déjà ce type <strong>de</strong> résultat.Néanmoins, le premier nécessite <strong>de</strong>s hypothèses très fortes et le second est démontré lorsque X est unprocessus <strong>de</strong> Kolmogorov. L’intérêt <strong>de</strong> ce nouveau théorème 3.2 est d’avoir <strong>de</strong>s hypothèses proches <strong>de</strong>celles du théorème 2.20 sans pour autant particulariser le processus X. La preuve repose sur une inégalité<strong>de</strong> gran<strong>de</strong> déviation tirée <strong>de</strong> [37].


12 CHAPITRE 1. INTRODUCTION1.3 Un résultat d’unicité pour les EDSRs quadratiquesLa partie II traite <strong>de</strong> résultats d’unicités pour les EDSRs quadratiques dont la condition terminale estnon bornée et le générateur est convexe, ou concave, par rapport à la variable z.1.3.1 Résultats connusDans le chapitre 4 nous nous intéressons à l’EDSR quadratique suivanteY t = ξ −∫ Ttg(s, Y s , Z s )ds +∫ TtZ s dW s , 0 t T. (1.16)Rappelons que le terme EDSR quadratique désigne une EDSR dont le générateur −g a une croissancequadratique par rapport à la variable z. Comme nous l’avons déjà évoqué, les premiers résultats d’existenceet d’unicité concernant les EDSRs quadratiques ont été obtenus par Kobylanski [59] puis ont été généraliséspar Lepeltier et San Martín [63] en se restreignant au cas où la condition terminale ξ est bornée. Nous avonségalement vu que cette condition n’est pas naturelle car en prenant le générateur |z| 2 /2 on peut montrer parune simple transformation exponentielle que Y t := ln E[e ξ |F t ] est une solution ce qui laisse supposer quel’existence d’un moment exponentiel pour ξ suffirait. Supposons que g vérifie∀t, y, z, |g(t, y, z)| α t + β |y| + γ 2 |z|2 , P-p.s.,alors Briand et Hu [24, 25] ont montré l’existence d’une solution (Y, Z) sous l’hypothèseE[e γeβT (|ξ|+ R Tαsds)] 0 < +∞.Pour parvenir à ce résultat, ils ont développé une sorte <strong>de</strong> métho<strong>de</strong> <strong>de</strong> localisation pour passer à la limitedans les EDSRs. Bien que cette technique soit assez efficace pour étudier l’existence <strong>de</strong> solutions, elle n’estd’aucun secours pour étudier l’unicité. Dans l’article [25], ces mêmes auteurs prouvent un résultat d’unicitélorsque g est convexe (ou concave) en la variable z sous l’hypothèse∀p ∈ R + ,E[e p(|ξ|+R T0 αsds)] < +∞. (1.17)Leur démonstration consiste à montrer un théorème <strong>de</strong> comparaison en utilisant la métho<strong>de</strong> <strong>de</strong> la « différenceθ » qui revient, pour <strong>de</strong>ux solutions Y 1 et Y 2 , à estimer Y 1 − θY 2 avec θ ∈ (0, 1), puis faire tendreθ vers 1. Un tel résultat leur permet <strong>de</strong> donner une représentation <strong>de</strong> l’EDP suivante :∂ t u(t, x) + Lu(t, x) − g(t, x, u(t, x), − t ∇uσ(t, x)) = 0, u(T, .) = h,lorsque h et g sont sous-quadratiques en x, i.e. :∀(t, x, y, z) ∈ [0, T] × R d × R × R 1×d , |h(x)| + |g(t, x, y, z)| f(t, y, z) + C |x| p ,avec f 0, C > 0 et p < 2.1.3.2 Résultats nouveauxLe but du chapitre 4 est d’améliorer le résultat d’unicité <strong>de</strong> [24] en réduisant l’hypothèse (1.17) tout enconservant l’hypothèse <strong>de</strong> convexité sur g. Vu que notre résultat d’unicité portera sur <strong>de</strong>s EDSRs dont gest lipschitz en y et convexe en z, nous allons supposer que g suit les conditions <strong>de</strong> croissance suivantes :∀(t, y, z) ∈ [0, T] × R × R 1×d ,−α t − r(|y| + |z|) g(t, y, z) ᾱ t + β |y| + γ 2 |z|2 .Cette dissymétrie dans la croissance nous permet <strong>de</strong> réduire encore les hypothèses <strong>de</strong> moments sur ξ, α etᾱ. Ainsi, le théorème 4.1 nous assure l’existence d’une solution pour l’EDSR (1.16) lorsqu’il existe p > 1tel que[ ( ∫ ) (T∫ ) p ]TE exp γe βT ξ − + γ ᾱ t e βt dt + (ξ + ) p + α t dt < +∞.00


1.3. UN RÉSULTAT D’UNICITÉ POUR LES EDSRS QUADRATIQUES 13Ce type <strong>de</strong> résultat, tirant partie <strong>de</strong> la croissance dissymétrique du générateur, a déjà été obtenu dans l’article[24] lorsque α et ᾱ sont <strong>de</strong>s constantes.Passons au résultat principal <strong>de</strong> ce chapitre, à savoir le résultat d’unicité. Le théorème 4.5 associé aucorollaire 4.2 nous assure l’unicité d’une solution pour l’EDSR (1.16) lorsqu’il existe q > γe βT et ε > 0tels que[ () ()]Eexpqξ − + q∫ T0ᾱ t dt+ expεξ + + ε∫ T0α t dt< +∞.Pour montrer ce résultat, nous appliquons une métho<strong>de</strong> <strong>de</strong> vérification : nous définissons dans un premiertemps un problème <strong>de</strong> contrôle stochastique et ensuite nous prouvons que Y est la valeur optimale <strong>de</strong> ceproblème <strong>de</strong> contrôle. Pour être plus précis, nous introduisons la transformée <strong>de</strong> Legendre-Fenchel <strong>de</strong> g :f(t, y, q) := supz∈R 1×d (zq − g(t, y, z)), ∀t ∈ [0, T], q ∈ R d , y ∈ R.Comme g est convexe, elle est également égale à la transformée <strong>de</strong> Legendre-Fenchel <strong>de</strong> f :Ainsi nous avonsce qui impliqueg(t, y, z) := supq∈R d (zq − f(t, y, q)), ∀t ∈ [0, T], z ∈ R 1×d , y ∈ R.g(s, Y s , Z s ) Z s q s − f(s, Y s , q s ),∫ T∫ TY t ξ + f(s, Y s , q s )ds + Z s d ˜W s ,ttavec d ˜W s = dW s − q s ds. Imaginons un instant que l’on ait le droit d’appliquer le théorème <strong>de</strong> Girsanov,alors nous obtenons∫ ]TY t E[ξ Q + f(s, Y s , q s )ds .tSi <strong>de</strong> plus on a l’existence d’un processus q ∗ tel quealorsFinalement, le but est <strong>de</strong> montrer queavecg(s, Y s , Z s ) = Z s q ∗ s − f(s, Y s , q ∗ s),∫ ]TY t = E[ξ Q∗ + f(s, Y s , qs)ds∗ .tY = ess inf Y qq∈A∫ ]TY qt = E[ξ Q + f(s, Y s , q s )ds .tPour justifier tous ces calculs, il convient <strong>de</strong> définir correctement un ensemble <strong>de</strong> contrôles admissiblesA tel que l’on ait le droit d’appliquer le théorème <strong>de</strong> Girsanov et que l’on ait q ∗ ∈ A. Concrètementnous montrons que ces calculs se justifient lorsque T n’est pas trop grand. Dans le cas général, nous nouscontentons <strong>de</strong> coller « bout à bout » <strong>de</strong>s problèmes <strong>de</strong> contrôle sur <strong>de</strong>s sous-intervalles [t i , t i+1 ].Ce résultat permet également d’améliorer la formule <strong>de</strong> Feynman-Kac prouvée par Briand et Hu [25] enrelâchant un peu les hypothèses sur h et g (cf. théorème 4.10). Ces fonctions peuvent dorénavant avoir unecroissance quadratique pas trop gran<strong>de</strong> par rapport à la variable x. Par contre, dans notre cas σ ne dépendplus que du temps.Ce chapitre est organisé ainsi : un résultat d’existence est prouvé dans la partie 2.2, la partie 2.3 est dédiéeau résultat d’unicité, et, enfin, la <strong>de</strong>rnière partie nous permet d’obtenir une formule du type Feynman-Kac.


14 CHAPITRE 1. INTRODUCTION1.4 Simulation d’EDSRs dont le générateur est à croissance quadratiqueLa partie III concerne l’étu<strong>de</strong> <strong>de</strong> la simulation d’EDSRs quadratiques d’un point <strong>de</strong> vue théorique (chapitre5) et d’un point <strong>de</strong> vue numérique (chapitre 6).1.4.1 Résultats connusComme nous l’avons déjà vu dans la partie 1.1.3, la mise au point d’algorithmes efficaces capables <strong>de</strong>résoudre <strong>de</strong>s EDSRs pour <strong>de</strong>s dimensions raisonnables a été énormément étudié. Néanmoins dans pratiquementtous les travaux cités, le générateur <strong>de</strong> l’EDSR est une fonction lipschitz en z et cette hypothèse joueun rôle clé dans leurs preuves. Le seul article faisant exception à cette règle est celui <strong>de</strong> Cheridito et Stadje[27], dans lequel le générateur est supposé être localement lipschitz et avoir une croissance sous-quadratiqueen la variable z. À l’heure actuelle les résultats théoriques et numériques concernant la simulation d’EDSRsquadratiques sont réduits, nous pouvons donc les passer en revue <strong>de</strong> manière exhaustive.Tout d’abord, lorsque le générateur a une forme suffisamment simple, il est possible <strong>de</strong> contourner leproblème en transformant l’EDSR quadratique en une EDSR à croissance linéaire en z. Prenons l’EDSRquadratique la plus simple qui soit,∫ T|Z s | 2 ∫ TY t = ξ +t 2 ds − Z s dW s .tcette EDSR se simplifie en effectuant une transformation exponentielle, aussi appelée transformation <strong>de</strong>Cole-Hopf, <strong>de</strong> cette équation : si nous notons U = exp(Y ) et V = exp(Y )Z alors (U, V ) est solution <strong>de</strong>l’EDSR∫ TU t = e ξ − V s dW s .tDans ce cas, l’EDSR initiale possè<strong>de</strong> une solution explicite Y t = ln E[e ξ |F t ]. De manière plus générale,lorsque le générateur est la somme d’un terme quadratique z ↦→ C |z| 2 et d’une fonction qui a une croissancelinéaire en z, cette métho<strong>de</strong> ne permet pas forcément <strong>de</strong> résoudre explicitement l’EDSR mais peut latransformer en une EDSR à croissance linéaire. Ainsi, dans l’article [56], Imkeller, dos Reis et Zhang seplacent dans un cadre markovien et supposent que le générateur f est <strong>de</strong> la formef(t, x, y, z) = l(t, x, y) + a(t, z) + γ 2 |z|2 ,où l et a sont <strong>de</strong>s fonctions mesurables, l est uniformément lipschitz en x et y, l et a sont continues en t etenfin a est uniformément lipschitz et homogène en z, c’est à dire∀c ∈ R, ∀(s, z) ∈ [0, T] × R 1×d ,a(s, cz) = ca(s, z).Sous cette condition, les auteurs montrent que la transformation exponentielle permet d’obtenir une EDSRlipschitz en x, y et z. Il suffit alors d’appliquer un <strong>de</strong>s algorithmes décrits dans la partie 1.1.3 pour résoudrenumériquement la nouvelle EDSR puis appliquer la transformation inverse pour retomber sur la solution <strong>de</strong>l’EDSR initiale. Dans le même papier [56], les auteurs appliquent cette métho<strong>de</strong> pour résoudre un problème<strong>de</strong> maximisation d’utilité exponentielle afin <strong>de</strong> fixer le prix d’une option sur le cours du pétrole.Lorsque l’on cherche à résoudre numériquement une EDSR quadratique uniquement dans le but d’obtenirune solution à l’EDP associée, il est également possible <strong>de</strong> contourner le problème en faisant appelaux EDSPRs. Rappelons que résoudre une EDSPR revient à déterminer un triplé (X, Y, Z) <strong>de</strong> processusadaptés vérifiant{X t = x + ∫ t0 b(s, X s, Y s , Z s )ds + ∫ t0 σ(s, X s, Y s )dW s ,Y t = g(X T ) + ∫ Tf(s, Xt s , Y s , Z s )ds − ∫ TZt s dW s ,l’EDP associée étant∂ t u + Lu + f(., ., u, t ∇uσ(., ., u)) = 0, u(T, .) = g,


1.4. SIMULATION D’EDSRS DONT LE GÉNÉRATEUR EST À CROISSANCE QUADRATIQUE 15avec L donné parLv = 1 2 Tr(σ(., ., v)t σ(., ., v)∇ 2 v) + t b(., ., v, t ∇vσ(., ., v))∇v.Ainsi, il est parfois possible <strong>de</strong> transférer la partie quadratique en z du générateur f vers la dérive b sanspour autant modifier l’EDP. Il suffit alors d’utiliser l’une <strong>de</strong>s métho<strong>de</strong>s <strong>de</strong> résolution d’EDSPR décrites dansla partie 1.1.3 pour obtenir une solution à l’EDP initiale. Citons par exemple l’article [34] où est résoluenumériquement l’équation déterministe KPZ <strong>de</strong> cette façon. L’inconvénient majeur <strong>de</strong> cette métho<strong>de</strong> rési<strong>de</strong>dans le fait qu’elle fait appel aux résultats d’approximations sur les EDSPRs qui, <strong>de</strong> manière générale,nécessitent <strong>de</strong>s hypothèses plus fortes sur la régularité <strong>de</strong>s coefficients.L’idée la plus naïve pour résoudre une EDSR quadratique consiste à approcher celle-ci par une EDSRà croissance linéaire que l’on sait résoudre numériquement. Néanmoins, pour pouvoir obtenir une vitesse<strong>de</strong> convergence, il convient <strong>de</strong> pouvoir quantifier l’erreur commise lors <strong>de</strong> l’approximation initiale. Dansle cadre <strong>de</strong> la théorie <strong>de</strong>s EDSRs quadratiques ce type <strong>de</strong> résultat n’est pas simple à obtenir et il a falluattendre l’utilisation <strong>de</strong> l’outil <strong>de</strong>s martingales OMB pour pouvoir débloquer la situation. Ainsi, récemment,Imkeller et dos Reis proposent dans l’article [55] d’approcher la solution d’une EDSR markovienne (Y, Z)par la solution (Y N , Z N ) <strong>de</strong> l’EDSR tronquée suivante :Y Nt = g(X T ) +∫ Ttf(s, X s , Y Ns , h N (Z N s ))ds −∫ TtZ N s dW s ,où h N : R 1×d → R 1×d est une modification régulière <strong>de</strong> la projection sur la boule euclidienne <strong>de</strong> rayon Net <strong>de</strong> centre 0. Grâce à l’étu<strong>de</strong> <strong>de</strong> la régularité <strong>de</strong>s trajectoires <strong>de</strong>s processus solutions, les auteurs montrentque pour tout β 1, l’erreur d’approximation est inférieure à C β N −β . Comme on suppose que f estlocalement lipschitzienne par rapport à z, i.e.|f(., ., ., z) − f(., ., ., z ′ )| C(1 + |z| + |z ′ |) |z − z ′ | ,alors l’EDSR tronquée possè<strong>de</strong> un générateur lipschitz par rapport à z. Il est maintenant possible d’avoirune estimation <strong>de</strong> l’erreur pour l’approximation en temps <strong>de</strong> l’EDSR approchée à l’ai<strong>de</strong> <strong>de</strong> n’importe quelschéma <strong>de</strong> discrétisation temporelle pour <strong>de</strong>s EDSRs <strong>de</strong> générateur lipschitz. D’après [83, 17, 48], l’erreurquadratique <strong>de</strong> discrétisation est bornée par C/n avec n le nombre <strong>de</strong> points <strong>de</strong> discrétisation. Néanmoins,la constante dépend <strong>de</strong> la constante <strong>de</strong> lipschitz du générateur en z et donc <strong>de</strong> N : elle est <strong>de</strong> la formeCe CN2 . Le terme exponentiel résulte <strong>de</strong> l’utilisation du lemme <strong>de</strong> Gronwall discret. Ils obtiennent doncl’erreur globale suivante :( )1C βN β + eCN2, (1.18)nAinsi, lorsque N augmente, n −1 doit <strong>de</strong>venir « petit » très vite et la vitesse <strong>de</strong> convergence <strong>de</strong>vient mauvaise: si nous prenons N = ( Cε log n) 1/2avec 0 < ε < 1, alors l’erreur globale <strong>de</strong>vient Cβ,ε (log n) −β/2 .Il est également possible d’approcher une EDSR quadratique par une EDSR à croissance linéaire enapprochant g. En effet, lorsque g est une fonction K g -lipschitzienne, alors, sous certaines conditions, Z estun processus borné par une constante C(K g + 1) (voir théorème 5.3). L’idée consiste donc à approcher lasolution <strong>de</strong> notre EDSR (Y, Z) par (Y N , Z N ), la solution <strong>de</strong> l’EDSRY Nt = g N (X T ) +∫ Ttf(s, X s , Y Ns , Z N s )ds −∫ TtZ N s dW s ,où g N est une approximation K gN -lipschitz <strong>de</strong> g. Grâce à l’outil <strong>de</strong>s martingales OMB, nous avons uneestimation <strong>de</strong> l’erreur pour cette approximation : cf. [55, 20] ou proposition 5.9. Par exemple, si g est α-Höl<strong>de</strong>r, nous pouvons obtenir l’erreur d’approximationCK −α1−αg N(voir proposition 5.17). Finalement, lorsqueg est α-Höl<strong>de</strong>r et K gN = N, l’erreur globale s’écritC(1N α1−α+ eCN2n), (1.19)et, par conséquent, la vitesse <strong>de</strong> convergence est également mauvaise : si nous prenons N = ( Cε log n) 1/2avec 0 < ε < 1, alors l’erreur globale <strong>de</strong>vient C ε (log n) −α2(1−α).


16 CHAPITRE 1. INTRODUCTIONConcernant la métho<strong>de</strong> d’approximation d’EDSR consistant à approcher le mouvement brownien parune marche aléatoire, nous avions vu dans la partie 1.1.3 que Cheridito et Stadje, dans l’article [27], ontdémontré la convergence <strong>de</strong> leur schéma lorsque le générateur est à croissance sous-quadratique en z. Cerésultat repose en gran<strong>de</strong> partie sur un théorème <strong>de</strong> comparaison qu’ils doivent dans un premier tempsdémontrer. Les auteurs se sont bornés au cas sous-quadratique, sans considérer le cas quadratique, à cause <strong>de</strong>ce théorème. En effet, ils montrent que pour un exemple simple <strong>de</strong> schéma, dont le générateur est |z| 2 , leurthéorème <strong>de</strong> comparaison est faux. Ainsi, il semble vain <strong>de</strong> vouloir étendre leur résultat au cas quadratique,tout du moins en utilisant les mêmes outils <strong>de</strong> démonstration.Pour finir, il est important <strong>de</strong> noter que les résultats concernant la théorie <strong>de</strong>s EDSRs quadratiques sonttrès souvent démontrés à l’ai<strong>de</strong> d’un théorème <strong>de</strong> comparaison, le processus Y <strong>de</strong> l’EDSR étant obtenupar convergence monotone d’une suite <strong>de</strong> processus. Ainsi, il semble vain, a priori, <strong>de</strong> vouloir obtenir <strong>de</strong>srésultats <strong>de</strong> convergence dans le cadre quadratique pour les schémas reposant sur <strong>de</strong>s itérations <strong>de</strong> Picard.De même, les schémas implicites semblent moins intéressants à étudier que leurs homologues explicites caren aval se posera le problème <strong>de</strong> la résolution <strong>de</strong> l’équation implicite. Néanmoins, il convient <strong>de</strong> modérerquelque peu nos propos au vu <strong>de</strong> l’article [80] <strong>de</strong> Tevzadze dans lequel l’auteur prouve un résultat d’existenceet d’unicité pour une certaine classe d’EDSRs quadratiques en utilisant un argument <strong>de</strong> point fixe.L’idée principale <strong>de</strong> la démonstration consiste à utiliser pour Z la norme OMB en lieu et place <strong>de</strong> la normeL 2 habituelle.1.4.2 Résultats théoriques nouveauxLe chapitre 5 traite <strong>de</strong> la discrétisation temporelle d’EDSRs markoviennes dont le générateur a unecroissance quadratique par rapport à la variable z. Plus précisément, nous nous intéressons à l’EDSR suivante∫ T∫ TY t = g(X T ) + f(s, X s , Y s , Z s )ds − Z s dW s ,ttavec X le processus solution <strong>de</strong> l’EDSX t = x +∫ t0b(s, X s )ds +∫ t0σ(s)dW s ,g une fonction bornée et f une fonction localement lipschitzienne qui a une croissance quadratique en lavariable z, i.e.|f(., ., ., z) − f(., ., ., z ′ )| C(1 + |z| + |z ′ |) |z − z ′ | .Les résultats principaux <strong>de</strong> ce chapitre reposent entièrement sur une majoration déterministe <strong>de</strong> Z. Nousavons déjà vu que si g est une fonction lipschitzienne alors Z est un processus borné : dans ce cas legénérateur <strong>de</strong> l’EDSR peut être vu comme une fonction lipschitzienne en z et ainsi le problème est résolu.Lorsque l’on suppose g seulement semi-continue inférieurement ou supérieurement alors le théorème 5.4nous assure, sous certaines hypothèses, la majoration suivante :|Z t | M 1 +M 2, 0 t < T. (1.20)(T − t)1/2Ce type d’estimation a tout d’abord été prouvé dans le cas <strong>de</strong> générateurs à croissance linéaire par Fuhrmanet Tessitore dans l’article [43]. Elle est obtenue comme une conséquence <strong>de</strong> la formule <strong>de</strong> Bismut-Elworthy ce qui nécessite notamment <strong>de</strong> supposer l’inversibilité <strong>de</strong> σ. Dans l’article [35], Delbaen, Hu etBao obtiennent la même majoration pour <strong>de</strong>s EDSRs dont le générateur a une croissance sur-quadratiquepar rapport à z. Leur résultat est établi pour <strong>de</strong>s générateurs dépendant uniquement <strong>de</strong> z, néanmoins leurmétho<strong>de</strong> <strong>de</strong> démonstration s’adapte très facilement pour pouvoir traiter <strong>de</strong>s générateurs plus généraux : c.f.le théorème 5.4. Notons que l’idée <strong>de</strong> la démonstration diffère totalement <strong>de</strong> celle employée par Fuhrman etTessitore. Ainsi, dans notre cas il n’est pas nécessaire <strong>de</strong> supposer que σ est inversible, par contre il convient<strong>de</strong> se restreindre aux fonctions σ déterministes. Notons également que la démonstration fait apparaître unehypothèse technique : on suppose qu’il existe λ ∈ R + tel que ∀η ∈ R d∣ t ησ(s)[ t σ(s) t ∇b(s, x) − t σ ′ (s)]η∣ λ ∣ ∣t ησ(s) ∣ 2 . (1.21)


1.4. SIMULATION D’EDSRS DONT LE GÉNÉRATEUR EST À CROISSANCE QUADRATIQUE 17La partie 5.5 traite plus spécifiquement cette hypothèse. Notamment, lorsque σ ne dépend pas du temps, ilest possible <strong>de</strong> donner <strong>de</strong>s formulations équivalentes à (1.21) plus simples et <strong>de</strong> montrer que cette hypothèsesuffisante n’est pas nécessaire pour obtenir (1.20).Pour comprendre comment nous pouvons utiliser cette majoration, il convient <strong>de</strong> rappeler comment onobtient une vitesse <strong>de</strong> convergence dans le cas classique. Intéressons nous à l’erreur sur le processus Y ,l’erreur sur Z s’étudiant <strong>de</strong> la même façon. La démonstration repose toujours sur l’utilisation du lemme <strong>de</strong>Gronwall discret : si nous notons e i = E ∣ ∣ Yti − Yt n2il’erreur au temps ti entre la solution Y et la solution<strong>de</strong> l’EDSR discrétisée en temps Y n , alors on peut montrer une inégalité <strong>de</strong> la formee i [ 1 + C(t i+1 − t i ) + CK 2 (t i+1 − t i ) ] e i+1 + C(t i+1 − t i ) 2 ,avec K la constante <strong>de</strong> lipschitz <strong>de</strong> f en z. Revenons maintenant à notre cadre d’étu<strong>de</strong>. Comme nous avonssupposé que f est localement lipschitz en z et que nous avons l’estimation (1.20), f est donc une fonctionlipschitz en z dont la constante <strong>de</strong> lipschitz dépend du temps et l’inégalité précé<strong>de</strong>nte <strong>de</strong>vient, dans notrecas,[e i 1 + C(t i+1 − t i ) + C t ]i+1 − t ie i+1 + C(t i+1 − t i ) 2 .T − t i+1Notre idée est <strong>de</strong> choisir une nouvelle grille <strong>de</strong> discrétisation en temps, non uniforme, telle que C ti+1−tiT −t i+1nedépend pas <strong>de</strong> i. Cela revient à mettre plus <strong>de</strong> points <strong>de</strong> discrétisation près du temps final T que <strong>de</strong> 0. Pourcela, il suffit <strong>de</strong> définir les n + 1 points <strong>de</strong> discrétisation par{(t k = Tt n = T,1 − ( εT) k/(n−1)), 0 k n − 1,avec ε un paramètre. De manière similaire, nous avons vu dans la partie 1.1.3 que Gobet et Makhlouf ontutilisé dans l’article [50] <strong>de</strong>s schémas <strong>de</strong> discrétisation non uniformes pour simuler <strong>de</strong>s EDSRs à croissancelinéaire dont la fonction terminale g n’est pas lipschitz : c.f. la grille (1.8). Notons que nous n’obtenons pasla même grille <strong>de</strong> discrétisation.À ce sta<strong>de</strong>, plusieurs points techniques sont encore problématiques. Tout d’abord, le générateur f n’estplus une fonction lipschitz en z sur le <strong>de</strong>rnier intervalle <strong>de</strong> temps [t n−1 , T]. De plus, nous avons besoind’adapter à notre cadre d’étu<strong>de</strong> le théorème classique <strong>de</strong> régularité <strong>de</strong>s trajectoires <strong>de</strong> Zhang (c.f. [85]).Pour cela, nous commençons par approcher l’EDSR initiale par l’EDSR suivante :avec∫ TY N,εt = g N (X T ) +tf ε (s, X s , Y N,εs, Z N,ε )ds −s∫ Tf ε (s, x, y, z) :=½s


18 CHAPITRE 1. INTRODUCTIONoù M 1 et M 2 sont issues <strong>de</strong> la majoration (1.20). Grâce à l’estimation (1.20), nous obtenons une vitesse<strong>de</strong> convergence pour l’approximation temporelle <strong>de</strong> cette EDSR approchée (voir théorème 5.15). De plus,l’outil <strong>de</strong>s martingales OMB nous donne à nouveau une estimation <strong>de</strong> l’erreur d’approximation entre (Y, Z)et (Y N,ε , Z N,ε ) (voir proposition 5.9). Finalement, si nous supposons que g est α-Höl<strong>de</strong>r, nous prouvonsque l’on peut choisir N et ε pour obtenir une estimation sur l’erreur globale <strong>de</strong> la forme Cn − 2α(2−α)(2+K)−2+2α(voir théorème 5.20) où K dépend <strong>de</strong> la constante M 2 définie dans la majoration (1.20) et <strong>de</strong>s constantesliées à f, g, b et σ. Nous obtenons donc une vitesse bien meilleure que (1.19) ou (1.18), mais ce résultat n’estpas forcément très intéressant en pratique puisque la vitesse dépend fortement <strong>de</strong> K. Cependant, lorsqueb est bornée, nous prouvons qu’il est possible <strong>de</strong> prendre M 2 aussi petit que l’on veut dans l’estimation(1.20). Dans ce cas, nous obtenons une erreur globale inférieure à C η n −(α−η) , pour tout η > 0 (voirthéorème 5.23).Ce chapitre est organisé comme suit. Des résultats connus concernant les EDSs et les EDSRs sont rappelésdans la partie 5.2. La partie 5.3 est dédiée aux estimations sur Z : nous donnons une première borneuniforme pour Z, puis une borne dépendant du temps et finalement nous précisons le théorème classique<strong>de</strong> régularité <strong>de</strong>s trajectoires <strong>de</strong> Zhang. Puis dans la partie 5.4 nous définissons un schéma <strong>de</strong> discrétisationtemporelle pour <strong>de</strong>s EDSRs quadratiques avec une grille <strong>de</strong> discrétisation non uniforme et nous obtenonsune vitesse <strong>de</strong> convergence explicite. Enfin, la partie 5.5 étudie plus en détail la majoration (1.20) ainsi quel’hypothèse technique (1.21).1.4.3 Résultats numériquesLe chapitre 6 traite <strong>de</strong> la simulation numérique <strong>de</strong>s EDSRs quadratiques. Le but est <strong>de</strong> confronter à lapratique les résultats théoriques obtenus dans le chapitre 5. Notons que les résultats du chapitre précé<strong>de</strong>ntne concernent que la discrétisation temporelle <strong>de</strong> l’EDSR. Pour pouvoir avoir un algorithme implantable ilconvient d’évaluer les espérances conditionnelles. Dans ce but nous utiliserons les métho<strong>de</strong>s développéesdans les articles [47, 48] et la thèse [62] que nous avons déjà décrites dans la partie 1.1.3.


Première partieEDSRs ergodiques19


Chapitre 2EDSRs ergodiques et EDPs avecconditions <strong>de</strong> Neumann au bordRésumé : Nous étudions une nouvelle classe d’équations différentielles stochastiques rétrogra<strong>de</strong>s (ED-SRs en abrégé) qui sont reliées à <strong>de</strong>s conditions <strong>de</strong> Neumann semi-linéaires relatives à <strong>de</strong>s phénomènesergodiques. La particularité <strong>de</strong> ces problèmes est que la constante ergodique apparait dans la conditionau bord. Nous étudions l’existence et l’unicité <strong>de</strong> solutions pour <strong>de</strong> telles EDSREs ainsi que le lien avecles équations aux dérivées partielles. Nous appliquons ensuite ces résultats à <strong>de</strong>s problèmes <strong>de</strong> contrôleergodique optimal.Mots clés. Équations différentielles stochastiques rétrogra<strong>de</strong>s, contrôle ergodique, conditions <strong>de</strong> Neumann,equations aux dérivées partielles ergodiques.Abstract: We study a new class of ergodic backward stochastic differential equations (EBSDEs forshort) which is linked with semi-linear Neumann type boundary value problems related to ergodic phenomena.The particularity of these problems is that the ergodic constant appears in Neumann boundaryconditions. We study the existence and uniqueness of solutions to EBSDEs and the link with partial differentialequations. Then we apply these results to optimal ergodic control problems.Key words. Backward stochastic differential equations, ergodic control, Neumann boundary conditions,ergodic partial differential equations.AMS subject classifications. 60H10, 93E20.This chapter was published inStochastic Processes and their Applications(Volume 119, Issue 9, September 2009, Pages 2945-2969)un<strong>de</strong>r the title:Ergodic BSDEs and related PDEs with Neumann boundary conditions21


22 CHAPITRE 2. EDSRES ET EDPS AVEC CONDITIONS DE NEUMANN AU BORD2.1 IntroductionIn this paper we study the following type of (Markovian) backward stochastic differential equation withinfinite horizon that we shall call ergodic BSDEs or EBSDEs for short: for all 0 t T < +∞,Y x∫ T∫ T∫ Tt = YT x + [ψ(Xs x , Zx s ) − λ]ds + [g(Xs x ) − µ]dKx s − Zs x dW s. (2.1)tIn this equation (W t ) t0 is a d-dimensional Brownian motion and (X x , K x ) is the solution to the followingforward stochastic differential equation reflected in a smooth boun<strong>de</strong>d domain G = {φ > 0}, starting at xand with values in R d :ttXt x = x + ∫ t0 b(Xx s )ds + ∫ t0 σ(Xx s )dW s + ∫ t0 ∇φ(Xx s )dKx s , t 0;Kt x = ∫ t0½Xs x∈∂G dKs x,Kx is non <strong>de</strong>creasing.(2.2)Our aim is to find a triple (Y, Z, µ), where Y, Z are adapted processes taking values in R and R 1×d respectively.ψ : R d × R 1×d → R is a given function. Finally, λ and µ are constants: µ, which is called the“boundary ergodic cost”, is part of the unknowns while λ is a given constant.It is now well known that BSDEs provi<strong>de</strong> an efficient alternative tool to study optimal control problems,see, e.g. [75] or [39]. But to the best of our knowledge, the paper of Fuhrman, Hu and Tessitore [42] isthe only one in which BSDE techniques are applied to optimal control problems with ergodic cost functionalsthat are functionals <strong>de</strong>pending only on the asymptotic behavior of the state (see e.g. costs <strong>de</strong>finedin formulas (2.6) and (2.7) below). This paper <strong>de</strong>als with the same type of EBSDE as equation (2.1) butwithout boundary condition (and in infinite dimension): their aim is to find a triple (Y, Z, λ) such that forall 0 t T < +∞,Y xt = Y x T +∫ Tt∫ T[ψ(Xs x , Zs x ) − λ]ds − Zs x dW s , (2.3)twhere (W t ) t0 is a cylindrical Wiener process in a Hilbert space and X x is the solution to a forwardstochastic differential equation starting at x and with values in a Banach space. In this case, λ is the“ergodic cost”.There is a fairly large amount of literature <strong>de</strong>aling by analytical techniques with optimal ergodic controlproblems without boundary conditions for finite-dimensional stochastic state equations. We just mentionpapers of Arisawa and Lions [4] and Arisawa [2]. In this framework, the problem is treated through the studyof the corresponding Hamilton-Jacobi-Bellman equation. Of course, same questions have been studied inboun<strong>de</strong>d (or unboun<strong>de</strong>d) domains with suitable boundary conditions. For example we refer the rea<strong>de</strong>r toBensoussan and Frehse [14] in the case of homogeneous Neumann boundary conditions and to Lasry andLions [61] for state-constraint boundary conditions. But in all these works, the constant µ does not appearand the authors are interested in the constant λ instead.To the best of our knowledge, the only works where the problem of the constant µ appears in theboundary condition of a boun<strong>de</strong>d domain are those of Arisawa [3] and Barles and Da Lio [11]. The purposeof the present paper is to show that backward stochastic differential equations are an alternative tool to treatsuch “boundary ergodic control problems”. It is worth pointing out that the role of the two constants aredifferent: our main results say that, for any λ and un<strong>de</strong>r appropriate hypothesis, there exists a constant µ forwhich (2.1) has a solution. At first sight λ does not seem to be important and could be incorporated to ψ,but our proof strategy needs it: we first show that, for any µ, there exists a unique constant λ := λ(µ) forwhich (2.1) has a solution and then we prove that λ(R) = R.To be more precise, we begin to <strong>de</strong>al with EBSDEs with zero Neumann boundary condition in a boun<strong>de</strong>dconvex smooth domain. As in [42], we introduce the class of strictly monotonic backward stochastic differentialequationsY x,αt= Y x,αT+∫ Tt[ψ(X x s , Z x,αs) − αY x,α ]ds −s∫ TtZ x,αs dW s , 0 t T < +∞, (2.4)


2.2. EBSDES WITH ZERO NEUMANN BOUNDARY CONDITION 23with α > 0 (see [23] or [78]). We then prove that, roughly speaking, (Y x,α −Y 0,α0 , Z x,α , αY 0,α0 ) converge,as α → 0, to a solution (Y x , Z x , λ) of EBSDE (2.3) for all x ∈ G when (X x , K x ) is the solution of (2.2)(see Theorem 2.6). When there is non-zero Neumann boundary condition, we consi<strong>de</strong>r a function ṽ suchthat ∂ṽ∂n (x) + g(x) = µ, ∀x ∈ ∂G and thanks to the process ṽ(Xx ) we modify EBSDE (2.1) in or<strong>de</strong>r toapply the previous results relating to zero Neumann boundary condition. In Theorems 2.9 and 2.10 weobtain that for any µ, there exists a unique constant λ := λ(µ) for which (2.1) has a solution. µ ↦→ λ(µ) is acontinuous <strong>de</strong>creasing function and, un<strong>de</strong>r appropriate hypothesis, we can show that λ(µ) µ→+∞−→ −∞ andλ(µ) µ→−∞−→ +∞ which allow us to conclu<strong>de</strong>: see Theorem 2.13 when ψ is boun<strong>de</strong>d and Theorems 2.15and 2.20 when ψ is boun<strong>de</strong>d in x and Lipschitz in z. All these results are obtained for a boun<strong>de</strong>d convexdomain but it is possible to prove some additional results when the domain is not convex.Moreover we show that we can find a solution of (2.1) such that Y x = v(X x ) where v is Lipschitz andis a viscosity solution of the elliptic partial differential equation (PDE for short){ Lv(x) + ψ(x, t ∇v(x)σ(x)) = λ, x ∈ G∂v∂n (x) + g(x) = µ, x ∈ ∂G, (2.5)withLf(x) = 1 2 Tr(σ(x)t σ(x)∇ 2 f(x)) + t b(x)∇f(x).The above results are then applied to control problems with costsI(x, ρ) = limsupT →+∞[ ∫1 TT Eρ,T0L(X x s , ρ s )ds +∫ T0[g(X x s ) − µ]dK x s], (2.6)J(x, ρ) = limsupT →+∞{+∞ if E ρ,T [[K T x] = 0,1 ∫ TE ρ,T [KT x]Eρ,T 0 [L(Xx s , ρ s ) − λ]ds + ∫ T0 g(Xx s )dKsx]otherwise,(2.7)where ρ is an adapted process with values in a separable metric space U and E ρ,T <strong>de</strong>notes expectation withrespect to P ρ T the probability un<strong>de</strong>r which W ρ t = W t + ∫ t0 R(ρ s)ds is a Wiener process on [0, T]. R : U →R d is a boun<strong>de</strong>d function. With appropriate hypothesis and by setting ψ(x, z) = inf u∈U {L(x, u) + zR(u)}in (2.1) we prove that λ = inf ρ I(x, ρ) and µ = inf ρ J(x, ρ) where the infimum is over all admissiblecontrols.The paper is organized as follows. In the following section we study EBSDEs with zero Neumannboundary condition. In section 3 we treat the general case of EBSDEs with Neumann boundary condition.In section 4 we study the example of reflected Kolmogorov processes for the forward equation. In section 5we examine the link between our results on EBSDEs and solutions of elliptic semi-linear PDEs with linearNeumann boundary condition. Section 6 is <strong>de</strong>voted to optimal ergodic control problems and the last sectioncontains some additional results about EBSDEs on a non-convex boun<strong>de</strong>d set.2.2 Ergodic BSDEs (EBSDEs) with zero Neumann boundary conditionsLet us first introduce some notations. Throughout this paper, (W t ) t0 will <strong>de</strong>note a d-dimensional Brownianmotion, <strong>de</strong>fined on a probability space (Ω, F, P). For t 0, let F t <strong>de</strong>note the σ-algebra σ(W s ; 0 s t),augmented with the P-null sets of F. The Eucli<strong>de</strong>an norm on R d will be <strong>de</strong>noted by |.|. The operator norminduced by |.| on the space of linear operator is also <strong>de</strong>noted |.|. Given a function f : R d → R k we <strong>de</strong>note|f| ∞ = sup x∈R d |f(x)| and |f| ∞,O = sup x∈O |f(x)| with O a subset of R d .Let O be an open connected subset of R d . C k (O), Cb k(O) and Ck lip (O) will <strong>de</strong>note respectively the set ofreal functions of class C k on O, the set of the functions of class C k which are boun<strong>de</strong>d and whose partial<strong>de</strong>rivatives of or<strong>de</strong>r less than or equal to k are boun<strong>de</strong>d, and the set of the functions of class C k whose partial<strong>de</strong>rivatives of or<strong>de</strong>r k are Lipschitz functions.


24 CHAPITRE 2. EDSRES ET EDPS AVEC CONDITIONS DE NEUMANN AU BORDM 2 (R + , R k ) <strong>de</strong>notes the space consisting of all progressively measurable processes X, with values in R ksuch that, for all T > 0,[ ∫ ]TE |X s | 2 ds < +∞.0Throughout this paper we consi<strong>de</strong>r EBSDEs where forward equations are stochastic differential equations(SDEs for short) reflected in a boun<strong>de</strong>d subset G of R d . To state our results, we use the followingassumptions on G:(G1). There exists a function φ ∈ C 2 b (Rd ) such that G = {φ > 0}, ∂G = {φ = 0} and |∇φ(x)| = 1,∀x ∈ ∂G.(G2).G is a boun<strong>de</strong>d convex set.If x ∈ ∂G, we recall that −∇φ(x) is the outward unit vector to ∂G in x. We also consi<strong>de</strong>r b : R d ↦→ R dand σ : R d ↦→ R d×d , two functions verifying classical assumptions:(H1). There exist two constants K b > 0 and K σ > 0 such that ∀x, y ∈ R d ,and|b(x) − b(y)||σ(x) − σ(y)| K b |x − y|, K σ |x − y|.We can state the following result, see e.g. [64] Theorem 3.1.Lemma 2.1 Assume that (G1) and (H1) hold true. Then for every x ∈ G there exists a unique adaptedcontinuous couple of processes {(X x t , Kx t ); t 0} with values in G × R+ such thatXt x = x + ∫ t0 b(Xx s )ds + ∫ t0 σ(Xx s )dW s + ∫ t0 ∇φ(Xx s )dKx s , t 0;Kt x = ∫ t0½Xs x∈∂G dKs x,Kx is non <strong>de</strong>creasing.This section is <strong>de</strong>voted to the following type of BSDE with infinite horizon(2.8)Y xt∫ T∫ T= YT x + [ψ(Xs x , Zx s ) − λ]ds − Zs x dW s, 0 t T < +∞, (2.9)twhere λ is a real number and is part of the unknowns of the problem and ψ : G × R d → R verifies thefollowing general assumptions:t(H2).There exist K ψ,x 0 and K ψ,z 0 such that|ψ(x, z) − ψ(x ′ , z ′ )| K ψ,x |x − x ′ | + K ψ,z |z − z ′ |, ∀x, x ′ ∈ G, z, z ′ ∈ R d .We notice that ψ(., 0) is continuous so there exists a constant M ψ verifying |ψ(., 0)| M ψ . As in [42],we start by consi<strong>de</strong>ring an infinite horizon equation with strictly monotonic drift, namely, for α > 0, theequationY x,αt= Y x,αT+∫ Tt[ψ(X x s , Zx,α s) − αY x,α ]ds −s∫ TtZ x,αs dW s , 0 t T < +∞. (2.10)Existence and uniqueness have been first studied by Briand and Hu in [23] and then generalized by Royerin [78]. They have established the following result:Lemma 2.2 Assume that (G1), (H1) and (H2) hold true. Then there exists a unique solution (Y x,α , Z x,α )to BSDE (2.10) such that Y x,α is a boun<strong>de</strong>d adapted continuous process and Z x,α ∈ M 2 (R + , R 1×d ).Furthermore, |Y x,αt | M ψ /α, P-a.s. for all t 0.


2.2. EBSDES WITH ZERO NEUMANN BOUNDARY CONDITION 25We <strong>de</strong>finev α (x) := Y x,α0 .It is worth noting that |v α (x)| M ψ /α and uniqueness of solutions implies that v α (Xt x) = Y x,αt . Thenext step is to show that v α is uniformly Lipschitz with respect to α. Letη :={ t(x − y)(b(x) − b(y))supx,y∈G,x≠y|x − y| 2 + Tr[(σ(x) − }σ(y))t (σ(x) − σ(y))]2|x − y| 2 .We will use the following assumption:(H3). η + K ψ,z K σ < 0.Remark 2.3 When σ is a constant function, (H3) becomesi.e. b is dissipative.{ t}(x − y)(b(x) − b(y))supx,y∈G,x≠y|x − y| 2 < 0,Proposition 2.4 Assume that (G1), (G2), (H1), (H2) and (H3) hold. Then we have, for all α > 0 andx, x ′ ∈ G,|v α (x) − v α (x ′ K ψ,x)| |x − x ′ |.−η − K ψ,z K σProof. We use a Girsanov argument due to P. Briand and Y. Hu in [23]. Let x, x ′ ∈ G, we set Ỹ α :=Y x,α − Y x′ ,α , ˜Z α := Z x,α − Z x′ ,α ,⎧⎨β s =⎩ψ(Xs x′ , ,αZx′ s ) − ψ(Xs x′ , Zx,α s ) t|Z x′ ,α(Zx ′ ,αs − Zs x,α | 2 s− Zs x,α ) if Z x′ ,αs − Zs x,α ≠ 00 otherwise,f α (s) =ψ(X x s , Z x,αs ) − ψ(X x′s , Z x,αs ),and ˜W t = ∫ t0 β sds + W t . By hypothesis (H2), β is an R d valued adapted process boun<strong>de</strong>d by K ψ,z , sowe are allowed to apply the Girsanov theorem: for all T ∈ R + there exists a probability Q T un<strong>de</strong>r which( ˜W t ) t∈[0,T] is a Brownian motion. Then, from equation (2.10) we obtainỸ αt= Ỹ α T − α ∫ TtỸ αs ds + ∫ TApplying Itô’s formula to e −α(s−t) Ỹ αs , we obtain∫ TỸt α = e −α(T −t) ỸT α +|Ỹ t α | ]e −α(T −t) E[|Ỹ QT T α ∣| ∣F t +[ ∣ ]e −α(T −t) E QT |Ỹ T α | ∣∣Ft+K ψ,x∫ Tttt∫ Tf α (s)ds −t∫ Te −α(s−t) f α (s)ds −∫ Tt˜Z α s d ˜W s , 0 t T. (2.11)te −α(s−t) ˜Zα s d ˜W se −α(s−t) ∣E[|f QT α (s)| ∣F t]dse −α(s−t) E QT [|X x s − Xx′ s |2 ∣ ∣∣Ft] 1/2ds.To conclu<strong>de</strong> we are going to use the following lemma whose proof will be given after the proof of Theorem:


26 CHAPITRE 2. EDSRES ET EDPS AVEC CONDITIONS DE NEUMANN AU BORDLemma 2.5 Assume that (G1), (G2), (H1), (H2) and (H3) hold. For all 0 t s T ,[ ∣ ]E QT |Xs x − ∣∣Ft Xx′ s |2 e 2(η+K ψ,zK σ)(s−t) |Xt x − Xx′ t |2 .Furthermore, if σ is constant then, for all 0 t s, we have|X x s − Xx′ s | eη(s−t) |X x t − Xx′ t |.From the last inequality, we <strong>de</strong>ducewhich implies[ ∣ ]∫ T|Ỹ t α | e−α(T −t) E QT |Ỹ T α | ∣∣Ft+ K ψ,x |Xt x − Xx′ t | e (−α+η+K ψ,zK σ)(s−t) ds,t|Ỹ αt | e −α(T −t) M [ ]ψ 1 − e(−α+η+Kα + K ψ,z K σ)(T −t)ψ,x|Xt x − Xt x′|.α − η − K ψ,z K σFinally, let T → +∞ and the claim follows by setting t = 0.⊓⊔Proof of Lemma 2.5. Let us apply Itô’s formula to e −2(η+K ψ,zK σ)(s−t) |X x s − X x′s | 2 :e −2(η+K ψ,zK σ)(s−t) |Xs x − Xx′ s |2 = |Xt x − Xx′+2+++−∫ st∫ st∫ st∫ st∫ stt |2e −2(η+K ψ,zK σ)(u−t) t (X x u − X x′u )(b(X x u) − b(X x′u ))du12 Tr[(σ(Xx u) − σ(X x′u )) t (σ(X x u) − σ(X x′u ))]dut(Xxu − X x′u )∇φ(Xx u )dKx u − ∫ stt(Xxu − Xu x′)∇φ(Xx′ u )dKx′ ut(Xxu − X x′u )(σ(X x u) − σ(X x′u ))(d ˜W u − β u du)(η + K ψ,z K σ )|X x u − Xx′ u |2 du.G is a convex set, so t (x − y)∇φ(x) 0 for all (x, y) ∈ ∂G × G. Furthermore |β s | K ψ,z and σ isK σ -Lipschitz. By <strong>de</strong>finition of η we obtain,e 2(−η−K ψ,zK σ)(s−t) |Xs x − Xx′ s |2 |Xt x − Xx′+2∫ stt |2e −2(η+K ψ,zK σ)(s−t) [ t(Xxs − X x′s )(σ(X x s ) − σ(X x′s ))]d ˜W s .Taking the conditional expectation of the inequality we get the first result. To conclu<strong>de</strong>, the stochasticintegral is a null function when σ is a constant function.⊓⊔As in [42], we now set¯v α (x) = v α (x) − v α (0),Kthen we have |¯v α (x)| ψ,x−η−K ψ,z K σ|x| for all x ∈ G and all α > 0, according to Proposition 2.4. Moreover,α|v α (0)| M ψ by Lemma 2.2. Thus we can construct by a diagonal procedure a sequence (α n ) n∈N ց 0such that, for all x ∈ G ∩ Q d , ¯v αn (x) → ¯v(x) and α n v αn (0) → ¯λ. Furthermore, ¯v α is aK ψ,x−η−K ψ,z K σ-KLipschitz function for every α. So ¯v can be exten<strong>de</strong>d to a ψ,x−η−K ψ,z K σ-Lipschitz function <strong>de</strong>fined on thewhole G, thereby ¯v αn (x) → ¯v(x) for all x ∈ G. Thanks to this construction, we obtain the followingtheorem which can be proved in the same way as that of Theorem 4.4 in [42].Theorem 2.6 (Existence of a solution) Assume that (G1), (G2), (H1), (H2) and (H3) hold. Let ¯λ be thereal number and ¯v the function constructed previously. We <strong>de</strong>fine Ȳ tx := ¯v(X t x ). Then, there exists aprocess ¯Z x ∈ M 2 (R + , R 1×d ) such that P − a.s. (Ȳ x , ¯Z x , ¯λ) is a solution of the EBSDE (2.9) for allx ∈ G. Moreover there exists a measurable function ¯ζ : R d → R 1×d such that ¯Z t x = ¯ζ(X t x ).


2.3. EBSDES WITH NON-ZERO NEUMANN BOUNDARY CONDITIONS 27We remark that the solution to EBSDE (2.9) is not unique. In<strong>de</strong>ed the equation is invariant with respectto addition of a constant to Y . However we have a uniqueness result for λ.Theorem 2.7 (Uniqueness of λ) Assume that (G1), (H1) and (H2) hold. Let (Y, Z, λ) be a solution ofEBSDE (2.9). Then λ is unique among solutions (Y, Z, λ) such that Y is a boun<strong>de</strong>d continuous adaptedprocess and Z ∈ M 2 (R + , R 1×d ).Proof. We consi<strong>de</strong>r (Y, Z, λ) and (Y ′ , Z ′ , λ ′ ) as two solutions of the EBSDE (2.9). Let ˜λ = λ ′ − λ,Ỹ = Y ′ − Y and ˜Z = Z ′ − Z. We have, for all T ∈ R +∗ ,with˜λ = T −1 [ Ỹ T − Ỹ0⎧⎨β s =⎩]+ T −1 ∫ T0˜Z t β t dt − T −1 ∫ T0˜Z t dW tψ(X x s , Z′ s ) − ψ(Xx s , Z s)|Z ′ s − Z s| 2 t (Z ′ s − Z s) if Z ′ s − Z s ≠ 00 elsewhere.(2.12)β is boun<strong>de</strong>d: by the Girsanov theorem there exists a probability measure Q T un<strong>de</strong>r which ( ˜W t = W t −∫ t0 β sds) t∈[0,T] is a Brownian motion. Computing the expectation with respect to Q T we obtain∣ ]∣∣∣˜λ ∣ = T −1 ∣∣E Q T ∣∣ C[ỸT − Ỹ0 T ,because Ỹ is boun<strong>de</strong>d. So we can conclu<strong>de</strong> the proof by letting T → +∞.⊓⊔To conclu<strong>de</strong> this section we will show a proposition that will be useful later.Proposition 2.8 Assume that (G1) and (H1) hold, G is a boun<strong>de</strong>d set and η < 0. Then there exists a uniqueinvariant measure ν for the process (X t ) t0 .Proof. The existence of an invariant measure ν for the process (X t ) t0 is already stated in [79], Theorem1.21. Let ν and ν ′ be two invariant measures. For all f ∈ Clip 0 (Rd ) and all t ∈ R + we have∫ ∫ ∣ ∫∫∣∣∣ ∣ fdν − fdν ′ =∣ E[f(Xt x )]ν(dx) − E[f(X y t )]ν′ (dy)∣GG∫ ∫=∣ E[f(Xt x ) − f(X y t )]ν(dx)ν ′ (dy)∣G G∫ ∫ [ K f E |Xt x − Xy t |2] 1/2ν(dx)ν ′ (dy),Gwith K f the Lipschitz constant of f. We are able to apply Lemma 2.5 with ψ = 0: for all t ∈ R +∫∣∫fdν −fdν ′ ∣ ∣∣∣ K f e ηt ∫GG∫G|x − y|ν(dx)ν ′ (dy) t→+∞−→ 0.Then the claim ends by the use of a <strong>de</strong>nsity argument and the monotone class theorem.⊓⊔2.3 EBSDEs with non-zero Neumann boundary conditionsWe are now interested in EBSDEs with non-zero Neumann boundary conditions: we are looking for solutionsto the following type of BSDE, for all 0 t T < +∞,Y xt = Y x T +∫ Tt[ψ(X x s , Z x s ) − λ]ds +∫ Tt∫ T[g(Xs x ) − µ]dKs x − Zs x dW s , (2.13)twhere λ is a parameter, µ is part of the unknowns of the problem, ψ still verifies (H2) and g : G → Rverifies the following general assumption:


28 CHAPITRE 2. EDSRES ET EDPS AVEC CONDITIONS DE NEUMANN AU BORD(F1).g ∈ C 1 lip (G).Moreover we use an extra assumption on φ:(G3). φ ∈ C 2 lip (Rd ).In this situation we will say that (Y, Z, µ) is a solution of EBSDE (2.13) with λ fixed. But, due toour proof strategy, we will study firstly a modified problem where µ is a parameter and λ is part of theunknowns. In this case, we will say that (Y, Z, λ) is a solution of EBSDE (2.13) with µ fixed. We establishthe following result of existence:Theorem 2.9 (Existence of a solution) Assume that (G1), (G2), (G3), (H1), (H2), (H3) and (F1) hold true.Then for any µ ∈ R there exist λ ∈ R, v ∈ Clip 0 (G), a measurable function ζ : Rd → R 1×d such that, if we<strong>de</strong>fine Ytx := v(Xt x ) and Zt x := ζ(Xt x ) then Z x ∈ M 2 (R + , R 1×d ) and P − a.s. (Y x , Z x , λ) is a solutionof EBSDE (2.13) with µ fixed, for all x ∈ G.Proof. Our strategy is to modify EBSDE (2.13) in or<strong>de</strong>r to apply Theorem 2.6. According to Theorem3.2 of [60] there exists α ∈ R and ṽ ∈ Clip 2 (G) such that{ △ṽ − αṽ = 0 on G∂ṽ∂n(x) + g(x) = µ, ∀x ∈ ∂G.We set Ỹ xt = ṽ(X x t ) and ˜Z x t = t ∇ṽ(X x t )σ(X x t ). These processes verify for all 0 t T < +∞,withỸ xt = Ỹ x T − ∫ Tt∫ T∫ TLṽ(Xs x )ds + [g(Xs x ) − µ]dKx s −tLf(x) = 1 2 Tr(σ(x)t σ(x)∇ 2 f(x)) + t b(x)∇f(x).t˜Z x s dW s,We now consi<strong>de</strong>r the following EBSDE with infinite horizon:Ȳ xt = Ȳ x T +∫ Tt∫ T[ ¯ψ(X s x , ¯Z s x ) − λ]ds −t¯Z x s dW s , 0 t T < +∞, (2.14)with ¯ψ(x, z) = Lṽ(x) + ψ(x, z + t ∇ṽ(x)σ(x)). Since σ, ψ and <strong>de</strong>rivatives of ṽ are Lipschitz functions,there exists a constant K ˜ψ,xsuch that we have for all x, x ′ ∈ G and z, z ′ ∈ R d| ¯ψ(x, z) − ¯ψ(x ′ , z ′ )| K ¯ψ,x |x − x ′ | + K ψ,z |z − z ′ | .In particular, ˜ψ and ψ are two K ψ,z -Lipschitz functions in z. So we are able to apply Theorem 2.6: thereexist ¯λ ∈ R, ¯v ∈ C 0 lip (G) and a measurable function ¯ξ : R d → R 1×d such that (Ȳ x := ¯v(X x ), ¯Z x :=¯ξ(X x ), ¯λ) is a solution of EBSDE (2.14). We setY xt := Ỹ xt + Ȳ xt = ṽ(X x t ) + ¯v(X x t ),Z x t := ˜Z x t + ¯Z x t = t ∇ṽ(X x t )σ(Xx t ) + ¯ξ(X x t ).Then (Y x , Z x , ¯λ) is a solution of EBSDE (2.13) linked to µ.We have also a result of uniqueness for λ that can be shown exactly as Theorem 2.7:Theorem 2.10 (Uniqueness of λ) Assume that (G1), (H1) and (H2) hold. Let (Y, Z, λ) a solution of EB-SDE (2.13) with µ fixed. Then λ is unique among solutions (Y, Z, λ) such that Y is a boun<strong>de</strong>d continuousadapted process and Z ∈ M 2 (R + , R 1×d ).Thanks to the uniqueness we can <strong>de</strong>fine the map µ ↦→ λ(µ) and study its properties.Proposition 2.11 Assume that (G1), (G2), (G3), (H1), (H2), (H3) and (F1) hold true. Then λ(µ) is a<strong>de</strong>creasing continuous function on R.⊓⊔


2.3. EBSDES WITH NON-ZERO NEUMANN BOUNDARY CONDITIONS 29Proof. Let (Y x , Z x , λ) and (Ỹ x , ˜Z x , ˜λ) be two solutions of (2.13) linked to µ and ˜µ. We set Ȳ x :=Ỹ x − Y x and ¯Z x := ˜Z x − Z x . These processes verify for all T ∈ R +Ȳ x0 = Ȳ x T + ∫ T0[ψ(Xxs , ˜Z x s ) − ψ(Xx s , Zx s )] ds + [λ − ˜λ]T + [µ − ˜µ]K x T − ∫ T0¯Z x s dW s. (2.15)As usual, we set⎧⎨β s =⎩ψ(X x s , ˜Z x s ) − ψ(Xx s , Zx s )| ˜Z x s − Z x s | 2 t ( ˜Z x s − Z x s ) if ˜Z x s − Z x s ≠ 00 otherwise,,and ˜W t = − ∫ t0 β sds + W t . According to the Girsanov theorem there exists a probability Q T un<strong>de</strong>r which( ˜W t ) t∈[0,T] is a Brownian motion. Then we have]0[Ȳ = x EQT T +[λ − ˜λ]T]+ [µ − ˜µ]E[K QT Tx . (2.16)} {{ }} {{ }M0Ȳ xIf we suppose that µ ˜µ and λ < ˜λ thenȲ0 x [λ − ˜λ]T + M T →+∞−→ −∞;this is a contradiction. So µ ˜µ ⇒ λ ˜λ. To show the continuity of λ we assume that |˜µ − µ| ε withε > 0. Then∣∣˜λ − λ∣ = 1 ]∣∣∣E[Ȳ QT xT 0 − Ȳ T x + [˜µ − µ]KTx ∣∣ 2M T + ε [ ]T EQT KTx .]Let us now prove a lemma about the bound on E[K QT tx .Lemma 2.12 There exists a constant C such that]E[K QT tx C(1 + t), ∀T ∈ R + , ∀t ∈ [0, T], ∀x ∈ G.Proof of the lemma.Applying Itô’s formula to φ(X x t ) we have for all t ∈ R + and all x ∈ G∫ t ∫ tKt x = φ(Xx t ) − φ(x) − Lφ(Xs x )ds − t ∇φ(Xs x )σ(Xx s )dW s. (2.17)00ThenE QT [K x t]= E QT [φ(X x t ) − φ(x) −∫ t[ E QT |φ(Xt x )| + |φ(x)| +} {{ } } {{ }C/2 C/2 C(1 + t).0∫ tLφ(X x s )ds −0∫ t0|Lφ(Xs x )| ds +} {{ }C/2t ∇φ(Xs x )σ(Xs x )(β s ds + d ˜W]s )∫ t0∣ ]∣ t ∇φ(Xs x )σ(Xs x )β s ds} {{ }C/2Let us return back to the proof of Proposition 2.11. By applying Lemma 2.12 we obtain∣∣˜λ − λ∣ 2M T + T + 1 T →+∞Cε −→ Cε.TThe proof is therefore completed.To prove our second theorem of existence we need to introduce a further assumption.⊓⊔⊓⊔


30 CHAPITRE 2. EDSRES ET EDPS AVEC CONDITIONS DE NEUMANN AU BORD(F2).1. |ψ| is boun<strong>de</strong>d by M ψ ;2. E ν [Lφ] := ∫ Lφdν < 0 with ν the invariant measure for the process (X t ) t0 .Theorem 2.13 (Existence of a solution) Assume that (G1), (G2), (G3), (H1), (H2), (H3), (F1) and (F2)hold true. Then for any λ ∈ R there exist µ ∈ R, v ∈ Clip 0 (G), a measurable function ζ : Rd → R 1×d suchthat, if we <strong>de</strong>fine Ytx := v(Xt x ) and Zt x := ζ(Xt x ) then Z x ∈ M 2 (R + , R 1×d ) and P − a.s. (Y x , Z x , µ) isa solution of EBSDE (2.13) with λ fixed, for all x ∈ G. Moreover we have|λ(µ) − λ(0) − µE ν [Lφ]| 2M ψ .Proof. Let (Y, Z, λ(µ)) and (Ỹ , ˜Z, λ(0)) be two solutions of equation (2.13) linked to µ and 0 respectively.Let ν the invariant measure for the process (X t ) t0 . We set Ȳ x := Ỹ x − Y x . Then, from equation(2.15), we <strong>de</strong>duce for all T ∈ R +∫] ∫ [ ∫ T (xE[Ȳ 0 − Ȳ T x − [λ(µ) − λ(0)]T − µKTx ν(dx) = E ψ(Xs x , ˜Z) ]s x ) − ψ(Xs x , Zs x ) ds ν(dx),GG 0from which we obtain that∫]∫ [ ]x∣ E[Ȳ 0 − Ȳ Tx ν(dx) − [λ(µ) − λ(0)]T − µ E KTx ν(dx)∣ 2M ψT.GGBy using equation (2.17) we have∫ [ ] ∫∫ TE ν(dx) = E[φ(XT x ) − φ(x) − Lφ(Xs ]ν(dx)x )dsGK x TG= E ν [φ − φ] −]= −E ν[Lφ T.∫ T0∫G0]E[Lφ(Xs x ) ν(dx)dsCombining the last two relations, we get∫ ]G E x[Ȳ 0 − Ȳ Tx ν(dx)[Lφ] ∣ ∣∣∣∣ − [λ(µ) − λ(0)] + µE ν 2M ψ .∣ TThus letting T → +∞ we conclu<strong>de</strong> that|λ(µ) − λ(0) − µE ν [Lφ]| 2M ψ .So, we obtainλ(µ) µ→+∞−→ −∞ and λ(µ) µ→−∞−→ +∞.Finally the result is a direct consequence of the intermediate value theorem.⊓⊔The hypothesis E ν [Lφ] < 0 says that the boundary has to be visited recurrently. When σ is non-singularon G we show that this hypothesis is always verified.Proposition 2.14 Assume that (G1), (G2) and (H1) hold true. We assume also that σ(x) is non-singularfor all x ∈ G. Then for the invariant measure ν of the process (X t ) t0 we have E ν [Lφ] < 0.Proof. We already show that ∫ [[ ]G[K E T]ν(dx) x = −E ν Lφ]T , which implies that E ν Lφ 0. IfE ν [Lφ] = 0, then for ν-a.e. x ∈ G and for all t ∈ R + , Kt x = 0. So, for ν-a.e. x ∈ G, the process Xx is thesolution of the stochastic differential equationX x t = x +∫ t0˜b(Xxs )ds +∫ t0˜σ(X x s )dW s , t 0, (2.18)with ˜b and ˜σ <strong>de</strong>fined on R d by ˜σ(x) = σ(proj G(x)) and ˜b(x) = b(proj G(x)). But according to [52](Corollary 2 of Theorem 7.1), the solution of equation (2.18) is a recurrent Markov process on R d . Thusthis process is particularly unboun<strong>de</strong>d: we have a contradiction.⊓⊔When σ is singular on G then (F2) is not necessarily verified.


2.3. EBSDES WITH NON-ZERO NEUMANN BOUNDARY CONDITIONS 31Examples.⎜• Let G = B(0, 1), φ(x) = 1−|x|22, b(x) = −x and σ(x) = ⎝⎛⎞x 1 0. ..0 x d⎟⎠ on G. Then δ 0 is theinvariant measure and Lφ(0) = 0. If we set d = 1, ψ = 0 and g = 0 then solutions of the differentialequation (2.5) without boundary condition are {A i + B i x 3 − 2 3 λln |x|, (A i, B i ) ∈ R 2 } on [−1, 0[and ]0, 1]. Thereby boun<strong>de</strong>d continuous solutions are { A − µ 3 |x|3 , A ∈ R } and λ(µ) = 0.• Let G = B(0, 1), φ(x) = 1−|x|22, b(x) = −x and σ(x) =(Ik 00 0 d−k)on G.F k := { x ∈ R d /x k+1 = ... = x d = 0 } ≃ R k is a stationary subspace for solutions of equation (2.8).Let ν k the invariant measure on R k for ˜φ(x) = 1−|x|22, ˜b(x) = −x and ˜σ(x) = I k . According toProposition 2.14, E νk [ ˜L˜φ] < 0. Then ν := ν k ⊗δ 0R is the invariant measure for the initial problemd−kand E ν [Lφ] < 0.Theorem 2.13 is not totally satisfactory for two reasons: we do not have a result on the uniqueness ofµ and ψ is usually not boun<strong>de</strong>d in optimal ergodic control problems. So we introduce another result ofexistence with a different hypothesis.(F2’). −Lφ(x) > | t ∇φσ| ∞,GK ψ,z , ∀x ∈ G.Theorem 2.15 (Existence and uniqueness of a solution) Assume that (G1), (G2), (G3), (H1), (H2), (H3),(F1) and (F2’) hold true. Then for any λ ∈ R there exist µ ∈ R, v ∈ Clip 0 (G), a measurable functionζ : R d → R 1×d such that, if we <strong>de</strong>fine Yt x := v(Xt x) and Zx t := ζ(Xt x) then Zx ∈ M 2 (R + , R 1×d )and P − a.s. (Y x , Z x , µ) is a solution of EBSDE (2.13) with λ fixed, for all x ∈ G. Moreover µ isunique among solutions (Y, Z, µ) with λ fixed such that Y is a boun<strong>de</strong>d continuous adapted process andZ ∈ M 2 (R + , R 1×d ).Proof. Let (Y, Z, λ(µ)) and (Ỹ , ˜Z, λ(˜µ)) be two solutions of equation (2.13) linked to µ and ˜µ. As inthe proof of Proposition 2.11 we set Ȳ x := Ỹ x − Y x and ¯Z x := ˜Z x − Z x . From equation (2.16), we have:[ Kx ](µ − ˜µ)E QT T= 1 x(ȲT T 0 − E [ QT ȲTx ] ) − (λ(µ) − λ(˜µ)).Ȳ x is boun<strong>de</strong>d, so E QT [KxT /T ] has a limit l µ,˜µ 0 as T → +∞ when µ ≠ ˜µ such that(λ(µ) − λ(˜µ)) + (µ − ˜µ)l µ,˜µ = 0. (2.19)By the use of equation (2.17) we have] [∫ T ∫ TE[K QT Tx = E QT φ(XT x ) − φ(x) − Lφ(Xs x )ds −E QT [ KxTT]− 2|φ| ∞T[+0− sup Lφ − | t ∇φσ| ∞,GK ψ,z].x∈G0]t ∇φ(Xs x )σ(Xx s )β sdsWe set c = − sup x∈GLφ − | t ∇φσ| ∞,GK ψ,z . Since hypothesis (F2’) holds true, we have c > 0 andl µ,˜µ c > 0 when µ ≠ ˜µ. Thus, thanks to equation (2.19),λ(µ) µ→+∞−→ −∞ and λ(µ) µ→−∞−→ +∞.Once again the existence result is a direct consequence of the intermediate value theorem. Moreover, ifλ(µ) = λ(˜µ) then µ = ˜µ.⊓⊔Remark 2.16 By applying Lemma 2.12 we show that E QT [KxT /T ] is boun<strong>de</strong>d. So we have:0 < c l µ,˜µ C, ∀µ ≠ ˜µ.Remark 2.17 If we have interest in the second example <strong>de</strong>alt in this section we can see that (F2’) hold truewhen k/2 − 1 > K ψ,z .


32 CHAPITRE 2. EDSRES ET EDPS AVEC CONDITIONS DE NEUMANN AU BORD2.4 Study of reflected Kolmogorov processes caseIn this section, we assume that ((X t ) t0 , (P x ) x∈G) is a reflected Kolmogorov process with a unique invariantprobability measure. We <strong>de</strong>note P ν (.) := ∫ G P x(.)ν(dx). Then ((X t ) t0 , P ν ) is a stationary ergodicprocess. The aim is to obtain an equivalent to Theorem 2.15 with a less restrictive hypothesis than (F2’).We set σ = √ 2I and b = −∇U where U : R d → R verifies the following assumptions:(H4). U ∈ C 2 (R d ), ∇U is a Lipschitz function on R d and ∇ 2 U cI with c > 0.We notice that (H4) implies (H3) and (H1). Moreover, without loss of generality, we use an extra assumptionon φ:(G4). ∇φ is a Lipschitz function on R d .To study the reflected process we will introduce the related penalized process:X n,xt= x −∫ t0∇U n (X n,xs )ds + √ 2B t , t 0, x ∈ R d , n ∈ N,with U n = U + nd 2 (., G). According to [44], d 2 (., G) is twice differentiable and ∇ 2 d 2 (., G) 0. So, wehave ∇ 2 U n cI. Let L n the transition semi-group generator of (X n t ) t0 with domain D 2 (L n ) and ν n itsinvariant measure given byν n (dx) = 1∫exp(−U n (x))dx, with N n = exp(−U n (x))dx.N n R dProposition 2.18 E νn [f] n→+∞−→ E ν [f] for all Lipschitz functions f.The proof is given in the appendix. We obtain a simple corollary that we also prove in the appendix:Corollary 2.19 ν(dx) = 1 N exp(−U(x))1 x∈G dx, with N = ∫ G exp(−U(x))dx. Moreover, ν n convergesnarrowly to ν.We now introduce a different assumption that will replace (F2’):(F2”).( δ√2c+ √ 2|∇φ| ∞,G)K ψ,z < −E ν [Lφ],with δ = sup x∈G( t ∇U(x)x) − inf x∈G( t ∇U(x)x).Theorem 2.20 (Existence and uniqueness of a solution) Theorem 2.15 remains true if we assume that(G1), (G2), (G3), (G4), (H2), (H4), (F1) and (F2”) hold.Proof. If we use notations of the previous section, it is sufficient to show that there exists a constant∫ [ ]KxC > 0 such that lim T →+∞ G EQT TTν(dx) C for all µ ≠ ˜µ. Thanks to hypothesis (F2”) we pick εin the interval] δ√ K ψ,z , −E ν [Lφ] − √ [2|∇φ| 2c ∞,GK ψ,z ,and consi<strong>de</strong>r the setA T :={− 1 T∫ T0Lφ(X s )ds −E ν [Lφ] − ε}⊂ G × Ω,


2.4. STUDY OF REFLECTED KOLMOGOROV PROCESSES CASE 33with T > 0. We have∫ [ Kx ]E QT Tν(dx) =TG∫ [ φ(XxE QT T )− φ(x)G T T− 1 T√ ∫ 2 T ]−t ∇φ(Xs x T)β sds ν(dx)0− 2|φ| ∞T∫ T0Lφ(X x s )ds∫ [+ E QT (−E ν [Lφ] − ε)1c A T− |Lφ| ∞,G1 AT]ν(dx)G− √ 2|∇φ| ∞,GK ψ,z− 2|φ| ∞T∫−|Lφ| ∞,G+ (−E ν [Lφ] − ε)G( ∫)1 − Q T (A T )ν(dx)GQ T (A T )ν(dx) − √ 2|∇φ| ∞,GK ψ,z .By using Höl<strong>de</strong>r’s inequality with p > 1 and q > 1 such that 1/p + 1/q = 1 we obtain, for all x ∈ G,[ ( ∫ TQ T (A T ) = E exp β s dW s − 1 ∫ ) ]T|β s | 2 ds 1 AT0 2 0[ ( ∫ T ∫ T∫ )] 1/p E exp p β s dW s − p2|β s | 2 p(p − 1) Tds + |β s | 2 ds P x (A T ) 1/q0 2 02 0( )(p − 1) exp K 22ψ,zT P x (A T ) 1−1/p .So∫G( (p − 1)Q T (A T )ν(dx) exp2K 2 ψ,zT)P ν (A T ) 1−1/p .To conclu<strong>de</strong> we are going to use the following proposition which will be proved in the appendix thanks toTheorem 3.1 of [51]:Proposition 2.21 Assume that (G1), (G2), (G3), (G4), (H1) and (H4) hold. Then( )P ν (A T ) exp − cε2 Tδ 2 .So⎡∫( )p(p − 1)Q T (A T )ν(dx) exp ⎢ K 2 (p − 1)cε2 Tψ,z −G⎣ 2δ} {{ 2 ⎥p ⎦ .}B pB p is a trinomial in p that has two different real roots 1 andG2cε2δ 2 K 2 ψ,z⎤> 1 because ε > δK ψ,z / √ 2c byhypothesis (F2”). So we are able to find p > 1 such that B p < 0. Then ∫ G Q T(A T )ν(dx) T →+∞−→ 0 and∫ [ Kx ]lim E QT Tν(dx) −E ν [Lφ] − √ 2|∇φ|T →+∞ T∞,GK ψ,z − ε > 0.Remark 2.22 All these results stay true if σ(x) = √ (Ik 02example, is a stationary subspace of ∇U. We can even replace (F2”) by(√12c δ + √ 2|∇φ| ∞,G∩Fk)⊓⊔)and F0 0 k , <strong>de</strong>fined in the previousd−kK ψ,z < −E ν [Lφ],with δ = sup x∈G∩Fk( t ∇U(x)x) − inf x∈G∩Fk( t ∇U(x)x). In<strong>de</strong>ed, as we see in the previous example, ν isnon-zero at most on the set G ∩ F k . So it is possible to restrict the process to the subspace F k .


34 CHAPITRE 2. EDSRES ET EDPS AVEC CONDITIONS DE NEUMANN AU BORD2.5 Probabilistic interpretation of the solution of an elliptic PDE withlinear Neumann boundary conditionConsi<strong>de</strong>r the semi-linear elliptic PDE:{ Lv(x) + ψ(x, t ∇v(x)σ(x)) = λ,∂v∂n (x) + g(x) = µ, x ∈ ∂G, x ∈ G(2.20)withLf(x) = 1 2 Tr(σ(x)t σ(x)∇ 2 f(x)) + t b(x)∇f(x).The solution v of this semi-linear problem is a scalar function and λ, µ are constants: In some cases µ is agiven constant and λ is part of the unknowns, and it is the contrary in the other cases. We will see now thatv, <strong>de</strong>fined in Theorem 2.9, in Theorem 2.13, in Theorem 2.15 or in Theorem 2.20, is a viscosity solution ofPDE (2.20). See e.g. [74] Definition 5.2 for the <strong>de</strong>finition of a viscosity solution.Theorem 2.23 Assume hypothesis of Theorem 2.9. For any µ ∈ R, there exists a solution (v(X . ), ζ(X . ), λ)of the EBSDE (2.9) with µ fixed. Then (v, λ) ∈ Clip 0 (G) ×R is a viscosity solution of the elliptic PDE (2.20)with µ fixed.Theorem 2.24 Assume hypothesis of Theorem 2.13, Theorem 2.15 or Theorem 2.20. For any λ ∈ R, thereexists a solution (v(X . ), ζ(X . ), µ) of the EBSDE (2.9) with λ fixed. Then (v, µ) ∈ Clip 0 (G)×R is a viscositysolution of the elliptic PDE (2.20) with λ fixed.The proof of these results is very standard and can be easily adapted from [74], Theorem 4.3.Remark 2.25 For any λ, uniqueness of solution (v, µ), up to additive constants for v, is given by Barlesand Da Lio in Theorem 4.4 of [11] with different hypothesis:• G is a boun<strong>de</strong>d domain with a W 3,∞ boundary,• the outward unit normal vector to ∂G is a Lipschitz continuous function on ∂G,• there exists K 0 such that|ψ(x, z) − ψ(x ′ , z ′ )| K(|x − x ′ |(1 + |z| + |z ′ |) + |z − z ′ |), ∀x, x ′ ∈ G, z, z ′ ∈ R d ,• σ is non-singular on G,• there exists a continuous function ψ ∞ such that• g is a Lipschitz continuous function on G.t −1 ψ(x, tz) → ψ ∞ (x, z) locally uniformly, as t → +∞,If σ is non-singular on G we notice that it is possible to jointly modify b and ψ without modifying PDE2.20. We set ˜b(x) = b(x) − ξx and ˜ψ(x, z) = ψ(x, z) + ξzσ −1 (x)x for ξ ∈ R + . Then we are able to finda new hypothesis substituting (H3). We note ˜η the scalar η corresponding to ˜b.Proposition 2.26 If η + K ψ,z K σ < 0 or K σ sup x∈G|σ −1 (x)x| < 1 then there exists ξ 0 such that˜η + K ˜ψ,zK σ < 0. In particular it is true when σ is a constant function.Proof:It suffices to notice that ˜η = η − ξ and K ˜ψ,z K ψ,z + ξ sup x∈G|σ −1 (x)x|. So˜η + K ˜ψ,zK σ η + K ψ,z K σ + ξ(K σ sup |σ −1 (x)x| − 1).x∈G⊓⊔


2.6. OPTIMAL ERGODIC CONTROL 352.6 Optimal ergodic controlLet U be a separable metric space. We <strong>de</strong>fine a control ρ as an (F t )-progressively measurable U valuedprocess. We introduce R : U → R d and L : R d × U → R two continuous functions such that, for someconstants M R > 0 and M L > 0,|R(u)| M R , |L(x, u)| M L , |L(x, u) − L(x ′ , u)| c|x − x ′ |, ∀u ∈ U, x, x ′ ∈ R d . (2.21)Given an arbitrary control ρ and T > 0, we introduce the Girsanov <strong>de</strong>nsity( ∫ TΓ ρ T = exp R(ρ s )dW s − 1 20∫ T0|R(ρ s )| 2 dsand the probability dP ρ T = Γρ T dP on F T . Ergodic costs corresponding to a given control ρ and a startingpoint x ∈ R d are <strong>de</strong>fined in the following way:[ ∫1 T∫ ]TI(x, ρ) = limsupT →+∞ T Eρ,T L(Xs x , ρ s)ds + [g(Xs x ) − µ]dKx s , (2.22)J(x, ρ) = limsupT →+∞0{ +∞ if E ρ,T [[K T x] = 0,1 ∫ TE ρ,T [KT x]Eρ,T 0 [L(Xx s , ρ s ) − λ]ds + ∫ T0 g(Xx s )dKsx0)]otherwise,(2.23)where E ρ,T <strong>de</strong>notes expectation with respect to P ρ T . We notice that W ρ t = W t − ∫ t0 R(ρ s)ds is a Wienerprocess on [0, T] un<strong>de</strong>r P ρ T .Our purpose is to minimize costs I and J over all controls. So we first <strong>de</strong>fine the Hamiltonian in theusual wayψ(x, z) = inf {L(x, u) + zR(u)}, x ∈u∈U Rd , z ∈ R 1×d , (2.24)and we remark that if, for all x, z, the infimum is attained in (2.24) then, according to Theorem 4 of [67],there exists a measurable function γ : R d × R 1×d → U such thatψ(x, z) = L(x, γ(x, z)) + zR(γ(x, z)).We notice that ψ is a Lipschitz function: hypothesis (H2) is verified with K ψ,z = M R .Theorem 2.27 Assume that hypotheses of Theorem 2.9 holds true. Let (Y, Z, λ) be a solution of (2.13) withµ fixed. Then the following hold:1. For arbitrary control ρ we have I(x, ρ) λ and the equality holds if L(X x t , ρ t) + Z x t R(ρ t) =ψ(X x t , Z x t ), P-a.s. for almost every t.2. If the infimum is attained in (2.24) then the control ρ t = γ(Xt x, Zx t ) verifies I(x, ρ) = λ.This theorem can be proved in the same manner as that of Theorem 7.1 in [42], so we omit it.Remark 2.28 1. If the infimum is attained in (2.24) then there exists an optimal feedback control givenby the function x ↦→ γ(x, ξ(x)) where (Y, ξ(X), λ) is the solution constructed in Theorem 2.9.2. If limsup is changed into liminf in the <strong>de</strong>finition (2.22) of the cost, then the same conclusion holds,with the obvious modifications, and the optimal value is given by λ in both cases.Theorem 2.29 Assume that hypotheses of Theorem 2.15 or Theorem 2.20 hold true. Let (Y, Z, µ) a solutionof (2.13) with λ fixed. Then the following hold:1. For arbitrary control ρ we have J(x, ρ) µ and the equality holds if L(X x t , ρ t) + Z x t R(ρ t) =ψ(X x t , Z x t ), P-a.s. for almost every t.2. If the infimum is attained in (2.24) then the control ρ t = γ(X x t , Z t ) verifies J(x, ρ) = µ.


36 CHAPITRE 2. EDSRES ET EDPS AVEC CONDITIONS DE NEUMANN AU BORDProof.As (Y, Z, µ) is a solution of the EBSDE with λ fixed, we have−dYt x = [ψ(Xt x , Zt x ) − λ]dt + [g(Xt x ) − µ]dKt x − Zt x dW t= [ψ(Xt x , Zx t ) − λ]dt + [g(Xx t ) − µ]dKx t − Zx t dW ρ t − Zx t R(ρ t)dt,from which we <strong>de</strong>duce that[ ∫ ]TµE ρ,T [KT] x = E ρ,T [YT x − Y0 x ] + E ρ,T [ψ(Xt x , Zt x ) − Zt x R(ρ t ) − L(Xt x , ρ t )]dtThus0[ ∫ ] [T∫ ]T+E ρ,T [L(Xt x , ρ t ) − λ]dt + E ρ,T g(Xt x )dKtx .0[ ∫ T∫ ]TµE ρ,T [KT] x + E ρ,T [Y0 x − YT x ] E ρ,T [L(Xt x , ρ t ) − λ]dt + g(Xt x )dKtx .00To conclu<strong>de</strong> we are going to use the following lemma that we will prove immediately after the proof of thistheorem:Lemma 2.30 Assume that hypotheses of Theorem 2.15 or Theorem 2.20 hold true. Then for all x ∈ GSo, for T > T 0 , E ρ,T [K x T ] > 0 andµ + Eρ,T [Y0 x − Y T x]E ρ,T [KT x]Since Y is boun<strong>de</strong>d we finally obtainµ limsupT →+∞[ ∫1TE ρ,T [KT x]Eρ,T limT →+∞ Eρ,T [K x T] = +∞.[ ∫1TE ρ,T [KT x]Eρ,T 000∫ ]T[L(Xt x , ρ t) − λ]dt + g(Xt x )dKx t .0∫ ]T[L(Xt x , ρ t) − λ]dt + g(Xt x )dKx t = J(x, ρ).0Similarly, if L(Xt x, ρ t) + Zt xR(ρ t) = ψ(Xt x, Zx t ),[ ∫ T∫ ]TµE ρ,T [KT] x + E ρ,T [Y0 x − YT x ] = E ρ,T [L(Xt x , ρ t ) − λ]dt + g(Xt x )dKtx ,00and the claim holds.⊓⊔Proof of Lemma 2.30. Firstly we assume that hypotheses of Theorem 2.15 hold true. As in the proof ofthis theorem, we have by using equation (2.17),E ρ,T[ ]∫ T ∫ ]TKTx = E[φ(X ρ,T T) x − φ(x) − Lφ(Xs x )ds −t ∇φ(Xs x )σ(Xs x )R(ρ s )ds ,00from which we <strong>de</strong>duce thatE ρ,T [ KxTT]− 2|φ| ∞T[+− sup Lφ(x) − |∇φσ| ∞,GM R].x∈GThanks to hypothesis (F2’) we have[ ] KE ρ,T xT 1 [T 2]− sup Lφ(x) − |∇φσ| ∞,GM R > 0, ∀T > T 0 ,x∈G


2.6. OPTIMAL ERGODIC CONTROL 37and the claim is proved. We now assume that hypotheses of Theorem 2.20 hold true. Let ν be the invariantmeasure of (X t ) t0 . Exactly as in the proof of Theorem 2.20 we are able to show that∫E ρ,T [K y T /T]ν(dy) C > 0Gfor all T > T 0 by replacing β with R(ρ). On the other hand, for all x ∈ G and T ∈ R +∗ , we have[[ ]∫G Eρ,T K y T]ν(dy) − E ρ,T KTx ∣ T1 ∫E ρ,T[ ]|K y T∣ T− Kx T | ν(dy)Gand∫1TGE ρ,T[ ]|K y T − Kx T | ν(dy) 4|φ| ∞+ 1 ∫ [ ∫ ]TE ρ,T |Lφ(Xs y ) − Lφ(Xs x )|ds ν(dy)T T G 0+ 1 ∫ [ ∫ ]TE ρ,T | t ∇φ(Xs y T)σ(Xy s ) − t ∇φ(Xs x )σ(Xx s )||R(ρ s)|ds ν(dy).G0Since Lφ and t ∇φσ are Lipschitz functions, we obtain[[ ]∫G Eρ,T K y T]ν(dy) − E ρ,T KTx ∣ T4|φ| ∞∣ T+ K LφT+ M RKt ∇φσT∫∫GG[ ∫ ]TE ρ,T |Xs y − Xs x |ds ν(dy)0[ ∫ ]TE ρ,T |Xs y − Xs x |ds ν(dy).0Exactly as in Lemma 2.5 we are able to show that for all s 0E ρ,T [ |X y s − X x s | 2] e 2(η+MRKσ)s |y − x| 2 .Finally,∣∫G Eρ,T [K y T]ν(dy) − E ρ,T [K x TT]∣K Lφ + M R Kt ∇φσT∫G∫ T|y − x| 2 ν(dy) e (η+MRKσ)s ds0+ 4|φ| ∞TK ∫Lφ + M R Kt ∇φσT+ 4|φ| ∞T .Since hypothesis (H3) holds true, η + M R K σ < 0 and so[[ ]∫GlimEρ,T K y T]ν(dy) − E ρ,T K x TT →+∞∣ T∣ = 0.G|y − x| 2 ν(dy) 1 − e(η+MRKσ)T−η − M R K σThus, for all x ∈ G there exists T 0 > 0 such thatE ρ,T [KT x /T] 1 ∫E ρ,T [K y T2/T]ν(dy) c/2 > 0, ∀T T 0,and the claim follows.G⊓⊔Remark 2.31 Remark 2.28 remains true for Theorem 2.29.


38 CHAPITRE 2. EDSRES ET EDPS AVEC CONDITIONS DE NEUMANN AU BORD2.7 Some additional results: EBSDEs on a non-convex boun<strong>de</strong>d setIn the previous sections we have supposed that G was a boun<strong>de</strong>d convex set. We shall substitute hypothesis(G2) by this one:(G2’). G is a boun<strong>de</strong>d subset of R d .In this section we suppose also that σ is a constant function. At last, we setα = sup sup ( t y∇ 2 φ(x)y)x∈co(Ḡ) |y|=1with co(Ḡ) the convex hull of Ḡ. Without loss of generality we assume that α > 0. In<strong>de</strong>ed, α 0 if andonly if φ is concave which implies that Ḡ is a convex set. In the previous sections the convexity of G hasbeen used to prove Lemma 2.5 so we will modify it:Lemma 2.32 Assume (G1), (G2’), (H1), (H2) hold true and σ is a constant function. Letθ :={ t (x − y)(b(x) − b(y))sup 2x,y∈Ḡ,x≠y,z,z′ ∈R d ,z≠z |x − y| 2′−α t (∇φ(x) + ∇φ(y))σβ(x, y, z, z ′ )− α 2 Tr( ∇ 2 φ(x)σ t σ + ∇ 2 φ(y)σ t σ ) − α t ∇φ(x)b(x) − α t ∇φ(y)b(y)) (+α 2(t ∇φ(x) + t ∇φ(y) σ t σ ∇φ(x) + ∇φ(y)) } ,with⎧⎨β(x, y, z, z ′ ) =⎩ψ(x, z ′ ) + ψ(y, z ′ ) − ψ(y, z) − ψ(x, z)2|z ′ − z| 2 t (z ′ − z) if z ≠ z ′0 otherwise.Then there exists a constant M which <strong>de</strong>pends only on φ and such that for all 0 t s T ,E QT [|X x s − X x′s | 2 ∣ ∣∣Ft] Me θ(s−t) |X x t − X x′t | 2 .Proof.Firstly we show an elementary lemma.Lemma 2.33 ∀x ∈ Ḡ, ∀y ∈ ∂G we have−α|x − y| 2 + 2 t (y − x)∇φ(y) 0.Proof.Let x ∈ Ḡ and y ∈ ∂G. According to Taylor-Lagrange theorem there exists t ∈]0, 1[ such thatφ(x) = φ(y) + t (x − y)∇φ(y) + 1 2t (x − y)∇ 2 φ(tx + (1 − t)y)(x − y).φ(x) 0, φ(y) = 0 and the claim easily follows.As in Lions and Sznitman [64] page 524, using Itô’s formula, we <strong>de</strong>velop the semi-martingale⊓⊔e −θu e −α(φ(Xx u )+φ(Xx′ u )) |X x u − X x′u | 2 ,


2.7. EBSDES ON A NON-CONVEX BOUNDED SET 39which leads us to)d(e −θu e −α(φ(Xx u )+φ(Xx′ u )) |Xu x − Xu x′ | 2 =By Lemma 2.33 we have−θe −θu e −α(φ(Xx u )+φ(Xx′ u )) |X [ u x − Xu x′ | 2 du+2e −θu e −α(φ(Xx u )+φ(Xx′ u )) t(Xu x − Xx′ u )(b(Xx u ) − b(Xx′ u ))du+ t (Xu x − Xu x′ )∇φ(Xu)dK x u x − t (Xu x − Xu x′ )∇φ(Xu x′ )dKux′−αe −θu e −α(φ(Xx u )+φ(Xx′ u )) |X x u − Xx′u |2 [dK x u + dKx′+ t (∇φ(Xu x) + ∇φ(Xx′ u ))σ(d ˜W u + β u du)+ 1 2 Tr(∇2 φ(Xu x)σt σ + ∇ 2 φ(Xu x′ )σt σ)du+ (t ∇φ(Xu)b(X x u) x + t ∇φ(Xu x′ )b(Xu x′ ) ) ]du+α 2 e −θu e −α(φ(Xx u )+φ(Xx′ u[ )) |Xu x − X x′t(∇φ(Xu x) + ∇φ(Xx′ u ))σt σ(∇φ(Xu x) + ∇φ(Xx′ u]du. ))u | 2(2 t (X x u − Xx′ u )∇φ(Xx u ) − α|Xx u − Xx′ u |2) dK x u 0,and (2 t (Xu x′− Xx u )∇φ(Xx′ u ) − α|Xx u − Xx′ u |2) dKu x′ 0.Applying the <strong>de</strong>finitions of β and θ, we obtainThereby, for all 0 t s n)d(e −θu e −α(φ(Xx u )+φ(Xx′ u )) |Xu x − Xu x′ | 2 −αe −α(φ(Xx u )+φ(Xx′ u )) |X x u − X x′u | 2t (∇φ(X x u) + ∇φ(X x′u ))σd ˜W u .E QT [e −θ(s−t)−α(φ(Xx s )+φ(Xx′ s )) |X x s − X x′s |]∣∣F tu |X x t − X x′t |.]The claim follows by setting M = e 2αsup x∈Ḡ φ(x) .We replace hypothesis (H3) by an analogous one:⊓⊔(H3’). θ < 0.In the context of this section, Lemma 2.32 plays the same role as Lemma 2.5 in section 2.2. So, with thenew hypothesis (H3’), we are able to show an analogous of Theorem 2.6 in a similar way. Moreover, sinceTheorems 2.9, 2.13 and 2.15 are consequences of Theorem 2.6, we are able to do the same thing to theseones.Theorem 2.34 Assume that σ is a constant function. Theorems 2.6, 2.9, 2.13 and 2.15 stay true if wesubstitute hypothesis (G2) and (H3) by (G2’) and (H3’).As in section 2.5, it is possible to jointly modify b and ψ without modifying the PDE 2.20 if σ is nonsingularon G. We set ˜b(x) = b(x) − ξx and ˜ψ(x, z) = ψ(x, z) + ξzσ −1 x for ξ ∈ R + . Then we are able tofind a new hypothesis substituting (H3’). We note ˜θ(ξ) the scalar θ corresponding to ˜b and ˜ψ. Let d be thediameter of Ḡ:d := sup |x − y|.x,y∈ḠProposition 2.35 ˜θ(ξ) θ − (2 − 1 2 d2 α 2 )ξ. In particular, if αd < 2 then there exists ξ 0 such that˜θ(ξ) < 0.


40 CHAPITRE 2. EDSRES ET EDPS AVEC CONDITIONS DE NEUMANN AU BORDProof. Let ˜β be the function β linked with ˜ψ. We have ˜β(x, y, z, z ′ ) = β(x, y, z, z ′ ) + ξ 2 σ−1 (x + y).Thus ˜θ(ξ) θ + Cξ with{C = −2 + sup − αx,y∈Ḡ,x≠y 2= −2 + α 2 supx,y∈ḠOn the other hand, we have}t (∇φ(x) + ∇φ(y))(x + y) + α( t ∇φ(x)x + t ∇φ(y)y){ t(∇φ(x) − ∇φ(y))(x − y)}.{sup t(∇φ(x) − ∇φ(y))(x − y) } d 2 α.x,y∈ḠIn<strong>de</strong>ed, according to the Taylor Lagrange theorem there exist t, t ′ ∈]0, 1[ such thatφ(x) = φ(y) + t (x − y)∇φ(y) + 1 2t (x − y)∇ 2 φ(tx + (1 − t)y)(x − y),φ(y) = φ(x) + t (y − x)∇φ(x) + 1 2t (y − x)∇ 2 φ(t ′ y + (1 − t ′ )x)(y − x).Finally C −2 + d2 α 22and the proof is therefore completed. ⊓⊔2.8 Appendix2.8.1 Proof of Proposition 2.18.We will prove that for all Lipschitz functions f, E νn [f] n→+∞−→ E ν [f]. We have, for all t 0,∫∫∣ ∣∣∣|E νn [f] − E ν [f]| =∣ E[f(X n,xt )]ν n (dx) − E[f(Xt x )]ν(dx)GG∫∫∣ E[f(X n,xt )]ν n (dx) − E[f(X n,yt )]ν(dy)∣GG} {{ }A n,t∫∣ ∣∣∣+∣ E[f(X n,xt ) − f(Xt x )]ν(dx)G} {{ }B n,t.Firstly,A n,t∫G∫ K f∫GGE[|f(X n,xt∫GE[|X n,xt) − f(X n,y )|]ν n (dx)ν(dy)t− X n,yt |]ν n (dx)ν(dy).∇ 2 U n cI, so −∇U n is dissipative : we can prove that (see e.g. Proposition 3.3 in [42])E |X n,xt− X n,yt | e −ct |x − y| .Then, by simple computations∫ ∫|x − y| ν n (dx)ν(dy) G G∫ ∫|x| ν n (dx) + |y|ν(dy)GG1 ∫∫|x| e −U(x) dx + |y| ν(dy) < +∞,N R d G


2.8. APPENDIX 41−ct t→+∞with N <strong>de</strong>fined in Corollary 2.19. So, A n,t Ce −→ 0, and the limit is uniform in n. Moreover,∫∫B n,t K f − Xt x | ν(dx) K fGE |X n,xtGE[ sup |Xsn,x − Xs x |]ν(dx).0stSo, by Theorem 1 in [68], B n,tn→+∞−→ 0 when t is fixed. In conclusion, for all t > 0,So we can conclu<strong>de</strong> the proof by letting t → +∞.limsup |E νn [f] − E ν [f]| Ce −ct .n→+∞⊓⊔2.8.2 Proof of Corollary 2.19.For all f ∈ C 0 lip (Rd ) we haveE νn [f] = 1N n∫R d f(x)e −Un(x) dx.According to Proposition 2.18, E νn [f] n→+∞−→ E ν [f], and by the dominated convergence theorem, we showthat∫1f(x)e −Un(x) dx n→+∞−→1 ∫f(x)e −U(x) dx.N n R Nd GSoE ν [f] = 1 ∫f(x)e −U(x) dx.N GThen the first claim ends by the use of a <strong>de</strong>nsity argument and the monotone class theorem. Finally, we areable to apply the dominated convergence theorem to show that ν n converges narrowly to ν.⊓⊔2.8.3 Proof of Proposition 2.21.We know that ∇ 2 U n cI. So, according to the Bakry-Emery criterion (see [5]), we have the PoincaréinequalityVar νn (f) −c −1 〈L n f, f〉, ∀f ∈ D 2 (L n ).Now, we are allowed to use Theorem 3.1 in [51]:(P ν − 1 ∫ )TLφ(Xs n )ds −E νn [Lφ] − εTFirstly, by dominated convergence theorem0[ ( ) ] 2 1/2dνE ν = N n n→+∞−→ 1.dν n N[ ( ) ] 2 1/2 ( )dν E ν exp − cε2 Tdν n δ 2 .Moreover, applying Proposition 2.18,Finally,∫1E∣TG∫ TBut, according to [68],0Lφ(Xsn,x )ds − 1 ∫ TT 0E νn [Lφ] n→+∞−→and the limit is uniform in x belonging to G. So∫∫ 1 TELφ(Xsn,x )ds − 1 ∣TTG0E ν [Lφ].∫Lφ(Xs x )ds∣ ν(dx) K Lφ[]E sup |Xs n,x − Xs x | n→+∞−→ 0s∈[0,T]∫ T0GE[sup |Xs n,x − Xs x |s∈[0,T]Lφ(Xs x n→+∞)dsν(dx) −→ 0,∣and, as convergence in L 1 implies convergence in law, the claim follows.]ν(dx).⊓⊔


42 CHAPITRE 2. EDSRES ET EDPS AVEC CONDITIONS DE NEUMANN AU BORDAcknowledgements. The author would like to thank his Ph.D. advisers, Philippe Briand and Ying Hu, ananonymous referee and the associate editor for their careful reading and helpful comments.


Chapitre 3Quelques résultats complémentaires surles EDSREsdans ce chapitre nous ajoutons quelques résultats concernant les EDSREs ne se trouvant pas dans l’article[76].3.1 Un résultat d’existence et d’unicité concernant les EDSRs généraliséesen horizon infini3.1.1 MotivationRevenons au problème initial que nous cherchons à résoudre dans le chapitre 2. Nous souhaitons montrerl’existence d’une solution (Y, Z, µ) pour l’EDSREY xt∫ T∫ T∫ T= YT x + ψ(Xs x , Zx s )ds + [g(Xs x ) − µ]dKx s − Zs x dW s.ttPour cela, l’idée la plus naturelle est <strong>de</strong> traduire en termes probabilistes la démonstration <strong>de</strong> l’article [11]qui consiste à étudier la limite, lorsque α → 0, <strong>de</strong> la solution v α <strong>de</strong> l’EDP{ Lv α (x) + ψ(x, t ∇v α (x)σ(x)) − α 2 v α (x) = 0, x ∈ Gtavec∂v α∂n (x) + g(x) − αvα (x) = 0,x ∈ ∂G,Lf(x) = 1 2 Tr(σ(x)t σ(x)∇ 2 f(x)) + t b(x)∇f(x).D’un point <strong>de</strong> vue probabiliste, cela revient à introduire l’EDSRY x,αt= Y x,αT+∫ Tt[ψ(Xs x , Zsx,α ) − α 2 Ys x,α ]ds +∫ Tt[g(Xs x ) − αYsx,α ]dKs x −∫ TtZ x,αs dW s . (3.1)En premier lieu, il convient <strong>de</strong> savoir si cette EDSR possè<strong>de</strong> une solution éventuellement unique. Ce typed’équation a déjà été envisagé, pour Y en dimension quelconque, dans l’article [74], mais l’étu<strong>de</strong> proposéefait apparaître <strong>de</strong>s hypothèses techniques dont nous souhaitons nous affranchir. En utilisant les spécificités<strong>de</strong> la dimension 1, Briand et Hu [23] proposent un résultat qui va dans ce sens mais ces <strong>de</strong>rniers secantonnent aux EDSRs non généralisées. Il est néanmoins possible <strong>de</strong> reprendre leur démonstration pourl’adapter à notre situation.3.1.2 Le résultat d’existence et d’unicitéConsidérons l’EDSR généralisée en horizon infiniY t = Y T +∫ Tf(s, Y s , Z s )ds +∫ Tg(s, Y s )dA s −∫ Tttt43Z s dW s , ∀0 t T. (3.2)


44 CHAPITRE 3. QUELQUES RÉSULTATS COMPLÉMENTAIRES SUR LES EDSRESf est une fonction aléatoire définie sur [0, T]×Ω×R×R 1×d , à valeur dans R et mesurable par rapport auxtribus P ⊗ B(R) ⊗ B(R 1×d ) et B(R), P désignant la tribu <strong>de</strong>s événements prévisibles. g est une fonctionaléatoire définie sur [0, T] × Ω × R, à valeur dans R et mesurable par rapport aux tribus P ⊗ B(R) etB(R). De plus, (A s ) s0 est un processus continu croissant, F t -progressivement mesurable, à valeur dansR et vérifiant A 0 = 0. Enfin, pour tous α ∈ R et β ∈ R, on note M 2,α,β (R + , E) l’espace <strong>de</strong> Hilbert <strong>de</strong>sprocessus F t -progressivement mesurables à valeur dans l’espace euclidien E tels que(H).‖X‖ 2 α,β := E [∫ +∞0]e αs+βAs |X s | 2 ds < ∞.Considérons les hypothèses suivantes sur les fonctions f et g :Il existe quatre constantes M f 0, M g 0, µ > 0 et µ ′ > 0 telles que, dP ⊗ dt-p.s.,1. f est M f -lipschitzienne en y et z : pour tous (y 1 , z 1 ), (y 2 , z 2 ) dans R × R d ,|f(t, y 1 , z 1 ) − f(t, y 2 , z 2 )| M f (|y 1 − y 2 | + |z 1 − z 2 |) ;2. g est M g -lipschitzienne en y : pour tous y 1 , y 2 dans R,|g(t, y 1 ) − g(t, y 2 )| M g |y 1 − y 2 | ;3. f et g sont monotones en y : pour tous y 1 , y 2 dans R et z dans R d on a(y 1 − y 2 ).(f(t, y 1 , z) − f(t, y 2 , z)) ≤ −µ(y 1 − y 2 ) 2 et(y 1 − y 2 ).(g(t, y 1 ) − g(t, y 2 )) ≤ −µ ′ (y 1 − y 2 ) 2 ;4. |f(t, 0, 0)| M f et |g(t, 0)| M g .Théorème 3.1 Supposons que les hypothèses (H) sont vérifiées. Alors l’EDSR en horizon infini généralisée(3.2) possè<strong>de</strong> une solution (Y, Z) qui appartient à M 2,−2µ,−2ε (R + , R ×R d ) pour tout ε > 0 et telle que Yest borné. Cette solution est unique parmi les processus (Y, Z) tels que Y est continu borné et Z appartientà M 2 loc (R+ , R 1×d ). De plus on a l’estimation suivante :(Mf|Y | µ ∨ M )gµ ′ .Démonstration. Prouvons tout d’abord l’unicité. Supposons que (Y 1 , Z 1 ) et (Y 2 , Z 2 ) sont <strong>de</strong>ux solutions<strong>de</strong> l’EDSR (3.2) telles que Y 1 et Y 2 sont bornés et continus et que Z 1 et Z 2 sont dans M 2 loc (R+ ,-R 1×d ). Posons Ỹ := Y 1 − Y 2 et ˜Z := Z 1 − Z 2 . Ainsi Ỹ est un processus continu et il existe M > 0 telque |Ỹ | est P-p.s. borné par M. On a alors∫ T∫[ TỸ t = ỸT + f(s, Y1s , Zs 1 ) − f(s, Y s 2 , Z2 s )] [ds + g(s, Y1s ) − g(s, Ys 2 )] ]dA s − ˜Z s dW s .ttAfin <strong>de</strong> linéariser cette EDSR, nous définissons trois nouveaux processus (α, β, γ), à valeur dans R ×R d × R, en posant ⎧⎨ f(t, Yt 1 , Zt 1 ) − f(t, Yt 2 , Zt 1 )α t = Y⎩t 1 − Yt2 si Yt 1 − Yt 2 ≠ 0,−µ sinon,⎧f(t, Y ⎪⎨t 2,Z1 t ) − f(t, Y t 2,Z2 t )β t =∣⎪⎩˜Z∣ t ∣∣2˜Zt si ˜Z t ≠ 0,t0 sinon,⎧⎨ g(t, Yt 1)− g(t, Y t 2)γ t = Y⎩t 1 − Y t2 si Yt 1 − Y t 2 ≠ 0,−µ ′ sinon.Remarquons que (α, β, γ) sont trois processus bornés car f et g sont lipschitziennes. Finalement, onobtient∫ T ∫ T ∫ TỸ t = ỸT + α s Ỹ s ds + γ s Ỹ s dA s − ˜Z s (dW s − β s ds).ttt


3.1. UN RÉSULTAT D’EXISTENCE ET D’UNICITÉ POUR LES EDSRS GÉNÉRALISÉES 45Posons, à t fixé, R s = exp( ∫ st α udu + ∫ st γ udA u ), et appliquons la formule d’Itô au processus R s Ỹ s :ce qui se réécrit,R n Ỹ n − R t Ỹ t =∫ ntỸ t = R n Ỹ n −R s ˜Zs (dW s − β s ds),∫ ntR s ˜Zs d ˜W s , (3.3)avec ˜W t = W t − ∫ t0 β sds. Soit Q n la mesure <strong>de</strong> probabilité sur (Ω, F n ) dont la <strong>de</strong>nsité par rapport à P |Fnest(∫ nexp β s dW s − 1 ∫ n)|β s | 2 ds .20β est un processus borné donc la condition <strong>de</strong> Novikov est vérifiée et l’on peut appliquer le théorème <strong>de</strong>Girsanov : Les mesures <strong>de</strong> probabilité Q n et P |Fn sont mutuellement absolument continues et ( ˜W t ) 0tnest un mouvement brownien sous Q n . En prenant l’espérance conditionnelle par rapport à F t <strong>de</strong> l’équation(3.3), nous obtenons[ ∣ ∣ ∣∣ ∣∣ ∣ ]|Ỹt| E Qn R n Ỹ ∣Ft n , Q n -p.s.. (3.4)Or l’hypothèse <strong>de</strong> monotonie portant sur f et g nous donne α −µ et γ −µ ′ < 0 dP ⊗ dt-p.s.. DoncR n e −µ(n−t)−µ′ (A n−A t) e −µ(n−t) P |Fn -p.s.. De plus, |Ỹ | est P |Fn -p.s. borné par 2M et P |Fn ∼ Q n ,donc∣ ∣ ∣∣ ∣∣R n Ỹ n 2Me−µ(n−t)Q n -p.s..En revenant à (3.4), nous obtenons∣∣Ỹt∣ 2Me −µ(n−t)Comme P |Fn ∼ Q n nous pouvons en déduire queIl reste à faire tendre n vers l’infini pour obtenir0Q n -p.s..P-p.s. ∀n ∈ N, n t, |Ỹt| 2Me −µ(n−t) .|Ỹt| = 0 P-p.s..Enfin, la continuité <strong>de</strong>s processus Y 1 et Y 2 nous assure que Y 1 = Y 2 P-p.s.. Pour terminer la preuve <strong>de</strong>l’unicité, nous appliquons la formule d’Itô au processus |Ỹt| 2 :|Ỹt| 2 − |Ỹ0| 2 = −2+∫ t0∫ t0[f(s, Y 1s , Z 1 s) − f(s, Y 2∫ t| ˜Z s | 2 ds + ˜Z s Ỹ s dW s ,0s , Z 2 s)]Ỹsds − 2∫ t0[g(s, Y 1s ) − g(s, Y 2s )]ỸsdA sce qui nous donne finalement,[∫ t]E | ˜Z s | 2 ds = 0, ∀t 0.0Passons maintenant à la démonstration <strong>de</strong> l’existence. On note (Y n , Z n ) l’unique solution <strong>de</strong> l’EDSRgénéralisée∫ n∫ n∫ nYt n = f(s, Ys n , Zn s )ds + g(s, Ys n )dA s − Zs n dW s, (3.5)vérifiantt[E sup |Yt n |2 +0tnt∫ n0]|Zt n |2 dt < +∞.L’existence et l’unicité <strong>de</strong> cette solution sont établies dans l’article [74]. Dans un premier temps nous allonsobtenir une estimation a priori pour Y n . Comme pour la preuve <strong>de</strong> l’unicité, nous posonsα n t = ⎧⎨⎩f(t, Y nt , Zn t ) − f(t, 0, Zn t )Ytntsi Y nt ≠ 0,−µ sinon,


46 CHAPITRE 3. QUELQUES RÉSULTATS COMPLÉMENTAIRES SUR LES EDSRESβ n t = ⎧⎨⎩γ n t = ⎧⎨⎩L’EDSR linéarisée est alors donnée parY nt =On définit∫ ntf(t, 0, Zt n ) − f(t, 0, 0) t Z n|Zt n|2 t si Zt n ≠ 0,0 sinon,g(t, Y nt ) − g(t, 0)Ytn∫ n[α n s Y s n + Zn s βn s + f(s, 0, 0)]ds +(∫ uRu n = exp α n s ds +t∫ utsi Y nt ≠ 0,−µ ′ sinon.tγ n s dA s)[γ n s Y ns + g(s, 0)]dA s −et ˜Wnt = W t −En appliquant la formule d’Itô au processus R n (s)Y n (s) nous obtenonsY nt =∫ ntR n s f(s, 0, 0)ds +∫ ntR n s g(s, 0)dA s −∫ nt∫ t0∫ ntβ n s ds.R n s Z n s d ˜W n s .Z n s dW s. (3.6)On introduit la mesure <strong>de</strong> probabilité Q n sur (Ω, F n ) dont la <strong>de</strong>nsité par rapport à P |Fn est donnée par(∫ nexp βs n dW s − 10 2∫ n0)|βs n |2 ds .β n est un processus borné donc la condition <strong>de</strong> Novikov est vérifiée et nous pouvons appliquer le théorème<strong>de</strong> Girsanov : Les mesures <strong>de</strong> probabilité Q n et P |Fn sont mutuellement absolument continues et( ˜W t n ) 0tn est un mouvement brownien sous Q n . Nous en déduisons[∫ n∫ n∣ ]|Yt n | E Qn Rs n |f(s, 0, 0)|ds + Rs n ∣∣Ft|g(s, 0)|dA s , Q n -p.s..tEn remarquant que |f(s, 0, 0)| M f et que R n s e −µ(s−t)−µ′ (A s−A t) , nous avons[ ∫ n∫ n∣ ]|Yt n | E Qn M f e −µ(s−t)−µ′ (A s−A t) ds + M g e −µ(s−t)−µ′ (A s−A t) ∣∣FtdA stt(Mfµ ∨ M ) [ ∫ ng (µ ′ E Qn µe−µ(s−t)−µ ′ (A s−A t) ds + µ ′ e −µ(s−t)−µ′ (A s−A) ∣ ]t) dA s ∣Ftt(Mfµ ∨ M )gµ ′ , Q n -p.s..Comme Y n est un processus continu et que P |Fn ∼ Q n , nous obtenons finalementt(P-p.s. ∀n ∈ N, ∀t ∈ [0, n], |Yt n | Mfµ ∨ M )gµ ′ . (3.7)Nous allons maintenant étudier la convergence <strong>de</strong> la suite (Y n , Z n ) n∈N dans l’espace <strong>de</strong> HilbertM 2,−2µ,−2ε (R + , R × R d )pour ε > 0 fixé. On définit Y n et Z n sur R + en posant Y n (t) = 0 et Z n (t) = 0 pour t > n. Fixonst n m et posons Ỹ := Y m − Y n et ˜Z := Z m − Z n . La formule d’Itô nous donneỸ t =∫ mt∫ m+t[f(s, Y ms , Zm s ) −½snf(s, Y ns , Zn s )]ds[g(s, Y ms ) −½sng(s, Y ns )]dA s −∫ mt˜Z s dW s


3.1. UN RÉSULTAT D’EXISTENCE ET D’UNICITÉ POUR LES EDSRS GÉNÉRALISÉES 47Comme pour la preuve <strong>de</strong> l’unicité et <strong>de</strong> l’estimation a priori, nous allons utiliser le même type <strong>de</strong> linéarisationen posantOn a alorsOn définitR n,mu⎧⎨α n,mt =⎩⎧⎪⎨β n,mt =⎪⎩⎧⎨γ m,nt =⎩Ỹ t =f(t, Y mt , Z m t ) − f(t, Y n∫ mYtmt , Zt m )− Ytnsi Ytm−µ sinon,− Y nt ≠ 0,f(t, Yt n , Zt m ) − f(t, Yt n , Zt n )∣ ˜Z∣ t ∣∣2˜Zt si ˜Z t ≠ 0,t(t∫ m+tg(t, Y mt ) − g(t, Y nα n,ms(γ n,ms(∫ u= exp α n,ms ds +tYtm0 sinon,t )− Ytn si Ytm−µ ′ sinon.− Y nt ≠ 0,Ỹ s + ˜Z)s βs n,m +½s>nf(s, 0, 0) ds) ∫ mỸ s +½s>ng(s, 0) dA s − ˜Z s dW s .∫ uEn appliquant la formule d’Itô au processus R n,msỸ t =∫ mnR n,ms f(s, 0, 0)ds +t∫ mn)γs n,m dA s et˜Wn,mtỸ s nous obtenonsRsn,m g(s, 0)dA s −t= W t −∫ mnR n,ms∫ t0˜Z s dβsn,m ds.˜Wn,ms .On introduit alors la mesure <strong>de</strong> probabilité Q n,m sur (Ω, F m ) dont la <strong>de</strong>nsité par rapport à P |Fm est donnéepar(∫ mexp βs n,m dW s − 1 ∫ m)|βsn,m | 2 ds .0 2En appliquant une nouvelle fois le théorème <strong>de</strong> Girsanov nous en déduisons[ ∫ n∫ n∣|Ỹt| E Qn,m M f e −µ(s−t)−µ′ (A s−A t) ds + M g e −µ(s−t)−µ′ (A s−A t) ∣∣FtdA s], Q n,m -p.s.tt(Mfµ ∨ M ) [ ∫ mgµ ′ E Qn,m (µe −µ(s−t)−µ′ (A s−A t) dsn+µ ′ e −µ(s−t)−µ′ (A s−A t) ∣dA s ) ∣F t], Q n,m -p.s.(Mfµ ∨ M )gµ ′ e −µ(n−t) , Q n,m -p.s..Comme Ỹ est un processus continu et que P |F m∼ Q n,m , nous obtenons finalementP-p.s. ∀0 t n m, |Y mt0(− Yt n Mf| µ ∨ M )gµ ′ e −µ(n−t) . (3.8)D’après cette inégalité, pour tout t 0 la suite <strong>de</strong> variables aléatoires (Yt n ) n∈N est une suite <strong>de</strong> Cauchydans L ∞ et donc converge vers une limite notée Y t , uniformément en t sur tout compact. En faisant tendrem vers l’infini, l’inégalité précé<strong>de</strong>nte <strong>de</strong>vient(P-p.s. ∀0 t n, |Y t − Yt n | Mfµ ∨ M )gµ ′ e −µ(n−t) . (3.9)


48 CHAPITRE 3. QUELQUES RÉSULTATS COMPLÉMENTAIRES SUR LES EDSRESMontrons maintenant que (Y n ) n∈N est une suite <strong>de</strong> Cauchy dans M 2,−2µ,−2ε (R + , R). On a[∫ m] [∫ n] [∫ m]E e −2µs−2εAs |Ỹs| 2 ds = E e −2µs−2εAs |Ỹs| 2 ds + E e −2µs−2εAs |Ỹs| 2 ds .00nOn applique alors l’inégalité (3.8) et l’estimation a priori (3.7) pour obtenir[∫ m]E e −2µs−2εAs |Ỹs| 2 ds E0[ ∫ n0(Mfµ ∨ M ) ] 2gµ ′ e −2µn ds + E[ ∫ mn(Mfµ ∨ M ) ] 2gµ ′ e −2µs ds ,c’est-à-dire,[∫ m] (E e −2µs−2εAs |Ysm − Ys n Mf|2 ds 0µ ∨ M ) 2 (gµ ′ e −2µn n + 1 ), (3.10)2µce qui nous prouve que (Y n ) n∈N est une suite <strong>de</strong> Cauchy dans M 2,−2µ,−2ε (R + , R). Montrons maintenantla même chose pour le processus (Z n ) n∈N . Pour cela, on applique la formule d’Itô à e −2µt−2εAt |Ỹt| 2 pourobtenir[E |Ỹ0| 2 +[∫ mE++0∫ m0∫ mn∫ m0]e −2µs−2εAs | ˜Z s | 2 ds =e −2µs−2εAs (2µ|Ỹs| 2 + 2Ỹs[f(s, Y ms , Z m s ) − f(s, Y ns , Z n s )]e −2µs−2εAs (2ε|Ỹs| 2 + 2Ỹs[g(s, Y ms ) − g(s, Y ns )] )dA s∫ me −2µs−2εAs Ys m f(s, 0, 0)ds +Les fonctions g et f vérifient l’ hypothèse (H) donc[∫ m]E e −2µs−2εAs | ˜Z s | 2 ds0[∫ mE++0∫ m0∫ mnne −2µs−2εAs Y ms g(s, 0)dA s)ds].e(2µ|Ỹs| −2µs−2εAs 2 + 2M f |Ỹs| 2 + 2M f |Ỹs|| ˜Z)s | dse −2µs−2εAs (2ε|Ỹs| 2 + 2M g |Ỹs| 2) dA s∫ me −2µs−2εAs M f |Ys m |ds +On utilise le fait que 2M f |Ỹs|| ˜Z s | 2M 2 f |Ỹs| 2 + 1 2 | ˜Z s | 2 pour obtenir[∫1 m]2 E e −2µs−2εAs | ˜Z s | 2 ds 0[∫ mE e −2µs−2εAs (2µ + 2M f + 2Mf 2 )|Ỹs| 2 ds++0∫ m0∫ mne −2µs−2εAs (2ε + 2M g )|Ỹs| 2 dA se −2µs−2εAs M f |Y ms | ds +∫ mnne −2µs−2εAs M g |Y ms |dA se −2µs−2εAs M g |Y ms | dA s].Pour faciliter les calculs, notons A, B et C les trois termes du membre <strong>de</strong> droite <strong>de</strong> l’inégalité précé<strong>de</strong>nte.En utilisant l’inégalité (3.10), on obtient(A (2µ + 2M f + 2Mf 2 ) Mfµ ∨ M ) 2 (gµ ′ e −2µn n + 1 ).2µ].


3.1. UN RÉSULTAT D’EXISTENCE ET D’UNICITÉ POUR LES EDSRS GÉNÉRALISÉES 49De plus, l’inégalité (3.8) et l’estimation a priori (3.7) nous donnent[∫ n∫ m]B (2ε + 2M g )E e −2µs−2εAs |Ỹs| 2 dA s + e −2µn−2εAs |Ỹs| 2 dA s0n(Mf (2ε + 2M g )µ ∨ M ) [∫ n∫ m]gµ ′ E e −2µs−2εAs e −2µ(n−s) dA s + e −2µn−2εAs dA s0n(Mf (2ε + 2M g )µ ∨ M )gµ ′ e −2µn 1 2ε .Enfin, nous avonsC (Mfµ ∨ M )(g Mfµ ′ µ ∨ M ) [∫ mgEε n(Mfµ ∨ M )(g Mfµ ′ µ ∨ M )g e−2µn,ε 2e −2µs−2εAs2](2µds + 2εdA s )ce qui nous prouve que (Y n , Z n ) n∈N est une suite <strong>de</strong> Cauchy dans l’espace <strong>de</strong> Hilbert M 2,−2µ,−2ε (R + , R×R d ) et donc converge vers une limite (Y, Z). Il ne reste plus qu’à prouver que ce couple <strong>de</strong> processus vérifiebien l’EDSR (3.2).Tout d’abord, l’estimation a priori (3.7) nous assure que(P-p.s., ∀t ∈ R + Mf, |Y t | µ ∨ M )gµ ′ .Ensuite, pour 0 r t n, nous avonsY nr − Y nt =∫ tr∫ tf(s, Ys n , Zn s )ds +rg(s, Y ns )dA s −Ainsi, en appliquant le théorème <strong>de</strong> convergence dominé dans L 2 nous obtenonsY r − Y t =ce qui termine la preuve.∫ trf(s, Y s , Z s )ds +3.1.3 Non application aux EDSREs∫ trg(s, Y s )dA s −∫ t∫ trrZ n s dW s.Z s dW sComme nous le souhaitions, le théorème 3.1 permet d’obtenir l’existence d’une unique solution (Y x,α ,Z x,α ) pour l’EDSR généralisée en horizon infini (3.1). Il convient maintenant <strong>de</strong> s’intéresser aux processuslimite lorsque α tend vers 0. La stratégie <strong>de</strong> démonstration présente dans les articles [11, 42] nécessite <strong>de</strong>uxrésultats distincts :• le processus |αY x,α | est borné uniformément en x et en α,• x ↦→ Y x,α0 est une fonction lipschitz uniformément en α.Considérons tout d’abord le premier résultat nécessaire. Si, comme dans l’article [42], nous souhaitonsappliquer l’estimation a priori du théorème 3.1, alors nous obtenons que le processus ∣ α 2 Y x,α∣ ∣ est borné cequi n’est pas suffisant. Il est alors naturel <strong>de</strong> se <strong>de</strong>man<strong>de</strong>r s’il n’est pas possible <strong>de</strong> reprendre la démonstrationdu théorème 3.1 afin d’obtenir une estimation a priori plus forte. Dans ce but, regardons l’EDSR (3.2)lorsque f(s, y, z) = 1 − α 2 y et g(s, y) = 1 − αy, la solution étant notée (Y α , Z α ). Une transformationclassique permet d’obtenir <strong>de</strong> manière explicite la solution Y α :Y αt= E[∫ +∞te −α2 (s−t)−α(A s−A t) ds +∫ +∞On peut tout d’abord remarquer que[∫ +∞]∣ ∣ E ∣e −α2 (s−t)−α(A ∣∣∣ s−A t) dA s F t tt 1 α ,e −α2 (s−t)−α(A s−A t) dA s∣ ∣Ft].[∫ +∞]∣E e −α(As−At) dA s F tt⊓⊔


50 CHAPITRE 3. QUELQUES RÉSULTATS COMPLÉMENTAIRES SUR LES EDSRESce qui est la bonne majoration. En ce qui concerne la première intégrale, étudions ce qui se passe sur <strong>de</strong>sexemples. Si nous prenons A s = s, alors nous obtenons encore la bonne majoration. Par contre, si nousfixons A s = log(s + 1), alors∫ +∞te −α2 (s−t)−α(A s−A t) ds = e α2t (t + 1) α ∫ +∞Or le théorème <strong>de</strong> convergence dominée nous assure que∫ +∞limα→0α 2 tFinalement, nous avons, lorsque α → 0,∫ +∞tte −α2 s(s + 1) αds= eα2t (t + 1) α α 2α ∫ +∞e −uα 2 (u + α 2 ) α du.e −u ∫ +∞(u + α 2 ) α du =0α 2 te −u du = 1.e −α2 (s−t)−α(A s−A t) ds ∼ 1 α 2 .Donc, ce cas particulier nous montre que l’inégalité |αY α | C n’est pas nécessairement vérifiée. Pourobtenir une telle inégalité dans notre cas, il apparaît nécessaire d’étudier plus finement le comportement<strong>de</strong> (K x t ) t0. On pourrait notamment penser à utiliser les estimations que nous avons obtenues au chapitreprécé<strong>de</strong>nt montrant qu’en moyenne (K x t ) t0 se comporte comme t ↦→ Ct (cf. les démonstrations <strong>de</strong>sthéorèmes 2.15 et 2.20).Le second résultat nécessaire peut s’obtenir, dans le cas classique, en comparant <strong>de</strong>ux solutions Y x,α etY y,α . Si nous regardons l’EDSR vérifiée par Y x,α −Y y,α , il apparaît dans notre cas le terme supplémentaire∫ T∫ T[g(Xs x x,α) − αYs] dKs x ∣− [g(Xs y y,α) − αYs] dKsy tt∣ ,qu’il faudrait pouvoir majorer uniformément en α par C |x − y|. Nous n’avons malheureusement pas réussià traiter ce problème directement. L’idée qui consiste à approcher l’EDS réfléchie par une EDS pénalisée etensuite utiliser un résultat <strong>de</strong> convergence pour les EDSRs - voir par exemple l’article [18] - ne semble pasnon plus aboutir.3.2 Un nouveau théorème d’existence pour les EDSREs lorsque legénérateur est non bornéNous allons voir dans ce paragraphe comment il est possible d’obtenir un théorème d’existence et d’unicitépour l’EDSRE lorsque λ est fixé et µ fait partie <strong>de</strong>s inconnues du même type que le théorème 2.20.Rappelons que ce théorème est obtenu dans le cas où le générateur ψ est non borné ce qui est le cas intéressantlorsque l’on s’intéresse aux applications aux problèmes <strong>de</strong> contrôle ergodique. La clef <strong>de</strong> cette∫démonstration repose sur une inégalité <strong>de</strong> gran<strong>de</strong> déviation pour la moyenne empirique 1 TT 0 Lφ(X s)dsdémontrée dans l’article [51]. Pour pouvoir appliquer cette inégalité, nous avons besoin <strong>de</strong> supposer quele processus progressif X vérifie une inégalité <strong>de</strong> Poincaré <strong>de</strong> constante c P . Afin d’obtenir <strong>de</strong>s hypothèsesvérifiables en pratique, nous nous sommes cantonnés au cas <strong>de</strong>s processus <strong>de</strong> Kolmogorov pour lesquels lecritère <strong>de</strong> Bakry-Émery nous donne explicitement la constante c P . Néanmoins il serait tout à fait possible<strong>de</strong> mener les même calculs dans le cas général avec une constante c P non explicite.Dans l’article [37], les auteurs démontrent la même inégalité <strong>de</strong> gran<strong>de</strong> déviation pour la moyenne∫empirique 1 TT 0 Lφ(X s)ds sans supposer que le processus progressif vérifie une inégalité <strong>de</strong> Poincaré maisen utilisant le fait que ce processus soit strictement dissipatif ce qui rentre parfaitement dans notre cadred’étu<strong>de</strong>. Il est alors possible d’obtenir un théorème d’existence et d’unicité équivalent au théorème 2.20en remplaçant l’hypothèse (F2”) par une hypothèse ad hoc. Par soucis <strong>de</strong> lisibilité, nous allons refairela démonstration dans son intégralité après avoir introduit notre nouvelle hypothèse (F2”’) et énoncé lerésultat. Toutes les notations sont celles du chapitre précé<strong>de</strong>nt.


3.2. UN NOUVEAU THÉORÈME D’EXISTENCE POUR LES EDSRES 51()K Lφ |η|(F2”’). + | t ∇φσ||σ| ∞,GK ψ,z < −E ν [Lφ],∞,Gavec η la constante <strong>de</strong> dissipativité du processus X et K Lφ la constante <strong>de</strong> lipschitz <strong>de</strong> Lφ.Théorème 3.2 (existence et unicité d’une solution) supposons que les hypothèses (G1), (G2), (G3), (G4),(H1), (H2), (H3), (F1) et (F2”’) sont vérifiées. Alors pour tout λ ∈ R il existe µ ∈ R, v ∈ Clip 0 (G) etune fonction mesurable ζ : R d → R 1×d tels que, si l’on définit Yt x := v(Xt x) et Zx t := ζ(Xt x) alorsZ x ∈ M 2 (R + , R 1×d ) et P-p.s. (Y x , Z x , µ) est une solution <strong>de</strong> l’EDSRE (2.13) avec λ fixé, pour toutx ∈ G. De plus µ est unique parmi les solutions (Y, Z, µ), avec λ fixé, telles que Y est un processus adaptéborné continu et Z ∈ M 2 (R + , R 1×d ).Preuve. Comme nous l’avons déjà vu dans la preuve [ du ] théorème 2.15, il est suffisant <strong>de</strong> prouver qu’ilKexiste une constante C > 0 et x ∈ G telles que E QT xTT C pour tout µ ≠ ˜µ. Grâce à (F2”’) il existe εdans l’intervalle ][K Lφ |η|K ψ,z , −E ν [Lφ] − | t ∇φσ||σ| ∞,GK ψ,z .∞,GConsidérons l’ensembleA T :={− 1 T∫ Tavec T > 0 et x ∈ G quelconque. Nous avons[[ Kx ]E QT T φ(X= E QT T x)− φ(x)TT T− 1 T − 2|φ| ∞,GT − 2|φ| ∞,GT0Lφ(X x s )ds < −E ν [Lφ] − ε∫ T0Lφ(X x s )ds − 1 T∫ T0}⊂ Ω,t ∇φ(X x s )σ(Xx s )β sds+ E QT [(−E ν [Lφ] − ε)½c A T− |Lφ| ∞,G½A T]− | t ∇φσ| ∞,GK ψ,z+ (−E ν [Lφ] − ε)(1 − Q T (A T )) − |Lφ| ∞,GQ T (A T ) − | t ∇φσ| ∞,GK ψ,z .En utilisant l’inégalité <strong>de</strong> Höl<strong>de</strong>r avec p > 1 et q > 1 tels que 1/p + 1/q = 1, nous obtenons[ ( ∫ TQ T (A T ) = E exp β s dW s − 1 ∫ ) ]T|β s | 2 ds 1 AT0 2 0[ ( ∫ T ∫ T∫ )] 1/p E exp p β s dW s − p2|β s | 2 p(p − 1) Tds + |β s | 2 ds P x (A T ) 1/q0 2 02 0( )(p − 1) exp K 22ψ,zT P(A T ) 1−1/p .Pour conclure nous allons utiliser la proposition suivante que nous prouverons plus tard en utilisant lecorollaire 5.11 <strong>de</strong> l’article [37] :Proposition 3.1 Supposons que les hypothèses (G1), (G2), (G3), (G4) et (H1) sont vérifiées et que η < 0.Alors il existe C > 0 telle que( ( )P(A T ) exp − |σ|2 ∞,G ε −C 2 )T T2KLφ 2 .η2]Ainsi,⎡⎤(( ) Q T (A T ) exp⎢ pKψ,z 2⎣− |σ|2 ∞,G ε −C 2 )T (p − 1)TKLφ 2} {{ η2 2p ⎥⎦ .}B p


52 CHAPITRE 3. QUELQUES RÉSULTATS COMPLÉMENTAIRES SUR LES EDSRESNous avons choisi ε > K Lφ |η| K ψ,z / |σ| ∞,G, donc il existe T 0 0 et une constante α > 0 tels que pourtout T T 0 , on a B 1 < −α. Nous pouvons donc trouver p > 1 et une constante ˜α > 0 tels que B p < −˜αpour tout T T 0 . Finalement, nous avons prouvé que Q T (A T ) T →+∞−→ 0 et[ Kx ]lim T −ET →+∞ EQT ν [Lφ] − | t ∇φσ|T∞,GK ψ,z − ε > 0.Preuve <strong>de</strong> la proposition 3.1. La démonstration <strong>de</strong> ce résultat consiste à utiliser l’inégalité <strong>de</strong> Hoeffdingdu corollaire 5.11 <strong>de</strong> l’article [37]. Pour cela, nous avons besoin <strong>de</strong> réécrire l’événement A T :(P(A T ) = P − 1 ∫ )TLφ(Xs x T)ds < −E ν[Lφ] − ε0()= P− 1 T∫ T0Lφ(X x s )ds + 1 T∫ T0E[Lφ(X x s )] ds < −ε − E ν [Lφ] + 1 T∫ T0⊓⊔E[Lφ(X x s )] ds.Or,1∣T∫ T0E[Lφ(Xs x )] ds − E ν [Lφ]∣=1∣TCTC T C T ,∫ T0∫ T0∫ T0E[Lφ(X x s )] ds − 1 T∫∫GG∫ T0E[|X x s − Xy s |]ν(dy)dse ηs |x − y| ν(dy)ds∫GE[Lφ(Xs y )]ν(dy)ds∣ce qui nous donne(P(A T ) P − 1 T∫ T0Lφ(X x s )ds + 1 T∫ T0)E[Lφ(Xs x )] ds < −ε + C .TLe résultat <strong>de</strong> [37] permet d’estimer le membre <strong>de</strong> droite lorsque X est solution d’une EDS non réfléchie.Pour obtenir le résultat nous allons donc introduire le processus pénalisé X n,x solution <strong>de</strong> l’EDSX n,xt = x +∫ t0b(Xsn,x )ds −∫ t0nd(X n,xs , G)ds +∫ t0σ(X n,xs )dW s ,avec d(.G) la distance au compact G. Pour n suffisamment grand, X n,x a pour constante <strong>de</strong> dissipativité η.De plus, nous pouvons définir σ sur tout R d en considérant σ(d(.G)) ce qui implique que |σ| ∞= |σ| ∞,G.Ainsi, l’inégalité <strong>de</strong> Hoeffding du corollaire 5.11 <strong>de</strong> l’article [37] nous assure que, pour n suffisammentgrand,P(− 1 T∫ T0Lφ(Xsn,x )ds + 1 ∫ TT 0E[Lφ(Xsn,x )] ds −ε + C TOr, l’article [68] nous donne le résultat <strong>de</strong> convergence[]E sup |Xs n,x − Xs x | n→+∞−→ 0,s∈[0,T]Ce qui nous permet <strong>de</strong> montrer, en utilisant le caractère lipschitzien <strong>de</strong> Lφ,) ( ( ) exp − |σ|2 ∞,G ε −C 2 )T T2KLφ 2 .η2− 1 T∫ T0Lφ(Xsn,x )ds + 1 ∫ TT 0E[Lφ(Xsn,x )] ds −→ L1− 1 ∫ TLφ(Xs x )ds + 1 ∫ TE[Lφ(Xs x )] dsT 0 T 0


3.2. UN NOUVEAU THÉORÈME D’EXISTENCE POUR LES EDSRES 53lorsque n → +∞. Comme la convergence dans L 1 implique la convergence en loi, nous obtenonsP(A T ) liminf(− P 1 ∫ TLφ(Xn→+∞sn,x )ds + 1 ∫ )TE[Lφ(Xsn,x )] ds −ε + C T 0T 0T( ( ) exp − |σ|2 ∞,G ε −C 2 )T T2KLφ 2 .η2⊓⊔Comme dans le chapitre précé<strong>de</strong>nt, ce résultat d’existence permet d’obtenir <strong>de</strong>s résultats concernant lesEDPs ergodiques et les problèmes <strong>de</strong> contrôle ergodique. Concernant les EDPs ergodiques, le théorème quisuit se démontre comme le théorème 2.24.Théorème 3.3 Supposons que les hypothèses du théorème 3.2 sont vérifiées. Pour tout λ ∈ R, il existe unesolution (v(X . ), ζ(X . ), µ) <strong>de</strong> l’EDSRE (2.9) avec λ fixé. Alors (v, µ) ∈ Clip 0 (G) × R est une solution <strong>de</strong>viscosité <strong>de</strong> l’EDP elliptique (2.20) avec λ fixé.Pour le problème <strong>de</strong> contrôle ergodique, le théorème suivant se démontre comme le théorème 2.29.Théorème 3.4 Supposons que les hypothèses du théorème 2.15 sont vérifiées. Soit (Y, Z, µ) la solution <strong>de</strong>l’EDSRE (2.13) avec λ fixé. Alors nous avons les résultats suivants :1. Pour tout contrôle ρ nous avons J(x, ρ) µ et l’égalité est vérifiée si L(X x t , ρ t) + Z x t R(ρ t) =ψ(X x t , Z x t ), P-p.s. pour presque tout t.2. Si l’infimum est atteint dans (2.24) alors le contrôle ρ t = γ(X x t , Z t ) vérifie J(x, ρ) = µ.


54 CHAPITRE 3. QUELQUES RÉSULTATS COMPLÉMENTAIRES SUR LES EDSRES


Deuxième partieUnicité <strong>de</strong>s EDSRs quadratiques55


Chapitre 4Unicité <strong>de</strong>s solutions d’EDSRsquadratiques dont le générateur estconvexe et la condition terminale nonbornéeRésumé : Les auteurs <strong>de</strong> l’article [25] ont prouvé un résultat d’unicité pour les solutions d’EDSRs quadratiques<strong>de</strong> générateur convexe et <strong>de</strong> condition terminale non bornée ayant tous leurs moments exponentielsfinis. Dans ce papier, nous prouvons que ce résultat d’unicité reste vrai pour <strong>de</strong>s solutions qui admettent uniquementcertains moments exponentiels finis. Ces moments exponentiels sont reliés <strong>de</strong> manière naturelleà ceux présents dans le théorème d’existence. À l’ai<strong>de</strong> <strong>de</strong> ce résultat d’unicité nous pouvons améliorer laformule <strong>de</strong> Feynman-Kac non linéaire prouvée dans [25].Mots clés. Équations différentielles stochastiques rétrogra<strong>de</strong>s, générateur à croissance quadratique, conditionterminale non bornée, résultat d’unicité, formule <strong>de</strong> Feynman-Kac non linéaire.Abstract: In [25], the authors proved the uniqueness among the solutions of quadratic BSDEs with convexgenerators and unboun<strong>de</strong>d terminal conditions which admit every exponential moments. In this paper,we prove that uniqueness holds among solutions which admit some given exponential moments. These exponentialmoments are natural as they are given by the existence theorem. Thanks to this uniqueness resultwe can strengthen the nonlinear Feynman-Kac formula proved in [25].Key words. Backward stochastic differential equations, generator of quadratic growth, unboun<strong>de</strong>d terminalcondition, uniqueness result, nonlinear Feynman-Kac formula.AMS subject classifications. 60H10.This chapter will be published inAnnales <strong>de</strong> l’institut Henri Poincaréun<strong>de</strong>r the title:On the uniqueness of solutions to quadratic BSDEs with convex generators and unboun<strong>de</strong>d terminalconditions.It has been write in collaboration with Freddy Delbaen and Ying Hu.57


58 CHAPITRE 4. UNICITÉ DES SOLUTIONS D’EDSRS QUADRATIQUES4.1 IntroductionIn this paper, we consi<strong>de</strong>r the following quadratic backward stochastic differential equation (BSDE in shortfor the remaining of the paper)∫ T∫ TY t = ξ − g(s, Y s , Z s )ds + Z s dW s , 0 t T, (4.1)ttwhere the generator −g is a continuous real function that is concave and has a quadratic growth with respectto the variable z. Moreover ξ is an unboun<strong>de</strong>d random variable (see e.g. [59] for the case of quadraticBSDEs with boun<strong>de</strong>d terminal conditions). Let us recall that, in the previous equation, we are looking for apair of processes (Y, Z) which is required to be adapted with respect to the filtration generated by the R d -valued Brownian motion W . In [25], the authors prove the uniqueness among the solutions which satisfyfor any p > 0,[E e p sup |Yt|] 0tT< ∞.The main contribution of this paper is to strengthen their uniqueness result. More precisely, we provethe uniqueness among the solutions satisfying:∃p > ¯γ, ∃ε > 0, E[e psup 0tT(Y −t +R t ᾱsds) ]0 + e εsup 0tT Y +t< +∞,where ¯γ > 0 and (ᾱ t ) t∈[0,T] is a progressively measurable nonnegative stochastic process such that, P-a.s.,∀(t, y, z) ∈ [0, T] × R × R 1×d , g(t, y, z) ᾱ t + ¯β |y| + ¯γ 2 |z|2 .Our method is different from that in [25] where the authors apply the so-called θ-difference method, i.e.estimating Y 1 − θY 2 , for θ ∈ (0, 1), and then letting θ → 0. Whereas in this paper, we apply a verificationmethod: first we <strong>de</strong>fine a stochastic control problem and then we prove that the first component of anysolution of the BSDE is the optimal value of this associated control problem. Thus the uniqueness followsimmediately. Moreover, using this representation, we are able to give a probabilistic representation of thefollowing PDE:∂ t u(t, x) + Lu(t, x) − g(t, x, u(t, x), −σ ∗ ∇ x u(t, x)) = 0, u(T, .) = h,where h and g have a “not too high” quadratic growth with respect to the variable x. We remark that theprobabilistic representation is also given by [25] un<strong>de</strong>r the condition that h and g are subquadratic, i.e.:∀(t, x, y, z) ∈ [0, T] × R d × R × R 1×d ,|h(x)| + |g(t, x, y, z)| f(t, y, z) + C |x| pwith f 0, C > 0 and p < 2.The paper is organized as follows. In section 2, we prove an existence result in the spirit of [24] and[25]: here we work with generators −g such that g − has a linear growth with respect to variables y andz. As in part 5 of [24], this assumption allows us to reduce hypothesis of [25]. Section 3 is <strong>de</strong>voted to theoptimal control problem from which we get as a byproduct a uniqueness result for quadratic BSDEs withunboun<strong>de</strong>d terminal conditions. Finally, in the last section we <strong>de</strong>rive the nonlinear Feynman-Kac formulain this framework.Let us close this introduction by giving the notations that we will use in all the paper. For the remainingof the paper, let us fix a nonnegative real number T > 0. First of all, (W t ) t∈[0,T] is a standard Brownianmotion with values in R d <strong>de</strong>fined on some complete probability space (Ω, F, P). (F t ) t0 is the naturalfiltration of the Brownian motion W augmented by the P-null sets of F. The sigma-field of predictablesubsets of [0, T] × Ω is <strong>de</strong>noted by P.As mentioned before, we will <strong>de</strong>al only with real valued BSDEs which are equations of type (4.1). Thefunction −g is called the generator and ξ the terminal condition. Let us recall that a generator is a randomfunction [0, T] × Ω × R × R 1×d → R which is measurable with respect to P ⊗ B(R) ⊗ B(R 1×d ) and aterminal condition is simply a real F T -measurable random variable. By a solution to the BSDE (4.1) wemean a pair (Y t , Z t ) t∈[0,T] of predictable processes with values in R × R 1×d such that P-a.s., t ↦→ Y t iscontinuous, t ↦→ Z t belongs to L 2 (0, T), t ↦→ g(t, Y t , Z t ) belongs to L 1 (0, T) and P-a.s. (Y, Z) verifies


4.2. AN EXISTENCE RESULT 59(4.1). We will sometimes use the notation BSDE(ξ,f) to say that we consi<strong>de</strong>r the BSDE whose generator isf and whose terminal condition is ξ.For any real p 1, S p <strong>de</strong>notes the set of real-valued, adapted and càdlàg processes (Y t ) t∈[0,T] such that[ ] 1/p‖Y ‖ S p := E sup |Y t | p < +∞.0tTM p <strong>de</strong>notes the set of (equivalent class of) predictable processes (Z t ) t∈[0,T] with values in R 1×d such that⎡( ∫ T) ⎤ p/2‖Z‖ M p := E⎣|Z s | 2 ds ⎦01/p< +∞.Finally, we will use the notation Y ∗ := sup 0tT |Y t | and we recall that Y belongs to the class (D) as soonas the family {Y τ : τ T stopping time} is uniformly integrable.4.2 An existence resultIn this section, we prove a slight modification of the existence result for quadratic BSDEs obtained in [25]by using a method applied in section 5 of [24]. We consi<strong>de</strong>r here the case where g − has a linear growthwith respect to variables y and z. Let us assume the following on the generator.Assumption (A.1). There exist three constants β 0, γ > 0 and r 0 together with two progressivelymeasurable nonnegative stochastic processes (ᾱ t ) 0tT , (α t ) 0tT and a <strong>de</strong>terministic continuousnon<strong>de</strong>creasing function φ : R + → R + with φ(0) = 0 such that, P-a.s.,1. for all t ∈ [0, T], (y, z) ↦→ g(t, y, z) is continuous;2. monotonicity in y: ∀(t, y, z) ∈ [0, T] × R × R 1×d ,y(g(t, 0, z) − g(t, y, z)) β |y| 2 ;3. growth condition: ∀(t, y, z) ∈ [0, T] × R × R 1×d ,−α t − r(|y| + |z|) g(t, y, z) ᾱ t + φ(|y|) + γ 2 |z|2 .Theorem 4.1 Let (A.1) hold. If there exists p > 1 such that[ ( ∫ ) (T∫ ) p ]TE exp γe βT ξ − + γ ᾱ t e βt dt + (ξ + ) p + α t dt < +∞then the BSDE (4.1) has a solution (Y, Z) such that− 1 γ log E [exp(γe β(T −t) ξ − + γ∫ Twith C a constant that does not <strong>de</strong>pend on T .t00) ] ( [ ( ∣∣∣Ft ∫ p ])T ∣ 1/pᾱ r e β(r−t) dr Y t Ce CT E (ξ + ) p ∣∣Ft+ α r dr),Proof. We will fit the proof of Proposition 4 in [24] to our situation. Without loss of generality, let usassume that r is an integer. For each integer n r, let us consi<strong>de</strong>r the functiong n (t, y, z) := inf { g(t, p, q) + n |p − y| + n |q − z|,(p, q) ∈ Q 1+d} .g n is well <strong>de</strong>fined and it is globally Lipschitz continuous with constant n. Moreover (g n ) nr is increasingand converges pointwise to g. Dini’s theorem implies that the convergence is also uniform on compact sets.We have also, for all n r,h(t, y, z) := −α t − r(|y| + |z|) g n (t, y, z) g(t, y, z).t


60 CHAPITRE 4. UNICITÉ DES SOLUTIONS D’EDSRS QUADRATIQUESLet (Y n , Z n ) be the unique solution in S p ×M p to BSDE(ξ,−g n ). It follows from the classical comparisontheorem thatY n+1 Y n Y r .Let us prove that for each n rY nt − 1 γ log E [exp(γe β(T −t) ξ − + γ∫ Ttᾱ r e β(r−t) dr) ∣∣∣Ft]:= X t .Let (Ỹ n , ˜Z n ) be the unique solution in S p × M p to BSDE(−ξ − ,−g n + ). It follows from the classical comparisontheorem that Ỹ n Y n and Ỹ n 0. Then, according to Proposition 3 in [25], we have Ỹ n Xand so Y n X for all n r. We set Y = inf nr Y n and, arguing as in the proof of Proposition 3 in [25]or Theorem 2 in [24] with a localization argument, we construct a process Z such that (Y, Z) is a solution toBSDE(ξ,−g). For the upper bound, let (Ȳ , ¯Z) be the unique solution in S p × M p to BSDE(ξ + ,−h). Thenthe classical comparison theorem gives us that Y Y n Ȳ and we apply a classical a priori estimate forL p solutions of BSDEs in [21] to Ȳ .⊓⊔Corollary 4.2 Let (A.1) hold. We suppose that ξ − + ∫ T0 ᾱtdt has an exponential moment of or<strong>de</strong>r γe βTand there exists p > 1 such that ξ + + ∫ T0 α t dt ∈ Lp .• If ξ − + ∫ T0 ᾱtdt has an exponential moment of or<strong>de</strong>r qe βT with q > γ then the BSDE (4.1) has asolution (Y, Z) such that E [ ]e qA∗ < +∞ with At := Yt− + ∫ t0 ᾱsds.• If ξ + + ∫ T0 α tdt has an exponential moment of[or<strong>de</strong>r εCe CT , with C given in theorem 4.1, then theBSDE (4.1) has a solution (Y, Z) such that E e ε(Y + ) ∗] < +∞.Proof.Let us apply the existence result : BSDE (4.1) has a solution (Y, Z) and we have( )) ] ∣∣∣Ft(γe βTA t = Y −t +∫ t0ᾱ s ds 1 γ log E [exp∫ Tᾱ r dr .0:=M tξ − +} {{ }So e qAt (M t ) q/γ with q/γ > 1. Since M q/γ is a submartingale, we are able to apply the Doob’s maximalinequality to obtain [E e qA∗] C q E[e qeβT (ξ − + R T ᾱsds)] 0 < +∞.To prove the second part of the corollary, we <strong>de</strong>fine[N t := E (ξ + ) p +∣∫ T0p ]∣ ∣∣Ftα s ds.∣We set q > 1. There exists C C,ε,p,q 0 such that x ↦→ e CeCT x 1/p ε/q is convex on [C C,ε,p,q , +∞[. We havee ε/qY +t e CeCT (C C,ε,p,q+N t) 1/p ε/q . Since e (CC,ε,p,q+N)1/pε/q is a submartingale, we are able to apply theDoob’s maximal inequality to obtain[E e ε(Y + ) ∗] CE[e εCeCT (C C,ε,p,q+(ξ + ) p +( R T0 α s ds)p ) 1/p] CE[e εCeCT (ξ + + R T0 α ds)] s < +∞.⊓⊔4.3 A uniqueness resultTo prove our uniqueness result for the BSDE (4.1), we will introduce a stochastic control problem. For thispurpose, we use the following assumption on g:


4.3. A UNIQUENESS RESULT 61Assumption (A.2). There exist three constants K g,y 0, ¯β 0 and ¯γ > 0 together with a progressivelymeasurable nonnegative stochastic process (ᾱ t ) t∈[0,T] such that, P-a.s.,• for each (t, z) ∈ [0, T] × R 1×d ,|g(t, y, z) − g(t, y ′ , z)| K g,y |y − y ′ | , ∀(y, y ′ ) ∈ R 2 ,• for each (t, y, z) ∈ [0, T] × R × R 1×d ,g(t, y, z) ᾱ t + ¯β |y| + ¯γ 2 |z|2 ,• for each (t, y) ∈ [0, T] × R, z ↦→ g(t, y, z) is a convex function .Since g(t, y, .) is a convex function we can <strong>de</strong>fine the Legendre-Fenchel transformation of g:f(t, y, q) := supz∈R 1×d (zq − g(t, y, z)), ∀t ∈ [0, T], q ∈ R d , y ∈ R.f is a function with values in R ∪ {+∞} that verifies direct properties.Proposition 4.3• ∀(t, y, y ′ , q) ∈ [0, T] × R × R × R d such that f(t, y, q) < +∞,• f is a convex function in q,f(t, y ′ , q) < +∞ and |f(t, y, z) − f(t, y ′ , z)| K g,y |y − y ′ | .• f(t, y, q) −ᾱ t − ¯β |y| + 12¯γ |q|2 .For ε > 0 and p > ¯γ given we set N ∈ N ∗ such that(TN1¯γ < − 1 )1p ¯β(1/p + 1/ε) . (4.2)For i ∈ {0, ..., N} we <strong>de</strong>fine t i := iT N and, for all real F t i+1-measurable random variable η,A ti,t i+1(η) :={(q s ) s∈[ti,t i+1] :∫ ti+1t i|q s | 2 ds < +∞ P − a.s., E Qi [∫ ti+1(M i t ) t∈[t i,t i+1] is a martingale, E Qi [|η| +with M i t := exp (∫ tt iq s dW s − 1 2∫ t∫ ti+1t i)|q s | 2 dst it i]|f(s, 0, q s )| ds < +∞,and dQidP := Mi t i+1}.]|q s | 2 ds < +∞,Let q be in A ti,t i+1(η), if this set is not empty. We <strong>de</strong>fine dW q t := dW t − q t dt. Thanks to the Girsanovtheorem, (W q t i+h − W q t i) h∈[0,T/N] is a Brownian motion un<strong>de</strong>r the probability Q i . So, we are able to applyProposition 6.4 in [21] to obtain this existence result:Proposition 4.4 There exist two processes (Y η,q , Z η,q ) such that (Y η,qt ) t∈[ti,t i+1] belongs to the class (D)un<strong>de</strong>r Q i , ∫ t i+1t i|Zs η,q | 2 ds < +∞ P − a.s., ∫ t i+1t i|f(s, Ysη,q , q s )| ds < +∞ P − a.s. and∫ ti+1∫ ti+1Y η,qt = η + f(s, Ys η,q , q s )ds + Zs η,q dWs q , t i t t i+1 .ttWe are now able to <strong>de</strong>fine the admissible control set:( )A :={(q s ) s∈[0,T] : q |[tN −1,T] ∈ A tN −1,T(ξ), ∀i ∈ {N − 2, . . .,0}, q |[ti,t i+1] ∈ A ti,t i+1Y qt i+1}with Y qt i+1:= Y Y qt i+2,q |[ti+1 ,t i+2 ]t i+1and Y q T := ξ .


62 CHAPITRE 4. UNICITÉ DES SOLUTIONS D’EDSRS QUADRATIQUESA is well <strong>de</strong>fined by a <strong>de</strong>creasing recursion on i ∈ {0, . . .,N − 1}. For q ∈ A we can <strong>de</strong>fine our costfunctional Y q on [0, T] by∀i ∈ {N − 1, . . .,0},∀t ∈ [t i , t i+1 ],Y qt := Y Y qt i+1,q |[ti ,t i+1 ]t ,and, similarly, we <strong>de</strong>fine the process Z q associated to Y q by∀i ∈ {N − 1, . . .,0},∀t ∈ (t i , t i+1 ),Z q t := Z Y qt i+1,q |[ti ,t i+1 ]t .(Y q , Z q ) is also well <strong>de</strong>fined by a <strong>de</strong>creasing recursion on i ∈ {0, . . .,N − 1}. Finally, the stochasticcontrol problem consists in minimizing Y q among all the admissible controls q ∈ A. Our strategy to provethe uniqueness is to prove that given a solution (Y, Z), the first component is the optimal value.Theorem 4.5 We suppose that there exists a solution (Y, Z) of the BSDE (4.1) verifying∃p > ¯γ, ∃ε > 0,E [ exp (pA ∗ ) + exp ( ε(Y + ) ∗)] < +∞,with A t := Yt− + ∫ t0 ᾱsds. Then we have Y = ess inf q∈A Y q , and there exists q ∗ ∈ A such that Y = Y q∗ .Moreover, this implies that the solution (Y, Z) is unique among solutions verifying such condition.Proof. Let us first prove that for any q admissible, we have Y Y q . To do this, we will show thatY |[ti,t i+1] Y q|[t by <strong>de</strong>creasing recurrence on i ∈ {0, . . .,N − 1}. Firstly, we have Y i,t i+1] T = Y q T = ξ.Then we suppose that Y t Y qt , ∀t ∈ [t i+1 , T]. We set t ∈ [t i , t i+1 ] and we <strong>de</strong>fine{∫ s ∫ s ∫ s} }τn {s i := inf t : sup |Z u | 2 du, |Zu q |2 du, |q u | 2 du > n ∧ t i+1 ,ttth(s, y, z) := −g(s, y, z) + zq s , and⎧⎨ h(s, Ys q , Z s ) − h(s, Y s , Z s )h s := Ys ⎩qif Ys q− Y − Y s ≠ 0s0 otherwise.We observe that |h s | K g,y . Then, by applying Itô formula to the process (Y qs − Y s )e R st hudu we obtainY qt −Y t = e R τnit[ ∫ τih sdsY qnτ− Yni τ i n]+ e R st hudu [f(s, Ys q , q s) − h(s, Ys q , Z s)] ds+tBy <strong>de</strong>finition, f(s, Y qs , q s) − h(s, Y qs , Z s) 0, soSincehave( )Y qτe R τnini t h sdsMoreover,∣ Y τ iτn i eR ntn[Y qt − Y t E Qi e R [ ] ∣ ]τnit h sdsY qτ− Yni τ i ∣∣nF t .tends to Y qt i+1e R t i+1t∫ τinte R st hudu [Z q s − Z s] dW q s .h sds almost surely and is uniformly integrable un<strong>de</strong>r Q i , we[]lim e R τnin→+∞ EQi t h sds Y q[τni ∣ F t = E Qi e R ∣ ]t i+1t h sds Y q ∣∣t i+1 Ft .∣ (Y + ) ∗ e TKg,y + (Y − ) ∗ e TKg,y . Let us recall a useful inequality: fromh sdsxy exp(x) + y(log(y) − 1), ∀(x, y) ∈ R × R + ,we <strong>de</strong>ducexy = px y p exp(px) + y (log y − log p − 1). (4.3)p


4.3. A UNIQUENESS RESULT 63ThusE Qi [ (Y − ) ∗] = Eand, in the same manner,[Mt i i+1(Y − ) ∗] E [ exp(p(Y − ) ∗ ) ] + 1 ()][Mp E t i i+1log Mt i i+1− log p − 1 C p + 1 [∫ ti+1]|q2p EQi s | 2 ds< +∞,E Qi [ (Y + ) ∗] C ε + 1 2ε EQi [∫ ti+1So, by applying the dominated convergence theorem we obtainFinally,t it i]|q s | 2 ds < +∞.[ ∣ ]lim e R τnin→+∞ EQi t h ∣∣∣ [ sds Y τ i nF t = E Qi e R ∣ ]t i+1t h sds ∣∣Y ti+1 Ft .[Y qt − Y t lim e R [ τnin→+∞ EQi t h sdsY qτni− Y τ in]|F t][ = E Qi e R ( )∣ ] t i+1t h sdsY q ∣∣t i+1− Y ti+1 Ft 0,because Y qt i+1 Y ti+1 by the recurrence’s hypothesis.Now we set t q ∗ s ∈ ∂ z g(s, Y s , Z s ) with ∂ z g(s, Y s , Z s ) the subdifferential of z ↦→ g(s, Y s , z) at Z s . Werecall that for a convex function l : R 1×d → R, the subdifferential of l at x 0 is the non-empty convexcompact set of u ∈ R 1×d such thatl(x) − l(x 0 ) u t (x − x 0 ), ∀x ∈ R 1×d .We have f(s, Y s , q ∗ s) = Z s q ∗ s − g(s, Y s , Z s ) for all s ∈ [0, T], sog(s, Y s , Z s ) Z s qs ∗ − 12¯γ |q∗ s| 2 + ¯β |Y s | + ᾱ s() 1 2¯γ |Z s | 2 + |q∗ s |2− 12 2¯γ 2¯γ |q∗ s |2 + ¯β |Y s | + ᾱ s ,|q ∗ s |24¯γ −g(s, Y s , Z s ) + ¯γ |Z s | 2 + ¯β |Y s | + ᾱ s ,and finally, ∫ T0 |q∗ s |2 ds < +∞, P-a.s.. Moreover, ∀t, t ′ ∈ [0, T],∫ t′∫ t′Y t = Y t ′ + f(s, Y s , qs)ds ∗ + Z s (dW s − qsds).∗ttThus, we just have to show that q ∗ is admissible to prove that q ∗ is optimal, i.e. Y = Y q∗ . For this, wemust prove that (q ∗ s ) s∈[t i,t i+1] ∈ A ti,t i+1(Y ti+1 ) for i ∈ {0, . . .,N − 1}. We <strong>de</strong>fineM i t := exp (∫ tt iq ∗ s dW s − 1 2)|qs ∗ |2 ds ,t i∫ tdQ ∗,idP := Mi t i+1,{(∫ t ∫ t) }τn i = inf t ∈ [t i , t i+1 ] : sup |qs ∗ | 2 ds, |Z s | 2 ds > n ∧ t i+1 ,t i t iLet us show the following lemma:Lemma 4.6 (M i τ i n) n is uniformly integrable.dQ ∗,indP := Mi τ i n .


64 CHAPITRE 4. UNICITÉ DES SOLUTIONS D’EDSRS QUADRATIQUESProof.We apply inequality (4.3) to obtainE Q∗,i n [A ∗ ] = E[Mτ i A∗] E[exp(pA ∗ )] + 1 [n i p E [ ∫ ] C p + 1 τin2p EQ∗,i n|qs ∗ |2 ds ,t iM i τ i n(log M i τ i n − log p − 1 )]and, in the same manner,E Q∗,i n[(Y + ) ∗] C ε + 1 2ε EQ∗,i n[ ∫ ]τin|qs ∗ |2 ds .t iSince g(s, Y s , Z s ) = Z s qs ∗ − f(s, Y s , qs) ∗ and (Mt∧τ i n) i t∈[ti,t i+1] is a martingale, we can apply the Girsanovtheorem and we obtain[ ∫ ]τin]E Q∗,i nY τ i n+ f(s, Y s , qs ∗ )ds = E Q∗,i n [Yti ] = E[Mτ i Y n i t i= E[Y ti ].t iMoreover f(t, y, q) 12¯γ |q|2 − ¯β |y| − ᾱ t and Y τ i n −Y −τson, i]E[Y ti ] −E Q∗,i n[Y −τ i n]− E Q∗,i n[ ∫ τint iᾱ s ds+ 12¯γ EQ∗,i n[ ∫ ] C − E Q∗,i n [A ∗ ] + 1 τin2¯γ EQ∗,i n|qs ∗ |2 ds − Tt iN C p,ε + 1 (21¯γ − 1 p − T ( ¯βN p + ¯β )) [ ∫ τiE Q∗,innεt} {{ }i>0[ ∫ τint i(¯βEQ ∗,in|q ∗ s |2 ds|q ∗ s| 2 ds]−Q∗,i ¯βEn[ ∫ τint i[(Y − ) ∗ + (Y + ) ∗])].|Y s | dsThis inequality explains why we take N verifying (4.2). Finally we get that[[ ] ∫ ]τi2E Mτ i log n i Mi τ= Eni Q∗,inn|qs ∗ |2 ds C p,ε . (4.4)Then we conclu<strong>de</strong> the proof of the lemma by using the <strong>de</strong> La Vallée Poussin lemma.⊓⊔Thanks to this lemma, we have that E[Mt i i+1] = 1 and so (Mt i) t∈[t i,t i+1] is a martingale. Moreover,applying Fatou’s lemma and inequality (4.4), we obtain] [∫ ti+1] [ ∫ ]τi2E[Mt i i+1log Mt i i+1= E Q∗,i |qs| ∗ 2 nds liminf E Q∗,i n|qs ∗ | 2 ds < +∞. (4.5)tnit iSo, by using this result and inequality [ (4.3) we easily show that E Q∗,i [(Y + ) ∗ + (Y − ) ∗ ] < +∞. To conclu<strong>de</strong>we have to prove that E Q∗,i ti+1∫ ]t i|f(s, 0, qs ∗)| ds < +∞:Firstly,E Q∗,i [∫ ti+1t i]|f(s, 0, qs)| ∗ ds E Q∗,i [∫ ti+1t it i]|f(s, Y s , qs)| ∗ + K g,y |Y s |ds[∫ ti+1 E Q∗,i |f(s, Y s , qs ∗ )| ds + K g,yT ( (Y + ) ∗ + (Y − ) ∗)]t i[∫ ti+1] C + E Q∗,i f + (s, Y s , qs) ∗ + f − (s, Y s , qs)ds∗ .[∫ ti+1] [∫ ti+1E Q∗,i f − (s, Y s , qs ∗ )ds E Q∗,it it it i]ᾱ s + ¯β |Y s | ds < +∞.]


4.4. APPLICATION TO QUADRATIC PDES 65Moreover, thanks to the Girsanov theorem we havesoE Q∗,i [ ∫ τinE Q∗,i [Y ti ] = E Q∗,i [Y τ in+t if + (s, Y s , q ∗ s )ds ]∫ τint if(s, Y s , q ∗ s )ds ]E [ [ ∫ ]] τiQ∗,iY ti − Y τ in+ EQ ∗,i nf − (s, Y s , qs ∗ )dst i[∫ ti+1]C + E Q∗,i f − (s, Y s , qs)ds∗ C[ ∫ ][Finally, E Q∗,i ti+1t if + (s, Y s , qs ∗)ds ∫ ]< +∞ and E Q∗,i ti+1t i|f(s, 0, qs ∗)| ds < +∞. Thus, we provethat q ∗ is optimal, i.e. Y q∗ = Y .The uniqueness of Y is a direct consequence of the fact that Y = Y q∗ = ess inf q∈A Y q . The uniquenessof Z follows immediately.⊓⊔Remark 4.7 If we have g(t, y, z) g(t, 0, z), then f(t, y, q) f(t, 0, q) 12¯γ |q|2 − ᾱ t and we do nothave to introduce N in the proof of Lemma 4.6. So we have a simpler representation theorem:Y t = ess inf Y qt ,q∈A 0,T (ξ)For example, when g is in<strong>de</strong>pen<strong>de</strong>nt of y, we obtainY t = ess inf E[ξ Q +q∈A 0,T (ξ)∫ T4.4 Application to quadratic PDEstt i∀t ∈ [0, T].]∣f(s, q s )ds∣F t , ∀t ∈ [0, T].In this section we give an application of our results concerning BSDEs to PDEs which are quadratic withrespect to the gradient of the solution. Let us consi<strong>de</strong>r the following semilinear PDE∂ t u(t, x) + Lu(t, x) − g(t, x, u(t, x), −σ ∗ ∇ x u(t, x)) = 0, u(T, .) = h, (4.6)where L is the infinitesimal generator of the diffusion X t,x solution to the SDEX t,xs = x +∫ stb(r, X t,xr )dr +∫ stσ(r)dW r ,,t s T, and X t,xs = x, s t. (4.7)The nonlinear Feynman-Kac formula consists in proving that the function <strong>de</strong>fined by the formula∀(t, x) ∈ [0, T] × R d ,u(t, x) := Y t,xt (4.8)where, for each (t 0 , x 0 ) ∈ [0, T] × R d , (Y t0,x0 , Z t0,x0 ) stands for the solution to the following BSDEY t = h(X t0,x0T) −∫ Ttg(s, X t0,x0s , Y s , Z s )ds +is a solution, at least a viscosity solution, to the PDE (4.6).∫ TtZ s dW s , 0 t T, (4.9)Assumption (A.3). Let b : [0, T] × R d → R d and σ : [0, T] → R d×d be continuous functions and let usassume that there exists K 0 such that:1. ∀t ∈ [0, T], |b(t, 0)| K,2. ∀t ∈ [0, T], ∀(x, x ′ ) ∈ R d × R d , |b(t, x) − b(t, x ′ )| K |x − x ′ | .Lemma 4.8∀λ ∈[0,with T ↦→ C T non<strong>de</strong>creasing.[[]12e 2KT ‖σ‖ 2 ∞ T , ∃C T 0, ∃C 0, E sup e λ|Xt 0 ,x 0t | 2 C T e C|x0|2 ,0tT


66 CHAPITRE 4. UNICITÉ DES SOLUTIONS D’EDSRS QUADRATIQUESProof.As in [25] we easily show that, for all ε > 0, we have(∫∣t∣)∣∣∣sup ∣X t0,x0 ∣t |x 0 | + KT + sup∣ 0σ(s)dW s e0tT0tT 0½st KT∫ sup ∣ Xt 0,x 0∣ 2 t C ε (T 2 + |x 0 | 2 t∣ ∣∣∣2) + (1 + ε)e 2KT sup∣ 0σ(s)dW s .0tT0tT 0½stWe <strong>de</strong>fine ˜λ := λ(1 + ε)e 2KT . It follows from the Dambis-Dubins-Schwarz representation theorem andthe Doob’s maximal inequality that[ (∫ t∣ )] []∣∣∣2 [E sup exp ˜λ∣ 0σ(s)dW s E sup e˜λ|W t| 2 4E e˜λ‖σ‖ 2 ∞0tT 0½st T |W1|2] ,0t‖σ‖ 2 ∞ Twhich is a finite constant if ˜λ ‖σ‖ 2 ∞ T < 1/2.⊓⊔With this observation in hands, we can give our assumptions on the nonlinear term of the PDE and theterminal condition.Assumption (A.4). Let g : [0, T] × R d × R × R d → R and h : R d → R be continuous and let us assumemoreover that there exist five constants r 0, β 0, γ 0, α 0 and α ′ 0 such that:1. for each (t, x, z) ∈ [0, T] × R d × R 1×d ,∀(y, y ′ ) ∈ R 2 , |g(t, x, y, z) − g(t, x, y ′ , z)| β |y − y ′ | ;2. for each (t, x, y) ∈ [0, T] × R d × R, z ↦→ g(t, x, y, z) is convex on R 1×d ;3. for each (t, x, y, z) ∈ [0, T] × R d × R × R 1×d ,−r(1 + |x| 2 + |y| + |z|) g(t, x, y, z) r + α |x| 2 + β |y| + γ 2 |z|2 ,−r − α ′ |x| 2 h(x) r(1 + |x| 2 );4. for each (t, x, x ′ , y, z) ∈ [0, T] × R d × R d × R × R 1×d ,5.|g(t, x, y, z) − g(t, x ′ , y, z)| r(1 + |x| + |x ′ |) |x − x ′ |,|h(x) − h(x ′ )| r(1 + |x| + |x ′ |) |x − x ′ | ;α ′ + Tα γe βT and ε > 0 such that h − (X t0,x0T) + ∫ (Tr +0α ∣ Xt 0,x 0∣ ) 2 t dt has an exponential moment of or<strong>de</strong>r q and h + (X t0,x0T) + ∫ (T0r + r ∣ Xt 0,x 0∣ 2) t dt has anexponential moment of or<strong>de</strong>r ε. So we are able to apply Corollary 4.2 and Theorem 4.5 to obtain a uniquesolution (Y t0,x0 , Z t0,x0 ) to the BSDE (4.9). Let us recall the <strong>de</strong>finition of a viscosity solution and then,prove that u is a viscosity solution to the PDE (4.6).Definition 4.9 A continuous function u on [0, T] × R d such that u(T, .) = h is said to be a viscositysubsolution (respectively supersolution) to (4.6) if∂ t ϕ(t 0 , x 0 ) + Lϕ(t 0 , x 0 ) − g(t 0 , x 0 , u(t 0 , x 0 ), −σ ∗ ∇ x ϕ(t 0 , x 0 )) 0, (respectively 0)as soon as u − ϕ has a local maximum (respectively minimum) at (t 0 , x 0 ) ∈ (0, T) × R d where ϕ is asmooth function. A viscosity solution is both a viscosity subsolution and a viscosity supersolution.


4.4. APPLICATION TO QUADRATIC PDES 67Proposition 4.10 Let assumptions (A.3) and (A.4) hold. The function u <strong>de</strong>fined by (4.8) is continuous on[0, T] × R d and satisfiesMoreover u is a viscosity solution to the PDE (4.6).∀(t, x) ∈ [0, T] × R d , |u(t, x)| C(1 + |x| 2 ).Before giving a proof of this result, we will show some auxiliary results about admissible control sets. Wehave already notice in Remark 4.7 that we have a simpler representation theorem when T is small enoughto take N = 1 in (4.2). So we <strong>de</strong>fine a constant T 1 > 0 such that for all T ∈ [0, T 1 ] we are allowed toset N = 1. We will reuse notations of Section 4.3. For all T ∈ [0, T 1 ], t ∈ [0, T], x ∈ R d , we <strong>de</strong>fine theadmissible control set{ ∫ [T∫ ]TA 0,T (t, x) := (q s ) s∈[0,T] : |q s | 2 ds < +∞ P − a.s., E Q |q s | 2 ds < +∞,0(M t ) t∈[0,T] is a martingale, E Q [∣∣h(X t,xT )∣ ∣ +(∫ twith M t := exp q s dW s − 10 2∫ t0∫ T00∣∣f(s, Xst,x , 0, q s) ∣ ]ds < +∞,)|q s | 2 ds and dQ }dP := M T .We will prove a first lemma and then we will use it to show that this admissible control set does not <strong>de</strong>pendon t and x.Lemma 4.11 ∃C > 0 such that ∀T ∈ [0, T 1 ], ∀t ∈ [0, T], ∀x ∈ R d , ∀q ∈ A 0,T (t, x), ∀t ′ ∈ [0, T],∀x ′ ∈ R d , ∀s ∈ [t ′ , T],[ ∣∣∣X E Q t ′ ,x ′s ∣ 2] ( ∫ s [ C 1 + |x ′ | 2 + T E Q |q u | 2] )du .Remark 4.12 In the second part of the lemma q and Q <strong>de</strong>pend on x and t but we do not write it to simplifynotations.Proof.∣∣X t′ ,x ′sFor all s ∈ [t ′ , T] we have an obvious inequality((∫ ∣ 2 s ∣ C 1 + |x ′ | 2 ∣∣X t+′ ,x ′ ∣ut ′t ′∣du) 2+ supt ′ rT∣∫ rt ′σ(u)dWuq ∣2(∫ s) ) 2+ |q u | du .t ′Then, by applying Cauchy-Schwarz’s inequality and Doob’s maximal inequality, we obtain⎛⎡[ ∣∣∣X E Q t ′ ,x ′s ∣ 2] ∫ s[ ∣∣∣X C ⎝1 + |x ′ | 2 + T E Q t ′ ,x ′u ∣ 2] ∫ T⎤ 2du + E Q ⎣σ(u)dW q u⎦t ∣′ t ∣′[∫ s])+T E Q |q u | 2 du .Finally, Gronwall’s Lemma gives us the result.t ′⊓⊔Proposition 4.13 A 0,T (t, x) is in<strong>de</strong>pen<strong>de</strong>nt of t and x. We will write it A 0,T .Proof. Let x, x ′ ∈ R d , t, t ′ ∈ [0, T] and q ∈ A 0,T (t, x). We will show that q ∈ A 0,T (t ′ , x ′ ). Firstly,thanks to Lemma 4.11 we have[∣ ] ( [ ∣∣∣X E Q ∣ t ∣h(X ′ ,x ′T) ∣ C 1 + E Q t ′ ,x ′T ∣ 2]) ( ∫ T [ ) C 1 + E Q |q u | 2] du < +∞.t ′Moreover∣−C(1 +∣X t′ ,x ′s∣ 2 ) 12γ |q s| 2 ∣− C(1 +∣X t′ ,x ′s∣ 2 ) f(s, X t′ ,x ′s , 0, q s ),


68 CHAPITRE 4. UNICITÉ DES SOLUTIONS D’EDSRS QUADRATIQUESandf(s, X t′ ,x ′s, 0, q s ) f(s, X t,xs, 0, q s ) + C(1 + ∣ Xt,x∣ 2 ∣+∣So, ∣f(s, X t′ ,x ′s , 0, q s ) ∣ |f(s, Xst,x , 0, q s )| + C(1 + |Xs t,x | 2 ∣+0s∣X t′ ,x ′s[ ∫ ]TE Q ∣∣f(s, X t′ ,x ′s , 0, q s ) ∣ ds < +∞.∣X t′ ,x ′s∣ 2 ).∣ 2 ) and finallyNow we will do a new restriction of the admissible control set.⊓⊔Proposition 4.14 ∃T 2 ∈]0, T 1 ], ∃ ˜C > 0, such that, ∀T ∈ [0, T 2 ], ∀t ∈ [0, T], ∀s ∈ [0, t], ∀x ∈ R d ,∣∣Y t,xs[ ∫ ]T∣ ˜C(1 + |x| 2 ) and E Q∗ |qu ∗ |2 du ˜C(1 + |x| 2 ).0Proof. Firstly, we suppose that s t, so Yst,x is a <strong>de</strong>terministic variable. We are able to use estimates ofthe existence Theorem 4.1 and Lemma 4.8:[ (−C log E sup exp C + γe βT (α ′ + Tα) ∣ Xt,x∣ 2)]s0sT− ˜C(1 + |x| 2 ) Y t,xs( [ C 1 + E Y t,xs ˜C(1 + |x| 2 ).sup0sT]) 1/2∣ Xt,x∣ 4sThen, according to the representation theorem, we haveY t,x0 = E Q∗ [h(X t,xT ) + ∫ T00]f(s, Xst,x , Y s t,x , qs ∗ )ds[ ∣ −C − α ′ E Q∗ ∣X t,x∣ 2]T[ ∫ ] [+ 1 T∫ ] [T∫ ]T2γ EQ∗ |qu ∗ |2 du − αE Q∗ ∣ Xt,x∣ 2 s ds − βE Q∗ ∣ Yt,x∣ s ds .But, thanks to the uniqueness, we have Yst,x = Y s,Xt,x ssMoreover, we are allowed to use Lemma 4.11,Y t,x0 −C(1 + |x| 2 ) − C(α ′ + Tα + βC)0( [for s t, so E Q∗ [|Yst,x |] C 1 + E Q∗ |Xs t,x | 2]) .(1 + |x| 2 + T[ ∫ ]+ 1 T2γ EQ∗ |qu ∗ |2 du0( ) [ ∫ ] −C(1 + |x| 2 1T) +2γ − CT E Q∗ |qu ∗ |2 du .0We set 0 < T 2 T 1 such that12γ − CT > 0 for all T ∈ [0, T 2]. Finally,[ ∫ ]TE Q∗ |qu ∗ |2 du0∫ T C(1 + |x| 2 + Y t,x0 ) ˜C(1 + |x| 2 ).t0E Q∗ [ |q ∗ u| 2] du)⊓⊔


4.4. APPLICATION TO QUADRATIC PDES 69[ ∫ ] TAccording to the Proposition 4.14 we know that E Q∗ 0 |q∗ u |2 du ˜C(1+|x| 2 ) so we are allowed torestrict A 0,T : for all R 0 we <strong>de</strong>fine{ [ ∫ ] }TA R 0,T = A 0,T ∩ (q s ) s∈[0,T] : E Q |q u | 2 du ˜C(1 + R 2 ) . (4.10)With this new admissible control set we will prove a last inequality:Proposition 4.15 ∃C 0, ∀T ∈ [0, T 2 ], ∀t, t ′ ∈ [0, T], ∀x, x ′ ∈ R d , ∀q ∈ A |x|∨|x′ |0,T, ∀s ∈ [0, T],[ ∣∣∣X E Q t,xs − X t′ ,x ′∣ 2] Cs0()|x − x ′ | 2 + (1 + |x| 2 + |x ′ | 2 ) |t − t ′ | .Proof.[ ∣∣∣X E Q t,xs − X t′ ,x ′∣ 2] [ ∣∣∣X 2E Q t,xss− X t,x′s∣ 2] [ ∣∣∣X + 2E Q t,x ′s − X t′ ,x ′∣ 2] .sWe have, for s t,So,X t,xsE Q [ ∣∣∣Xt,xs− X t,x′s = x − x ′ +− X t,x′s∣ 2] CWe apply Gronwall’s Lemma to obtain thatE Q [ ∣∣∣Xt,xs∫ st(|x − x ′ | 2 +− X t,x′s()b(u, Xu t,x ) − b(u, Xu t,x′ ) du.∫ stE Q [ ∣∣∣Xt,xu∣ 2] C |x − x ′ | 2 .− X t,x′u∣ 2] )du .Now we <strong>de</strong>al with the second term. Let us assume that t t ′ . For s t, Xs t,x′ − X t′ ,x ′st s t ′ , we haveSo,[ ∣∣∣X E Q t,x ′s − X t′ ,x ′∣ 2]sX t,x′s − X t′ ,x ′s =∫ stb(u, X t,x′u⎛ ⎡( ∫ t′ C ⎝E Q ⎣ ∣∣b(u, X t,x′ Ct∫ s ∫ s)du + σ(u)dWu q + σ(u)q u du.tu )⎡( ∫ ) ⎤⎞t′2E Q ⎣ |σ(u)q u | du ⎦⎠t( C |t ′ − t||t ′ − t| + |t ′ − t|(1 + |x ′ | 2 +∫ t′t∫ T C(1 + |x| 2 + |x ′ | 2 ) |t ′ − t| .0) ⎤2∣∣du ⎦ +E Q [ ∣∣∣Xt,x ′u∫ t′tE Q [ |q u | 2] dut|σ(u)| 2 du+∣ 2] du + |t ′ − t|Lastly, when t ′ s,∫ s ()Xs t,x′ − X t′ ,x ′s = X t,x′t − ,x ′′ Xt′ t + b(u, X ′u t,x′ ) − b(u, X t′ ,x ′u ) du.t ′So,E Q [ ∣∣∣Xt,x ′s− X t,x′s∣ 2] C(1 + |x| 2 + |x ′ | 2 ) |t ′ − t| + C∫ s)∫ t′t= 0. WhenE Q [ |q u | 2] du[ ∣∣∣X E Q t,x ′u − X t′ ,x ′u ∣ 2] du,t ′)


70 CHAPITRE 4. UNICITÉ DES SOLUTIONS D’EDSRS QUADRATIQUESand according to Gronwall’s Lemma,E Q [ ∣∣∣Xt,x ′s− X t,x′s∣ 2] C(1 + |x| 2 + |x ′ | 2 ) |t ′ − t| .Proof of Proposition 4.10. First of all, let us assume that T < T 2 . With this condition, we are allowedto use all previous propositions. Firstly, the quadratic increase of u is already proved in Proposition 4.14.Then, we will show continuity of u in (t 0 , x 0 ) ∈ [0, T] × R d . We have∀(t, x) ∈ [0, T] × R d , |u(t, x) − u(t 0 , x 0 )| |u(t, x) − u(t, x 0 )| + |u(t, x 0 ) − u(t 0 , x 0 )| .Let us begin with the fist term. We <strong>de</strong>fine R := |x| ∨ |x 0 |.Thanks to the representation theorem, we haveSo,Y t,xtBut, for t s T ,∣ Yq,t,xs − Ysq,t,x0 ∣ =E Q [∣ ∣ Yq,t,xs− Ysq,t,x0 ∣ ] = ess inf Y q,t,xq∈A R t and Y t,x0t0,T∣ ∣Y t,xt∣− Y t,x0t∣∣ ess supq∈A R 0,T∣∣E Q[ h(X t,xT ) − h(Xt,x0+∫ Ts(f(u, Xt,xT)u , Y uq,t,x∣ Yq,t,xt= ess inf Y q,t,x0q∈A R t .0,T− Y q,t,x0 ∣t ., q u ) − f(u, X t,x0u, Y q,t,x0u[E Q C(1 + ∣ Xt,x∣ 2 T+ ∣ Xt,x 0∣ 2 1/2T)] [ ∣EQ ∣X t,xT++C∫ Ts∫ Ts[ E Q C(1 + ∣ Xt,x∣ 2 + ∣ ∣Xt,x 0E Q [∣ ∣ Yq,t,xuuu− Yuq,t,x0 ∣ ] du,∣ 2 )] 1/2EQ [ ∣ ∣X t,xu, q u ) ) ]∣∣ ∣∣,du∣F s− ∣ 2] 1/2Xt,x0 T− ∣ 2] 1/2 Xt,x0 u duthanks to Assumption (A.4) and Höl<strong>de</strong>r’s inequality. According to Lemma 4.11, the <strong>de</strong>finition of A R 0,T andProposition 4.15, we obtainE Q [∣ ∣ Yq,t,xs− Ysq,t,x0 ∣ ] ∫ T C(1 + |x| 2 + |x 0 | 2 ) 1/2 |x − x 0 | + C E Q [∣ ∣ Yq,t,xusThen, Gronwall’s lemma gives us ∣ Yq,t,xtin<strong>de</strong>pen<strong>de</strong>nt of q, we finally obtain that∣ Yt,xt− Y t,x0t− Yuq,t,x0 ∣ ] du.− Y q,t,x0 ∣t C(1 + |x| + |x0 |) |x − x 0 |. Since this bound is∣ C(1 + |x| + |x0 |) |x − x 0 | .Now, we will study the second term. Without loss of generality, let us assume that t < t 0 .∣ Yt,x 0∣t − Y t0,x0t 0 ∣ Yt,x 0tWe apply Proposition 4.14 to obtainWe still have ∣ ∣Y t,x 0t ∣ ∣ Yt,x 0t∣ Yt,x 0∣ ∣t − Y t0,x0t 0 ∣Y t,x 0t∣− Y t0,x0t∫ t0∣− Y t0,x0 ∣t +t∫ t0− Y t0,x0 ∣t +t∣ g(s, x0 , Y t0,x0s, 0) ∣ ∣ ds,C(1 + |x 0 | 2 + ∣ Yt 0,x 0 ∣s )ds.− Y t0,x0 ∣t + C(1 + |x0 | 2 )(t 0 − t).∣∣ ess supq∈A R 0,T∣ Yq,t,x 0t− Y q,t0,x0 ∣t .⊓⊔


4.4. APPLICATION TO QUADRATIC PDES 71Moreover, exactly as the bound estimation for E Q |Y q,t,xsE Q [∣ ∣ Yq,t,x 0s∣− Ysq,t0,x0∣ ] E Q [ C(1 + ∣ ∣ Xt,x 0T∫ T++Cs∫ Ts∣ 2 + ∣ Xt 0,x 0T[E Q C(1 + ∣ ∣Xt,x 0uE Q [∣ ∣ Yq,t,x 0u− Y q,t,x0s |, we have, for t s T ,∣ )] [ 2 1/2 ∣EQ ∣X t,x 0T∣ 2 + ∣ ∣ Xt 0,x 0u− Yuq,t0,x0 ∣ ] du.∣ )] [ 2 1/2 ∣EQ ∣X t,x 0u− X t0,x0 ∣ 2] 1/2T− Xut0,x0 ∣ 2] 1/2duAccording to Lemma 4.11, the <strong>de</strong>finition of A R 0,T , Proposition 4.15 and Gronwall’s Lemma, we obtain∣ Yq,t,x 0t − Y q,t0,x0 ∣t C(1 + |x| 2 + |x 0 | 2 ) |t − t 0 | 1/2 . Since this bound is in<strong>de</strong>pen<strong>de</strong>nt of q, we finallyobtain that ∣ ∣Y t,x 0tSo,− Y t0,x0 ∣t C(1 + |x| 2 + |x 0 | 2 ) |t − t 0 | 1/2 .|u(t, x) − u(t 0 , x 0 )| C(1 + |x| + |x 0 |) |x − x 0 | + C(1 + |x| 2 + |x 0 | 2 ) |t − t 0 | 1/2 .We now return to the general case (for T ) : we set N ∈ N such that T/N < T 2 and, for i ∈ {0, ..., N}, we<strong>de</strong>fine t i := iT/N. According to the beginning of the proof, u is continuous on [t N−1 , T] × R d . We <strong>de</strong>finetN −1,xh N−1 (x) := Yt N −1. Since |h N−1 (x) − h N−1 (x ′ )| C(1 + |x| + |x ′ |) |x − x ′ |, we are allowed to reuseprevious results to show the continuity of u on [t N−2 , t N−1 ] × R d . Thus, we can iterate this argument toshow the continuity of u on [0, T] × R d . Moreover the quadratic increase of u with respect to the variablex results from the quadratic increase of u on each interval.Finally, we will use a stability result to show that u is a viscosity solution to the PDE (4.6). As in theproof of Theorem 4.1, let us consi<strong>de</strong>r the functiong n (t, x, y, z) := inf { g(t, x, p, q) + n |p − y| + n |q − z|,(p, q) ∈ Q 1+d} .We have already seen that (g n ) n⌈r⌉ is increasing and converges uniformly on compact sets to g. Let(Y n,t,x , Z n,t,x ) be the unique solution in S 2 × M 2 to BSDE(h(X t,xT ),−g n(., X. t,x , ., .)). We <strong>de</strong>fineu n (t, x) := Y n,t,xt .Then by a classical theorem (see e.g. [72, 40]), u n is a viscosity solution to the PDE∂ t u(t, x) + Lu(t, x) − g n (t, x, u(t, x), −σ ∗ ∇ x u(t, x)) = 0, u(T, .) = h.Moreover, it follows from the classical comparison theorem that (u n ) n⌈r⌉ is <strong>de</strong>creasing and, by construction,converges pointwise to u. Since u is continuous, Dini’s theorem implies that the convergence is alsouniform on compacts sets. Then, we apply a stability result (see e.g. Theorem 1.7. of Chapter 5 in [9]) toprove that u is a viscosity solution to the PDE (4.6).⊓⊔Remark. The uniqueness of viscosity solution to PDE is consi<strong>de</strong>red by Da Lio and Ley in [31] and[30].Acknowledgements. The work of Freddy Delbaen was sponsored by a grant of Credit Suisse as well as bya grant NCCR-Finrisk. The text only reflects the opinion of the authors. The work of Ying Hu was partiallysupported by funds from the Marie Curie ITN Grant, “Controlled Systems”, GA no. 213841/2008. Theauthors would like to thank an anonymous referee for his/her very careful reading and helpful comments.


72 CHAPITRE 4. UNICITÉ DES SOLUTIONS D’EDSRS QUADRATIQUES


Troisième partieSimulation <strong>de</strong>s EDSRs quadratiques73


Chapitre 5Simulation d’EDSRs dont le générateurest à croissance quadratiqueRésumé : Ce chapitre traite <strong>de</strong> la résolution numérique d’équations différentielles stochastiques rétrogra<strong>de</strong>smarkoviennes (EDSRs) dont le générateur à une croissance quadratique par rapport à z et dont lacondition terminale est bornée. Nous estimons dans un premier temps <strong>de</strong>s bornes sur le processus Z et nousprécisons le théorème <strong>de</strong> Zhang portant sur la régularité <strong>de</strong>s trajectoires. Nous donnons ensuite un nouveauschéma <strong>de</strong> discrétisation en temps dont la particularité est que la grille <strong>de</strong> discrétisation est non uniforme.Enfin nous obtenons une vitesse <strong>de</strong> convergence pour ce schéma.Mots clés. Équations différentielles stochastiques rétrogra<strong>de</strong>s, générateur à croissance quadratique, schéma<strong>de</strong> discrétisation temporelle, grille <strong>de</strong> discrétisation non uniforme.Abstract: This chapter <strong>de</strong>als with the numerical resolution of Markovian backward stochastic differentialequations (BSDEs) with drivers of quadratic growth with respect to z and boun<strong>de</strong>d terminal conditions. Wefirst show some bound estimates on the process Z and we specify the Zhang’s path regularity theorem. Thenwe give a new time discretization scheme with a non uniform time net for such BSDEs and we obtain anexplicit convergence rate for this scheme.Key words. Backward stochastic differential equations, driver of quadratic growth, time discretizationscheme, non uniform time net.AMS subject classifications. 60H10, 93E20.This chapter has been submitted toThe Annals of Applied Probabilityun<strong>de</strong>r the title:Numerical simulation of BSDEs with drivers of quadratic growth75


76 CHAPITRE 5. SIMULATION D’EDSRS QUADRATIQUES5.1 IntroductionSince the early nineties, there has been an increasing interest for backward stochastic differential equations(BSDEs for short). These equations have a wi<strong>de</strong> range of applications in stochastic control, in finance orin partial differential equation theory. A particular class of BSDE is studied since few years: BSDEs withdrivers of quadratic growth with respect to the variable z. This class arises, for example, in the context ofutility optimization problems with exponential utility functions, or alternatively in questions related to riskminimization for the entropic risk measure (see e.g. [54]). Many papers <strong>de</strong>al with existence and uniquenessof solution for such BSDEs: we refer the rea<strong>de</strong>r to [59, 63] when the terminal condition is boun<strong>de</strong>d and[24, 25, 36] for the unboun<strong>de</strong>d case. Our concern is rather related to the simulation of BSDEs and moreprecisely time discretization of BSDEs coupled with a forward stochastic differential equation (SDE forshort). Actually, the <strong>de</strong>sign of efficient algorithms which are able to solve BSDEs in any reasonable dimensionhas been intensively studied since the first work of Chevance [28], see for instance [83, 17, 47]. But inall these works, the driver of the BSDE is a Lipschitz function with respect to z and this assumption playsa key role in theirs proofs. In a recent paper, Cheridito and Stadje [27] studied approximation of BSDEs bybackward stochastic difference equations which are based on random walks instead of Brownian motions.They obtain a convergence result when the driver has a subquadratic growth with respect to z and they givean example where this approximation does not converge when the driver has a quadratic growth. To the bestof our knowledge, the only work where the time approximation of a BSDE with a quadratic growth withrespect to z is studied is the one of Imkeller and Reis [55]. Let notice that, when the driver has a specificform 1 , it is possible to get around the problem by using an exponential transformation method (see [56]) orby using results on fully coupled forward-backward differential equations (see [34]).To explain i<strong>de</strong>as of this paper, let us introduce (X, Y, Z) the solution to the forward backward systemX t = x +∫ t0Y t = g(X T ) +b(s, X s )ds +∫ Tt∫ t0σ(s)dW s ,f(s, X s , Y s , Z s )ds −∫ TtZ s dW s ,where g is boun<strong>de</strong>d, f is locally Lipschitz and has a quadratic growth with respect to z. A well-knownresult is that when g is a Lipschitz function with Lipschitz constant K g , then the process Z is boun<strong>de</strong>d byC(K g + 1) (see Theorem 5.3). So, in this case, the driver of the BSDE is a Lipschitz function with respectto z. Thereby, a simple i<strong>de</strong>a is to do an approximation of (Y, Z) by the solution (Y N , Z N ) to the BSDEY Nt = g N (X T ) +∫ Ttf(s, X s , Y Ns , Z N s )ds −∫ TtZ N s dW s ,where g N is a Lipschitz approximation of g. Thanks to boun<strong>de</strong>d mean oscillation martingale (BMO martingalein the sequel) tools, we have an error estimate for this approximation: see e.g. [55, 20] or Proposition5.9. For example, if g is α-Höl<strong>de</strong>r, we are able to obtain the error bound CK −α1−αg N(see Proposition 5.17).Moreover, we can have an error estimate for the time discretization of the approximated BSDE thanks toany numerical scheme for BSDEs with Lipschitz driver. But, this error estimate <strong>de</strong>pends on K gN : roughlyspeaking, this error is Ce CK2 g N n −1 with n the number of discretization times. The exponential term resultsfrom the use of Gronwall’s inequality. Finally, when g is α-Höl<strong>de</strong>r and K gN = N, the global error bound is( )1C + eCN2. (5.1)N α1−α nSo, when N increases, n −1 will have to become small very quickly and the speed of convergence turnsout to be bad: if we take N = ( Cε log n) 1/2with 0 < ε < 1, then the global error bound becomesC ε (log n) −α2(1−α). The same drawback appears in the work of Imkeller and Reis [55]. In<strong>de</strong>ed, their i<strong>de</strong>a isto do an approximation of (Y, Z) by the solution (Y N , Z N ) to the truncated BSDEY Nt = g(X T ) +∫ Ttf(s, X s , Y Ns , h N (Z N s ))ds −∫ TtZ N s dW s ,1 Roughly speaking, the driver is a sum of a quadratic term z ↦→ C |z| 2 and a function that has a linear growth with respect to z.


5.2. PRELIMINARIES 77where h N : R 1×d → R 1×d is a smooth modification of the projection on the open Eucli<strong>de</strong>an ball of radiusN about 0. Thanks to several statements concerning the path regularity and stochastic smoothness of thesolution processes, the authors show that for any β 1, the approximation error is lower than C β N −β . So,they obtain the global error bound ( )1C βN β + eCN2, (5.2)nand, consequently, the speed of convergence also turns out to be bad: if we take N = ( Cε log n) 1/2with0 < ε < 1, then the global error bound becomes C β,ε (log n) −β/2 .Another i<strong>de</strong>a is to use an estimate of Z that does not <strong>de</strong>pends on K g . So, we extend a result of [35]which showsM 2|Z t | M 1 + , 0 t < T. (5.3)(T − t)1/2Let us notice that this type of estimation is well known in the case of drivers with linear growth as aconsequence of the Bismut-Elworthy formula: see e.g. [43]. But in our case, we do not need to suppose thatσ is invertible. Then, thanks to this estimation, we know that, when t < T , f(t, ., ., .) is a Lipschitz functionwith respect to z and the Lipschitz constant <strong>de</strong>pends on t. So we are able to modify the classical uniformtime net to obtain a convergence speed for a modified time discretization scheme for our BSDE: the i<strong>de</strong>ais to put more discretization points near the final time T than near 0. The same i<strong>de</strong>a is used by Gobet andMakhlouf in [50] for BSDEs with drivers of linear growth and a terminal function g not Lipschitz. But dueto technical reasons we need to apply this modified time discretization scheme to the approximated BSDE:with∫ TY N,εt = g N (X T ) +tf ε (s, X s , Y N,εs, Z N,ε )ds −s∫ TtZ N,εs dW s ,f ε (s, x, y, z) :=½s 0<strong>de</strong>pends on constant M 2 <strong>de</strong>fined in equation (5.3) and constants related to f. Let us notice that such a speedof convergence where constants related to f, g, b and σ appear in the power of n is unusual. Even if wehave an error far better than (5.1) or (5.2), this result is not very interesting in practice because the speedof convergence strongly <strong>de</strong>pends on K. But, when b is boun<strong>de</strong>d, we prove that we can take M 2 as smallas we want in (5.3). Finally, we obtain a global error estimate lower than C η n −(α−η) , for all η > 0 (seeTheorem 5.23).The paper is organized as follows. In the introductory Section 2 we recall some of the well knownresults concerning SDEs and BSDEs. In Section 3 we establish some estimates concerning the process Z:we show a first uniform bound for Z, then a time <strong>de</strong>pen<strong>de</strong>nt bound and finally we specify the classical pathregularity theorem. In Section 4 we <strong>de</strong>fine a modified time discretization scheme for BSDEs with a nonuniform time net and we obtain an explicit error bound.5.2 Preliminaries5.2.1 NotationsThroughout this paper, (W t ) t0 will <strong>de</strong>note a d-dimensional Brownian motion, <strong>de</strong>fined on a probabilityspace (Ω, F, P). For t 0, let F t <strong>de</strong>note the σ-algebra σ(W s ; 0 s t), augmented with the P-null setsof F. The Euclidian norm on R d will be <strong>de</strong>noted by |.|. The operator norm induced by |.| on the space oflinear operator is also <strong>de</strong>noted by |.|. For p 2, m ∈ N, we <strong>de</strong>note further• S p (R m ), or S p when no confusion is possible, the space of all adapted processes (Y t ) t∈[0,T] withvalues in R m normed by ‖Y ‖ S p = E[(sup t∈[0,T] |Y t |) p ] 1/p ; S ∞ (R m ), or S ∞ , the space of boun<strong>de</strong>dmeasurable processes;


78 CHAPITRE 5. SIMULATION D’EDSRS QUADRATIQUES• M p (R m ), or M p , the space of all progressively measurable processes (Z t ) t∈[0,T] with values in R mnormed by ‖Z‖ M p = E[( ∫ T0 |Z s| 2 ds) p/2 ] 1/p .In the following, we keep the same notation C for all finite, nonnegative constants that appear in our computations:they may <strong>de</strong>pend on known parameters <strong>de</strong>riving from assumptions and on T , but not on anyof the approximation and discretization parameters. In the same spirit, we keep the same notation η forall finite, positive constants that we can take as small as we want in<strong>de</strong>pen<strong>de</strong>ntly of the approximation anddiscretization parameters.5.2.2 Some results on BMO martingalesIn our work, the space of BMO martingales play a key role for the a priori estimates nee<strong>de</strong>d in our analysisof BSDEs. We refer the rea<strong>de</strong>r to [57] for the theory of BMO martingales and we just recall the propertiesthat we will use in the sequel. Let Φ t = ∫ t0 φ sdW s , t ∈ [0, T] be a real square integrable martingale withrespect to the Brownian filtration. Then Φ is a BMO martingale if[ ∫ ] 1/2 T‖Φ‖ BMO= sup E[〈Φ〉 T − 〈Φ〉 τ |F τ ] 1/2 = sup E φ 2 sds|F τ < +∞,τ ∈[0,T]τ ∈[0,T]where the supremum is taken over all stopping times in [0, T]; 〈Φ〉 <strong>de</strong>notes the quadratic variation of Φ. Inour case, the very important feature of BMO martingales is the following lemma:Lemma 5.1 Let Φ be a BMO martingale. Then we have:1. The stochastic exponential(∫ tE(Φ) t = E t = exp φ s dW s − 10 2is a uniformly integrable martingale.∫ t0τ)|φ s | 2 ds , 0 t T,2. Thanks to the reverse Höl<strong>de</strong>r inequality, there exists p > 1 such that E T ∈ L p . The maximal p withthis property can be expressed in terms of the BMO norm of Φ.∫ )3. ∀n ∈ N ∗ T n ], E[(0 |φ s| 2 ds n! ‖Φ‖ 2nBMO .5.2.3 The backward-forward systemGiven functions b, σ, g and f, for x ∈ R d we will <strong>de</strong>al with the solution (X, Y, Z) to the following systemof (<strong>de</strong>coupled) backward-forward stochastic differential equations: for t ∈ [0, T],X t = x +∫ t0Y t = g(X T ) +b(s, X s )ds +∫ Tt∫ t0f(s, X s , Y s , Z s )ds −σ(s)dW s , (5.4)∫ TtZ s dW s . (5.5)For the functions that appear in the above system of equations we give some general assumptions.(HX0). b : [0, T] × R d → R d , σ : [0, T] → R d×d are measurable functions. There exist four positiveconstants M b , K b , M σ and K σ such that ∀t, t ′ ∈ [0, T], ∀x, x ′ ∈ R d ,|b(t, x)| M b (1 + |x|),|b(t, x) − b(t ′ , x ′ )| K b (|x − x ′ | + |t − t ′ | 1/2 ),|σ(t)| M σ ,|σ(t) − σ(t ′ )| K σ |t − t ′ | .


5.3. SOME USEFUL ESTIMATES OF Z 79(HY0). f : [0, T]×R d × R × R 1×d → R, g : R d → R are measurable functions. There exist five positiveconstants M f , K f,x , K f,y , K f,z and M g such that ∀t ∈ [0, T], ∀x, x ′ ∈ R d , ∀y, y ′ ∈ R, ∀z, z ′ ∈ R 1×d ,|f(t, x, y, z)| M f (1 + |y| + |z| 2 ),|f(t, x, y, z) − f(t, x ′ , y ′ , z ′ )| K f,x |x − x ′ | + K f,y |y − y ′ | + (K f,z + L f,z (|z| + |z ′ |)) |z − z ′ | ,|g(x)| M g .We next recall some results on BSDEs with quadratic growth. For their original version and their proof werefer to [59], [20] and [55].Theorem 5.2 Un<strong>de</strong>r (HX0), (HY0), the system (5.4)-(5.5) has a unique solution (X, Y, Z) ∈ S 2 × S ∞ ×M 2 . The martingale Z ∗ W belongs to the space of BMO martingales and ‖Z ∗ W ‖ BMOonly <strong>de</strong>pends onT , M g and M f . Moreover, there exists r > 1 such that E(Z ∗ W) ∈ L r .5.3 Some useful estimates of Z5.3.1 A first bound for ZTheorem 5.3 Suppose that (HX0), (HY0) hold and that g is Lipschitz with Lipschitz constant K g . Then,there exists a version of Z such that, ∀t ∈ [0, T],|Z t | e (2K b+K f,y )T M σ (K g + TK f,x ).Proof. Firstly, we suppose that b, g and f are differentiable with respect to x, y and z. Then (X, Y, Z) isdifferentiable with respect to x and (∇X, ∇Y, ∇Z) is solution of∇X t = I d +∫ t∇Y t = ∇g(X T )∇X T −0∇b(s, X s )∇X s ds, (5.6)∫ Tt∇Z s dW s (5.7)∫ T+ ∇ x f(s, X s , Y s , Z s )∇X s + ∇ y f(s, X s , Y s , Z s )∇Y s + ∇ z f(s, X s , Y s , Z s )∇Z s ds,twhere ∇X t = (∂Xt/∂x i j ) 1i,jd , ∇Y t = t (∂Y t /∂x j ) 1jd ∈ R 1×d , ∇Z t = (∂Zt/∂x i j ) 1i,jd and∫ Tt∇Z s dW s means∑∫ T(∇Z s ) i dWsi1idtwith (∇Z) i <strong>de</strong>noting the i-th line of the d × d matrix process ∇Z. Thanks to usual transformations on theBSDE we obtaine R t0 ∇yf(s,Xs,Ys,Zs)ds ∇Y t = e R T0 ∇yf(s,Xs,Ys,Zs)ds ∇g(X T )∇X T −with d ˜W s = dW s − ∇ z f(s, X s , Y s , Z s )ds. We have∥∫ .0∇ z f(s, X s , Y s , Z s )dW s∥ ∥∥∥2∫ T∫ T+ e R s0 ∇yf(u,Xu,Yu,Zu)du ∇ x f(s, X s , Y s , Z s )∇X s ds,tBMO= supτ ∈[0,T]C(te R s0 ∇yf(u,Xu,Yu,Zu)du ∇Z s d ˜W s[ ∫ ]TE |∇ z f(s, X s , Y s , Z s )| 2 ∣ds∣F ττ1 + sup Eτ ∈[0,T](= C 1 + ‖Z ∗ W ‖ 2 BMO[ ∫ ])T|Z s | 2 ∣ds∣F ττ).


80 CHAPITRE 5. SIMULATION D’EDSRS QUADRATIQUESSince Z ∗ W belongs to the space of BMO martingales, ∥ ∫ .0 ∇ ∥zf(s, X s , Y s , Z s )dW ∥BMO s < +∞.Lemma 5.1 gives us that E( ∫ .0 ∇ zf(s, X s , Y s , Z s )dW s ) t is a uniformly integrable martingale, so we areable to apply Girsanov’s theorem: there exists a probability Q un<strong>de</strong>r which ( ˜W) t∈[0,T] is a Brownian motion.Then,an<strong>de</strong> R [ t0 ∇yf(s,Xs,Ys,Zs)ds ∇Y t = E Q e R T0 ∇yf(s,Xs,Ys,Zs)ds ∇g(X T )∇X T∫ ]T+ e R s0 ∇yf(u,Xu,Yu,Zu)du ∣∇ x f(s, X s , Y s , Z s )∇X s ds∣F t ,t|∇Y t | e (K b+K f,y )T (K g + TK f,x ), (5.8)because |∇X t | e K bT . Moreover, thanks to the Malliavin calculus, it is classical to show that a version of(Z t ) t∈[0,T] is given by (∇Y t (∇X t ) −1 σ(t)) t∈[0,T] . So we obtain|Z t | e KbT M σ |∇Y t | e (2K b+K f,y )T M σ (K g + TK f,x ), a.s.,because ∣ ∇X−1∣ t eK b T .When b, g and f are not differentiable, we can also prove the result by a standard approximation andstability results for BSDEs with linear growth.⊓⊔5.3.2 A time <strong>de</strong>pen<strong>de</strong>nt estimate of ZWe will introduce two alternative assumptions.(HX1). b is differentiable with respect to x and σ is differentiable with respect to t. There exists λ ∈ R +such that ∀η ∈ R d ∣ ∣∣ t ησ(s)[ t σ(s) t ∇b(s, x) − t σ ′ (s)]η∣∣ λ ∣ ∣t ησ(s) ∣ ∣ 2 . (5.9)(HX1’). σ is invertible and ∀t ∈ [0, T], ∣ ∣ σ(t)−1 ∣ ∣ Mσ −1.Example. Assumption (HX1) is verified when, ∀s ∈ [0, T], ∇b(s, .) commutes with σ(s) and ∃A :[0, T] → R d×d boun<strong>de</strong>d such that σ ′ (t) = σ(t)A(t).Theorem 5.4 Suppose that (HX0), (HY0) hold and that (HX1) or (HX1’) holds. Moreover, suppose thatg is lower (or upper) semi-continuous. Then there exists a version of Z and there exist two constantsC, C ′ ∈ R + that <strong>de</strong>pend only in T , M g , M f , K f,x , K f,y , K f,z and L f,z such that, ∀t ∈ [0, T[,|Z t | C + C ′ (T − t) −1/2 .Proof. In a first time, we will suppose that (HX1) holds and that f, g are differentiable with respect to x,y and z. Then (Y, Z) is differentiable with respect to x and (∇Y, ∇Z) is the solution of the BSDE∇Y t= ∇g(X T )∇X T −∫ Tt∇Z s dW s∫ T+ ∇ x f(s, X s , Y s , Z s )∇X s + ∇ y f(s, X s , Y s , Z s )∇Y s + ∇ z f(s, X s , Y s , Z s )∇Z s ds.tThanks to usual transformations we obtaine R t0 ∇yf(s,Xs,Ys,Zs)ds ∇Y t +∫ te R T0 ∇yf(s,Xs,Ys,Zs)ds ∇g(X T )∇X T +∫ T− e R s0 ∇yf(u,Xu,Yu,Zu)du ∇Z s d ˜W s ,t0e R s0 ∇yf(u,Xu,Yu,Zu)du ∇ x f(s, X s , Y s , Z s )∇X s ds =∫ T0e R s0 ∇yf(u,Xu,Yu,Zu)du ∇ x f(s, X s , Y s , Z s )∇X s ds


5.3. SOME USEFUL ESTIMATES OF Z 81with d ˜W s = dW s − ∇ z f(s, X s , Y s , Z s )ds. We can rewrite it aswithF t = F T −∫ TF t := e R t0 ∇yf(s,Xs,Ys,Zs)ds ∇Y t +t∫ t0e R s0 ∇yf(u,Xu,Yu,Zu)du ∇Z s d ˜W s (5.10)e R s0 ∇yf(u,Xu,Yu,Zu)du ∇ x f(s, X s , Y s , Z s )∇X s ds.Z ∗ W belongs to the space of BMO martingales so we are able to apply Girsanov’s theorem: there exists aprobability Q un<strong>de</strong>r which ( ˜W) t∈[0,T] is a Brownian motion. Thanks to the Malliavin calculus, it is possibleto show that (∇Y t (∇X t ) −1 σ(t)) t∈[0,T] is a version of Z. Now we <strong>de</strong>fine:α t :=∫ t0e R s0 ∇yf(u,Xu,Yu,Zu)du ∇ x f(s, X s , Y s , Z s )∇X s ds(∇X t ) −1 σ(t),˜Z t := F t (∇X t ) −1 σ(t) = e R t0 ∇yf(s,Xs,Ys,Zs)ds Z t + α t , a.s.,˜F t := e λt F t (∇X t ) −1 .Since d∇X t = ∇b(t, X t )∇X t dt, then d(∇X t ) −1 = −(∇X t ) −1 ∇b(t, X t )dt and thanks to Itô’s formula,andd ˜Z t = dF t (∇X t ) −1 σ(t) − F t (∇X t ) −1 ∇b(t, X t )σ(t)dt + F t (∇X t ) −1 σ ′ (t)dt,d(e λt ˜Zt ) = ˜F t (λId − ∇b(t, X t ))σ(t)dt + ˜F t σ ′ (t)dt + e λt dF t (∇X t ) −1 σ(t).Finally,∣ [∣d ∣e λt ∣∣2 ˜Zt = d〈M〉t + 2 λ∣ ˜F ] t σ(t) ∣ 2 − ˜F t σ(t)[ t σ(t) t ∇b(t, X t ) − t σ ′ (t)] t ˜Ft dt + dMt ∗ ,with M t := ∫ t0 eλs dF s (∇X s ) −1 σ(s) and Mt ∗ a Q-martingale. Thanks to the assumption (HX1) we are∣∣able to conclu<strong>de</strong> that ∣e λt ∣∣2˜Zt is a Q-submartingale. Hence,[ ∫ ]T ∣ ∣E Q e 2λs ∣∣ ∣∣2 ∣ ∣∣Ft ˜Zs dst e 2λt ∣ ∣∣ ˜Zt∣ ∣∣2(T − t)e 2λt ∣ ∣∣eR t0 ∇yf(s,Xs,Ys,Zs)ds Z t + α t∣ ∣∣2(T − t) a.s.,which implies|Z t | 2 (T − t) = e −2λt e −2 R ∣t0 ∇yf(s,Xs,Ys,Zs)ds e 2λt ∣∣eR t∣0 ∇yf(s,Xs,Ys,Zs)ds ∣∣2Z t + α t − α t (T − t)∣ C(e 2λt ∣∣eR t∣ )0 ∇yf(s,Xs,Ys,Zs)ds ∣∣2Z t + α t + 1 (T − t)( [ ∫ ] )T ∣ ∣ C E Q e 2λs ∣∣ ∣∣2 ∣ ∣∣Ft ˜Zs ds + (T − t) a.s.,twith C a constant that only <strong>de</strong>pends on T , K b , M σ , K f,x , K f,y and λ. Moreover, we have, a.s.,[ ∫ ] [T ∣ ∣E Q e 2λs ∣∣ ∣∣2 ∣ ∫ ]T∣∣Ft ˜Zs ds CE Q |Z s | 2 + |α s | 2 ∣ds∣F ttCt(‖Z‖ 2 BMO(Q) + (T − t) ).But ‖Z‖ BMO(Q)does not <strong>de</strong>pend on K g because (Y, Z) is a solution of the following quadratic BSDE:∫ T∫ TY t = g(X T ) + (f(s, X s , Y s , Z s ) − Z s ∇ z f(s, X s , Y s , Z s )) ds − Z s d ˜W s . (5.11)tt


82 CHAPITRE 5. SIMULATION D’EDSRS QUADRATIQUESFinally |Z t | C ( 1 + (T − t) −1/2) a.s..When σ is invertible, the inequality (5.9) is verified with λ := M σ −1(M σ K b + K σ ). Since this λ doesnot <strong>de</strong>pend on ∇b and σ ′ , we can prove the result when b(t, .) and σ are not differentiable by a standardapproximation and stability results for BSDEs with linear growth. So, we are allowed to replace assumption(HX1) by (HX1’).When f is not differentiable and g is only Lipschitz we can prove the result by a standard approximationand stability results for linear BSDEs. But we notice that our estimation on Z does not <strong>de</strong>pend on K g . Thisallows us to weaken the hypothesis on g further: when g is only lower or upper semi-continuous the resultstays true. The proof is the same as the proof of Proposition 4.3 in [35].⊓⊔Remark 5.5 The previous proof gives us a more precise estimation for a version of Z when f is differentiablewith respect to z: ∀t ∈ [0, T],[ ∫ ]T1/2|Z t | C + C ′ E Q |Z s | 2 ∣ds∣F t (T − t) −1/2 .tRemark 5.6 When assumptions (HX1) or (HX1’) are not verified, the process Z may blow up before T .Zhang gives an example of such a phenomenon in dimension 1: we refer the rea<strong>de</strong>r to example 1 in [84].5.3.3 Zhang’s path regularity TheoremLet 0 = t 0 < t 1 < . . . < t n = T be any given partition of [0, T], and <strong>de</strong>note δ n the mesh size of thispartition. We <strong>de</strong>fine a set of random variables¯Z ti =[∫1ti+1Et i+1 − t i t iThen we are able to precise Theorem 3.4.3 in [85]:]∣Z s ds∣F ti , ∀i ∈ {0, . . . , n − 1}.Theorem 5.7 Suppose that (HX0), (HY0) hold and g is a Lipschitz function, with Lipschitz constant K g .Then we haven−1∑[∫ ti+1]∣E ∣Zt − ¯Z∣ti 2dt C(1 + Kg 2 )δ n,t ii=0where C is a positive constant in<strong>de</strong>pen<strong>de</strong>nt of δ n and K g .Proof. We will follow the proof of Theorem 5.6., in [55]: we just need to specify how the estimate<strong>de</strong>pends on K g . Firstly, it is not difficult to show that ¯Z ti is the best F ti -measurable approximation of Z inM 2 ([t i , t i+1 ]), i.e.In particular,[∫ ti+1][∫∣E ∣Zt − ¯Z∣ ti+1]ti 2dt = inf E |Z t − Z i | 2 dt .t iZ i∈L 2 (Ω,F ti ) t i[∫ ti+1] [∫∣E ∣Zt − ¯Z∣ ti+1]ti 2dt E |Z t − Z ti | 2 dt .t i t iIn the same spirit as previous proofs, we suppose in a first time that b, g and f are differentiable with respectto x, y and z. So,Z t − Z ti = ∇Y t (∇X t ) −1 σ(t) − ∇Y ti (∇X ti ) −1 σ(t i ) = I 1 + I 2 + I 3 ,a.s.,with I 1 = ∇Y t (∇X t ) −1 (σ(t) − σ(t i )), I 2 = ∇Y t ((∇X t ) −1 − (∇X ti ) −1 )σ(t i ) and I 3 = ∇(Y t −Y ti )(∇X ti ) −1 σ(t i ). Firstly, thanks to the estimation (5.8) we have|I 1 | 2 |∇Y t | 2 e 2K bT K 2 σ |t i+1 − t i | 2 C(1 + K 2 g)δ 2 n.


5.3. SOME USEFUL ESTIMATES OF Z 83We obtain the same estimation for |I 2 | because∣∣(∇X t ) −1 − (∇X ti ) −1∣ ∫ t∣ ∣ (∇X s ) −1 ∇b(s, X s )ds∣ K be KbT |t − t i | .t iLastly, |I 3 | M σ e K bT |∇Y t − ∇Y ti |. So,n−1∑[∫ ti+1] n−1∑E |I 3 | 2 dt Cδ n Et ii=0i=0[]ess sup |∇Y t − ∇Y ti | 2 .t∈[t i,t i+1]By using the BSDE (5.7), (HY0), the estimate on ∇X s and the estimate (5.8), we havei=0|∇Y t − ∇Y ti | 2(∫ t) 2 (∫ t) 2 C (C(1 + K g ) + |∇ z f(s, X s , Y s , Z s )| |∇Z s |)ds + C ∇Z s dW s .t i t iThe inequalities of Höl<strong>de</strong>r and Burkhol<strong>de</strong>r-Davis-Gundy give us[]n−1∑E ess sup |∇Y t − ∇Y ti | 2t∈[t i,t i+1]n−1∑ C(1 + Kg) 2 + Ci=0⎡ C(1 + Kg 2 ) + CE ⎣[( ∫ T C(1 + Kg 2 ) + CE (1 + |Z s | 2 )ds(∫ ti+1) 2 ti+1E |∇ z f(s, X s , Y s , Z s )| |∇Z s | ds + CE(∫t it i( ⎤∫ T002 ∫ T|∇ z f(s, X s , Y s , Z s )| |∇Z s | ds)+0) ( ∫ )T0|∇Z s | 2 ds|∇Z s | 2 ds⎦∫ T+ |∇Z s | 2 ds0⎛ [( ∫ ) p ] 1/p⎞ [(T∫ q ] 1/q T C(1 + Kg 2 ) + C ⎝1 + E |Z s | 2 ds ⎠ E |∇Z s | ds) 2 ,00])|∇Z s | 2 dsfor all p > 1 and q > 1 such that 1/p + 1/q = 1. But, (∇Y, ∇Z) is solution of BSDE (5.7), so, fromCorollary 9 in [20], there exists q that only <strong>de</strong>pends on ‖Z ∗ W ‖ BMOsuch that[( ∫ q ] 1/q TE |∇Z s | ds) 2 C(1 + Kg).2Moreover, we can apply Lemma 5.1 to obtain the estimate0[( ∫ p ] 1/p TE |Z s | ds) 2 C ‖Z‖ 2 BMO C.0andFinally,i=0n−1∑[∫ ti+1]E |I 3 | 2 dt C(1 + Kg 2 )δ nt ii=0n−1∑[∫ ti+1]∣E ∣Zt − ¯Z∣ti 2dtt in−1∑[∫ ti+1 (E |I 1 | 2 + |I 2 | 2 + |I 3 | 2) ]dtt ii=0 C(1 + K 2 g )δ n.⊓⊔


84 CHAPITRE 5. SIMULATION D’EDSRS QUADRATIQUES5.4 Convergence of a modified time discretization scheme for the BSDE5.4.1 An approximation of the quadratic BSDEIn a first time we will approximate our quadratic BSDE (5.5) by another one. We set ε ∈]0, T[ and N ∈ N.Let (Y N,εt , Z N,εt ) the solution of the BSDE∫ T∫ TY N,εt = g N (X T ) + f ε (s, X s , YsN,ε , ZsN,ε )ds − Zs N,ε dW s , (5.12)twithf ε (s, x, y, z) :=½sT −εf(s, x, y, z) +½s>T −εf(s, x, y, 0),and g N a Lipschitz approximation of g with Lipschitz constant N. f ε verifies assumption (HY0) with thesame constants as f. Since g N is a Lipschitz function, Z N,ε has a boun<strong>de</strong>d version and the BSDE (5.12) isa BSDE with a linear growth. Moreover, we can apply Theorem 5.4 to obtain:Proposition 5.8 Let us assume that (HX0), (HY0) and (HX1) or (HX1’) hold. There exists a version ofZ N,ε and there exist three constants M z,1 , M z,2 , M z,3 ∈ R + that do not <strong>de</strong>pend on N and ε such that,∀s ∈ [0, T],∣ ZN,ε∣ s (M z,1 + M )z,2∧ (M(T − s) 1/2 z,3 (N + 1)).Thanks to BMO tools we have a stability result for quadratic BSDEs (see [20] and [55]):Proposition 5.9 Let us assume that (HX0) and (HY0) hold. There exists a constant C that does not <strong>de</strong>pendon N and ε such that[[ ∫ T∣Esup ∣Y N,εt∈[0,T]]∣ ∣∣2t − Y t+ E0∣∣Z N,εt − Z t∣ ∣∣2dt] C(e 1 (N) + e 2 (N, ε))twith⎡( ∫ Te 2 (N, ε) := E⎣[e 1 (N) := E |g N (X T ) − g(X T )| 2q] 1/q,2T −ε) ⎤2q∣∣f(t, X t , Y N,εt , Z N,εt ) − f(t, X t , Y N,ε ∣t , 0) ∣dt ⎦1/q,and q <strong>de</strong>fined in Theorem 5.2.Then, in a second time, we will approximate our modified backward-forward system by a discretetimeone. We will slightly modify the classical discretization by using a non equidistant net with 2n + 1discretization times. We <strong>de</strong>fine the n + 1 first discretization times on [0, T − ε] by( ( ε) ) k/nt k = T 1 − ,Tand we use an equidistant net on [T − ε, T] for the last n discretization times:( ) 2n − kt k = T − ε, n k 2n.nWe <strong>de</strong>note the time step by (h k := t k+1 − t k ) 0k2n−1 . We consi<strong>de</strong>r (X n t k) 0k2n the classical Eulerscheme for X given byX n 0= xX n t k+1= X n t k+ h k b(t k , X n t k) + σ(t k )(W tk+1 − W tk ), 0 k 2n − 1. (5.13)2 The authors of [55] obtain this result with q 2 instead of q. Nevertheless, we are able to obtain the good result by applying theestimates of [20].


5.4. CONVERGENCE OF A MODIFIED TIME DISCRETIZATION SCHEME FOR THE BSDE 85We <strong>de</strong>note ρ s : R 1×d → R 1×d the projection on the ball(B 0, M z,1 + M )z,2(T − s) 1/2with M z,1 and M z,2 given by Proposition 5.8. Finally we <strong>de</strong>note (Y N,ε,n , Z N,ε,n ) our time approximationof (Y N,ε , Z N,ε ). This couple is obtained by a slight modification of the classical dynamic programmingequation:Y N,ε,nt 2n= g N (X n t 2n)Z N,ε,nt k= ρ tk+1( 1h kE tk [Y N,ε,nt k+1(W tk+1 − W tk )]Y N,ε,n), 0 k 2n − 1, (5.14)t k= E tk [Y N,ε,n ] + h k E tk [f ε (t k , Xt n k, Y N,ε,n , Z N,ε,nt k)], 0 k 2n − 1, (5.15)t k+1where E tk stands for the conditional expectation given F tk . Let us notice that the classical dynamic programmingequation do not use a projection in (5.14): it is the only difference with our time approximation,see e.g. [47] for the classical case. This projection comes directly from the estimate of Z in Proposition 5.8.The aim of our work is to study the error of discretizatione(N, ε, n) :=It is easy to see thatt k+1[ ∣∣∣Y ∣ ]N,ε,n ∣∣22n−1∑[∫ tk+1 ∣ ∣ ]∣∣Z N,ε,n ∣∣2sup E t k− Y tk + E t k− Z t dt .0k2nt kk=0e(N, ε, n) C(e 1 (N) + e 2 (N, ε) + e 3 (N, ε, n)),with e 1 (N) and e 2 (N, ε) <strong>de</strong>fined in Proposition 5.9, and[ ∣∣∣Y ∣ ]N,ε,ne 3 (N, ε, n) := sup E t k− Y N,ε ∣∣22n−1∑[∫ tk+1 ∣ ]∣∣Z N,ε,nt k+ E t k− Z N,εt ∣ 2 dt .0k2nt kk=05.4.2 Study of the time approximation error e 3 (N, ε, n)We need an extra assumption.(HY1). There exists a positive constant K f,t such that ∀t, t ′ ∈ [0, T], ∀x ∈ R d , ∀y ∈ R, ∀z ∈ R 1×d ,|f(t, x, y, z) − f(t ′ , x, y, z)| K f,t |t − t ′ | 1/2 .Moreover, we set ε = Tn −a and N = n b , with a, b ∈ R +,∗ two parameters. Before giving our errorestimates, we recall two technical lemmas that we will prove in the appendix.Lemma 5.10 For all constant M > 0 there exists a constant C that <strong>de</strong>pends only on T , M and a, such thati=0∏(1 + Mh i ) C, ∀n ∈ N ∗ .2n−1i=0Lemma 5.11 For all constants M 1 > 0 and M 2 > 0 there exists a constant C that <strong>de</strong>pends only on T , M 1 ,M 2 and a, such thatn−1∏()h i1 + M 1 h i + M 2 Cn aM2 .T − t i+1Firstly, we give a convergence result for the Euler scheme.Proposition 5.12 Assume (HX0) holds. Then there exists a constant C that does not <strong>de</strong>pend on n, such that[ ∣∣Xtk ∣ ]sup E − Xt n 2k C lnn0k2nn .


86 CHAPITRE 5. SIMULATION D’EDSRS QUADRATIQUESProof. We just have to copy the classical proof to obtain, thanks to Lemma 5.10,sup∣∣ ∣E[ ] X tk − Xt n 2k C sup h i = Ch 0 .0k2n0i2n−1Buth 0 = T(1 − n −a/n ) C lnnn ,because (1 − n −a/n ) ∼ aT ln nn when n → +∞, so the proof is en<strong>de</strong>d. ⊓⊔Now, let us treat the BSDE approximation. In a first time we will study the time approximation error on[T − ε, T].Proposition 5.13 Assume that (HX0), (HY0) and (HY1) hold. Then there exists a constant C that does not<strong>de</strong>pend on n and such that[ ∣∣∣Y ∣ ]N,ε,nsup E t k− Y N,ε ∣∣22n−1∑[∫ tk+1 ∣ ]∣∣Z N,ε,nt k+ E t k− Z N,εt ∣ 2 dtnk2nt kk=n C lnnn 1−2b .Proof. The BSDE (5.12) has a linear growth with respect to z on [T − ε, T] so we are allowed to applyclassical results which give us that[ ∣∣∣Y ∣ ]N,ε,nsup E t k− Y N,ε ∣∣22n−1∑[∫ tk+1 ∣ ]∣∣Z N,ε,nt k+ E t k− Z N,εt ∣ 2 dtnk2nt kk=n( [ C E |g N (X T ) − g N (XT n )|2] + ε )n( lnn Cn 1−2b + ε ),nby using the fact that g N is N-Lipschitz and by applying Proposition 5.12.⊓⊔Remark 5.14• When a 1 − 2b, then ε = Tn −a = o(n 2b−1 lnn). So we do not need to have a discretization gridon [T − ε, T]: n + 2 points of discretization are sufficient on [0, T].• When a < 1 − 2b, then is is possible to take only ⌈n c ⌉ discretization points on [T − ε, T] witha + c = 1 − 2b. In this case the error bound becomes[ ∣∣∣Y ∣ ]N,ε,nsup E t k− Y N,ε ∣∣22n−1∑[∫ tk+1 ∣ ]∣∣Z N,ε,nt k+ E t k− Z N,εt ∣ 2 dtnk2nt kand the Proposition 5.13 stay true.k=n( lnnCn 1−2b + 1 )n a+c ,Now, let us see what happens on [0, T − ε].Theorem 5.15 Assume that (HX0), (HY0), (HY1) and (HX1) or (HX1’) hold. Then for all η > 0, thereexists a constant C that does not <strong>de</strong>pend on N, ε and n, such that[ ∣∣∣Y ∣ ]N,ε,nsup E t k− Y N,ε ∣∣22n−1∑[∫ tk+1 ∣ ]∣∣Z N,ε,nt k+ E t k− Z N,εt ∣ 2 Cdt 0k2nt kn 1−2b−Ka ,with K = 4(1 + η)L 2 f,z M2 z,2.k=0


5.4. CONVERGENCE OF A MODIFIED TIME DISCRETIZATION SCHEME FOR THE BSDE 87Proof.Firstly, we will study the error on Y . From (5.12) and (5.15) we get[ ] ∫ tk+1 ()Y N,εt k−Y N,ε,nt k= E tk Y N,εt k+1− Y N,ε,nt k+1+E tk f(s, X s , YsN,ε , ZsN,ε ) − f(t k , Xt n k, Y N,ε,nt k+1, Z N,ε,nt k) ds.t kWe introduce a parameter γ k > 0 that will be chosen later. Thanks to Proposition 5.8 and assumption (HY0),f is Lipschitz on [t k , t k+1 ] with a Lipschitz constant K k := K 1 K+ 2(T −t k+1where K 2 = 2L) 1/2 f,z M z,2 . Acombination of Young’s inequality (a + b) 2 (1 + γ k h k )a 2 + (1 + 1γ k h k)b 2 and properties of f gives∣∣E∣Y N,εt k− Y N,ε,n ∣∣2t k [∣ (1 + γ k h k )E ∣E tk Y N,εt k+1− Y N,ε,n+C(h k + 1 ( ∫ tk+1) h 2 kγ + E ∣ ∫∣ tk+1∣X s − Xt n 2kds +k t kt kWe <strong>de</strong>fine]∣ ∣∣2t k+1 + (1 + η) 1/3 Kk 2 (h k + 1 ∫ tk+1)Eγ k∣E∣YsN,ε˜Z N,ε,nt k:= 1h kE tk [Y N,ε,nt k+1(W tk+1 − W tk )].So, Z N,ε,n N,ε,nt k= ρ tk+1 ( ˜Z t k). Moreover, Proposition 5.8 implies that ZsN,εis 1-Lipschitz, we have∣∣∣ZsN,ε − Z N,ε,n ∣∣2 ∣ ∣∣ρtk+1t k = (ZsN,εN,ε,n) − ρ tk+1 ( ˜Z t k) ∣ 2 As in Theorem 5.7, we <strong>de</strong>fineh k ¯ZN,ε t kClearly,E∫ tk+1t k:= E tk∫ tk+1t k∣ ∣∣Z N,εs −¯ZN,εt kbyZ N,εs ds = E tk((Y N,εt k+1+∫ tk+1t k∣ ∫N,ε,n ∣∣2 tk+1 ∣ ∣∣Z ˜Z t k ds = EN,εs −t kt k∣ ∣∣Z N,εs∣− Z N,ε,n ∣∣2t k ds∣ )− Y N,ε,n ∣∣2t k+1 ds . (5.16)= ρ tk+1 (ZsN,ε ), and, since ρ tk+1∣∣∣ZsN,ε N,ε,n ∣∣2− ˜Z t k . (5.17))f(s, X s , YsN,ε , Zs N,ε )ds) t (W tk+1 − W tk ) .¯ZN,εt k∣ ∣∣2 ds + hk E∣ ∣N,ε N,ε,n ∣∣2¯Z t k− ˜Z t k . (5.18)The Cauchy-Schwartz inequality yields(∣∣E tk (Y N,εt k+1− Y N,ε,nt k+1) t ∣∣2 ∣∣(W tk+1 − W tk ))∣ hk {E tk ( ∣Y N,εt k+1− Y N,ε,n ∣∣2 ∣ ∣∣Etk ) − (Y N,εt k+1− Y N,ε,nt k+1) ∣ 2 },t k+1and consequently∣ N,ε N,ε,n ∣∣2h k E∣ ¯Z t k− ˜Z t k[(1 + η) 1/3 ∣E E tk (∣t k+1− Y N,ε,n ∣∣2 ∣ ∣∣Etk ) − (Y N,εt k+1− Y N,ε,nt k+1) ∣ 2]∣Y N,εt k+1∫ tk+1+Ch k Et k∣ ∣f(s, Xs , YsN,ε , Zs N,ε ) ∣ 2 ds. (5.19)Plugging (5.18) and (5.19) into (5.16), we get:∣∣E∣Y N,εt k− Y N,ε,n ∣∣2[ ]∣∣t k (1 + γ k h k )E ∣E tk Y N,εt k+1− Y N,ε,n ∣∣2t k+1+(1 + η)Kk 2 (h k + 1 ∫ tk+1 ∣ ∣ ∣∣Z N,ε N,ε ∣∣2)E s − ¯Z tγ k dsk t k+C(h k + 1 ( ∫ tk+1) h 2 kγ + E ∣ ∫∣ tk+1∣X s − Xt n 2 ∣kds + Ekt kt k∣YsN,ε∣ )− Y N,ε,n ∣∣2t k+1 ds+(1 + η) 2/3 Kk 2 (h k + 1 [∣∣)E E tk ( ∣Y N,εtγ k+1− Y N,ε,n ∣∣2 ∣ ∣∣Etkt k+1 ) − (Y N,εt k+1− Y N,ε,nt k+1) ∣ 2]k+CKk(h 2 k + 1 ∫ tk+1∣)h k E ∣f(s, Xs , YsN,ε , ZsN,ε ) ∣ 2 ds.γ k t k


88 CHAPITRE 5. SIMULATION D’EDSRS QUADRATIQUESNow write∣E∣YsN,ε∣− Y N,ε,n ∣∣2 ∣ ∣ ∣∣Yt k+1 2EN,εs − Y N,ε ∣∣2 ∣ ∣ ∣∣Yt k+1 + 2EN,εt k+1− Y N,ε,n ∣∣2t k+1 , (5.20)E ∣ ∣ Xs − X n t k∣ ∣2 2E |Xs − X tk | 2 + 2E ∣ ∣ Xtk − X n t k∣ ∣2, (5.21)we obtain∣E∣Y N,εt k∣− Y N,ε,n ∣∣2t k[ ]∣∣ (1 + γ k h k )E ∣E tk Y N,εt k+1− Y N,ε,n ∣∣2t k+1+(1 + η)K 2 k(h k + 1 γ k)E∫ tk+1t k∫ tk+1∣ ∣∣Z N,εs−∣N,ε ∣∣2¯Z t k ds+C(h k + 1 () h 2 k + E |X s − X tk | 2 ds + h k E ∣ )∣ Xtk − Xt n 2γ k k t k+C(h k + 1 (∫ tk+1∣∣) E∣YsN,ε − Y N,ε ∣∣2 ∣∣)tγ k+1 ds + hk E∣Y N,εt k+1− Y N,ε,n ∣∣2t k+1 k t k+(1 + η) 2/3 Kk(h 2 k + 1 [∣∣)E E tk ( ∣Y N,εtγ k+1− Y N,ε,n ∣∣2 ∣ ∣∣Etk ) − (Y N,εt k+1− Y N,ε,nt k+1) ∣ 2]k+CKk 2 (h k + 1 ∫ tk+1)h k Eγ k t kTaking γ k = (1 + η) 2/3 K 2 k : for h k small enough, it gives∣E∣Y N,εt k∣− Y N,ε,n ∣∣2t kt k∫ tk+1∣ ∣f(s, Xs , Y N,εst k+1, Z N,εs) ∣ ∣ 2 ds.∣ (1 + Ch k + (1 + η) 2/3 Kkh 2 ∣k )E ∣Y N,εt k+1− Y N,ε,n ∣∣2t k+1 + Ch2k + Ch k max E∣ ∣∣ Xtk − Xt n 20kn k∫ tk+1 ∣ ∣ ∫∣∣Z N,ε N,ε ∣∣2 tk+1+CE s − ¯Z t k ds + C E |X s − X tk | 2 ds+Ct k∣E∣YsN,εt k− Y N,εt k+1∣ ∣∣2ds + Chk E∫ tk+1t kf(s, X s , Y N,εsbecause Kk 2h k C(h 0 + h k (T − t k+1 ) −1 ) C ln nn. The Gronwall’s lemma gives us, Z N,ε ) 2 ds,s∣E∣Y N,εt k∣− Y N,ε,n ∣∣2t kn−1∑ C+Ej=0∫ tj+1+h j E[ j−1 ∏ [(1 + Ch i + (1 + η) 2/3 Ki 2 h i )]h 2 j + h j max E∣ ∣∣ Xtl − Xt n 20ln li=0t j∫ tj+1t j( ∣∣∣ZN,εs −∣ ∣f(s, Xs , Y N,εs∣N,ε ∣∣2 ∣ ∣ ∣¯Z t j + ∣Xs − X tj 2 ∣∣Y +N,εs − Y N,ε], Z N,εs) ∣ ∣ 2 ds[ n−1]∏ + (1 + Ch i + (1 + η) 2/3 Ki 2 ∣h i ) Ei=0∣Y N,εt n− Y N,ε,nt n∣ ∣∣2.t j+1∣ ∣∣2 ) dsThen, we apply Lemma 5.11:∣E∣Y N,εt k∣− Y N,ε,n ∣∣2t k[ Cn (1+η)(K2 ) 2 ah 0 + max E∣ ∣∣ Xtl − Xt n 20ln l( ∫ tj+1+n∑Ej=0 t j∫ tn+h 0 E0∣ ∣∣Z N,εs−∣∣f(s, X s , YsN,ε)∣N,ε ∣∣2 ∣ ∣ ∣ ∣¯Z t j + X s − X tj 2 ∣∣Y +N,εs − Y N,ε ∣∣2t j+1 ds, Z N,ε ) ∣ 2 ∣ds + Es∣Y N,εt n− Y N,ε,nt n∣ ∣∣2 ] .


5.4. CONVERGENCE OF A MODIFIED TIME DISCRETIZATION SCHEME FOR THE BSDE 89A classical estimation gives us E[ ∣∣X s − X tj∣ ∣2 ] |s − t j |. Moreover, since Z N,ε is boun<strong>de</strong>d,∫ tnE ∣ f(s, Xs , YsN,ε , Zs N,ε ) ∣ 2 ds CT(1 + ∣ ∣ [∫ tn]YN,ε ∞) + CE ∣ ZN,ε∣ 4 s ds00 CT(1 + ∣ [ ∫ ]∣Y N,ε∣ T ∣∣∞) + Cn 2b E ∣Z N,ε ∣ 2 ds .But we have an a priori estimate for E[ ∫ T0With the same type of argument we also have∣E]∣ ZN,ε∣ 2 ds that does not <strong>de</strong>pend on N and ε. Sos∫ tnE ∣ f(s, Xs , YsN,ε , Zs N,ε ) ∣ 2 ds Cn 2b . (5.22)0∣YsN,ε− Y N,εt j+1∣ ∣∣2 Chj n 2b . (5.23)If we add Zhang’s path regularity theorem 5.7, Proposition 5.12 and Proposition 5.13, we finally obtain∣E∣Y N,εt k∣− Y N,ε,n ∣∣2t k Cn(1+η)(K 2 ) 2 a n2b lnnnNow, let us <strong>de</strong>al with the error on Z. First of all, (5.17) gives usk=0k=00lnn= Cn . (5.24)1−2b−(1+η)(K2 ) 2 an−1∑[∫ tk+1 ∣ ]∣∣Z N,ε,nE t k− Z N,εt ∣ 2 n−1∑[∫ tk+1 ∣ ]∣∣dt E ˜ZN,ε,n t k− Z N,εt ∣ 2 dt .t kt kFor 0 k n − 1, we can use (5.18) and (5.19) to obtain[∫ tk+1 ∣ ] [∫∣∣E ˜ZN,ε,n t k− Z N,εt ∣ 2 tk+1 ∣ ]∣∣dt E ¯ZN,ε t k− Z N,εt ∣ 2 dtt kt k[∣+(1 + η) 2/3 ∣E E tk ( ∣Y N,εt k+1− Y N,ε,n ∣∣2 ∣ ∣∣Etkt k+1 ) − (Y N,εt k+1− Y N,ε,nt k+1) ∣ 2][∫ tk+1∣+Ch k E ∣f(s, Xs , YsN,ε , ZsN,ε ) ∣ ]2 ds .t kInequality (5.22) and estimates for Z give usn−1∑k=0n−1∑k=0[∫ tk+1 ∣ ∣∣Z N,ε,nE t kt k[∫ tk+1Et kn−1∑+(1 + η) 2/3∣ ∣∣ ¯ZN,ε t kk=0[E]− Z N,ε∣ 2 dtt]− Z N,ε∣ 2 dtt∣∣E tk ( ∣Y N,εt k+1− Y N,ε,n ∣∣2 ∣ ∣∣Etk ) − (Y N,εt k+1− Y N,ε,nt k+1) ∣ 2]t k+1[ ∫ T+Ch 0 E ∣ f(s, Xs , YsN,ε , ZsN,ε ) ∣ ]2 dsn−1∑k=00[∫ tk+1Et kn−1∑+(1 + η) 2/3∣ ∣∣ ¯ZN,ε t kk=0[E]− Z N,ε∣ 2 dtt∣E tk (∣Y N,εt k∣− Y N,ε,n ∣∣2 ∣ ∣∣Etkt k ) − (Y N,εt k+1− Y N,ε,nst k+1)∣ 2](5.25)[ ∣∣∣Y ∣ ]N,ε+CE t n− Y N,ε,n ∣∣2t n+ Ch 0 n 2b , (5.26)


90 CHAPITRE 5. SIMULATION D’EDSRS QUADRATIQUESwith an in<strong>de</strong>x change in the penultimate line. Then, by using (5.16) we get[∣(1 + η) 2/3 ∣E E tk ( ∣Y N,εt k− Y N,ε,n ∣∣2 ∣ ∣∣Etkt k ) − (Y N,εt k+1− Y N,ε,nt k+1) ∣ 2]∫ tk+1[ ]∣∣ Cγ k h k E∣E tk Y N,εt k+1− Y N,ε,n ∣∣2t k+1 + (1 + η)K2k (h k + 1 ∣ ∣ ∣∣Z N,ε)E s − Z N,ε,n ∣∣2tγ k dsk t k+C(h k + 1 [ ∣∣Xs ∣ ∣ ∣)h k(h ]) k + sup E − Xt n 2 ∣∣Yγ k +N,εs − Y N,ε,n ∣∣2t k+1. (5.27)k s∈[t k ,t k+1 ][Thanks to (5.20), (5.21), (5.23) and a classical estimation on E |X s − X tk | 2] we have[ ∣∣Xs ∣ ∣sup E − Xt n 2 ∣∣Yk+N,εss∈[t k ,t k+1 ]∣ ] ( [− Y N,ε,n ∣∣2 ∣∣∣Y ∣ ])t k+1 C h k n 2b N,ε+ E t k+1− Y N,ε,n ∣∣2t k+1.Let us set γ k = 3(1 + η)Kk 2. We recall that h kKk 2 C ln nn→ 0 when n → 0. So, for n big enough, (5.27)becomes[(1 + η) 2/3 E∣E tk (∣Y N,εt k∣− Y N,ε,n ∣∣2 ∣ ∣∣Etkt k ) − (Y N,εt k+1− Y N,ε,nt k+1)∣ 2]C lnn [ ∣∣∣Y ∣ ]nE N,εt k+1− Y N,ε,n ∣∣2t k+1+ 1 ∫ tk+1 ∣ ∣ ∣∣Z2 E N,εs − Z N,ε,n ∣∣2t k dst k+Ch 0 h k n 2b .If we inject this last estimate in (5.26) and we use Theorem 5.7, we obtainn−11 ∑[∫ tk+1 ∣ ]∣∣Z N,ε,nE t2k− Z N,εt ∣ 2 dtt kk=0By using (5.24) and Proposition 5.13, we finally havek=0[ ∣∣∣Y ∣ ] Ch 0 n 2b N,ε+ C lnn sup E t k+1− Y N,ε,n ∣∣2t k+1.0kn−1[ ∣∣∣Y ∣ ]N,ε,nsup E t k− Y N,ε ∣∣22n−1∑[∫ tk+1 ∣ ]∣∣Z N,ε,nt k+ E t k− Z N,εt ∣ 2 dt C (lnn)20k2nt kn 1−2b−Ka ,with K = 4(1 + η)L 2 f,z M2 z,2 . Since this estimate is true for every η > 0, we have proved the result. ⊓⊔5.4.3 Study of the global error e(N, ε, n)Let us study errors e 1 (N) and e 2 (N, ε).Proposition 5.16 Let us assume that (HX0) and (HY0) hold. There exists a constant C > 0 such thate 2 (N, ε) Cn 2a−4b .∣Proof. We just have to notice that ∣f(t, X t , Y N,εt , Z N,εt ) − f(t, X t , Y N,ε∣t , 0) ∣ Cis boun<strong>de</strong>d by Cn b .For g N we use the classical Lipschitz approximationg N (x) = inf { g(u) + N |x − u| |u ∈ R d} .∣Z N,εt∣ 2 and∣∣⊓⊔∣Z N,εtProposition 5.17 We assume that (HX0) holds and g is α-Höl<strong>de</strong>r. Then, there exists a constant C such thate 1 (N) Cn 2bα1−α.


5.4. CONVERGENCE OF A MODIFIED TIME DISCRETIZATION SCHEME FOR THE BSDE 91Proof.haveg N is a N-Lipschitz function and g N → g when N → +∞ uniformly on R d . More precisely, we|g − g N | ∞ C .N α1−α⊓⊔Remark 5.18 For some explicit examples, it is possible to have a better convergence speed. For example,let us take g(x) = (|x| α½x0) ∧ C and assume that σ is invertible. Then, we can use the fact that thisfunction is not Lipschitz only in 0, and obtain.e 1 (N) Cn 2αb1−α( ]) 1/qP X T ∈[0, N −1 C1−α n1−α(2α+ b 1 q)Remark 5.19 It is also possible to obtain convergence speed when g is not α-Höl<strong>de</strong>r. For example, weassume that σ is invertible and we set g(x) = ∏ di=1½x i>0(x). Then[ d∑e 1 (N) C P((X T ) i ∈ [0, 1/N])i=1Now we are able to gather all these errors.] 1/q CN 1/q = Cn b/q .Theorem 5.20 We assume that (HX0), (HY0), (HY1), and (HX1) or (HX1’) hold. We assume also that g isα-Höl<strong>de</strong>r. Then for all η > 0, there exists a constant C > 0 that does not <strong>de</strong>pend on n such thatwith K = 4(1 + η)L 2 f,z M2 z,2.Proof.e(n) := e(N, ε, n) nC2α(2−α)(2+K)−2+2αThanks to Theorem 5.15, Proposition 5.16 and Proposition 5.17 we havee(n) Cn 1−2b−Ka +Cn 2a−4b +Cn 2αb1−αThen we only need to set a := 1+2b2+K and b := 1−α(2−α)(2+K)−2+2αto obtain the result.⊓⊔Corollary 5.21 We assume that assumptions of Theorem 5.20 hold. Moreover we assume that f has a subquadraticgrowth with respect to z: there exists 0 < β < 1 such that, for all t ∈ [0, T], x ∈ R d , y ∈ R,z, z ′ ∈ R 1×d ,|f(t, x, y, z) − f(t, x, y, z ′ )| (K f,z + L f,z (|z| β + |z ′ | β )) |z − z ′ | .Then we are allowed to take K as small as we want. So, for all η > 0, there exists a constant C > 0 thatdoes not <strong>de</strong>pend on n such thate(n) Cn α−η .Remark 5.22 We are able to specify Remark 5.14 in our case, when a = 1+2b2+K and b = 1−α(2−α)(2+K)−2+2α .• When K 2−3α2−α, that is to say, when α < 2/3 and K is sufficiently small, then we do not need tohave a discretization grid on [T − ε, T].• When K > 2−3α2−α , then it is possible to take only ⌈nc ⌉ discretization points on [T − ε, T] withc = 1 +3α − 4(2 − α)(2 + K) − 2 + 2α .Theorem 5.20 is not interesting in practice because the speed of convergence <strong>de</strong>pends strongly on K.But, we just see that the global error becomes e(n) Cnwhen we are allowed to choose K as small asα−ηwe want. Un<strong>de</strong>r extra assumption we can show that we are allowed to take the constant M z,2 as small aswe want..,


92 CHAPITRE 5. SIMULATION D’EDSRS QUADRATIQUES(HX2). b is boun<strong>de</strong>d on [0, T] × R d by a constant M b .Theorem 5.23 We assume that (HX0), (HY0), (HY1), (HX2) and (HX1) or (HX1’) hold. We assume alsothat g is α-Höl<strong>de</strong>r. Then for all η > 0, there exists a constant C > 0 that does not <strong>de</strong>pend on n such thate(n) Cn α−η .Remark 5.24 With the assumptions of the previous theorem, it is also possible to have an estimate of theglobal error for examples given in Remarks 5.18 and 5.19. When g(x) = (|x| α½x0) ∧ C, we haveand when g(x) = ∏ di=1½x i>0(x), we havee(n) e(n) C1−αα+n ,1+2q −ηCn . 11+2q −ηProof. Firstly, we suppose that f is differentiable with respect to z. Thanks to Remark 5.5 we see that itis sufficient to show that[ ∫ ]TE QN,ε ∣ ZN,ε∣ 2 ∣ds∣F ttis small uniformly in ω, N and ε when t is close to T .We will obtain an estimation for this quantity byapplying the same computation as [20] for the BMO norm estimate of Z page 831. Thus we have[ ∫ ]TE QN,ε ∣ ZN,ε∣ 2 ∣ds∣F ttss[∣ ∣ E QN,ε N,ε ∣ϕ(Y T) − ϕ(Y N,εt )] ∣∣∣F t + C(T − t),with ϕ(x) = (e 2c(x+m) −2c(x+m) −1)/(2c 2 ), m = |Y | ∞and c that <strong>de</strong>pends on constants in assumption(HY0) but does not <strong>de</strong>pend on ∇ z f. Let us notice that m, c and so ϕ do not <strong>de</strong>pend on N and ε. Since Yis boun<strong>de</strong>d, ϕ is a Lipschitz function, so[ ∫ ]TE QN,ε ∣ ZN,ε∣ 2 ∣ds∣F tts CE QN,ε [∣ ∣ ∣YN,εTWe <strong>de</strong>note by (Y N,ε,t,x , Z N,ε,t,x ) the solution of BSDE (5.12) when X t,xtand ZsN,ε,t,xprove in the appendix.= 0 for s t and we <strong>de</strong>fine u N,ε (t, x) := Y N,ε,t,xt]− Y N,ε∣∣∣F t + C(T − t).t= x. As usual, we set Xst,x = x. Then we give a proposition that we willProposition 5.25 We assume that (HX0), (HY0), (HY1), (HX2) and (HX1) or (HX1’) hold. We assume alsothat g is uniformly continuous on R d . Then u N,ε is uniformly continuous on [0, T] × R d and there exists ωa concave modulus of continuity for all functions in { u N,ε |N ∈ N, ε > 0 } : i.e. ω does not <strong>de</strong>pend on Nand ε.ThenE QN,ε [∣ ∣ ∣YN,εT]− Y N,ε∣∣∣F tt= E QN,ε [ ∣ ∣u N,ε (T, X T ) − u N,ε (t, X t ) ∣ ∣ ∣ ∣ ∣Ft][½| ∣E QN,ε R Tt σ(s)d ˜W s|ν∣u N,ε (T, X T ) − u N,ε (t, X t ) ∣ +2 ∣ ∣ ]YN,ε ∞½| R ∣Tt σ(s)d ˜W s|>ν∣F t [ ()E QN,ε ω |T − t| +½| R Tt σ(s)d ˜W |X s|ν T − X t |+2 ∣ ∣ ]YN,ε ∞½| R ∣Tt σ(s)d ˜W s|>ν∣F t ,


5.5. SOME ADDITIONAL RESULTS ON THE TIME DEPENDENT ESTIMATE OF Z. 93with d ˜W s = dW s − ∇ z f ε (s, X s , Y N,εs, Z N,ε )ds. But,½| R Tt σ(s)d ˜W |X s|ν T − X t |∫ T=½| R Tt σ(s)d ˜W s|νb(s, X s )ds +∣ M b (T − t) + ν + Ct∫ Tts∫ T(1 + ∣ ∣∣Z N,ε ∣)ds( ∫ 1/2 T C(T − t) + ν + C(T − t) 1/2 ∣ ZN,ε∣ ds) 2 .stts∫ ∣T ∣∣∣∣∇ z f ε (s, X s , YsN,ε , Zs N,ε )ds + σ(s)d ˜W stSince ω is concave, we have by Jensen’s inequality[ ()∣ ]E QN,ε ω |T − t| +½| R Tt σ(s)d ˜W |X ∣∣Fts|ν T − X t |⎛⎡( ∫ ) ⎤⎞1/2 T∣ω ⎝C |T − t| + ν + C(T − t) 1/2 E QN,ε ⎣ ∣ ZN,ε∣ 2 ∣∣Ftds ⎦⎠⎛[ ∫ ] ⎞T1/2ω ⎝C |T − t| + ν + C(T − t) 1/2 E QN,ε ∣ ZN,ε∣ 2 ∣ds∣F t⎠ω(C |T − t| + ν + C(T − t) 1/2 ∥ ∥ ZN,ε ∥ ∥BMO(Q)).But, ∥ ∥ ZN,ε BMO(Q)only <strong>de</strong>pends on constants in assumption (HY0), so it is boun<strong>de</strong>d uniformly in N andε. Moreover, ∣ ∫ Tσ(s)d ˜W∣ ∣∣t s is in<strong>de</strong>pen<strong>de</strong>nt of Ft so we have by the Markov inequalityFinally, we haveE QN,ε [∣ ∣ ∣YN,εTE QN,ε [½| R Ttσ(s)d ˜W s|>ν]− Y N,ε∣∣∣F tt]∣∣F t(ωωtt(∣ ∣∣∣∣ ∫ ∣ )T ∣∣∣∣= Q N,ε σ(s)d ˜W s > νtsC(T − t)1/2.νs)(T − t)1/2+ CνC |T − t| 1/2 + ν(C |T − t| 1/2 + |T − t| 1/4) + C |T − t| 1/4 ,[∣ ]by setting ν = |T − t| 1/4 ∣, and E QN,ε N,ε ∣Y T− Y N,ε∣t ∣∣F t → 0 uniformly in ω, N and ε when t → T .When f is not differentiable with respect to z but is only locally Lipschitz then we can prove the result bya standard approximation.⊓⊔5.5 Some additional results on the time <strong>de</strong>pen<strong>de</strong>nt estimate of Z. 35.5.1 What happens if σ does not <strong>de</strong>pend on time ?We have seen that the key point of our approximation results is the time <strong>de</strong>pen<strong>de</strong>nt estimate of Z in Theorem5.4. This estimate needs the technical assumption (HX1). When σ does not <strong>de</strong>pend on time, thisassumption becomes3 This section has been ad<strong>de</strong>d after the submission of the article.


94 CHAPITRE 5. SIMULATION D’EDSRS QUADRATIQUES(HX1).b is differentiable with respect to x and there exists λ ∈ R + such that for all η ∈ R d∣ t ησ t σ t ∇b(s, x)η∣ λ ∣ ∣t ησ ∣ 2 . (5.28)It is possible to obtain some equivalent assumptions.Proposition 5.26 Let us assume that (HX0) hold, b is differentiable with respect to x and σ does not <strong>de</strong>pendon time. Then, following assertions are equivalent:(i) ∀x ∈ R d , ∀s ∈ [0, T], Im ∇b(s, x)σ ⊂ Im σ,(ii) ∀x ∈ R d , ∀s ∈ [0, T], ker t σ ⊂ ker t σ t ∇b(s, x),(iii) ∃f : [0, T] × R d → R d×d boun<strong>de</strong>d such that ∀x ∈ R d , ∀s ∈ [0, T], ∇b(s, x)σ = σf(s, x),(iv) there exist A : [0, T] × R d → R d×d and B : [0, T] → R d×d such that A is differentiable with respectto x, ∇A is boun<strong>de</strong>d and ∀x ∈ R d , ∀s ∈ [0, T], b(s, x)σ = σA(s, x) + B(s),(v) there exists λ ∈ R + such that ∀η ∈ R d∣ t ησ t σ t ∇b(s, x)η∣ λ ∣ ∣t ησ ∣ 2 . (5.29)Proof.(iii) ⇒ (i), (iii) ⇒ (ii), (iii) ⇒ (v) and (iii) ⇔ (iv): Trivial.(i) ⇒ (iii): There exists ˜σ such that σ˜σ | Im σ = Id | Im σ . Since Im ∇b(s, x)σ ⊂ Im σ then ∇b(s, x)σ =σ˜σ∇b(s, x)σ := σf(s, x). ∇b is boun<strong>de</strong>d so f is also boun<strong>de</strong>d.(ii) ⇒ (iii): The proof is the same when we notice that there exists ˜σ such that ˜σσ |M = Id |M with M ⊕kerσ = R d .(v) ⇒ (ii): Let S + d (R) <strong>de</strong>note the space of non negative symmetric matrix. Since σt σ ∈ S + d(R), thereexists s ∈ S + d (R) such that σt σ = s 2 . It is easy to show that kers = ker t σ and kers t ∇b(s, x) =ker t σ t ∇b(s, x). Moreover, ∀η ∈ R d and | t ησ| 2 = | t ηs| 2 , so we are allowed to assume that σ ∈S + d (R).If σ is invertible or σ = 0, the result is proved. Otherwise, let us consi<strong>de</strong>r η 1 and η 2 two eigenvectorsof σ linked with eigenvalues λ 1 ≠ 0 and λ 2 = 0. (v) gives us, for all α ∈ R,∣ t (η 1 + αη 2 )σ 2t ∇b(s, x)(η 1 + αη 2 ) ∣ =∣∣λ 2 1 t η 1 t ∇b(s, x)η 1 + αλ 2 1 t η 1 t ∇b(s, x)η 2∣ ∣∣ λλ 2 1 |η 1| 2 .∣ t (η 1 + αη 2 )σ 2t ∇b(s, x)(η 1 + αη 2 ) ∣ is boun<strong>de</strong>d with respect to α, implying t η t 1 ∇b(s, x)η 2 = 0.Since σ ∈ S + d (R), we have kerσ ⊕ ⊥ Im σ. So, for all η 2 ∈ kerσ, we have shown t ∇b(s, x)η 2 ∈(Im σ) ⊥ = kerσ, that is to say, σ t ∇b(s, x)η 2 = 0. This last equality allows us to conclu<strong>de</strong> thatkerσ ⊂ kerσ t ∇b(s, x).⊓⊔The assertion (v) allows us to reduce assumptions on the regularity of b. In<strong>de</strong>ed, when A is only aLipschitz function with respect to x with a Lipschitz constant K A , then it is possible to do a classicalapproximation of A by a sequence of differentiable functions (A n ) n∈N such that |∇A n (s, x)| K A .(HX1”). σ does not <strong>de</strong>pend on time. There exist A : [0, T] × R d → R d×d and B : [0, T] → R d×d suchthat ∀x ∈ R d , ∀s ∈ [0, T], b(s, x)σ = σA(s, x) + B(s).


5.5. SOME ADDITIONAL RESULTS ON THE TIME DEPENDENT ESTIMATE OF Z. 95Then we obtain a new version of Theorem 5.4.Theorem 5.27 Suppose that (HX0), (HY0) and (HX1”) hold. Moreover, suppose that g is lower (or upper)semi-continuous. Then there exists a version of Z and there exist two constants C, C ′ ∈ R + that <strong>de</strong>pendonly in T , M g , M f , K f,x , K f,y , K f,z and L f,z such that, ∀t ∈ [0, T[,|Z t | C + C ′ (T − t) −1/2 .5.5.2 Some examples and counterexamples.As we already explain in the introduction, Theorem 5.4 is also interesting for BSDEs with a linear growthwith respect to z. In<strong>de</strong>ed, such an estimation has been already proved when σ is invertible by using theBismut-Elworthy formula, see e.g. [43], while in our case we do not need to assume the invertibility of σ.Nevertheless, technical assumptions (HX1) or (HX1”) appear. Let us see what could happen when theseassumptions do not hold. The most simple counterexample is given by Zhang in [84]. Let us consi<strong>de</strong>r ourSDE in dimension 1. We take:• T = 2,• b = 0,• ∀t ∈ [0, 2], σ(t) = (1 − t)½t 0, ∃0 t 1 < t 2 < 1, P( ∣ Z|[t1,t ∣ 2] M) > 0.Proof. Let us <strong>de</strong>note u(t, x) := Y t,xt with (Y t,xt , Z t,xt ) the solution of the BSDE (5.5) where X verifiesX t = x. For t ∈ [1, 2], obviously u(t, x) = g(x) and Z t,xt = 0. For t ∈ [0, 1[, we have[ ( ∫ 1)]u(t, x) = E g x + (1 − s)dW s=∫1√2πσtwith σ 2 t = ∫ 1t (1 − s)2 ds = 1 3 (1 − t)3 . Moreover,∇u(t, x) =By using the substitution y = σ t z, we get∇u(t, 0) ==∫1√2πσtσ 1/4 ∫t√2πσt∫1√2πσtRRRRt)(y − x)2g(y)exp(−2σt2 dy,)(y − x) (y − x)2g(y)σt2 exp(−2σt2 dy. (5.30)g(σ t z)z exp(1arctanσ 1/4tBy dominated convergence theorem we have∫ ( )1arctan σ 1/4 zt z expR|z| 3/4σ 1/4t(− z22σ 1/4t)dz)zz exp|z| 3/4) ∫(− z2dy t→1−−→ |z| 2−3/4 exp2R) (− z2dy.2) (− z2dy > 0.2So,∇u(t, 0)σ(t) t→1−∼C(1 − t)=σ 3/4tC(1 − t) 1/8 t→1 −−→ +∞.


96 CHAPITRE 5. SIMULATION D’EDSRS QUADRATIQUESMoreover, the equation (5.30) allows us to show that (t, x) ↦→ ∇u(t, x) is continuous on [0, 1[×R. So,for all M > 0, ∃[t 1 , t 2 ] ⊂ [0, 1[ with t 1 < t 2 , ∃ε > 0, such that ∀x ∈ [−ε, ε], ∀t ∈ [t 1 , t 2 ] we have|∇u(t, x)σ(t)| M. Since Z t = Z t,Xx tt = ∇u(t, Xt x )σ(t), thenP( ∣ ∣ Z|[t1,t ∣ ∣∣X2] M) P(x [t1,t 2] ∣ ε) > 0.⊓⊔To construct this example, the i<strong>de</strong>a is to stop the noise after the time t = 1 to obtain no random evolutionin the time interval [1, 2]. In this example we need to have a function σ that <strong>de</strong>pends on time. Let us seeif it is possible to construct a counterexample when we are not in this situation. If we suppose that (HX0)holds, then the assumption (HX1”) is always true in dimension 1. So we will take d = 2 and• T = 2,(• ∀t ∈ [0, 2], ∀x = (x 1 , x 2 ) ∈ R 2 , b(t, x) =• ∀t ∈ [0, 2], σ(t) =• f = 0(1 00 0),)0h(t)x 1 ,With these functions, (HX1) does not hold when h ≠ 0. The solution of the SDE isXt 1 = x 1 + Wt1 ∫ tXt 2 = x 2 + x 1 h(s)ds +0∫ t0h(s)W 1 s ds.As we try to obtain an explosion at time t = 1, we will take for h a continuous function such that h |[0,1[ > 0and h |[1,2] = 0. Moreover, we assume that ∀x = (x 1 , x 2 ) ∈ R 2 , g(x) = ˜g(x 2 ) with ˜g : R → R a boun<strong>de</strong>dlower (or upper) semi-continuous function. As before, we <strong>de</strong>note u(t, x) := Y t,xt with (Y t,xt , Z t,xt ) thesolution of the BSDE (5.5) where X verifies X t = x. For t ∈ [1, 2], obviously u(t, x) = g(x) = ˜g(x 2 ) and= 0. For t ∈ [0, 1[, we haveZ t,xtu(t, x) =Let us <strong>de</strong>note H a primitive of h. Then,[ ∫ 1E ˜g(x 2 + x 1 h(s)ds +t∫ 1t)]h(s)Ws 1 ds .So,∫ 1t∫ 1h(s)Ws 1 ds = H(1)W 1 1 − H(t)W t 1 − H(s)dWs1u(t, x) == [H(1) − H(t)]W 1 t +∫1√2πσtRt∫ 1t[H(1) − H(s)]dW 1 s .˜g(y)exp(− (y − x2 − a t x 1 ) 2 )dy,2σ 2 twith σ 2 t = [H(1) − H(t)] 2 t + ∫ 1t [H(1) − H(s)]2 ds and a t = [H(1) − H(t)]. Moreover,and∫∂u∂x 1 (t, x) = a t√2πσtZ t = ∇u(t, X t )σ = ∂u∂x 1 (t, X t),R˜g(y) (y − x2 − a t x 1 )σ 2 texp(− (y − x2 − a t x 1 ) 22σ 2 t)dy.


5.6. APPENDIX 97So, By using the substitution y − x 2 − a t x 1 = σ t z, we get∫)∂u∂x 1 (t, x) = a t√ ˜g(σ t z + x 2 + a t x 1 )z exp(− z2dz,2πσt 2andR∣ ∣ ∣∣∣ ∂u ∣∣∣∂x 1 (t, x) C |a )t||z|exp(−σ t∫Rz2dz C2because |a t | σ t . Finally, we obtain that Z is boun<strong>de</strong>d on the interval [0, 2] even if it is possible to∂ushow that∂x(t, 0) t→1−−→ +∞ for well-chosen functions ˜g and h 4 . This example proves that (HX1”) is a2not necessary but sufficient assumption. To be more precise, when σ does not <strong>de</strong>pend on time we do notsucceed to find an example of BSDE such that we have not the estimateZ t C + C ′ (T − t) −1/2 .So, the assumption (HX1”) seems to be artificially restrictive and unnecessary. But this question remainsopen.5.6 Appendix5.6.1 Proof of Lemma 5.10.We have,Firstly,∏(1 + Mh i ) =2n−1i=0Moreover, for 0 i n − 1,2n−1( n−1) ( ∏ 2n−1)∏(1 + Mh i ) (1 + Mh i ) .i=0i=n∏(1 + Mh i ) i=n(1 + M T n) n C.h i = t i+1 − t i = Tn −ai/n (1 − e − a ln nn ) Tn −ai/n a lnnn ,thanks to the convexity of the exponential function. Son−1∏(1 + Mh i ) i=0n−1∏i=0= exp exp(1 + MTan −ai/nlnnn)( n−1 ∑(ln 1 + MTan −ai/nlnnni=0)( n−1( exp MTa lnn( expMTa lnnnn a/n − 1) )∑MTa(n −a/n ) i lnnni=0( 1 − (1/n a )))n 1 − (1/n (a/n) )n a/n ).But,lnnnn a/nwhen n → +∞. Thus, we have shown the result.n a/n − 1 ∼ lnnn4 Take for example h(s) = (1 − s)½s


98 CHAPITRE 5. SIMULATION D’EDSRS QUADRATIQUES5.6.2 Proof of Lemma 5.11.Thanks to Lemma 5.10, we have(h1 + M 1 h i + M i 2∏ n−1i=0∏ n−1i=0So, we just have to show thatBut,So,n−1∏i=0T −t i+1)(1 + M 2h iT −t i+1) =n−1∏i=0(1 + M 2h iT − t i+1)n−1∏i=0()M 11 +h1 + M ih i 2 T −t i+1(1 + M 2h iT − t i+1) Cn aM2 .1 + M 2h iT − t i+1= 1 + M 2 (n a/n − 1).=() n1 + M 2 (n a/n − 1)( (lnn= exp n ln 1 + aM 2(= exp aM 2 lnn + On−1∏i=0(1 + M 1 h i ) C.( ln 2 )))n + O nn 2( ln 2 ))n∼ n aM2 ,nwhen n → +∞. Thus, we have shown the result.⊓⊔5.6.3 Proof of Proposition 5.25.We will prove this proposition as the authors of [36] do for their Proposition 4.2. In all the proof we omit thesuperscript N, ε for u, Y and Z to be more readable. Let x 0 , x ′ 0 ∈ R d and t 0 , t ′ 0 ∈ [0, T]. By an argumentof symmetry we are allowed to suppose that t 0 t ′ 0 . We have|u(t 0 , x 0 ) − u(t ′ 0 , x′ 0 )| |u(t 0, x 0 ) − u(t 0 , x ′ 0 )| + |u(t 0, x ′ 0 ) − u(t′ 0 , x′ 0 )| .Let us begin with the first term. We will use a classical argument of linearization:Y t0,x0t − Y t0,x′ 0t = g N (X t0,x0T) − g N (X t0,x′ 0with⎧⎪⎨α s =⎪⎩⎧⎪⎨β s =⎪⎩⎧⎪⎨γ s =⎪⎩∫ TT) +∫ T ( )− Zs t0,x0 − Z t0,x′ 0s d ˜W s ,tf ε (s, X t0,x0s , Y t0,x′ 0s , Z t0,x′ 0s ) − f ε (s, X t0,x′ 0s , Y t0,x′ 0s , Z t0,x′ 0s )f ε (s, Xst0,x0 , Y t0,x0f ε (s, X t0,x0s, Y t0,x0sX t0,x0s , Z t0,x′ 0st) ( )α s(Xs t0,x0 − X t0,x′ 0s + β s Ys t0,x0 − Y t0,x′ 0s dss − X t0,x′ 0s0 elsewhere,Y t0,x0) − f ε (s, X t0,x0s , Y t0,x′ 0s , Z t0,x′ 0s )s − Y t0,x′ 0s0 elsewhere,, Zst0,x0 ) − f ε (s, Xst0,x0 , Ys t0,x0 , Z t0,x′ 0s ) t (Zt 0,x 0∣∣Zs t0,x0 − Z t0,x′ 0∣ 2sif X t0,x0s − X t0,x′ 0s ≠ 0,if Y t0,x0s − Y t0,x′ 0s ≠ 0,s − Z t0,x′ 0s) if Z t0,x0s − Z t0,x′ 0s ≠ 0,0 elsewhere,


5.6. APPENDIX 99and d ˜W s := dW s − γ s ds. By a BMO argument, there exists a probability Q un<strong>de</strong>r which ˜W is a Brownianmotion. Then we apply a classical transformation to obtain[E Q R ( t)] [β te 0 sdsY t0,x0t − Y t0,x′ 0t = E Q R ( T)β te 0 sdsg N (X t0,x0T) − g N (X t0,x′ 0T)∫ T R ( ]s)β t+ α s e 0 uduXs t0,x0 − X t0,x′ 0s ds ,t 0and([ (∣ )]|u(t 0 , x 0 ) − u(t 0 , x ′ 0)| C E Q ∣∣X tω 0,x 0T− X t0,x′ 0∣T∫ T [∣+ E Q ∣ ∣Xt 0,x 0t 0)]s − X t0,x′ 0s ∣ ds ,with ω a modulus of continuity of g that is also a modulus of continuity for g N . We are allowed to supposethat ω is concave 5 , so Jensen’s inequality gives us(( [∣ ]) ∫ T|u(t 0 , x 0 ) − u(t 0 , x ′ 0)| C ω E Q ∣ t ∣X 0,x 0T− X t0,x′ 0[∣ )]T ∣ + E Q ∣ ∣Xt 0,x 0s − X t0,x′ 0s ∣ ds .t 0By using the fact that b is boun<strong>de</strong>d we can prove the following proposition exactly as authors of [36] do fortheir Proposition 4.7:Proposition 5.29 ∃C > 0 that does not <strong>de</strong>pend on N and ε such that ∀t, t ′ ∈ [0, T], ∀x, x ′ ∈ R d , ∀s ∈[0, T],[∣ ] (E Q ∣ ∣Xt,xs − X t′ ,x ′∣ C |x − x ′ | + |t − t ′ | 1/2) .Then,s|u(t 0 , x 0 ) − u(t 0 , x ′ 0)| C (ω (|x 0 − x ′ 0|) + |x 0 − x ′ 0|) .Now we will study the second term:∣ ∣ ∣ |u(t 0 , x ′ ∣∣Y0 ) − u(t′ 0 , x′ 0 )| = t 0,x ′ 0t 0− Y t′ 0 ,x′ 0∣∣ ∣Y t0,x′ 0t 0− Y t′ 0 ,x′ 0 ∣∣ ∣∣Y tt 0 + ′ 0 ,x′ 0t 0− Y t′ 0 ,x′ 0∣ .Firstly,∣∣Y t′ 0 ,x′ 0t 0− Y t′ 0 ,x′ 0t∣ ′0 ∣Moreover, as for the first term we have[E Q R ( t)]β te 0 sdsY t0,x′ 0t − Y t′ 0 ,x′ 0t∫ t′0t ′ 0f(s, x ′ 0 , Y t′ 0 ,x′ 0st 0, 0)ds∣ C |t 0 − t ′ 0 | .[= E Q R ( T)β te 0 sdsg N (X t0,x′ 0T) − g N (X t′ 0 ,x′ 0T)∫ T R ( ]s)β t+ α s e 0 uduX t0,x′ 0s − X t′ 0 ,x′ 0s ds ,t 0t ′ 0and∣∣Y t0,x′ 0t 0− Y t′ 0 ,x′ 0∣t ′ 0( ( C ω |t 0 − t ′ 0| 1/2) + |t 0 − t ′ 0| 1/2) .Finally,and( (|u(t 0 , x ′ 0) − u(t ′ 0, x ′ 0)| C ω |t 0 − t ′ 0| 1/2) + |t 0 − t ′ 0| 1/2) ,|u(t 0 , x 0 ) − u(t ′ 0 , x′ 0 )| C (ω (|x 0 − x ′ 0 |) + ω (|t 0 − t ′ 0 |1/2) + |x 0 − x ′ 0 | + |t 0 − t ′ 0 |1/2) .So u is uniformly continuous on [0, T] × R d and this function has a modulus of continuity that does not<strong>de</strong>pend on N and ε. Moreover, we are allowed to suppose that this modulus of continuity is concave. ⊓⊔5 There exist two positive constants a and b such that ω(x) ax + b. Then the concave hull of x ↦→ ω(x) ∨ `½x1(ax + b)´ isalso a modulus of continuity of g.


100 CHAPITRE 5. SIMULATION D’EDSRS QUADRATIQUES


Chapitre 6Résultats numériquesCe chapitre a pour but d’illustrer les résultats théoriques obtenus dans le chapitre précé<strong>de</strong>nt. Plus précisément,nous nous intéressons à la simulation numérique d’EDSRs <strong>de</strong> la formeavec X le processus solution <strong>de</strong> l’EDS∫ T∫ TY t = g(X T ) + f(s, X s , Y s , Z s )ds − Z s dW s ,ttX t = x +∫ t0b(s, X s )ds +∫ t0σ(s)dW s .b, σ, g et f vérifient les hypothèses suivantes :• b : [0, T] × R d → R d est une fonction mesurable telle que ∃M b , K b ∈ R + , ∀t, t ′ ∈ [0, T], ∀x, x ′ ∈R d ,|b(t, x)| M b ,|b(t, x) − b(t ′ , x ′ )| K b (|x − x ′ | + |t − t ′ | 1/2 ),• σ : [0, T] → R d×d est une fonction mesurable telle que ∃M σ , K σ ∈ R + , ∀t, t ′ ∈ [0, T], ∀x, x ′ ∈ R d ,|σ(t)| M σ ,|σ(t) − σ(t ′ )| K σ |t − t ′ | ,• g : R d → R est une fonction mesurable telle que ∃M g ∈ R + , ∃α ∈]0, 1],∀x ∈ R d , |g(x)| M g , supx,x ′ ∈R d |g(x) − g(x ′ )||x − x ′ | α < +∞,• f : [0, T]×R d ×R×R 1×d → R est une fonction mesurable telle que ∃M f , K f,t , K f,x , K f,y , K f,z ∈R + , ∀t, t ′ ∈ [0, T], ∀x, x ′ ∈ R d , ∀y, y ′ ∈ R, ∀z, z ′ ∈ R 1×d ,|f(t, x, y, z)| M f (1 + |y| + |z| 2 ),|f(t, x, y, z) − f(t ′ , x ′ , y ′ , z ′ )| K f,t |t − t ′ | 1/2 + K f,x |x − x ′ | + K f,y |y − y ′ |+(K f,z + L f,z (|z| + |z ′ |)) |z − z ′ | .De plus, nous supposons qu’il existe M 1 , M 2 ∈ R + telles que, P-p.s.,|Z t | M 1 +M 2, ∀t ∈ [0, T[.(T − t)1/2Cette majoration est obtenue dans les théorèmes 5.4 et 5.27 modulo <strong>de</strong>s hypothèses supplémentaires sur bet σ.101


102 CHAPITRE 6. RÉSULTATS NUMÉRIQUES6.1 Description <strong>de</strong> l’algorithmeNous allons, dans une première partie, rappeler le schéma <strong>de</strong> discrétisation temporelle étudié dans lechapitre 5 puis, dans une secon<strong>de</strong> partie, nous détaillerons la métho<strong>de</strong> employée pour estimer les espérancesconditionnelles.6.1.1 Discrétisation temporelleCommençons par donner quelques notations. Nous noterons n le nombre <strong>de</strong> pas <strong>de</strong> temps et 0 = t 0 4L 2 f,z M2 2 .On pose ε := Tn −a et N := n b avecb :=1 − α(2 − α)(2 + K) − 2 + 2αet a :=1 + 2b2 + K .On définit également la constante c par la formulec := 1 +3α − 4(2 − α)(2 + K) − 2 + 2α .Enfin la grille <strong>de</strong> discrétisation est donnée par⎧ (⎨ t k = T 1 − ( ) )ε k/n1T, 0 k n 1 ,( )⎩n−kt k = T −n−n 1ε, n 1 k n,avec n 1 définie ainsi :• si K 2−3α2−α alors n 1 = n − 1,• si K > 2−3α2−α alors n 1 est le plus grand entier vérifiant n 1 + ⌈n c 1 ⌉ n.L’EDS est remplacée par le schéma d’Euler classique :{ Xn0 = xXt n k+1= Xt n k+ (t k+1 − t k )b(t k , Xt n k) + σ(t k )(W tk+1 − W tk ), 0 k n.Afin d’alléger les notations du chapitre précé<strong>de</strong>nt, nous noterons(Y n , Z n ) la solution <strong>de</strong> l’EDSR discrétiséeen temps en lieu et place <strong>de</strong> (Y N,ε,n , Z N,ε,n ). (Y n , Z n ) est définie par une équation <strong>de</strong> programmationdynamique :⎧⎪⎨⎪⎩Yt nn= g N (X(t n n)Zt n k= ρ tk+1Y nt k= E1t k+1 −t kE])∣t k+1(W tk+1 − W tk ) ∣F tk , 0 k n − 1,]t k+1, Zt n ∣k) ∣F tk , 0 k n − 1,[Y n[Y nt k+1+ (t k+1 − t k )f ε (t k , X n t k, Y navec ρ s : R 1×d → R 1×d la projection sur la boule fermée(B 0, M z,1 + M )z,2,(T − s) 1/2f ε une modification <strong>de</strong> f définie parf ε (s, x, y, z) :=½sT −εf(s, x, y, z) +½s>T −εf(s, x, y, 0),et g N une approximation N-lipschitz <strong>de</strong> g donnée parg N (x) = inf { g(u) + N |x − u| |u ∈ R d} .


6.1. DESCRIPTION DE L’ALGORITHME 1036.1.2 Discrétisation spatialePour pouvoir obtenir un schéma implantable sur un ordinateur il reste à estimer les espérances conditionnelles.Pour cela nous allons utiliser le caractère markovien <strong>de</strong> X n qui permet <strong>de</strong> montrer facilementque Y n et Z n sont <strong>de</strong>s fonctions déterministes <strong>de</strong> X n .Proposition 6.1 Supposons vérifiées les hypothèses décrites au début <strong>de</strong> ce chapitre sur f, g, b et σ. Alorson aYt nk= yk(X n t n k), Zi,t n k= zi,k(X n t n k), 0 k n, 1 i d,où (y n k (.)) k, (z n i,k (.)) i,k sont <strong>de</strong>s fonctions mesurables.L’idée développée dans les articles [47, 48] consiste à approcher y n k et (zn i,k ) i par leur projection sur <strong>de</strong>ssous-espaces vectoriels <strong>de</strong> dimension finie engendrés par les bases p k et (q i,k ) i . On définie ainsi <strong>de</strong> nouvellesfonctions :y n,δk:= Proj yk n = α k p k ,Vect{p k }z n,δi,k := Proj zi,k n = β i,k q k , 0 k n, 1 i d,Vect{q i,k }où α k et β i,k sont <strong>de</strong>s ensembles <strong>de</strong> coefficients 1 . Enfin, ces coefficients (α k ) k et (β i,k ) i,k sont eux-mêmesestimés à l’ai<strong>de</strong> d’une métho<strong>de</strong> <strong>de</strong> Monte-Carlo. Pour ce faire, il convient <strong>de</strong> réaliser M tirages indépendants<strong>de</strong> X n : nous noterons X n,m le mième tirage et nous poserons ∆Wi,k m := W i,t mk+1− Wi,t mk. L’algorithmefinal se présente toujours sous forme rétrogra<strong>de</strong> :• Initialisation pour k = n par yn n,δ,M = g N .• À l’instant <strong>de</strong> discrétisation t k , on calcule les coefficients (βi,k M ) i par une métho<strong>de</strong> <strong>de</strong>s moindrescarrés :βi,k M 1M∑:= arg min ∣tβ Mk+1) ∆W i,km2− βq i,k (X n,mth k)k∣ .On pose alors(z n,δ,Mk=∣ yn,δ,M k+1 (Xn,mm=1z n,δ,Mi,k)i := ρ t k+1( (βMi,k q i,k)• Toujours à l’instant <strong>de</strong> discrétisation t k , on calcule ensuite les coefficients α M ksimilaire ::= arg min α∣α M k∑1 MM m=1 ∣y n,δ,Mk+1 (Xn,m(t k+1) + h k f ε t k , X n,m , y n,δ,Mt kk+1 (Xn,mit k+1), z n,δ,Mk).par une métho<strong>de</strong>)(X n,mt k) − αp k (X n,mOn pose alorsy n,δ,Mk:= α M k q k.• On itère ces calculs jusqu’à l’instant t 0 .La solution (Y t , Z t ) t∈[0,T] <strong>de</strong> notre EDSR initiale est alors approchée numériquement parY n,δ,Mt k:= y n,δ,Mk(Xt n k), Z n,δ,Mt k:= z n,δ,Mk(Xt n k), 0 k n.Il reste maintenant à définir les bases <strong>de</strong> fonctions (p k ) k et (q i,k ) i,k . Pour simplifier, nous ne les feronspas dépendre <strong>de</strong> i et nous ne ferons pas <strong>de</strong> distinction entre p et q : nous noterons p k cette base au temps t k .Pour définir ces <strong>de</strong>rnières, nous allons découper R d en petits hypercubes d’arête δ :⋃R d = D i1,...,i d, avec D i1,...,i d:=]i 1 δ, (i 1 + 1)δ] × ...×]i d δ, (i d + 1)δ].(i 1,...,i d )∈Z dNous pourrions alors définir ) p k comme la famille <strong>de</strong>s fonctions indicatrices associées à l’ensemble <strong>de</strong>shypercubes(½D i1 ,...,i d(.) , mais cette base n’est pas <strong>de</strong> cardinal fini. Néanmoins, nous pouvons(i 1,...,i d )∈Z dnous contenter <strong>de</strong>s hypercubes dans lesquels « tombent » les (X n,mt k) 1mM :)p k (.) :=(½D i1 ,...,i d(.) ,(i 1,...,i d )∈E k1 Afin <strong>de</strong> ne pas alourdir inutilement les notations nous n’avons pas in<strong>de</strong>xé les bases <strong>de</strong> fonctions et les coefficients correspondants.t k)∣ 2 .


104 CHAPITRE 6. RÉSULTATS NUMÉRIQUESavecE k := { (i 1 , ..., i d ) ∈ Z d |∃m ∈ {1, ..., M},X n,mt k∈ D i1,...,i d}.Nous utiliserons principalement ces bases par la suite. De plus nous pourrons éventuellement considérerune variante <strong>de</strong> ces bases qui consiste à prendre sur chaque hypercube une base <strong>de</strong> polynômes locaux <strong>de</strong><strong>de</strong>gré 1. On a alors)p k (.) :=(½D i1 ,...,i d(.), x 1½D i1 ,...,i d(.), ..., x d½D i1 ,...,i d(.)(i 1,...,i d )∈E k.D’autres choix pour ces bases sont également envisageables. Nous ne les utiliserons pas ici mais nouspouvons tout <strong>de</strong> même citer quelques exemples :• On peut prendre sur chaque hypercube une base <strong>de</strong> polynômes locaux <strong>de</strong> <strong>de</strong>gré supérieur à 1.• Il est possible <strong>de</strong> considérer une base <strong>de</strong> polynômes globaux sur R d .• On peut utiliser les fonctions indicatrices <strong>de</strong>s pavages <strong>de</strong> Voronoï associés à R simulations indépendantes<strong>de</strong> X n .Une étu<strong>de</strong> numérique approfondie comparant ces différentes possibilités est disponible dans la thèse [62].6.1.3 Choix <strong>de</strong>s paramètresAu final, l’algorithme dépend <strong>de</strong> trois paramètres. Dans le cas <strong>de</strong>s EDSRs lipschitz, la thèse [62] proposeune étu<strong>de</strong> théorique et numérique complète <strong>de</strong> l’erreur globale en fonction <strong>de</strong> ceux-ci. Il en résulteque le comportement <strong>de</strong> l’algorithme est très sensible à ces <strong>de</strong>rniers et qu’il convient <strong>de</strong> les faire variercorrectement afin d’obtenir une convergence. Par exemple, si l’on se contente d’augmenter n en fixant Met δ, l’erreur globale peut exploser. Afin <strong>de</strong> pallier ce risque, Lemor propose <strong>de</strong> fixer n, δ et M ainsi :n = ⌊n 0 ( √ 2) j−1 ⌋, M = ⌊M 0 ( √ 2) (j−1)αM ⌋, δ =( √ , j ∈ N ∗ .2) (j−1)α δNous prendrons par la suite n 0 = 2, M 0 = 50 et δ 0 = 4. Il reste alors à fixer α M et α δ suffisamment grands :en effet, théoriquement il convient d’avoir α δ > 0.5 et pour α δ fixé, il existe un seuil pour α M en <strong>de</strong>ssousduquel l’algorithme ne converge pas et au <strong>de</strong>ssus duquel il converge. Au vu <strong>de</strong>s résultats numériques <strong>de</strong>Lemor, nous prendrons α δ = 1, 5 et α M ∈ {2, 5; 3}.j 1 2 3 4 5 6 7 8 9n 2 2 4 5 8 11 16 22 32M (α M = 2, 5) 50 118 282 672 1600 3805 9050 21526 51200M (α M = 3) 50 141 400 1131 3200 9050 25600 72407 204800δ 4 2,378 1,414 0,841 0,5 0,2973 0,1768 0,1051 0,06256.2 Convergence <strong>de</strong> l’algorithmeTous les résultats numériques <strong>de</strong> cette partie sont obtenus en lançant 30 fois l’algorithme.6.2.1 Exemples considérésNous allons nous placer en dimension d = 1 et considérer pour X un simple mouvement brownien :Les fonctions f et g sont données par :X t = W t , 0 t T.f(., ., ., z) = − |z|22 , z ∈ R,g(x) = x α½0x1 +½x>1, x ∈ R,avec α ∈]0, 1]. Pour l’approximation lipschitz <strong>de</strong> g nous posons{g(x) si x /∈g N (x) =Nx sinon.[0, N −11−α],δ 0


6.2. CONVERGENCE DE L’ALGORITHME 105Une transformation exponentielle classique permet <strong>de</strong> résoudre <strong>de</strong> manière exacte cette EDSR quadratique :]Y t = ln E[e g(WT ) |F t .Ainsi, on aavec[Y 0 = ln E e g(WT )] = ln(u(0)),u(x) = 1 √2π∫Re g(y) e − (y−x)22 dy,ce qui nous donne finalement( 1Y 0 = ln2 + eP(W 1 1) + √ 1 ∫ 12πDe plus, on aavecVoici les valeurs obtenues pour différents α :Z 0 = u′ (0)u(0) ,u ′ (0) = e1/2 − 1√ + 1 ∫ 1√2π 2πα Y 0 Z 01 0,4015 0,37670,5 0,4659 0,37970,1 0,5729 0,37430 0,6201 0,368700)e yα e −y2 /2 dy .ye yα e −y2 /2 dy.Il convient également <strong>de</strong> calculer explicitement l’estimation temporelle du processus Z provenant du théorème5.4 en reprenant sa démonstration. Supposons que g est différentiable, alors∫ T∇Y t = ∇g(X T )∇X T − ∇Z s d ˜W stavec d ˜W s = dW s − Z s ds qui est un mouvement brownien sous la probabilité Q. On a ∇X t = Id etZ t = ∇Y t , donc Z est une Q-martingale et |Z| 2 est une Q-sous-martingale :[ ∫ ]T|Z t | 2 (T − t) E Q |Z s | 2 ∣ds∣F t ,cette inégalité restant vraie lorsque g est uniquement semi-continue inférieurement ou supérieurement cequi est notre cas. Or,Finalement,∫ TY t = g(X T ) += g(X T ) −[ ∫1 T2 EQtt∫ Ttt|Z s | 2 ∫ T2 ds − Z s dW s|Z s | 2 ∫ T2 ds − Z s d ˜W s .] |Z s | 2 ∣ds∣F t = E Q [Y T − Y t |F t ] .Une estimation classique sur Y nous donne la majoration |Y | 1 ce qui nous permet d’obtenir une premièreestimation pour Z :2|Z t | √ , t ∈ [0, T[. (6.1)T − ttt


106 CHAPITRE 6. RÉSULTATS NUMÉRIQUESComme nous l’avons vu dans la démonstration du théorème 5.23, il est également possible <strong>de</strong> développerle terme E Q [Y T − Y t |F t ] :∣ E Q [Y T − Y t |F t ] ∣ [∣ EQ ∣ ∣u(T, ˜WT ) − u(t, ˜W t ) ∣ ∣ ]Ft ,avecOru(t, x) = − ln E Q [ e −g( ˜W T −t+x) ] .|u(t, x) − u(t ′ , x ′ ∣[ ]∣ )| e ∣E Q e −g( ˜W T −t+x) − e −g( ˜W T −t ′+x ′ ) ∣ ∣ eE Q ∣∣g( ˜WT −t + x) − g( ˜W T −t ′ + x ′ ) ∣( ∣∣ e E[∣˜WT −t − ˜W T −t ′ ∣ α ]+ |x − x ′ | α)( e |t − t ′ | α/2 + |x − x ′ | α) ,ce qui nous donne∣ E Q [Y T − Y t |F t ] ∣ ∣ e(|T [∣ − t| α/2 + E Q ∣ ˜WT − ˜W∣ ∣∣α ∣ ])∣Ftt 2e |T − t| α/2 .Nous obtenons ainsi une secon<strong>de</strong> estimation sur Z plus fine :|Z t | 2 √ e|T − t| 2−α4, t ∈ [0, T[. (6.2)Enfin, rappelons que comme g est approchée par g N qui est une fonction N-lipschitz, alors le théorème 5.3nous assure que Z n est borné :|Z n | N = n − 1−α(2−α)(2+K)−2+2α . (6.3)6.2.2 Utilité <strong>de</strong> la projection pour ZDans un premier temps, nous allons traiter <strong>de</strong> l’utilité <strong>de</strong> la projection. Pour cela nous considérons leschéma suivant :• pas <strong>de</strong> projection pour Z,• grille <strong>de</strong> discrétisation temporelle uniforme,• approximation lipschitz <strong>de</strong> g.Voici les résultats obtenus pour les différents α M :• α M = 2, 5j moyenne Y 0 écart type Y 0 moyenne Z 0 écart type Z 01 0, 3872 0, 09461 0, 2127 0, 13632 0, 3950 0, 05454 0, 1905 0, 058923 0, 4105 0, 03442 0, 1463 0, 058924 0, 4259 0, 02999 0, 2174 0, 066225 4, 017 ∗ 10 7 2, 200 ∗ 10 8 4910 2, 689 ∗ 106 ∞ 2 ∞ ∞ ∞• α M = 3j moyenne Y 0 écart type Y 0 moyenne Z 0 écart type Z 01 0, 3841 0, 08744 0, 1945 0, 11512 0, 3941 0, 05596 0, 1926 0, 069943 0, 4058 0, 05054 0, 1607 0, 11944 0, 4146 0, 01736 0, 1957 0, 034525 1, 401 ∗ 10 16 7, 671 ∗ 10 16 9, 274 ∗ 10 8 5, 019 ∗ 10 86 2, 469 ∗ 10 169 ∞ 4, 444 ∗ 10 84 2, 434 ∗ 10 857 ∞ ∞ ∞ ∞2 L’infini numérique correspond à 1, 7 ∗ 10 308 .


6.2. CONVERGENCE DE L’ALGORITHME 107Ces résultats prouvent qu’il est nécessaire d’utiliser une projection pour Z afin d’assurer une non explosion<strong>de</strong> la solution. Ainsi, nous allons modifier la projection pour éviter que Z n,δ,Mt n−1soit non borné.Dorénavant nous poserons (( (βz n,δ,Mk= z n,δ,Mi,k)i := ρ ) )Mt k i,k q i,k .6.2.3 Utilisation <strong>de</strong> l’algorithme non optimiséDans cette partie, nous allons utiliser le schéma suivant :• projection pour Z en utilisant la borne|Z t | 2√T − t,• grille <strong>de</strong> discrétisation temporelle non uniforme avec K = 4, 1,• approximation lipschitz <strong>de</strong> g.Comme K > 2−3α2−α, la grille <strong>de</strong> discrétisation est formée <strong>de</strong> <strong>de</strong>ux parties aux comportements distincts :t 0 < ... < t n1 et t n1 < ... < t n . Les valeurs <strong>de</strong> n 1 , pour α = 0, 5 et α = 0, 1, sont les suivantes :j 1 2 3 4 5 6 7 8 9n 2 2 4 5 8 11 16 22 32n 1 (α = 0, 5) 1 1 2 2 4 7 10 15 23n 1 (α = 0, 1) 1 1 2 3 5 7 11 16 24Les figures 6.1 et 6.2 donnent les résultats <strong>de</strong> la simulation pour α = 0, 5 tandis que les figures 6.3 et 6.4concernent le cas α = 0, 1. Nous pouvons constater que la vitesse <strong>de</strong> convergence <strong>de</strong> Y 0 est extrêmementlente. Par contre, il ne semble pas possible <strong>de</strong> conclure quant à la convergence <strong>de</strong> Z 0 : il conviendrait <strong>de</strong>faire d’autres simulations pour j plus grand. Cette vitesse faible fait que l’algorithme n’est pas exploitableen pratique : nous allons par la suite utiliser une grille <strong>de</strong> discrétisation temporelle non uniforme avecK = 0, 1.i


108 CHAPITRE 6. RÉSULTATS NUMÉRIQUES0.480.460.440.42moyenne Y 00.40.380.360.34Y 0 exactK=4,10.323 4 5 6 7 8 90.025j0.02ecart type Y 00.0150.010.00503 4 5 6 7 8 9jFIG. 6.1 – Convergence <strong>de</strong> Y 0 pour une grille <strong>de</strong> discrétisation non uniforme, α = 0, 5 et K = 4, 1.


6.2. CONVERGENCE DE L’ALGORITHME 1090.40.350.3moyenne Z 00.250.20.15Z 0 exactK=4,10.13 4 5 6 7 8 90.1j0.090.080.07ecart type Z 00.060.050.040.030.020.013 4 5 6 7 8 9jFIG. 6.2 – Convergence <strong>de</strong> Z 0 pour une grille <strong>de</strong> discrétisation non uniforme, α = 0, 5 et K = 4, 1.


110 CHAPITRE 6. RÉSULTATS NUMÉRIQUES0.60.550.5moyenne Y 00.450.40.35Y 0 exactK=4,10.33 4 5 6 7 8 90.03j0.0250.02ecart type Y 00.0150.010.00503 4 5 6 7 8 9jFIG. 6.3 – Convergence <strong>de</strong> Y 0 pour une grille <strong>de</strong> discrétisation non uniforme, α = 0, 1 et K = 4, 1.


6.2. CONVERGENCE DE L’ALGORITHME 1110.40.350.3moyenne Z 00.250.20.15Z 0 exactK=4,10.13 4 5 6 7 8 90.07j0.060.05ecart type Z 00.040.030.020.013 4 5 6 7 8 9jFIG. 6.4 – Convergence <strong>de</strong> Z 0 pour une grille <strong>de</strong> discrétisation non uniforme, α = 0, 1 et K = 4, 1.


112 CHAPITRE 6. RÉSULTATS NUMÉRIQUES6.2.4 Comparaison <strong>de</strong>s différentes grilles <strong>de</strong> discrétisationDans cette partie nous allons vérifier si la non uniformité <strong>de</strong> la grille <strong>de</strong> discrétisation temporelle apporteun gain numérique par rapport à la grille uniforme habituelle. Tous les exemples numériques seront donctraités avec une grille uniforme puis une grille non uniforme <strong>de</strong> paramètre K = 0, 1. Pour cette <strong>de</strong>rnière, ρ test définie comme la projection sur la bouleB(0,2 √ e(T − t) 2−α4).Choix <strong>de</strong> α MNous prenons α = 0, 5. Les figures 6.5 et 6.6 sont obtenues pour α M ∈ {2, 5; 3}. Il semble clairque α M = 2, 5 n’est pas suffisant pour observer une convergence. Dans toute la suite nous fixerons doncα M = 3. Notons que lorsque le générateur a une croissance linéaire, α M = 2, 5 suffit pour assurer laconvergence du schéma (c.f. [62]) : le cadre quadratique est donc plus exigeant en ce qui concerne le réglage<strong>de</strong>s paramètres. Les <strong>de</strong>ux types <strong>de</strong> grille semblent se comporter <strong>de</strong> la même façon pour l’approximation <strong>de</strong>Y 0 tandis que la grille uniforme est légèrement meilleure en ce qui concerne Z 0 . Cela tendrait à prouver quel’introduction <strong>de</strong> cette grille non uniforme se justifie théoriquement mais pas dans la pratique.Rôle <strong>de</strong> la projectionNous avons vu que l’approximation <strong>de</strong> g par une fonction lipschitz implique que Z n est borné. Il estalors envisageable <strong>de</strong> modifier la projection ρ pour en tenir compte. Ainsi, la projection 1 désignera par lasuite la projection définie précé<strong>de</strong>mment tandis que pour la projection 2, ρ t est définie comme la projectionsur la boule(2 √ )eB0,(T − t) 2−α4Les figures 6.7 et 6.8 permettent <strong>de</strong> comparer ces <strong>de</strong>ux projections : la projection 2 permet d’obtenir <strong>de</strong>meilleurs résultats pour Y 0 tandis que pour Z 0 la conclusion est moins nette. Encore une fois, il n’y a pas<strong>de</strong> différence majeure entre les <strong>de</strong>ux types <strong>de</strong> grille.∧ N.Rôle <strong>de</strong> l’approximation <strong>de</strong> gL’approximation <strong>de</strong> g par une fonction N-lipschitz crée un biais dans notre approximation. Il peut êtreintéressant <strong>de</strong> quantifier l’erreur commise entre la solution <strong>de</strong> notre EDSR initiale et la solution <strong>de</strong> l’EDSRassociée à la condition terminale g N . Les tableaux qui suivent donnent les erreurs relatives en pourcentagesur Y 0 et Z 0 lorsque N = n b et N = 10n b .α = 0, 5j 1 2 3 4 5 6 7 8 9n b 1, 175 1, 175 1, 380 1, 454 1, 622 1, 747 1, 906 2, 052 2, 239erreur Y 0 (%) 8, 22 8, 22 4, 85 4, 09 2, 85 2, 24 1, 69 1, 33 1, 00erreur Z 0 (%) 3, 91 3, 91 2, 28 1, 92 1, 34 1, 05 0, 79 0, 62 0, 4710n b 11, 75 11, 75 13, 80 14, 54 16, 22 17, 47 19, 06 20, 52 22, 39erreur Y 0 (%) < 0, 01 < 0, 01 < 0, 01 < 0, 01 < 0, 01 < 0, 01 < 0, 01 < 0, 01 < 0, 01erreur Z 0 (%) < 0, 01 < 0, 01 < 0, 01 < 0, 01 < 0, 01 < 0, 01 < 0, 01 < 0, 01 < 0, 01α = 0, 1


6.2. CONVERGENCE DE L’ALGORITHME 113j 1 2 3 4 5 6 7 8 9n b 1, 330 1, 330 1, 768 1, 938 2, 351 2, 679 3, 125 3, 562 4, 155erreur relative Y 0 (%) 21, 11 21, 11 14, 71 13, 08 10, 19 8, 61 7, 05 5, 95 4, 88erreur relative Z 0 (%) 12, 86 12, 86 8, 79 7, 78 6, 01 5, 05 4, 12 3, 47 2, 8310n b 13, 30 13, 30 17, 68 19, 38 23, 51 26, 79 31, 25 35, 62 41, 55erreur relative Y 0 (%) 1, 09 1, 09 0, 76 0, 68 0, 53 0, 45 0, 37 0, 31 0, 26erreur relative Z 0 (%) 0, 63 0, 63 0, 44 0, 39 0, 30 0, 26 0, 21 0, 18 0, 15Nous pouvons observer que l’erreur relative est fortement atténuée lorsque l’on prend N = 10n b . Deplus, nous remarquons que lorsque α = 0, 5 et N = n b alors2 √ e(T − t) 2−α4∧ N = Npour j ∈ {1, ..., 9}. Ainsi, la projection 2 est uniforme en temps pour les figures 6.7 et 6.8 : cela pourraitexpliquer que la grille non uniforme n’est pas plus efficace que la grille uniforme. Néanmoins, les figures 6.9et 6.10, obtenues pour α = 0, 5, montrent que prendre N = 10n b est néfaste pour la convergence. De plus,il n’y a toujours pas <strong>de</strong> différence majeure entre les <strong>de</strong>ux types <strong>de</strong> grille. Lorsque α = 0, 1, la figure 6.11montre cette fois que, contrairement à ce que les résultats théoriques laissent penser, la grille uniforme estmeilleure que la grille non uniforme.Pour terminer, nous allons étudier numériquement ce qui se passe lorsque g n’est pas approchée par unefonction lipschitz. La figure 6.12 est obtenue pour α = 0, 5, N = n b et une grille uniforme tandis que pourla figure 6.13 nous avons pris α = 0, 1, N = 10n b tout en conservant une grille uniforme. Nous pouvonsobserver que l’approximation ou non <strong>de</strong> g influe peu sur les résultats. Cela peut être du au fait que g estα-höl<strong>de</strong>rienne uniquement en un point.


114 CHAPITRE 6. RÉSULTATS NUMÉRIQUES0.50.480.46moyenne Y 00.440.420.4Y0.380 exactgrille non uniforme, α M =2,5grille uniforme, α M =2,5grille non uniforme, α M =3grille uniforme, α M =30.361 2 3 4 5 6 7 8 9j0.120.1grille non uniforme, α M =2,5grille uniforme, α M =2,5grille non uniforme, α M =3grille uniforme, α M =30.08ecart type Y 00.060.040.0201 2 3 4 5 6 7 8 9jFIG. 6.5 – Convergence <strong>de</strong> Y 0 pour α M = 2, 5 et α M = 3.


6.2. CONVERGENCE DE L’ALGORITHME 1150.50.450.40.35moyenne Z 00.30.250.2Z 0 exact0.15grille non uniforme, α M =2,5grille uniforme, α M =2,5grille non uniforme, α M =3grille uniforme, α M =30.11 2 3 4 5 6 7 8 9j0.20.18grille non uniforme, α M =2,5grille uniforme, α M =2,5grille non uniforme, α M =3grille uniforme, α M =30.160.14ecart type Z 00.120.10.080.060.040.0201 2 3 4 5 6 7 8 9jFIG. 6.6 – Convergence <strong>de</strong> Z 0 pour α M = 2, 5 et α M = 3.


116 CHAPITRE 6. RÉSULTATS NUMÉRIQUES0.470.460.450.44moyenne Y 00.430.420.410.40.39Y 0 exactprojection 1, grille non uniforme0.38projection 1, grille uniformeprojection 2, grille non uniformeprojection 2, grille uniforme0.371 2 3 4 5 6 7 8 9j0.120.1projection 1, grille non uniformeprojection 1, grille uniformeprojection 2, grille non uniformeprojection 2, grille uniforme0.08ecart type Y 00.060.040.0201 2 3 4 5 6 7 8 9jFIG. 6.7 – Convergence <strong>de</strong> Y 0 pour différentes projections.


6.2. CONVERGENCE DE L’ALGORITHME 1170.450.40.35moyenne Z 00.30.250.2Z0.150 exactprojection 1, grille non uniformeprojection 1, grille uniformeprojection 2, grille non uniformeprojection 2, grille uniforme0.11 2 3 4 5 6 7 8 9j0.20.18projection 1, grille non uniformeprojection 1, grille uniformeprojection 2, grille non uniformeprojection 2, grille uniforme0.160.14ecart type Z 00.120.10.080.060.040.0201 2 3 4 5 6 7 8 9jFIG. 6.8 – Convergence <strong>de</strong> Z 0 pour différentes projections.


118 CHAPITRE 6. RÉSULTATS NUMÉRIQUES0.480.470.46moyenne Y 00.450.440.43Y 0 exactprojection 2, N=n b , grille non uniforme0.42projection 2, N=n b , grille uniformeprojection 1, N=10n b , grille non uniformeprojection 1, N=10n b , grille uniformeprojection 2, N=10n b , grille non uniformeprojection 2, N=10n b , grille uniforme0.411 2 3 4 5 6 7 8 9j0.090.080.07projection 2, N=n b , grille non uniformeprojection 2, N=n b , grille uniformeprojection 1, N=10n b , grille non uniformeprojection 1, N=10n b , grille uniformeprojection 2, N=10n b , grille non uniformeprojection 2, N=10n b , grille uniforme0.06ecart type Y 00.050.040.030.020.0101 2 3 4 5 6 7 8 9jFIG. 6.9 – Convergence <strong>de</strong> Y 0 pour différentes projections.


6.2. CONVERGENCE DE L’ALGORITHME 1190.450.40.35moyenne Z 00.30.250.2Z 0 exactprojection 2, N=n b , grille non uniforme0.15projection 2, N=n b , grille uniformeprojection 1, N=10n b , grille non uniformeprojection 1, N=10n b , grille uniformeprojection 2, N=10n b , grille non uniformeprojection 2, N=10n b , grille uniforme0.11 2 3 4 5 6 7 8 9j0.20.180.16projection 2, N=n b , grille non uniformeprojection 2, N=n b , grille uniformeprojection 1, N=10n b , grille non uniformeprojection 1, N=10n b , grille uniformeprojection 2, N=10n b , grille non uniformeprojection 2, N=10n b , grille uniforme0.14ecart type Z 00.120.10.080.060.040.0201 2 3 4 5 6 7 8 9jFIG. 6.10 – Convergence <strong>de</strong> Z 0 pour différentes projections.


120 CHAPITRE 6. RÉSULTATS NUMÉRIQUES0.580.570.560.55moyenne Y 00.540.530.520.510.5Y 0 exactprojection2, N=10n b , grille non uniformeprojection2, N=10n b , grille uniforme0.491 2 3 4 5 6 7 8 90.45j0.40.35moyenne Z 00.30.250.20.15Z 0 exactprojection2, N=10n b , grille non uniformeprojection2, N=10n b , grille uniforme0.11 2 3 4 5 6 7 8 9FIG. 6.11 – Convergence <strong>de</strong> Y 0 et <strong>de</strong> Z 0 lorsque α = 0, 1.j


6.2. CONVERGENCE DE L’ALGORITHME 1210.470.460.45moyenne Y 00.440.430.42Y 0 exactprojection 2projection 1, g exactprojection 2, g exact0.411 2 3 4 5 6 7 8 90.4j0.350.3moyenne Z 00.250.20.15Z 0 exactprojection 2projection 1, g exactprojection 2, g exact0.11 2 3 4 5 6 7 8 9FIG. 6.12 – Convergence <strong>de</strong> Y 0 et <strong>de</strong> Z 0 lorsque la condition terminale g n’est pas approchée (α = 0, 5).j


122 CHAPITRE 6. RÉSULTATS NUMÉRIQUES0.580.570.560.55moyenne Y 00.540.530.520.51Y 0 exactprojection 2, N=10n bprojection 2, N=10n b , g exact0.51 2 3 4 5 6 7 8 90.4j0.35moyenne Z 00.30.250.2Z 0 exactprojection 2, N=10n bprojection 2, N=10n b , g exact0.151 2 3 4 5 6 7 8 9FIG. 6.13 – Convergence <strong>de</strong> Y 0 et <strong>de</strong> Z 0 lorsque la condition terminale g n’est pas approchée (α = 0, 1).j


6.3. CONCLUSION 123Comparaison avec la métho<strong>de</strong> <strong>de</strong> troncature du générateurLorsque l’on prend pour Z une projection uniforme en temps, cela revient à considérer une EDSR dontle générateur est tronqué pour la variable z. Nous retombons alors sur la stratégie développée dans l’articled’Imkeller et dos Reis [55]. Nous avons déjà vu que la projection 2 pour α = 0, 5 était, dans les faits, uneprojection uniforme en temps. Dans notre cas la troncature est une puissance <strong>de</strong> n tandis que les résultatsthéoriques <strong>de</strong> l’article [55] nécessitent une puissance <strong>de</strong> log n afin d’obtenir la convergence du schéma.Néanmoins nous avons déjà observé avec les figures 6.7 et 6.8 que la convergence est tout <strong>de</strong> même assurée.Regardons maintenant ce qui se passe lorsque l’on prend pour troncature N = 10n b . Le tableau qui suit aété obtenu pour une grille uniforme, α = 0, 5, g non approchée par g N et une projection uniforme sur laboule B(0, 10n b ).j moyenne Y 0 écart type Y 0 moyenne Z 0 écart type Z 01 0, 4281 0, 08394 0, 2004 0, 12882 0, 4206 0, 05040 0, 2170 0, 087383 0, 4227 0, 02931 0, 1391 0, 059934 0, 4371 0, 01614 0, 1944 0, 037425 0, 4586 0, 03320 0, 3022 0, 11586 0, 8412 1, 478 1, 070 2, 1887 15, 34 12, 14 18, 67 11, 748 37, 70 14, 00 31, 27 6, 608Ainsi, le schéma numérique consistant à tronquer le générateur <strong>de</strong> l’EDSR peut grossièrement divergerlorsque la troncature augmente trop vite.6.3 ConclusionL’étu<strong>de</strong> numérique proposée dans ce chapitre est loin d’être exhaustive. Néanmoins, il est possible d’endégager quelques constatations empiriques :• L’algorithme ne converge pas suffisamment rapi<strong>de</strong>ment lorsque K est trop grand.• Les règles proposées par Lemor pour faire varier les paramètres du schéma s’appliquent bien dans lecadre quadratique. Néanmoins, le seuil <strong>de</strong> convergence pour α M semble être plus élevé que pour lesEDSRs dont le générateur est à croissance linéaire.• La projection 2 donne, <strong>de</strong> manière générale, <strong>de</strong> meilleurs résultats que la projection 1.• La grille <strong>de</strong> discrétisation temporelle non uniforme ne fournit pas <strong>de</strong> meilleurs résultats que celle quiest uniforme.• Le schéma <strong>de</strong> discrétisation basé sur une troncature du générateur diverge lorsque cette troncatureaugmente trop rapi<strong>de</strong>ment.Tous les tests ont été réalisés en dimension 1 ce qui, bien entendu, n’est pas suffisant. Il conviendrait doncd’étudier le comportement du schéma pour <strong>de</strong>s dimensions supérieures à 1 et notamment <strong>de</strong>s gran<strong>de</strong>s dimensionsque l’on ne peut pas traiter avec <strong>de</strong>s métho<strong>de</strong>s numériques déterministes. Il serait par exempleintéressant d’appliquer ce schéma pour résoudre une EDSR dont la partie quadratique du générateur est<strong>de</strong> la forme |z1|22avec z 1 la première composante <strong>de</strong> z. Ces EDSRs apparaissent dans l’article [53] pourtraiter un problème financier d’optimisation d’utilité exponentielle et elles sont appliquées à la couverture<strong>de</strong> risques liés à la météorologie dans l’article [26]. De plus, il serait bon d’accompagner cette étu<strong>de</strong> <strong>de</strong>résultats théoriques sur la convergence du schéma, du type <strong>de</strong> ceux énoncés par Lemor dans sa thèse, afin<strong>de</strong> pouvoir vali<strong>de</strong>r nos constatations empiriques concernant la fixation <strong>de</strong>s paramètres <strong>de</strong> convergence.


124 CHAPITRE 6. RÉSULTATS NUMÉRIQUES


Bibliographie[1] S. Ankirchner, P. Imkeller, and G. dos Reis. Classical and variational differentiability of BSDEs withquadratic growth. Electron. J. Probab., 12(53) :1418–1453 (electronic), 2007.[2] M. Arisawa. Ergodic problem for the Hamilton-Jacobi-Bellman equation. I. Existence of the ergodicattractor. Ann. Inst. H. Poincaré Anal. Non Linéaire, 14(4) :415–438, 1997.[3] M. Arisawa. Long time averaged reflection force and homogenization of oscillating Neumann boundaryconditions. Ann. Inst. H. Poincaré Anal. Non Linéaire, 20(2) :293–332, 2003.[4] M. Arisawa and P.-L. Lions. On ergodic stochastic control. Comm. Partial Differential Equations,23(11-12) :2187–2217, 1998.[5] D. Bakry and M. Émery. Diffusions hypercontractives. In Séminaire <strong>de</strong> probabilités, XIX, 1983/84,volume 1123 of Lecture Notes in Math., pages 177–206. Springer, Berlin, 1985.[6] V. Bally. Approximation scheme for solutions of BSDE. In Backward stochastic differential equations(Paris, 1995–1996), volume 364 of Pitman Res. Notes Math. Ser., pages 177–191. Longman, Harlow,1997.[7] V. Bally and G. Pagès. A quantization algorithm for solving multi-dimensional discrete-time optimalstopping problems. Bernoulli, 9(6) :1003–1049, 2003.[8] V. Bally, G. Pagès, and J. Printems. A quantization tree method for pricing and hedging multidimensionalAmerican options. Math. Finance, 15(1) :119–168, 2005.[9] M. Bardi and I. Capuzzo-Dolcetta. Optimal control and viscosity solutions of Hamilton-Jacobi-Bellman equations. Systems & Control : Foundations & Applications. Birkhäuser Boston Inc., Boston,MA, 1997. With appendices by Maurizio Falcone and Pierpaolo Soravia.[10] G. Barles. Solutions <strong>de</strong> viscosité <strong>de</strong>s équations <strong>de</strong> Hamilton-Jacobi, volume 17 of Mathématiques &Applications (Berlin) [Mathematics & Applications]. Springer-Verlag, Paris, 1994.[11] G. Barles and F. Da Lio. On the boundary ergodic problem for fully nonlinear equations in boun<strong>de</strong>ddomains with general nonlinear Neumann boundary conditions. Ann. Inst. H. Poincaré Anal. NonLinéaire, 22(5) :521–541, 2005.[12] G. Barles, F. Da Lio, P.-L. Lions, and P. E. Souganidis. Ergodic problems and periodic homogenizationfor fully nonlinear equations in half-space type domains with Neumann boundary conditions. IndianaUniv. Math. J., 57(5) :2355–2375, 2008.[13] C. Ben<strong>de</strong>r and R. Denk. A forward scheme for backward SDEs. Stochastic Process. Appl.,117(12) :1793–1812, 2007.[14] A. Bensoussan and J. Frehse. Ergodic control Bellman equation with Neumann boundary conditions.In Stochastic theory and control (Lawrence, KS, 2001), volume 280 of Lecture Notes in Control andInform. Sci., pages 59–71. Springer, Berlin, 2002.[15] J. M. Bismut. Théorie probabiliste du contrôle <strong>de</strong>s diffusions. Mem. Amer. Math. Soc.,4(167) :xiii+130, 1976.[16] B. Bouchard, I. Ekeland, and N. Touzi. On the Malliavin approach to Monte Carlo approximation ofconditional expectations. Finance Stoch., 8(1) :45–71, 2004.[17] B. Bouchard and N. Touzi. Discrete-time approximation and Monte-Carlo simulation of backwardstochastic differential equations. Stochastic Process. Appl., 111(2) :175–206, 2004.[18] B. Boufoussi and J. van Casteren. An approximation result for a nonlinear Neumann boundary valueproblem via BSDEs. Stochastic Process. Appl., 114(2) :331–350, 2004.125


126 BIBLIOGRAPHIE[19] P. Briand. Quelques résultats sur les équations différentielles stochastiques rétrogra<strong>de</strong>s. Habilitation àdiriger <strong>de</strong>s recherches, 2007.[20] P. Briand and F. Confortola. BSDEs with stochastic Lipschitz condition and quadratic PDEs in Hilbertspaces. Stochastic Process. Appl., 118(5) :818–838, 2008.[21] P. Briand, B. Delyon, Y. Hu, E. Pardoux, and L. Stoica. L p solutions of backward stochastic differentialequations. Stochastic Process. Appl., 108(1) :109–129, 2003.[22] P. Briand, B. Delyon, and J. Mémin. Donsker-type theorem for BSDEs. Electron. Comm. Probab.,6 :1–14 (electronic), 2001.[23] P. Briand and Y. Hu. Stability of BSDEs with random terminal time and homogenization of semilinearelliptic PDEs. J. Funct. Anal., 155(2) :455–494, 1998.[24] P. Briand and Y. Hu. BSDE with quadratic growth and unboun<strong>de</strong>d terminal value. Probab. TheoryRelated Fields, 136(4) :604–618, 2006.[25] P. Briand and Y. Hu. Quadratic BSDEs with convex generators and unboun<strong>de</strong>d terminal conditions.Probab. Theory Related Fields, 141(3-4) :543–567, 2008.[26] S. Chaumont, P. Imkeller, and M. Müller. Equilibrium trading of climate and weather risk and numericalsimulation in a Markovian framework. Stoch. Environ. Res. Risk Assess., 20(3) :184–205,2006.[27] P. Cheridito and M. Stadje. Bs∆es and bs<strong>de</strong>s with non-lipschitz drivers : comparison, convergenceand robustness. arXiv :1002.1755v1.[28] D. Chevance. Numerical methods for backward stochastic differential equations. In Numerical methodsin finance, Publ. Newton Inst., pages 232–244. Cambridge Univ. Press, Cambridge, 1997.[29] F. Coquet, J. Mémin, and L. Słominski. On weak convergence of filtrations. In Séminaire <strong>de</strong> Probabilités,XXXV, volume 1755 of Lecture Notes in Math., pages 306–328. Springer, Berlin, 2001.[30] F. Da Lio and O. Ley. Uniqueness results for convex hamilton-jacobi equations un<strong>de</strong>r p > 1 growthconditions on data. To appear in Appl. Math. Optim.[31] F. Da Lio and O. Ley. Uniqueness results for second-or<strong>de</strong>r Bellman-Isaacs equations un<strong>de</strong>r quadraticgrowth assumptions and applications. SIAM J. Control Optim., 45(1) :74–106 (electronic), 2006.[32] A. Debussche, Y. Hu, and G. Tessitore. Ergodic bs<strong>de</strong>s un<strong>de</strong>r weak dissipative assumptions.arXiv :1004.1755v1.[33] F. Delarue. Estimates of the solutions of a system of quasi-linear PDEs. A probabilistic scheme. InSéminaire <strong>de</strong> Probabilités XXXVII, volume 1832 of Lecture Notes in Math., pages 290–332. Springer,Berlin, 2003.[34] F. Delarue and S. Menozzi. A forward-backward stochastic algorithm for quasi-linear PDEs. Ann.Appl. Probab., 16(1) :140–184, 2006.[35] F. Delbaen, Y. Hu, and X. Bao. Backward s<strong>de</strong>s with superquadratic growth. Probab. Theory RelatedFields, pages 1–48, 2010. 10.1007/s00440-010-0271-1.[36] F. Delbaen, Y. Hu, and A. <strong>Richou</strong>. On the uniqueness of solutions to quadratic BSDEs with convexgenerators and unboun<strong>de</strong>d terminal conditions. arXiv :0906.0752v1, 2009.[37] H. Djellout, A. Guillin, and L. Wu. Transportation cost-information inequalities and applications torandom dynamical systems and diffusions. Ann. Probab., 32(3B) :2702–2732, 2004.[38] Jr. J. Douglas, J. Ma, and P. Protter. Numerical methods for forward-backward stochastic differentialequations. Ann. Appl. Probab., 6(3) :940–968, 1996.[39] N. El Karoui and L. Mazliak, editors. Backward stochastic differential equations, volume 364 ofPitman Research Notes in Mathematics Series. Longman, Harlow, 1997. Papers from the study groupheld at the University of Paris VI, Paris, 1995–1996.[40] N. El Karoui, S. Peng, and M. C. Quenez. Backward stochastic differential equations in finance. Math.Finance, 7(1) :1–71, 1997.[41] M. Fuhrman, Y. Hu, and G. Tessitore. On a class of stochastic optimal control problems related toBSDEs with quadratic growth. SIAM J. Control Optim., 45(4) :1279–1296 (electronic), 2006.


BIBLIOGRAPHIE 127[42] M. Fuhrman, Y. Hu, and G. Tessitore. Ergodic BSDES and optimal ergodic control in Banach spaces.SIAM J. Control Optim., 48(3) :1542–1566, 2009.[43] M. Fuhrman and G. Tessitore. The Bismut-Elworthy formula for backward SDEs and applicationsto nonlinear Kolmogorov equations and control in infinite dimensional spaces. Stoch. Stoch. Rep.,74(1-2) :429–464, 2002.[44] A. Gégout-Petit and E. Pardoux. Équations différentielles stochastiques rétrogra<strong>de</strong>s réfléchies dans unconvexe. Stochastics Stochastics Rep., 57(1-2) :111–128, 1996.[45] E. Gobet and C. Labart. Error expansion for the discretization of backward stochastic differentialequations. Stochastic Process. Appl., 117(7) :803–829, 2007.[46] E. Gobet and C. Labart. Solving BSDE with adaptive control variate. SIAM J. Numer. Anal.,48(1) :257–277, 2010.[47] E. Gobet, J. P. Lemor, and X. Warin. A regression-based Monte Carlo method to solve backwardstochastic differential equations. Ann. Appl. Probab., 15(3) :2172–2202, 2005.[48] E. Gobet, J. P. Lemor, and X. Warin. Rate of convergence of an empirical regression method forsolving generalized backward stochastic differential equations. Bernoulli, 12(5) :889–916, 2006.[49] E. Gobet and S. Maire. Sequential control variates for functionals of Markov processes. SIAM J.Numer. Anal., 43(3) :1256–1275 (electronic), 2005.[50] E. Gobet and A. Makhlouf. L2-time regularity of bs<strong>de</strong>s with irregular terminal functions. StochasticProcess. Appl., 120(7) :1105–1132, 2010.[51] A. Guillin, C. Léonard, L. Wu, and N. Yao. Transportation-information inequalities for Markov processes.Probab. Theory Related Fields, 144(3-4) :669–695, 2009.[52] R. Z. Has ′ minskiĭ. Stochastic stability of differential equations, volume 7 of Monographs and Textbookson Mechanics of Solids and Fluids : Mechanics and Analysis. Sijthoff & Noordhoff, Alphenaan <strong>de</strong>n Rijn, 1980. Translated from the Russian by D. Louvish.[53] Y. Hu, P. Imkeller, and M. Müller. Partial equilibrium and market completion. Int. J. Theor. Appl.Finance, 8(4) :483–508, 2005.[54] Y. Hu, P. Imkeller, and M. Müller. Utility maximization in incomplete markets. Ann. Appl. Probab.,15(3) :1691–1712, 2005.[55] P. Imkeller and G. dos Reis. Path regularity and explicit convergence rate for bs<strong>de</strong> with truncatedquadratic growth. Stochastic Process. Appl., In Press, Corrected Proof, 2009.[56] P. Imkeller, G. dos Reis, and J. Zhang. Results on numerics for fbs<strong>de</strong> with drivers of quadratic growth.In Alexan<strong>de</strong>r Chiarella, Carl ; Novikov, editor, Contemporary Quantitative Finance, page 440. Springer,2010. ISBN : 978-3-642-03478-7, Essays in Honour of Eckhard Platen.[57] N. Kazamaki. Continuous exponential martingales and BMO, volume 1579 of Lecture Notes in Mathematics.Springer-Verlag, Berlin, 1994.[58] P. E. Kloe<strong>de</strong>n and E. Platen. Numerical solution of stochastic differential equations, volume 23 ofApplications of Mathematics (New York). Springer-Verlag, Berlin, 1992.[59] M. Kobylanski. Backward stochastic differential equations and partial differential equations withquadratic growth. Ann. Probab., 28(2) :558–602, 2000.[60] O. A. Ladyženskaja and N. N. Ural ′ ceva. Équations aux dérivées partielles <strong>de</strong> type elliptique. Traduitpar G. Roos. Monographies Universitaires <strong>de</strong> Mathématiques, No. 31. Dunod, Paris, 1968.[61] J.-M. Lasry and P.-L. Lions. Nonlinear elliptic equations with singular boundary conditions and stochasticcontrol with state constraints. I. The mo<strong>de</strong>l problem. Math. Ann., 283(4) :583–630, 1989.[62] J. P. Lemor. Approximation par projections et simulation <strong>de</strong> Monte-Carlo <strong>de</strong>s équations différentiellesstochastiques rétrogra<strong>de</strong>s. PhD thesis, École Polytechnique, 2005.[63] J.-P. Lepeltier and J. San Martín. Existence for BSDE with superlinear-quadratic coefficient. StochasticsStochastics Rep., 63(3-4) :227–240, 1998.[64] P.-L. Lions and A.-S. Sznitman. Stochastic differential equations with reflecting boundary conditions.Comm. Pure Appl. Math., 37(4) :511–537, 1984.


128 BIBLIOGRAPHIE[65] J. Ma, P. Protter, J. San Martín, and S. Torres. Numerical method for backward stochastic differentialequations. Ann. Appl. Probab., 12(1) :302–316, 2002.[66] J. Ma, P. Protter, and J. M. Yong. Solving forward-backward stochastic differential equationsexplicitly—a four step scheme. Probab. Theory Related Fields, 98(3) :339–359, 1994.[67] E. J. McShane and R. B. Warfield, Jr. On Filippov’s implicit functions lemma. Proc. Amer. Math.Soc., 18 :41–47, 1967.[68] J.-L. Menaldi and M. Robin. Reflected diffusion processes with jumps. Ann. Probab., 13(2) :319–341,1985.[69] M. A. Morlais. Équations différentielles stochastiques rétrogra<strong>de</strong>s à croissance quadratique et applications.PhD thesis, Université <strong>de</strong> Rennes 1, 2007.[70] G. Pagès, H. Pham, and J. Printems. Optimal quantization methods and applications to numericalproblems in finance. In Handbook of computational and numerical methods in finance, pages 253–297. Birkhäuser Boston, Boston, MA, 2004.[71] G. Pagès and J. Printems. Optimal quadratic quantization for numerics : the Gaussian case. MonteCarlo Methods Appl., 9(2) :135–165, 2003.[72] É. Pardoux and S. Peng. Backward stochastic differential equations and quasilinear parabolic partialdifferential equations. In Stochastic partial differential equations and their applications (Charlotte,NC, 1991), volume 176 of Lecture Notes in Control and Inform. Sci., pages 200–217. Springer, Berlin,1992.[73] É. Pardoux and S. G. Peng. Adapted solution of a backward stochastic differential equation. SystemsControl Lett., 14(1) :55–61, 1990.[74] E. Pardoux and S. Zhang. Generalized BSDEs and nonlinear Neumann boundary value problems.Probab. Theory Related Fields, 110(4) :535–558, 1998.[75] S. Peng. Backward stochastic differential equations and applications to optimal control. Appl. Math.Optim., 27(2) :125–144, 1993.[76] A. <strong>Richou</strong>. Ergodic BSDEs and related PDEs with Neumann boundary conditions. Stochastic Process.Appl., 119(9) :2945–2969, 2009.[77] R. Rouge and N. El Karoui. Pricing via utility maximization and entropy. Math. Finance, 10(2) :259–276, 2000. INFORMS Applied Probability Conference (Ulm, 1999).[78] M. Royer. BSDEs with a random terminal time driven by a monotone generator and their links withPDEs. Stoch. Stoch. Rep., 76(4) :281–307, 2004.[79] A. V. Skorokhod. Asymptotic methods in the theory of stochastic differential equations, volume 78 ofTranslations of Mathematical Monographs. American Mathematical Society, Provi<strong>de</strong>nce, RI, 1989.Translated from the Russian by H. H. McFa<strong>de</strong>n.[80] R. Tevzadze. Solvability of backward stochastic differential equations with quadratic growth. StochasticProcess. Appl., 118(3) :503–515, 2008.[81] S. Toldo. Stability of solutions of BSDEs with random terminal time. ESAIM Probab. Stat., 10 :141–163 (electronic), 2006.[82] S. Toldo. Corrigendum to : “Stability of solutions of BSDEs with random terminal time” [ESAIMProbab. Stat. 10 (2006), 141–163]. ESAIM Probab. Stat., 11 :381–384 (electronic), 2007.[83] J. Zhang. A numerical scheme for BSDEs. Ann. Appl. Probab., 14(1) :459–488, 2004.[84] J. Zhang. Representation of solutions to BSDEs associated with a <strong>de</strong>generate FSDE. Ann. Appl.Probab., 15(3) :1798–1831, 2005.[85] J. Zhang. Some fine properties of BSDE. PhD thesis, Purdue University, August 2001.


RésuméÉtu<strong>de</strong> théorique et numérique <strong>de</strong>s équations différentielles stochastiques rétrogra<strong>de</strong>sCette thèse est composée <strong>de</strong> trois parties indépendantes. Dans un premier temps, nous étudions une nouvelleclasse d’équations différentielles stochastiques rétrogra<strong>de</strong>s - notées EDSRs - qui sont reliées à <strong>de</strong>s conditions<strong>de</strong> Neumann semi-linéaires relatives à <strong>de</strong>s phénomènes ergodiques. La particularité <strong>de</strong> ces problèmes estque la constante ergodique apparaît dans la condition au bord. Nous étudions l’existence et l’unicité <strong>de</strong>solutions pour <strong>de</strong> telles EDSRs ergodiques ainsi que le lien avec les équations aux dérivées partielles. Nousappliquons également ces résultats à <strong>de</strong>s problèmes <strong>de</strong> contrôle ergodique optimal.Dans une <strong>de</strong>uxième partie nous généralisons <strong>de</strong>s travaux <strong>de</strong> P. Briand et Y. Hu publiés en 2008. Ces <strong>de</strong>rniersont prouvé un résultat d’unicité pour les solutions d’EDSRs quadratiques <strong>de</strong> générateur convexe et <strong>de</strong>condition terminale non bornée ayant tous leurs moments exponentiels finis. Nous prouvons que ce résultatd’unicité reste vrai pour <strong>de</strong>s solutions qui admettent uniquement certains moments exponentiels finis. Cesmoments exponentiels sont reliés <strong>de</strong> manière naturelle à ceux présents dans le théorème d’existence. À l’ai<strong>de</strong><strong>de</strong> ce résultat d’unicité nous pouvons améliorer la formule <strong>de</strong> Feynman-Kac non linéaire prouvée par P. Brian<strong>de</strong>t Y. Hu.Enfin, nous nous intéressons à la résolution numérique d’EDSRs quadratiques markoviennes dont la conditionterminale est bornée. Nous estimons dans un premier temps <strong>de</strong>s bornes déterministes sur le processus Zet nous précisons le théorème <strong>de</strong> Zhang portant sur la régularité <strong>de</strong>s trajectoires. Nous donnons ensuiteun nouveau schéma <strong>de</strong> discrétisation en temps dont la particularité est que la grille <strong>de</strong> discrétisation estnon uniforme. Enfin nous obtenons une vitesse <strong>de</strong> convergence pour ce schéma. Par ailleurs, quelquessimulations numériques permettent d’étudier l’efficacité <strong>de</strong> notre nouveau schéma dans un cadre pratique.Mots clés : équations différentielles stochastiques rétrogra<strong>de</strong>s, contrôle ergodique, générateur à croissancequadratique, schéma <strong>de</strong> discrétisation temporelle, formule <strong>de</strong> Feynman-Kac non linéaire.AbstractTheoretical and numerical study of backward stochastic differential equationsThis thesis is ma<strong>de</strong> of three in<strong>de</strong>pen<strong>de</strong>nt parts. Firstly, we study a new class of ergodic backward stochasticdifferential equations - EBSDEs for short - which is linked with semi-linear Neumann type boundary valueproblems related to ergodic phenomena. The particularity of these problems is that the ergodic constantappears in Neumann boundary conditions. We study the existence and uniqueness of solutions to EBSDEsand the link with partial differential equations. We also apply these results to optimal ergodic control problems.In a second part, we generalise a work of P. Briand and Y. Hu published in 2008. these authors have provedthe uniqueness among the solutions of quadratic BSDEs with convex generators and unboun<strong>de</strong>d terminalconditions which admit every exponential moments. We prove that uniqueness holds among solutions whichadmit some given exponential moments. These exponential moments are natural as they are given by theexistence theorem. Thanks to this uniqueness result we can strengthen the nonlinear Feynman-Kac formulaproved by P. Briand and Y. Hu.Finally, we <strong>de</strong>al with the numerical resolution of Markovian quadratic BSDEs with boun<strong>de</strong>d terminal conditions.We first show some bound estimates on the process Z and we specify the Zhang’s path regularity theorem.Then we give a new time discretization scheme with a non uniform time net for such BSDEs and we obtain anexplicit convergence rate for this scheme. We also compute some numerical simulations to study the efficiencyof our scheme in a practical situation.Keywords : Backward stochastic differential equations, ergodic control, driver of quadratic growth, time discretizationscheme, nonlinear Feynman-Kac formula.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!