11.07.2015 Views

Introduction aux ondelettes - C. Charles - Gembloux Agro-Bio Tech

Introduction aux ondelettes - C. Charles - Gembloux Agro-Bio Tech

Introduction aux ondelettes - C. Charles - Gembloux Agro-Bio Tech

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

<strong>Introduction</strong> <strong>aux</strong> <strong>ondelettes</strong>Catherine <strong>Charles</strong>3-4 décembre 2009Unité SIMa - <strong>Gembloux</strong> <strong>Agro</strong>-<strong>Bio</strong> <strong>Tech</strong> - ULg1


Plan1) Qu'est-ce qu'une ondelette?2) Applications en statistique3) Applications en traitement du signal et de l'image4) Logiciels pour <strong>ondelettes</strong>2


1) Qu'est-ce qu'une ondelette ?1.1) Avantages <strong>ondelettes</strong>/FourierFourier :Théorie⇒⇒fonctions représentées par une combinaisonlinéaire de sinus et cosinusestimer le spectre des fréquences d'un signal donnéen fonction du tempsapproximer des fonctions périodiques3


Comparaison Fourier/<strong>ondelettes</strong>6


Conclusionpossibilité via les <strong>ondelettes</strong> d'analyser un signal simultanémentdans le domaine du temps et celui des fréquences.⇒ Est-ce intéressant?La réponse dépend de l'application et de la nature du signal : Fourier : quelle quantité de chaque fréquence se trouve dansle signalmais pas à quel moment dans le temps ces fréquences sepassent. Information temps-fréquence pas nécessaire pour un signal stationnaire.Information nécessaire pour un signal non-stationnaire. 7


1.2) Dénition transformée en <strong>ondelettes</strong>ondelette = fonction oscillante de moyenne nulle, appelée ψ,possédant un certain degré de régularitéet dont le support est ni.Exemples d'ondelette ψ(t)8


L'ondelette mère ψ génère une famille d'<strong>ondelettes</strong> :oùusparamètre du tempsparamètre d'échelle.{ψ u,s (t) = 1 √ sψ( t − us )} (u,s)∈IR×IR + 0L'ondelette ψ u,s = l'ondelette mère ψ translatée de u et dilatée(contractée si s < 1) par s.9


Condition d'admissibilité :C ψ =∫ +∞0‖Ψ(ω)‖ 2dω < +∞ωoù Ψ est la transformée de Fourier de ψ.⇒ ψ(t) de moyenne nulle.Conditions de régularité facultatives :moments multiples nuls∫ +∞−∞ tk ψ(t)dt = 0⇒ propriétés de décroissance et de convergence vers 0 à l'innide ψ(t) et de Ψ(t).11


coecients d'<strong>ondelettes</strong>1/ Exemple introductifondelette = Haarsignal = fonction f en escalier sur les intervalles [k, k+1) (k ∈ IN).12


Formalisation étape 1 :Sur chaque intervalle [k, k + 2), la fonction f prend la valeurMoyenne : (a + b)/2a sur [k, k + 1)b sur [k + 1, k + 2)→ approximation grossière du signal original→ approx1(f)Diérence : (−a + b)/2→ détails→ details1(f)a+b2 −−a+b 2= aa+b2 +−a+b 2= bReconstruction : approx1(f) + details1(f) = f14


Lien avec les <strong>ondelettes</strong>L'ondelette mère de Haar est la base du processus de diérencequi est décrit par (−1.a + 1.b)/2.ψ(x) =⎧⎪⎨⎪⎩−1 si 0 ≤ x < 1/21 si 1/2 ≤ x < 10 sinon.15


Le processus de moyenne est lié au processus de diérence. De lamême façon, nous lions l'ondelette "père" φ à l'ondelette mère ψ.En ce qui concerne l'ondelette de Haar :φ(x) =⎧⎪⎨⎪⎩1 si 0 ≤ x < 1/21 si 1/2 ≤ x < 10 sinon.Cela correspond au processus de moyenne (1.a + 1.b)/2.16


Formalisation étape 2 :Recommencer le processus sur approx1(f) : calcul de moyenne et diérence sur chaque intervalle du style[j.2 2 , (j + 1).2 2 )⇒ approx2(f) et details2(f). approx2(f) + details2(f) + details1(f) = f Si nous stoppons le processus de décomposition à cette étape,2 2 est l'échelle grossière.C'est l'échelle de la dernière approximation.17


Les coecients d'<strong>ondelettes</strong> sont le résultat d'un produit scalaire entre le signal et les diérentes<strong>ondelettes</strong> ψ u,s de la famille d'<strong>ondelettes</strong>approx1(j) =∫φ 1,j (x)f(x)dx et details1(j) =∫ψ 1,j (x)f(x)dx une mesure de la similarité entre le signal et les <strong>ondelettes</strong> dela famille choisie. donne une bonne information temps-fréquence20


2/Processus général de décomposition en <strong>ondelettes</strong> :Quand la condition d'admissibilité est vériée, ∀f ∈ L 2 (IR) :f = 1 ∫ s0C ψ 0∫ +∞−∞W f(u, s)ψ u,s du dss 2+ 1s 0 C ψ∫ +∞−∞ Lf(u, s 0)φ u,s0 duoù W f(u, s) vaut 〈f, ψ u,s 〉 ∀(u, s) ∈ IRxIR + 0mesure la variation de f dans un voisinage de udont la taille est proportionnelle à s;coecients relatifs <strong>aux</strong> détails;φest appelée fonction d'échelle ou fonction pèrede la famille d'<strong>ondelettes</strong>;Lf(u, s) vaut 〈f, φ u,s 〉 ∀(u, s) ∈ IRxIR + 0représente une approximation à basse fréquence de fà l'échelle s;coecients relatifs à l'approximation;s 0 ∈ IR est choisi par l'utilisateur; échelle grossière;elle détermine l'approximation basse fréquence.22


Famille d'<strong>ondelettes</strong> orthonormaleIl est possible de construire des <strong>ondelettes</strong> mère ψ telle que leurfamilleavec{φ L,k (t) ∪ ψ j,k (t)} (k,j)∈ZZ 2 ,j≤L,L∈ZZψ j,k (t) = 1 √2j ψ(t − 2j k2 j ), φ j,k (t) = 1 √2j φ(t − 2j k2 j )forme une base orthonormale dans L 2 (IR). paramètre d'échelle s discrétisé en 2 j , le paramètre de délai (translation) u discrétisé en 2 j k, information contenue dans les coecients d'<strong>ondelettes</strong> nonredondante, formulation d'algorithmes très rapides.23


1.3) Transformée en <strong>ondelettes</strong> : signal discret nisignal continu f → Lf(u, s 0 ) et W f(u, s)signal discret x → c L et {d j } jThéorie :c j (i) = 〈f(t), φ 2 j(t − i)〉d j (i) = 〈f(t), ψ 2 j(t − i)〉.24


Algorithmes rapides : principe1. Décompositionen partant avec l'hypothèse que c 0 = x :c 0 → Lo ↓ 2 → c 1 → Lo ↓ 2 → c 2 ... → Lo ↓ 2 → c J↘ Hi ↓ 2 → d 1 ↘ Hi ↓ 2 → d 2 ... ↘ Hi ↓ 2 → d JLe ltre passe-bas Lo enlève du signal les hautes fréquences pourne garder que les basses fréquences ⇒ moyenne.Le ltre passe-haut Hi a l'eet inverse ⇒ détails.Le sous-échantillonnage ↓ 2 ne garde qu'une valeur sur deux.25


1 x(1)2 x(2)3 x(3)4 x(4)5 x(5)6 x(6)7 x(7)8 x(8)9 x(9)10 x(10)11 x(11)12 x(12)13 x(13)14 x(14)15 x(15)16 = 2 4 x(16)⇒1 c 3 (1)2 4−3 c 3 (2)2 4−3 + 1 d 3 (1)2 4−3 + 2 1 d 3 (2)2 4−2 + 1 d 3−1 (1)2 4−2 + 2 d 3−1 (2)2 4−2 + 3 d 3−1 (3)2 4−2 + 2 2 d 3−1 (2 2 )2 4−1 + 1 d 3−2 (1)2 4−1 + 2 d 3−2 (2)2 4−1 + 3 d 3−2 (3)2 4−1 + 4 d 3−2 (4)2 4−1 + 5 d 3−2 (5)2 4−1 + 6 d 3−2 (6)2 4−1 + 7 d 3−2 (7)2 4−1 + 2 3 d 3−2 (2 3 )26


2. Reconstructionc J ↑ 2→ Lo′ + → c J−1 ↑ 2→ Lo′ + → c J−2 ... ↑ 2 → Lo′ + → c 0d J ↑ 2 ↗ Hi′ d J−1 ↑ 2 ↗ Hi′ d J−2 ... ↑ 2 ↗ Hi′↑ 2 insère des 027


Algorithmes rapides : illustrationsCoecients en <strong>ondelettes</strong> d j à l'échelle 2 j , calculés avec l'<strong>ondelettes</strong>pline cubique. Au sommet se trouve l'approximation grossièredu signal c L pour L = 6. La longueur du signal original est2 J avec J = 9.28


Algorithmes rapides : Haar1. Décomposition :Le ltre passe bas (Lo) possède deux coecients non nuls1/ √ 2 en n = −11/ √ 2 en n = 0;Le ltre passe haut (Hi) possède deux coecients non nuls−1/ √ 2 en n = −11/ √ 2 en n = 0.Nous remarquons que ces ltres correspondent respectivement<strong>aux</strong> fonctions φ et ψ.30


c 0,k = x k ∀ k = 0...n − 1 (n = 2 J )c j+1,k = 1 √2(c j,2k + c j,2k+1 ) 0 ≤ k ≤ 2 J−(j+1) − 1,d j+1,k = 1 √2(−c j,2k + c j,2k+1 ) 0 ≤ k ≤ 2 J−(j+1) − 1.Les coecients en <strong>ondelettes</strong> c j+1 relatifs à l'approximationgrossière à l'échelle 2 j+1 représente une sorte de moyenne dusignal;les coecients en <strong>ondelettes</strong> d j+1 relatifs <strong>aux</strong> détails représententune diérence entre les composantes du signal.Notons que la longueur de c j+1 et d j+1 est la moitié de la longueurde c j et d j .31


2. Reconstructionle ltre Lo ′ a deux coecients non-nuls1/ √ 2 en n = 01/ √ 2 en n = 1;Le ltre Hi ′ a deux coecients non-nuls1/ √ 2 en n = 0−1/ √ 2 en n = 1.c j,k = 1 √2(c j+1,k/2 − d j+1,k/2 ) pour k pair et 0 ≤ k ≤ 2 J−j − 1,c j,k = 1 √2(c j+1,(k−1)/2 +d j+1,(k−1)/2 ) pour k impair et 0 ≤ k ≤ 2 J−j −1.32


1.4) Transformée en <strong>ondelettes</strong> de sign<strong>aux</strong>multidimensionnels1.4.1)Transformée en <strong>ondelettes</strong> de sign<strong>aux</strong> bidimensionnels A chaque base {ψ j,n } (j,n)∈ZZ 2 de L 2 (IR), on peut associer unebase de L 2 (IR 2 ) :{ψ j,n (x)ψ l,m (y)} (j,l,n,m)∈ZZ 4 .association d'information à deux échelles diérentes → KO33


On dénitφ 1 (x, y) = φ(x)φ(y)ψ 1 (x, y) = φ(x)ψ(y), ψ 2 (x, y) = ψ(x)φ(y), ψ 3 (x, y) = ψ(x)ψ(y).Nous notonset pour 1 ≤ k ≤ 3La famille d'<strong>ondelettes</strong>φ 1 j,n,m = 1 2 j φ1 ( x − 2j n2 j , y − 2j m2 j )ψj,n,m k = 1 2 j ψk ( x − 2j n2 j , y − 2j m2 j ).{φ 1 L,n,m , ψ1 j,n,m , ψ2 j,n,m , ψ3 j,n,m } n,m,j∈ZZ 3 ,j≤L,L∈ZZest une base orthonormale de L 2 (IR 2 ).34


Toute fonction de L 2 (IR 2 ) peut être décomposée dans cette baseau moyen de coecients d'<strong>ondelettes</strong>.Approximation grossière (échelle L) : c 1 L(correspondant à φ 1 L,n,m)Détails à des résolutions plus nes : {d k j } jψj,n,m)k {d 1 j } j détails horizont<strong>aux</strong>, {d 2 j } j détails vertic<strong>aux</strong>, {d 3 j } j détails diagon<strong>aux</strong>.(correspondant à35


Algorithme de Mallat extension algorithme de Mallat "unidimensionnel" O(n 2 ) avec n = 2 J et n 2 = nombre d'éléments de l'image. Décomposition :x → c 1 L , {d1 j , d2 j , d3 j } j≤L36


L→ L LL HL → LL|HLL HH→ H LH HH → LH|HHLL HLLH HHLa représentation en <strong>ondelettes</strong> de l'image x est composée de3L + 1 sous-images :[c L , {d 1 j , d2 j , d3 j } 1≤j≤L].37


Reconstruction :c 1 L , {d1 j , d2 j , d3 j } j≤L → xLL→↑ y 2 → Lo ′ + → LLH→↑ y 2 → Hi ′ HL→↑ y 2 → Lo ′ + → HHH→↑ y 2 → Hi ′ 38


L→↑ x 2 → Lo ′ + →H→↑ x 2 → Hi ′Stockage des coecients : cfr exemple n = 8 et L = 2.39


x(1, 1) x(1, 2) x(1, 3) x(1, 4) x(1, 5) x(1, 6) x(1, 7) x(1, 8)x(2, 1) x(2, 2) x(2, 3) x(2, 4) x(2, 5) x(2, 6) x(2, 7) x(2, 8)x(3, 1) x(3, 2) x(3, 3) x(3, 4) x(3, 5) x(3, 6) x(3, 7) x(3, 8)x(4, 1) x(4, 2) x(4, 3) x(4, 4) x(4, 5) x(4, 6) x(4, 7) x(4, 8)x(5, 1) x(5, 2) x(5, 3) x(5, 4) x(5, 5) x(5, 6) x(5, 7) x(5, 8)x(6, 1) x(6, 2) x(6, 3) x(6, 4) x(6, 5) x(6, 6) x(6, 7) x(6, 8)x(7, 1) x(7, 2) x(7, 3) x(7, 4) x(7, 5) x(7, 6) x(7, 7) x(7, 8)x(8, 1) x(8, 2) x(8, 3) x(8, 4) x(8, 5) x(8, 6) x(8, 7) x(8, 8)⇓c 2 (1, 1) c 2 (1, 2) d 2 (1, 1) d2 2 (1, 2) d2 1 (1, 1) d2 1 (1, 2) d2 1 (1, 3) d2 1(1, 4)c 2 (2, 1) c 2 (2, 2) d 2 2 (2, 1) d2 2 (2, 2) d2 1 (2, 1) d2 1 (2, 2) d2 1 (2, 3) d2 1(2, 4)d 1 2 (1, 1) d1 2 (1, 2) d3 2 (1, 1) d3 2 (1, 2) d2 1 (3, 1) d2 1 (3, 2) d2 1 (3, 3) d2 1(3, 4)d 1 2 (2, 1) d1 2 (2, 2) d3 2 (2, 1) d3 2 (2, 2) d2 1 (4, 1) d2 1 (4, 2) d2 1 (4, 3) d2 1(4, 4)d 1 (1, 1) d1 1 (1, 2) d1 1 (1, 3) d1 1 (1, 4) d3 1 (1, 1) d3 1 (1, 2) d3 1 (1, 3) d3 1(1, 4)d 1 (2, 1) d1 1 (2, 2) d1 1 (2, 3) d1 1 (2, 4) d3 1 (2, 1) d3 1 (2, 2) d3 1 (2, 3) d3 1(2, 4)d 1 (3, 1) d1 1 (3, 2) d1 1 (3, 3) d1 1 (3, 4) d3 1 (3, 1) d3 1 (3, 2) d3 1 (3, 3) d3 1(3, 4)d 1 1 (4, 1) d1 1 (4, 2) d1 1 (4, 3) d1 1 (4, 4) d3 1 (4, 1) d3 1 (4, 2) d3 1 (4, 3) d3 1(4, 4)Décomposition bidim. en ond. orthonormées (J = 3,L = 2).40


Algorithme de Mallat : HaarDécomposition : c 0,n,m = x n,m ∀ 0 ≤ n, m ≤ 2 J − 1Pour 0 ≤ n, m ≤ 2 J−(j+1) − 1 :c j+1,n,m = 1 √22 (c j,2n,2m + c j,2n,2m+1 + c j,2n+1,2m + c j,2n+1,2m+1 )d 1 j+1,n,m = 1 √22 (−c j,2n,2m+c j,2n,2m+1 −c j,2n+1,2m +c j,2n+1,2m+1 )d 2 j+1,n,m = 1 √22 (−c j,2n,2m−c j,2n,2m+1 +c j,2n+1,2m +c j,2n+1,2m+1 )d 3 j+1,n,m = 1 √22 (c j,2n,2m − c j,2n,2m+1 − c j,2n+1,2m + c j,2n+1,2m+1 )42


c j+1 relatifs à l'approximation grossière à l'échelle 2 j+1 représententune sorte de moyenne du signald j+1 relatifs <strong>aux</strong> détails vertic<strong>aux</strong>, horizont<strong>aux</strong> et diagon<strong>aux</strong> représententune diérence entre les composantes du signal.43


Reconstruction : Pour 0 ≤ n, m ≤ 2 J−j − 1c j,n,m = 1 √22 (c j+1,n ′ ,m ′ − d1 j+1,n ′ ,m ′ − d 2 j+1,n ′ ,m ′ + d 3 j+1,n ′ ,m ′ )c j,n,m+1 = 1 √22 (c j+1,n ′ ,m ′ − d1 j+1,n ′ ,m ′ + d 2 j+1,n ′ ,m ′ − d 3 j+1,n ′ ,m ′ )c j,n+1,m = 1 √22 (c j+1,n ′ ,m ′ + d1 j+1,n ′ ,m ′ − d 2 j+1,n ′ ,m ′ + d 3 j+1,n ′ ,m ′ )c j,n+1,m+1 = 1 √22 (c j+1,n ′ ,m ′ + d1 j+1,n ′ ,m ′ + d 2 j+1,n ′ ,m ′ + d 3 j+1,n ′ ,m ′ )avec n ′ = n/2 si n pair, n ′ = (n − 1)/2 si n impair,m ′ = m/2 si m pair, m ′ = (m − 1)/2 si m impair.44


1.4.2.Transformée en <strong>ondelettes</strong> de sign<strong>aux</strong> multidimensionnels généralisation quand la dimension augmente, la performance de l'analyse par<strong>ondelettes</strong> peut diminuer : seulement trois orientations sont privilégiées (horizontal, verticalet diagonal) en dimension 2. ecacité des algorithmes de Mallat qui sont rapides est duau stockage des données. Ceci peut être un problème pourde grandes données multidimensionnelles.45


2) Applications en statistique2.1) Débruitage2.1.1. Filtrage d'un bruit normalement distribué : Donoho/JohnstoneModèleX i = λ i + W i i = 0...n − 1; (n = 2 J ).avec (W i ) n−1i=0bruit blanc normalement distribué de variance σ 2 .46


Meilleur estimateur• Idée : Soient X = (X i ) n−1i=0, {ψ j,k } j,k base d'<strong>ondelettes</strong> orth. :Orλ = ∑ j,k〈λ, ψ j,k 〉ψ j,k〈X, ψ j,k 〉 = 〈λ, ψ j,k 〉 + 〈W , ψ j,k 〉avec 〈W, ψ j,k 〉 VA N(0, σ 2 ) iid.• Estimateur via le ltre de Wiener généralisé :ˆλ = ∑ 〈X, ψ j,k 〉θ j,k ψ j,kj,koù θ j,k = |〈λ,ψ j,k〉| 2|〈λ,ψ j,k 〉| 2 +σ 2 minimise un critère de performance global :E(‖λ − ˆλ‖ 2 2 ) (MISE). 47


Notons ɛ a la valeur minimum du MISE.• Remarques : Méthode théorique : impossible de calculer 〈λ, ψ j,k 〉. θ j,k(< 1) seuille les coecients 〈X, ψ j,k 〉enlève le bruit de ces coecientsenlève le bruit de X. Existence d'autres seuillages : Seuillage fort :θ h (〈X, ψ j,k 〉) ={0 si − T ≤ 〈X, ψj,k 〉 ≤ T〈X, ψ j,k 〉sinon.Le seuillage fort consiste à prendre θ j,k égal à 1 ou 0.48


Seuillage doux :θ s (〈X, ψ j,k 〉) =⎧⎪⎨⎪⎩〈X, ψ j,k 〉 − T si 〈X, ψ j,k 〉 > T〈X, ψ j,k 〉 + T si 〈X, ψ j,k 〉 < −T0 sinon.Estimateur simpleRestriction des valeurs de θ j,k à 0 ou 1.Minimisation du MISE sous cette contrainte :θ j,k = { 1 si |〈λ, ψ j,k〉| 2 > σ 20 si |〈λ, ψ j,k 〉| 2 ≤ σ 2 .Remarques : Méthode théorique : calcul de 〈λ, ψ j,k 〉 Seuillage dit simple et son erreur, ɛ simple , satisfait :ɛ simple ≥ ɛ a ≥ ɛ simple /2.49


Estimateur par seuillage de Donoho-Johnstone• An d'obtenir un estimateur de λ implémentable :1 si θ j,k = { |〈X, ψ j,k〉| > T0 si |〈X, ψ j,k 〉| ≤ Toù le seuil T est égal à √ 2log(n) σ.• Justication du choix de T : Sous H 0 ≡ λ = 0 : X = W ⇒ 〈W, ψ j,k 〉 = 〈X, ψ j,k 〉.An d'obtenir λ = 0, il faut T > |〈W, ψ j,k 〉|. Sous H a ≡ λ ≠ 0 : il faut éviter un seuil trop grand, spécialementdans les cas où 〈X, ψ j,k 〉 ̸= 〈W, ψ j,k 〉.50


Donoho et Johnstone ont suggéré une valeur de seuil ayantune grand probabilité d'être juste au-dessus de la valeur maximumprise par |〈W, ψ j,k 〉|.Choisir T =puisque :etDe plus,√2log(n) σ permet de satisfaire cette contrainteσ log(log(n))lim P (T −n→+∞ log(n)limn→∞log(log(n))log(n)≤ maxj,k |〈W, ψ j,k〉| ≤ T ) = 1,= 0.ɛ thresholding = E(‖λ−ˆλ thresholding ‖ 2 2 ) ≤ (2log(n)+1)(σ2 +ɛ simple ).51


• L'estimateur par seuillage de Donoho-Johnstone donne lieu àun algorithme de ltrage en trois étapes :1. la décomposition des observations dans une based'<strong>ondelettes</strong>,2. le T-seuillage de tous les coecients,3. l'application de l'inverse de la transformée par<strong>ondelettes</strong> sur les coecients seuillés.52


• En plus de T, d'autres paramètres doivent être choisis : échelle grossière : ⌊log 2 (n) − log 2 (log 10 (n))⌋ (Johnstone); ⌊log 2 (n) − log 2 (ln(n))⌋ (Juditsky). famille d'<strong>ondelettes</strong> : famille donnant un nombre maximum decoecients d'<strong>ondelettes</strong> 〈λ, ψ j,k 〉 ≈ 0. ⇒ seuillage ecace.1. Nombreux moments nuls⇐⇒ ondelette orthogonale à de nombreux polynômes.signal régulier + ondelette possédant des moments nuls⇒ coecients d'<strong>ondelettes</strong> petits pour les nes échelles.53


2. Petit support d'ondelette.Signal avec une singularité en t o et t o dans support de ψ j,k⇒ coecient d'ondelette grand.! les contraintes qui sont imposées sur les <strong>ondelettes</strong> orthogonalesimpliquent que si l'ondelette possède p moments nuls,son support sera au moins de taille 2p − 1.⇒ compromis3. Régularité de l'ondelette.Inuence esthétique54


Remarques1/ un seul seuil pour tous les coecients d'<strong>ondelettes</strong>.2/ estimateur par seuillage doux de Donoho-JohnstonePropriété : grande probabilité que l'estimateur est au moins aussirégulier que le signal à estimer.Mais : plus grande erreur quadratique que le seuillage fort.3/ T dépend de la variance σ qui est souvent inconnue.⇒ estimation par ˆσ = 10.6745 Median(|〈X, ψ 1,j〉|) 0≤j


2.1.2. Filtrage du bruit de Poisson : Anscombe et KolaczykModèleNous considérons un processus de Poisson (p.p.) non-homogènesur [a, a + np] (a ∈ IR, n ∈ IN, p ∈ IR) :où Λ((a, t]) = ∫ ta λ(s)dsN t ≡ N(a, t] ∼ P o(Λ((a, t]))∀t ∈ [a, a+np] et λ est l'intensité du p.p.Considérons que ce processus est observé à intervalles de taillep.Ces observations peuvent être considérées comme un ensemblede comptage cumulatif : N a , N a+p , ..., N a+np .Nous notons X i = N a+(i+1)p − N a+ip (i = 0, . . . , n − 1).60


Celles-ci sont des VA de Poisson indépendantes :où λ i = ∫ a+(i+1)pa+ipX i ∼ P o(λ i )λ(t)dt doit être estimé.Ceci explique pourquoi le comptage de particules suit habituellementune distribution de Poisson.La distribution de Poisson ne possède qu'un seul paramètre, λ,et est notée P o(λ). La distribution de Poisson présente deux propriétésparticulièrement intéressantes :1. sa moyenne et sa variance sont égales à λ;2. Si λ est susamment grand, elle peut être approximée parune distribution normale P o(λ) ≈ N(λ, λ) = λ + N(0, λ).61


Algorithme d'AnscombeTransformation d'AnscombeY i = 2√X i + 3/8Y i quasi gaussiennes avec niveau de bruit relativement constantde 1.Lissage excessif <strong>aux</strong> nes échellesLissage timide <strong>aux</strong> grandes échelles.62


Deux explosions de rayons Gamma (simulation).63


Estimation des fonctions d'intensité au moyen de l'algorithmed'Anscombe.64


Algorithme TIPSHAlternative à l'algorithme d'Anscombe : adaptée <strong>aux</strong> sign<strong>aux</strong>plongés dans un bruit de Poisson, plus particulièrement les sign<strong>aux</strong>correspondants <strong>aux</strong> explosions de rayons gamma.Extension de la solution de Donoho-Johnstone :ˆλ = ∑ j,k〈X, ψ j,k 〉θ j,k ψ j,k ,où {ψ j,k } j,k base orthonormée d'<strong>ondelettes</strong> et1 si θ j,k = { |〈X, ψ j,k〉| > T0 sinon.65


Rappel du choix de T du cas normalement distribué :√limn→∞ P (max |Z j,k| ≤ 2log(n) σ) = lim (1−2P (Z >j,kn→∞√2log(n) σ)) n = 1où Z j,k (représentant les coecients d'<strong>ondelettes</strong> du signal Xsous l'hypothèse nulle λ = 0) et Z ˜N(0, σ 2 ).Choix de T de Kolaczyk :Distribution des coecients d'<strong>ondelettes</strong> de Haarc j,k ∼ 2 −j/2 P o(λ j k) j = 0, ..., J − 1d j,k ∼ 2 −j/2 {P o(λ j−12k+1 ) − P o(λj−1 2k)} j = 1, ...J − 1.où λ 0 k = λ k et λ j k = λj−1 2k+ 2k+1. λj−166


Indépendance des coecients dans chaque niveau j (VA ind)Dépendance des coecients à travers les échelles⇒ seuil dépendant de l'échelleSur base de H 0 choisie par Kolaczyk, λ i = λ ∗ où λ ∗ ∈ IR :si n j = 2 J−j ,si t j seuil cherché pour les coecients relatifs <strong>aux</strong> détails del'échelle j (d j,k ∀k ∈ {0...2 J−j − 1}),si χ 2 (a) (b) VA avec χ2 a dll et un paramètre de décentralisation b,67


P ( max |d j,k| ≤ t j ) = (1−2P (χ 20≤k≤n j −1 (2.2 j/2 .t j ) (2λ∗ 2 j−1 ) < 2λ ∗ 2 j−1 )) n jOr, ∀ν et ∀λ : P (χ 2 (λ) < λ) ≈ P (Z >ν(ν)Pour ν = 2.2 j/2 .t j et λ = 2 j λ ∗ ,P ( max |d j,k| ≤ t j ) ≈ (1 − 2P (Z >0≤k≤n j −1√ ) 2(ν+2λ)où Z˜N(0, 1).√ν)) n j2(ν + 2λ)68


Pour imposer la convergence (‖ cas gaussien), il fauti.e.√ν=2(ν + 2λ)√2log(n j ),2.2 j/2 .t j√=2(2.2 j/2 .t j + 2(2 j λ ∗ ))√2log(n j )⇒ Kolaczyk trouve comme seuil des coecients relatifs <strong>aux</strong> détailsde l'échelle jt j = 2 −j/2 {log(n j ) +√log 2 (n j ) + 2log(n j )λ ∗ 2 j }.69


L'algorithme nal procède selon les trois mêmes étapes que l'algorithmede Donoho-Johnstone :1. la décomposition des observations dans une based'<strong>ondelettes</strong> de Haar,2. le t j -seuillage à chaque échelle des coecients relatifs<strong>aux</strong> détails3. l'application de la transformée de Haar inverse <strong>aux</strong>coecients seuillés.Remarques1/ estimateurs utilisant Haar : fonction en escalier.⇒ Utilisation de la transformée en <strong>ondelettes</strong> de Haar invariantepar translation.⇒ "Translation Invariant Poisson Smoothing using Haar Wavelets",ou TIPSH.70


2/ sign<strong>aux</strong> d'explosions de rayons Gamma.Fond relativement constant et pics abrupts occasionnels⇒ H 0 : λ = λ ∗ .Estimation de λ ∗ en prenant la moyenne d'au moins 60% desobservations.3/ Kolaczyk : le MISE est minimisé en choisissant L :petit quand on utilise le seuillage fortmoyen quand on utilise le seuillage doux (dû au biais importantdans ce cas).Illustrations71


Deux explosions de rayons Gamma (simulation).72


Estimation des fonctions d'intensité au moyen de l'algorithmeTIPSH.73


Estimation des fonctions d'intensité au moyen de l'algorithmed'Anscombe.74


Anscombe : lisse trop le signal <strong>aux</strong> nes échelles et pas assez<strong>aux</strong> échelles grossières.TIPSH : plus petite erreur qu'Anscombe, biais réduit.75


2.2) Régression non paramétrique2.2.1. ModèlesY i = m(X i ) + ɛ ii = 1, . . . , nModèle xe : X i non aléatoire ɛ i VA iid N(0, σ 2 )Modèle aléatoire : (X i , Y i ) iid (X, Y ) avec m(x) = E(Y |X = x) et ɛ i = Y i −m(X i )76


2.2.2. Modèle xe• Objectifconstruire un estimateur non paramétrique pour une fonctionde régression m ∈ L 2 ([0, 1]) dans le modèleY i = m(x i ) + ɛ i , i = 1, . . . , n, n = 2 J , J ∈ IN,où x i =n i et les erreurs ɛ i sont des VA iid ɛ i ≈ N(0, σɛ 2 ).77


• Cencovm(x) = ∑ j∈Ja j ψ j (x)où {ψ j , j ∈ J} est une base orthonormée de fonctions dansL 2 (D), D ⊂ [0, 1],J est un ensemble approprié d'indices, a j = ∫ m(x)ψ j (x)dx.Pour m ∈ L 2 , ∑ j a 2 j< ∞ → m(x) bien approximée en prenantseulement un petit nombre N de a j .78


• Approches1. Estimateur par <strong>ondelettes</strong> linéaire :prendre les N premiers coecients2.Estimateur par <strong>ondelettes</strong> non linéaire :prendre les N coecients les plus grands (en valeur absolue).(Approche intéressante si la base est localisée : <strong>ondelettes</strong> maispas Fourier)79


1. Estimateur par <strong>ondelettes</strong> linéaireSoient (x i , Y i ) n i=1Soit une base d'<strong>ondelettes</strong> orthonormées générée par une ondelettemère ψ et une ondelette père φ.Cet estimateur linéaire procède en choisissant un niveau j 1 :ˆm(x) =2 j 0−1 ∑k=0ĉ j0 ,kφ j0 ,k(x) +j 1 ∑−1 2∑j −1j=j 0 k=0ˆd j,k φ j,k (x),avec j 0 le niveau le plus grossier de la décompositionet ĉ j,k = c Y j,ket ˆd j,k = d Y j,k80


j 1 ≡ paramètre de régularisation :Une petite valeur de j 1 ≡ beaucoup de coecients relatifs <strong>aux</strong>détails seront mis de côté,⇒ risque de trop lisser.Une grande valeur de j 1 ≡, trop de coecients gardés,⇒ apparition de certaines bosses articielles.j 1 paramètre de lissage des estimateurs à noy<strong>aux</strong>Grâce à l'orthogonalité de la transformée en <strong>ondelettes</strong> et l'égalitéde Parseval :risque L 2 (MISE) de l'estimateur linéaire= risque l 2 de ses coecients d'<strong>ondelettes</strong>81


MISE = E‖ ˆm − m‖ 2 L 2= ∑ kE[ĉ j0 ,k − c m j 0 ,k ]2 +j 1 −1∑j=j 0∑kE[ ˆd j,k − d m j,k ]2 +∞∑ ∑(d m j,k )2j=j 1 koù= S 1 + S 2 } {{ }biais stochastique+ S}{{} 3 ,biais deterministec m j 0 ,k := 〈m, φ j 0 k〉 et d m j,k := 〈m, ψ jk〉sont appelés coecients théoriques.Le niveau j 1 optimal est tel que les deux biais sont de mêmeordre de grandeur. En pratique : méthodes de validation croiséepour déterminer le niveau optimal.82


2. Estimateur par <strong>ondelettes</strong> non linéaireParmi les coecients, supprimer ceux en-dessous d'un seuilˆd jk = d jk + ρ jk Si m(x) représentation en <strong>ondelettes</strong> creuse ⇒ petit nombrede d jk non négligeables. Chaque ˆd jk a une contribution non nulle provenant de la partiebruitée ρ jk .83


Si niveau de bruit faible (le signal peut être distingué du bruit),alors seuls les plus grands coecients relatifs <strong>aux</strong> détails pourraientêtre inclus dans l'estimateur par <strong>ondelettes</strong>.⇒ seuillage fort. Puisque chaque coecient empirique consiste à la fois en unepartie du signal et une partie du bruit, il serait peut-être souhaitabled'aussi seuiller tous les coecients qui sont plus grandsqu'un seuil.⇒ seuillage doux.La régression se fait en trois étapes :1. Appliquer la transformée en <strong>ondelettes</strong> <strong>aux</strong> observations {Y i }amenant donc ĉ j0 et ˆd j pour j = j 0 , . . . , J − 184


2. Manipuler les coecients relatifs <strong>aux</strong> détails par un seuillage3. Inverser la transformée en <strong>ondelettes</strong> et produire une estimationde mRemarques : Le choix de j 0 est souvent de 2 ou 3 en pratique, bien qu'unedétermination par validation croisée est possible. La sélection du seuil est très importante. Le seuil universel estt univ = σ d√2 log noù σ 2 dest la variance des coecients d'<strong>ondelettes</strong> empiriques.85


Donoho et Jonhstone : propriétés de convergence Complexité algorithmique : O(n log n)(estimateur par noy<strong>aux</strong> ou splines : O(n 2 )) Illustrations86


2.2.3. Modèle aléatoire• Modèle xe :Y i = m(x i ) + ɛ i , i = 1, . . . , n, n = 2 J , J ∈ IN,où x i =n i et les erreurs ɛ i sont des VA iid ɛ i ≈ N(0, σɛ 2 ).Hypothèses fortes.• Modèle aléatoire :Y i = m(X i ) + ɛ i i = 1, . . . , n,avec (X i , Y i ) VA iid (X, Y ), m(x) = E(Y |X = x) et ɛ i VA N(0, σ 2 i )89


• Estimateur à noy<strong>aux</strong> de Nadaraya-Watsonm(x) = E(Y |X = x) =Par l'estimation par noy<strong>aux</strong> :∫ˆf XY (x, y) = 1nh 2 ∑iˆf X (x) = 1 nhyf Y |X (y|x)dx =K h (x − X i )K h (y − Y i )∑iK h (x − X i )∫yfXY (x, y)dyf X (x)avec h paramètre de lissage. Par les propriétés du noyau K, onaˆm h (x) =∑ ni=1Y i K h (X i − x)∑ ni=1K h (X i − x)90


• Estimateur à noy<strong>aux</strong> de Nadaraya-Watson avec <strong>ondelettes</strong>Soit φ une fonction d'échelle à support compact.Soit K (noyau) déni commeOn aK(u, v) = ∑ kˆm j (x) =On peut montrer queˆm j (x) =φ(u − k)φ(v − k)∑ ni=1Y i K(2 j x, 2 j X i )∑ ni=1K(2 j x, 2 j X i )∑k( 1 n∑ ni=1Y i φ jk (X i ))φ jk (x)∑k( 1 n∑ ni=1φ jk (X i ))φ jk (x)Estimateur linéaire.Estimateur non-linéaire avec seuillage.91


2.3) Utilisation des <strong>ondelettes</strong> pour l'estimation de densitéCencovf(x) = ∑ j∈Ja j ψ j (x)où {ψ j , j ∈ J} est une base orthonormée de fonctions dansL 2 (D), D ⊂ IR etJ est un ensemble approprié d'indices.A partir de cette équation,a j = ∑ i∈Ja i∫ψ i (x)ψ j (x)dx =∫f(x)ψ j (x)dx = E(ψ j (X)).92


Soit X = (X 1 , . . . , X n ) échantillon de la distribution inconnue f.etâ j = 1 nn∑i=1ψ j (X i )ˆf(x) = ∑ j∈Jâ j ψ j (x).Cependant, cet estimateur pourrait ne pas être bien déni :â j = 1 n∑ ni=1ψ j (X i ) = 1 n∑ ni=1∫ψj (x)δ(x − X i )dx= ∫ { 1 n∑ ni=1δ(x − X i )}ψ j (x)dx = ∫ g(x)ψ j (x)dxoù g(x) = fonction de probabilité empiriqueet δ = fonction de dirac.93


Comme â j = a j pour la fonction de probabilité empirique, ce quisuit est vrai pour tout échantillon {X i } i :∑j∈Jâ j ψ j (x) = 1 nn∑i=1δ(x − X i ).Cet estimateur a une variance innie et n'est pas consistant ausens ISE.⇒ La pratique standard est alors de sélectionner un nombre nide coecients empiriques â j et de les seuiller de manière appropriée.94


Cencov avec <strong>ondelettes</strong>Une base d'<strong>ondelettes</strong> est souvent choisie pour{ψ j , j ∈ J} à causede sa localisation en temps et en fréquence qui permet d'obtenirun estimateur puissant.{ψ j } j∈J = {φ j0 ,k, ψ j,k } j≥j0 ,k∈ZZet {a j } j∈J = {c j0 ,k, d j,k } j≥j0 ,k∈ZZ.Nous estimonsĉ j,k = 1 nn∑i=1φ j,k (X i )pour j = j 0 , k ∈ ZZ, et pour j ≥ j 0 , k ∈ ZZ :ˆd j,k = 1 nn∑i=1ψ j,k (X i ).95


Remarques :1/ La sélection de j 0 dépend de l'ondelette mère et de la régularitéde la densité.2/ Seuillage :Kolaczyk : λ = log(n)/ √ n pour les nive<strong>aux</strong> jusque j 1 = ⌊log 2 n−1⌋.Donoho : j 1 = ⌊log 2 n − log 2 (logn)⌋ où n = taille échantillon.Delyon et Juditsky : j 1 = ⌊log 2 2n − log 2 (lnn)⌋.Seuillage fort :ˆd j,k = I(| ˆd j,k | ≥ λ). ˆd j,k∀j 0 ≤ j ≤ j 1 , ∀k,96


Seuillage doux :ˆd j,k = I(| ˆd j,k | ≥ λ). ˆd j,k + I(0 ≤ ˆd j,k ≤ λ).( ˆd j,k − λ)+I(−λ ≤ ˆd j,k ≤ 0).( ˆd j,k + λ)∀j 0 ≤ j ≤ j 1 , ∀k.3/ applicationsEchantillon : 300 points provenant d'une N(0.5, 0.1 2 ).Estimation par <strong>ondelettes</strong> avec les paramètres j 1 et λ dénis parDonoho.97


De nombreux trav<strong>aux</strong> montrent que les estimateurs de densitépar <strong>ondelettes</strong> ont une erreur minimale.Pinheiro et VidakovicPinheiro et Vidakovic ont amélioré cet estimateur par <strong>ondelettes</strong>.A la place d'estimer directement la densité inconnue f,ils estiment √ f. Estimateur de Cencov = estimateur avec valeurs négativespossible. Estimateur de Cencov = estimateur dont l'intégrale peut êtrediérente de 1.100


<strong>Tech</strong>niquement, Vidakovic calcule les coecients de √ f avecetĉ j,k = 1 nˆd j,k = 1 nn∑i=1n∑i=1φ j,k (X i )√ˆf n (X i )ψ j,k (X i )√ˆf n (X i )pour un certain premier estimateur de la densité inconnue, ˆf n .Le calcul de ĉ j,k ( ˆd j,k resp.) est motivé de la façon suivante :c j,k = 〈φ j,k ,√f〉 =∫φ j,k√f =∫ φj,k√ ffd j,k = 〈ψ j,k ,√f〉 =∫ψ j,k√f =∫ ψj,k√ ff.101


Le plus simple premier estimateur est l'histogramme. j 1 = arg min E(j) = arg min ∑ k ˆd 2 j,k Seuillage : ˆd j,k = I( ˆd 2 j,k > κ ¯ˆd 2 ) ˆd j,koù ¯ˆd 2 est la moyenne de ˆd 2 j,ket κ ∈ IR.Souvent, κ = 0.5 est choisi. Normalisation des coecients après le seuillage pour obtenirun estimateur bonade :1 =∫√ √f = 〈 f, f〉et si √ f = ∑ j∈J a j ψ j (x), alors ‖(a j ) j ‖ 2 l 2= 1 par l'identité deParseval. f = ( √ f) 2 102


3) Applic. en traitement du signal/image3.1) Localisation de singularités (lissées) Une fonction f est ponctuellement Lipschitz α > 0 en ν s'ilexiste K > 0 et un polynôme p ν de degré m = partie entièreinférieure de α tels que∀t ∈ IR, |f(t) − p ν (t)| ≤ K|t − ν| α . Une fonction bornée mais discontinue en ν est Lipschitz 0 enν. Si la régularité lipschitzienne en ν vaut α < 1, alors f n'est pasdiérentiable en ν et α caractérise le type de singularité.103


104


105


module maximum : point (u 0 , s 0 ) pour lequel |W f(u, s 0 )| possèdeun maximum local en u = u 0 .courbe de maxima : courbe connexe s(u) dans le plan délaiéchelle(u, s) le long de laquelle tous les points sont des modulesmaxim<strong>aux</strong>.106


107


3.1.1. SingularitésConsidérons les résultats suivants :R1 "Si f est singulière au point ν, alors il existe une suite demodules maxim<strong>aux</strong> (u n , s n ) n∈IN telle que u n converge vers νquand l'échelle décroit."⇒ toutes les singularités peuvent être détectées en observantles modules maxim<strong>aux</strong> <strong>aux</strong> nes échelles (s petit).R2 "Considérons l'ondelette ψ = (−1) n θ (n) où θ est la fonctiongaussienne. Pour tout f ∈ L 2 (IR), les modules maxim<strong>aux</strong> deW f(u, s) forment une courbe qui n'est jamais interrompuequand l'échelle décroit ( s → 0)."⇒ toute singularité sera caractérisée par des modules maxim<strong>aux</strong>ou plus précisément par une courbe liant ces maxima qui est ininterrompuemême <strong>aux</strong> nes échelles.108


109


⇒ Une transformée en <strong>ondelettes</strong> peut avoir une suite de maximaloc<strong>aux</strong> qui converge vers une abscisse ν bien que f soit tout àfait régulier en ν.La régularité lipschitzienne se calcule à partir de la décroissancede l'amplitude des modules maxim<strong>aux</strong>."f est uniformément Lipschitz α au voisinage de ν si et seulementsi il existe A > 0 tel que tout module maximal (u, s) situé dansle cône (|u − v| ≤ Cs) vérielog 2 |W f(u, s)| ≤ log 2 A + (α + 1 2 ) log 2 s.”La régularité lipschitzienne en ν est donc la pente maximalede log 2 |W f(u, s)| en fonction de log 2 s le long des courbes demaxima qui convergent vers ν.110


3.1.2. Singularités lisséesThéorème :Si ψ est une ondelette à décroissance rapide possédant nmoments nuls, alors :W f(u, s) = s n dndu n(f ∗ ¯θ s )(u)où θ est une fonction à décroissance rapide telle queψ(t) = − dθ(t)dtet ¯θ s (t) = √ 1 sθ( −t ). s⇒ n = 1 → les coecients d'<strong>ondelettes</strong> sont proportionnels à ladérivée première d'une moyenne locale de f.⇒ Chaque pic est caractérisé par deux modules maxim<strong>aux</strong> <strong>aux</strong>diérentes échelles.111


112


113


3.2) Détection de contoursCaractéristiques images : contours des structures.Contour =?points où l'intensité de l'image change abruptement.Exemples : mur de brique ouDiscrimination des contours par opposition <strong>aux</strong> textures dépendde l'échelle d'analyse ⇒ <strong>ondelettes</strong>114


Algorithme de CannyIdentication des points de forte variation dans une imagef(x, y).Un point (x 0 , y 0 ) est déni comme un contour si le modulede ⃗ ∇f⃗∇f =⎛⎝est un maximum local en (x 0 , y 0 ) quand (x, y) varie dans un voisinageunidimensionnel de (x 0 , y 0 ) qui est parallèle à ⃗ ∇f(x 0 , y 0 ).Explications :(x 0 , y 0 ) maximum local pour l'amplitude des dérivées partiellesde f.(x 0 , y 0 ) "points d'inexion" de f.δfδxδfδy⎞⎠115


116


Version multiéchelle de l'algorithme de CannyLes contours sont calculés avec deux <strong>ondelettes</strong> qui sont desdérivées partielles d'une fonction θ :ψ 1 = − δθδx ,⇒ on a, avec ¯θ 2 j = 1 2 j θ(−xSoient2 j , −y(W 1 f(u, v, 2 j )W 2 f(u, v, 2 j )Mf(u, v, 2 j ) =2 j ),)ψ2 = − δθδy .= 2 j ⃗ ∇(f ∗ ¯θ 2 j(u, v))√|W 1 f(u, v, 2 j )| 2 + |W 2 f(u, v, 2 j )| 2Af(u, v, 2 j ) ={α si W 1 f(u, v, 2 j ) ≥ 0π − α si W 1 f(u, v, 2 j ) < 0où α = tan −1 ( W 2 f(u,v,2 j )W 1 f(u,v,2 j ) ). 117


Les contours multiéchelles sont les points (u 0 , v 0 ) où Mf(u, v, 2 j )est un maximum local dans un voisinage unidimensionnel de(u 0 , v 0 ) le long de la direction d'angle donnée par Af(2 j , u 0 , v 0 ).Ces contours multiéchelles sont une généralisation des contoursde Canny à diérentes échelles. L'échelle est choisie par l'utilisateur.118


119


120


121


Cependant, en images réelles, cet algorithme détecte souventbeaucoup trop de contours multiéchelles.⇒ nécessaire de sélectionner les contours signicatifs⇒ seuillage⇒ bon choix de T et de j.122


123


124


125


3.3) DéconvolutionFourierf = g ∗ h ((g ∗ h)(t) =∫g(u)h(t − u)du) ⇒ F = G.HSi h est le signal à retrouver et g la fonction instrumentale :h = F ourier inverse ( F G )Inconvénients : petites valeurs de G sign<strong>aux</strong> expériment<strong>aux</strong> : amplicateur de bruit126


127


128


Ondelettes1. Formule similaire :Dans le cas continu, nous obtenonsW f(u, s) = (g ∗ W h(., s))(u);Lf(u, s) = (g ∗ Lh(., s))(u).Dans le cas discret, utilisant une transformation en <strong>ondelettes</strong>non-orthogonales, nous avonsd f (j,k) = (g ∗ dh (j,.) )(k);cf (j,k) = (g ∗ ch (j,.) )(k).Le produit de convolution est préservé par la transformée en <strong>ondelettes</strong>.129


2. Convolution par une gaussienne :Nous supposons que f(t) = (f 0 ∗ g σ )(t) où g σ est une gaussiennede variance σ 2 :g σ (t) = 1 √2πσe − t22σ 2 .Soit ψ = (−1) n θ (n) avec θ(t) = λe − t22β 2 . Nous avonsW f(u, s) = ( ss 0) n+1 2W f 0 (u, s 0 ) avec s 0 =√√ s 2 + σ2β 2.Ces formules permettent de retrouver les coecients d'<strong>ondelettes</strong>de f 0 et dès lors de retrouver f 0 en utilisant la transforméeen <strong>ondelettes</strong> inverse.130


3. Procédés itératifsOptimiser les moindres carrés :minh‖f − g ∗ h‖ 2Problème mal posé au sens de Hadamard : la solution n'est pasunique et n'est pas stable.⇒ pour "régulariser" le problème :modier la fonction à minimiser de façon à ce qu'elle contiennel'erreur mais aussi une certaine connaissance a priori de ce quepourrait être la solution.Si, par exemple, on sait que h doit avoir une petite α-norme :minh‖f − g ∗ h‖ 2 + µ‖h‖ 2 αoù µ > 0 (paramètre de régularisation).131


Solution basée sur les <strong>ondelettes</strong> :minh‖f − g ∗ h‖ 2 + ∑ j,kµ (j,k) ‖d j,k ‖ poù {d j,k } j,k représente l'ensemble des coecients en <strong>ondelettes</strong>de la fonction h.Si on sait que la fonction h possède une représentation en <strong>ondelettes</strong>creuse dans une certaine base orthonormée d'<strong>ondelettes</strong>,alors ∑ j,k µ (j,k) ‖d j,k ‖ p sera petit.Problème de déconvolution transformé en problème d'optimisationrésolu de façon itérative.132


133


134


135


3.4) CompressionApplications : stockage des données transmission à travers des can<strong>aux</strong> à bande passante limitéeCompromis entre qualité et compression.Fonctionnement : Décomposition du signal dans une base orthogonale (par uncodeur par transformée) Quantication des coecients de la décomposition.! La distortion du signal reconstitué est minimisée par une optimisationde la quantication, de la base et de l'allocation debits.136


Image en nive<strong>aux</strong> de gris : 512 2 pixels, chacun codé sur 8 bits.Meilleurs algorithmes de compression d'images : bases de cosinus (jpeg standard) bases d'<strong>ondelettes</strong> (jpeg2000).Ecacité de ces bases car capacité à construire des approximationsnon linéaires précises à l'aide de quelques vecteurs nonnuls.137


138


139


3.5) Interpolation3.5.1. Fourierf(t)→ discretiser← interpoler{f(nT )} n∈ZZf d (t) = ∑ +∞n=−∞ f(nT )δ(t − nT ) et ˆf d (ω) = ∑ +∞n=−∞ f(nT )e −inT ωSi dom( ˆf) ⊂ [− π T , π T ](pas de variation brutale de f entre 2 éch. consécutifs) alorsavec h T (t) = sin(πtf(t) =T )πtT.+∞ ∑n=−∞f(nT )h T (t − nT )140


141


142


3.5.2. Fonction d'interpolationFonction d'interpolation φ telle que {φ(t − n)} n∈Z base de Rieszde l'espace qu'elle engendre et telle que φ(n) = { 1 pour n = 00 pour n ≠ 0Soit h ltre miroir conjugué caractérisant φ.Tous les polynômes de degré ≤ p − 1 sont reconstituésq(t) =+∞ ∑n=−∞q(n)φ(t − n)⇐⇒ ĥ(ω) possède un zéro d'ordre p en ω = π.Si φ fonction d'interpolation spline cubique (obtenue à partir ondelettepère spline linéaire), tous les polynômes de degré 3 sont143


econstitués à partir d'un échantillonnage uniforme.Si φ fonction d'interpolation de Deslauriers-Dubuc, tous les polynômesde degré 2p-1 sont reconstitués à partir d'un échantillonnageuniforme.3.5.3. OndelettesDonoho a généralisé cette approche en construisant des basesd'<strong>ondelettes</strong> d'interpolation : Si f continue à support compactoù reste petit.f =+∞ ∑n=−∞f(2 J n)φ J,n + reste


3.6) Classication3.6.1. Sign<strong>aux</strong> monodimensionnelsClassier des sign<strong>aux</strong> monodimensionnels selon des classes design<strong>aux</strong> invariantes par translationAlgorithme par arbre de décision où le dictionnaire de questionsest :Q j,d, ¯d,θ (X) = 1⇐⇒ il existe deux extrema loc<strong>aux</strong> de la transformée à l'échellej tels que{ d ≤ |u i − u k | ≤ ¯dmin{| < ψ j,ui , X >, | < ψ j,uk , X > |} ≥ θ144


3.6.2. ImagesSegmentation1. Extraction (au moyen d'<strong>ondelettes</strong>) de vecteurs de caractéristiquesde l'image sur des fenêtres aléatoires2. Itération du calcul des vecteurs jusqu'à stabilisation du réseaude neurônes3. K Means non supervisé sur les vecteurs145


4) Logiciels4.1) WaveLab bibliothèque de fonctions MatLab portant sur les <strong>ondelettes</strong> etles transformées temps-fréquence associées. disponible en freeware sur internet. maintenue et améliorée à l'Université de Stanford par DavidDonoho et ses collaborateurs. nécessite l'achat de Matlab, qui ore un environnement interactifde calcul numérique et de visualiation. La version 0.800 de WaveLab comprend plus de 800 chiers,dont des programmes, des données, de la documentation, quipeuvent être téléchargés à http ://www-stat.stanford.edu/ wavelab. Des versions sont disponibles pour les stations de travail Unix,Linux, Macintosh et PC (Windows). 146


4.2) LastWave environnement de traitement du signal et de l'image en <strong>ondelettes</strong>,écrit en C. Ce freeware n'utilise aucun autre software commercial. pour les ordinateurs X11/Unix et Macintosh. gratuit et autonome, peut être obtenu sur Internet àhttp ://wave.cmap.polytechnique.fr/soft/LastWave/. créé et maintenu par Emmanuel Bacry à l'Ecole Polytechniqueen France.http ://www.wavelet.org.The wavelet digest (inscription sur wavelet.org)147


Quelques référencesDaubechies I., Defrise M., De Mol C. [2004]. An iterative thresholding algorithmfor linear inverse problems with a sparsity constraint. Communicationson Pure and Applied Mathematics, vol. LVII, 1413-1457.Donoho D.L., Johnstone I.M. [1994]. Ideal spatial adaptation via waveletshrinkage. <strong>Bio</strong>metrika, 81 :425-455.Donoho D.L., Johnstone I.M., Kerkyacharian G., Picard D. [1996]. Densityestimation by wavelet thresholding. The annals of statistics, 24 :508-539.Mallat S. [1988]. A wavelet tour of signal processing. Academic Press.Pinheiro A., Vidakovic B. [1997]. Estimating the square root of a densityvia compactly supported wavelets. Computational statistics and data analysis,25 :399-415.Silverman B.W. [1986]. Density Estimation for Statistics and Data Analysis.Chapman and Hall.Starck J.L., Murthag F., Bijaoui A. [1998]. Image Processing and Data analysis.The multiscale approach. Cambridge University Press.Strang G. [1993]. Wavelet transforms versus Fourier transforms. Bulletin(New Series) of the American Mathematical Society, 28 :288-305.148

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!