TH`ESE - Library of Ph.D. Theses | EURASIP
TH`ESE - Library of Ph.D. Theses | EURASIP TH`ESE - Library of Ph.D. Theses | EURASIP
90 Chapitre 3. Techniques mono-utilisateurtion, on peut écrire une itération de la méthode du gradient commeω k+1 = ω k − µ ′ ∇J mBER (ω k )∥ ∇JmBER (ω) ∥ 2 P TXR= ω k + µ ′ σν2 k ω k∥∥ Rk ω k 2 P TXσ 2 ν(3.71)= ω k + µ ′ R k ω ∥ k∥ Rk ω k ,où µ ′ est le pas d’adaptation. On a pris le gradient normalisé car il nous faut justela direction d’adaptation, une fois que µ ′ règle déjà le pas d’adaptation. Par ailleurs,comme la fonction f(γ b ) peut prendre des valeurs assez faibles selon le RSB, la normedes éléments de la matrice R k varie aussi en fonction du RSB. L’utilisation du gradientnormalisé rend donc le pas d’adaptation indépendante du RSB.Ensuite, le précodeur ω k+1 doit être normalisé pour respecter la contrainteω k+1 = ω k+1∥∥ ωk+1 . (3.72)En rappelant que ω k a aussi été normalisé, on en conclut que l’équation d’adaptation(3.71) ne fait que changer la direction de ω k , mais pas sa norme. On propose doncde faire une combinaison convexe de deux termes pour obtenir le nouveau précodeurω k+1 . On en arrive ainsi à l’équation d’adaptation suivanteω k+1 = (1 − µ)ω k + µ R ∥kω k∥ Rk ω k , (3.73)où µ est le coefficient d’adaptation. Ce coefficient règle de combien ω k sera changé àchaque itération.Le tableau 3.4 montre l’algorithme mBER-TD-DB. On reviendra sur le choix ducoefficient d’adaptation et de l’initialisation plus tard. Dans la suite, on s’intéresseà l’obtention d’un critère d’arrêt pour l’algorithme proposé. Pour cela, considéronsl’équation (3.73) exprimée autrement( )R k ω kω k+1 = ω k + µ∥∥ Rk ω k − ω k . (3.74)} {{ }∆ω kDû à la normalisation considérée, les termesR k ω k ∥∥ Rk ω k et ω k ont la même normeet sont donc comparables. L’adaptation est faite donc par l’ajout de la directiond’adaptation ∆ω k multipliée par µ au précodeur ω k . Par conséquent, l’adaptation setermine quand le terme ∆ω k devient nul. Alors, la condition d’arrêt est que la normede ∆ω k soit inférieure à une tolérance donnée ǫ mBER .
4. Mise à jour de ω kω k = ω k−1 + µ ∆ω k3.6. Minimisation du TEB 91Tab. 3.4: Algorithme mBER-TD-DB1. Initialisationω =k = 1√1L[1 0 . . .0 } {{ }M zéros1 0 . . .0 } {{ }M zéros] T1 · · ·2. Calcul de f(γ b ) et R kγ b = P TXω H k−1 R(b)ω k−1f(γ b ) =R k = Eσ 2 ν∀b(N s2 √ exp − N )sγ b2πN s γ b 2{f(γ b )R(b)}∀b3. Calcul de ∆ω k∆ω k = R kω k−1‖R k ω k−1 ‖ − ω k−15. Normalisation de ω kω k = ω k‖ω k ‖6. Condition d’arrêt sur la valeur de ∆ω k(a) Si ‖∆ω k ‖ > ǫ mBER , alors k = k + 1 et retour à l’étape 2(b) Sinon, arrêt.
- Page 61 and 62: 2.7. Techniques de FV multi-utilisa
- Page 63 and 64: 2.7. Techniques de FV multi-utilisa
- Page 65 and 66: 0("#$%& 0!"#$%&04"#$%&+!,!"-& 0!,1"
- Page 67 and 68: 3Techniques mono-utilisateur3.1 Int
- Page 69 and 70: 3.2. Précodeur et diversité de tr
- Page 71 and 72: 3.2. Précodeur et diversité de tr
- Page 73 and 74: 3.2. Précodeur et diversité de tr
- Page 75 and 76: 3.3. Diversité de transmission et
- Page 77 and 78: 3.3. Diversité de transmission et
- Page 79 and 80: 3.4. Allocation optimale de puissan
- Page 81 and 82: 3.4. Allocation optimale de puissan
- Page 83 and 84: 3.5. Minimisation de la variance 63
- Page 85 and 86: 3.5. Minimisation de la variance 65
- Page 87 and 88: 3.5. Minimisation de la variance 67
- Page 89 and 90: 3.5. Minimisation de la variance 69
- Page 91 and 92: 3.5. Minimisation de la variance 71
- Page 93 and 94: 3.5. Minimisation de la variance 73
- Page 95 and 96: 3.5. Minimisation de la variance 75
- Page 97 and 98: 3.5. Minimisation de la variance 77
- Page 99 and 100: 3.5. Minimisation de la variance 79
- Page 101 and 102: 3.5. Minimisation de la variance 81
- Page 103 and 104: 3.5. Minimisation de la variance 83
- Page 105 and 106: 3.6. Minimisation du TEB 85plat.On
- Page 107 and 108: 3.6. Minimisation du TEB 8710 0 RSB
- Page 109: 3.6. Minimisation du TEB 8910 2 γ
- Page 113 and 114: 3.6. Minimisation du TEB 933.6.4 R
- Page 115 and 116: 3.6. Minimisation du TEB 9510 010
- Page 117 and 118: 3.6. Minimisation du TEB 97351.1130
- Page 119: 3.7. Conclusion 99directivité vers
- Page 122 and 123: NF@ABCD N?@ABCDNR@ABCDI?J?@LD I?J?@
- Page 124 and 125: 104 Chapitre 4. Techniques multi-ut
- Page 126 and 127: 106 Chapitre 4. Techniques multi-ut
- Page 128 and 129: 108 Chapitre 4. Techniques multi-ut
- Page 130 and 131: 110 Chapitre 4. Techniques multi-ut
- Page 132 and 133: 112 Chapitre 4. Techniques multi-ut
- Page 134 and 135: 114 Chapitre 4. Techniques multi-ut
- Page 136 and 137: 116 Chapitre 4. Techniques multi-ut
- Page 138 and 139: 118 Chapitre 4. Techniques multi-ut
- Page 140 and 141: 120 Chapitre 4. Techniques multi-ut
- Page 142 and 143: 122 Chapitre 4. Techniques multi-ut
- Page 144 and 145: 124 Chapitre 4. Techniques multi-ut
- Page 146 and 147: 126 Chapitre 5. Conclusion et persp
- Page 148 and 149: 128 Bibliographie[11] J. K. Cavers.
- Page 150 and 151: 130 Bibliographie[37] B. Raghothama
- Page 153 and 154: Index d’auteursAAlamouti, S. M.,
- Page 155: Travaux publiés pendant la thèseA
- Page 158 and 159: XXII SIMPÓSIO BRASILEIRO DE TELECO
4. Mise à jour de ω kω k = ω k−1 + µ ∆ω k3.6. Minimisation du TEB 91Tab. 3.4: Algorithme mBER-TD-DB1. Initialisationω =k = 1√1L[1 0 . . .0 } {{ }M zéros1 0 . . .0 } {{ }M zéros] T1 · · ·2. Calcul de f(γ b ) et R kγ b = P TXω H k−1 R(b)ω k−1f(γ b ) =R k = Eσ 2 ν∀b(N s2 √ exp − N )sγ b2πN s γ b 2{f(γ b )R(b)}∀b3. Calcul de ∆ω k∆ω k = R kω k−1‖R k ω k−1 ‖ − ω k−15. Normalisation de ω kω k = ω k‖ω k ‖6. Condition d’arrêt sur la valeur de ∆ω k(a) Si ‖∆ω k ‖ > ǫ mBER , alors k = k + 1 et retour à l’étape 2(b) Sinon, arrêt.