TH`ESE - Library of Ph.D. Theses | EURASIP
TH`ESE - Library of Ph.D. Theses | EURASIP TH`ESE - Library of Ph.D. Theses | EURASIP
88 Chapitre 3. Techniques mono-utilisateur3.6.3 Algorithme mBER-TD-DB (minimum BER-TransmitDiversity-Downlink Beamforming)Pour trouver la solution optimale correspondant au critère de minimum de TEB,on propose d’utiliser une méthode itérative basée sur la méthode du gradient [24,8]. Étant donné que la contrainte concerne seulement la norme de ω, on peut latraiter de façon indépendante de la minimisation en soi. Ainsi, la méthode du gradientsera appliquée à la fonction coût J mBER (ω) comme si c’était une minimisation sanscontrainte. Après chaque itération du gradient, le vecteur ω trouvé sera normalisé defaçon à respecter la contrainte de puissance d’émission. Cela résulte en un algorithmesimple et efficace, comme on verra par la suite.( √Ns )Avant d’énoncer l’algorithme, calculons la dérivée de Q γ b par rapportà ωdQ( √ N s γ b )= dQ(√ N s γ b ) dγ bdω dγ b dω . (3.66)Pour le premier terme de la dérivée, en partant de l’équation (3.62), on obtientdQ( √ N s γ b )dγ bN s= −2 √ exp2πN s γ b(− N )sγ b −f(γ b ) . (3.67)2Notons que la fonction f(γ b ) ainsi définie dépend indirectement de ω.En exploitant l’équation (3.60), le second terme de la dérivée vautdγ bdω = 2 P TXR(b)ω . (3.68)σν2Finalement, on aboutit au gradient de J mBER (ω), qui s’écrit comme{ }∇J mBER (ω) = ∂J mBER(ω)= −2 P TXE f(γ∂ω σν2 b ) R(b) ω . (3.69){ }On note que, à une itération donnée, l’espérance E f(γ b ) R(b) correspond à unematrice de covariance formée par les matrices R(b) pondérées par la fonction f(γ b ).On pose alors{ }R k = Ef(γ b ) R(b)comme la matrice de covariance résultante à l’itération k de l’algorithme.(3.70)La fonction f(γ b ) peut être vue comme un estimateur du TEB du bloc b pourdes RSB relativement élevés, comme montre la figure 3.25. On peut voir que, pourγ b > −5 dB, la fonction f(γ b ) est une bonne approximation pour la fonction Q( √ γ b ).Par contre, pour des RSB inférieurs à −5 dB, la fonction f(γ b ) peut être vue comme
3.6. Minimisation du TEB 8910 2 γ bQ( γ b1/2 )10 0f( γ b)10 −210 −410 −610 −810 −1010 −1210 −1410 −16−35 −30 −25 −20 −15 −10 −5 0 5 10 15 20Fig. 3.25: Comparaison entre les fonctions Q( √ γ b ) et f(γ b ).un indicatif de la qualité du signal, plus la valeur de cette fonction est importante,pire est la qualité du signal.Ainsi, la moyenne pondérée dont le résultat est la matrice R k accorde plus d’importanceaux blocs dont le TEB est élevé et, parmi ces blocs, plus particulièrementà ceux dont le RSB instantané γ b est très faible. Par conséquent, dans l’obtention duprécodeur ω optimal, on tiendra davantage compte de ces blocs de façon à minimiserla probabilité d’occurrence de très faibles puissances reçues. Comme montré dans lasection 3.4, cette procédure mène à la réduction du TEB.À ce point, on peut faire un parallèle entre le critère de minimum de TEB et celuiqui vise à maximiser le RSB, présenté dans la section 2.5.2. Le critère de maximumde RSB, contrairement à celui de minimum de TEB, pondère les matrices R(b) detous les blocs avec la même intensité. Cela revient à donner la même force à desblocs dont le TEB est différent à cause du fading. Cependant, comme la techniquede maximisation du RSB est basée sur la matrice moyenne sur tous les blocs, elle nepeut pas voir cette variation de puissance entre les différents blocs. Ceci représente legrand avantage du critère proposé ici par rapport au critère classique de maximisationdu RSB.Algorithme mBER-TD-DB Comme mentionné auparavant, l’algorithme proposé,appelé mBER-TD-DB (minimum BER-Transmit Diversity-Downlink Beamforming),est composé de deux étapes : la mise à jour de ω par une méthode de typegradient et la normalisation de ω pour respecter la contrainte.En partant du gradient exprimé dans (3.69) et en posant k comme l’indice d’itéra-
- Page 58 and 59: 38 Chapitre 2. Antenne multi-capteu
- Page 61 and 62: 2.7. Techniques de FV multi-utilisa
- Page 63 and 64: 2.7. Techniques de FV multi-utilisa
- Page 65 and 66: 0("#$%& 0!"#$%&04"#$%&+!,!"-& 0!,1"
- Page 67 and 68: 3Techniques mono-utilisateur3.1 Int
- Page 69 and 70: 3.2. Précodeur et diversité de tr
- Page 71 and 72: 3.2. Précodeur et diversité de tr
- Page 73 and 74: 3.2. Précodeur et diversité de tr
- Page 75 and 76: 3.3. Diversité de transmission et
- Page 77 and 78: 3.3. Diversité de transmission et
- Page 79 and 80: 3.4. Allocation optimale de puissan
- Page 81 and 82: 3.4. Allocation optimale de puissan
- Page 83 and 84: 3.5. Minimisation de la variance 63
- Page 85 and 86: 3.5. Minimisation de la variance 65
- Page 87 and 88: 3.5. Minimisation de la variance 67
- Page 89 and 90: 3.5. Minimisation de la variance 69
- Page 91 and 92: 3.5. Minimisation de la variance 71
- Page 93 and 94: 3.5. Minimisation de la variance 73
- Page 95 and 96: 3.5. Minimisation de la variance 75
- Page 97 and 98: 3.5. Minimisation de la variance 77
- Page 99 and 100: 3.5. Minimisation de la variance 79
- Page 101 and 102: 3.5. Minimisation de la variance 81
- Page 103 and 104: 3.5. Minimisation de la variance 83
- Page 105 and 106: 3.6. Minimisation du TEB 85plat.On
- Page 107: 3.6. Minimisation du TEB 8710 0 RSB
- Page 111 and 112: 4. Mise à jour de ω kω k = ω k
- Page 113 and 114: 3.6. Minimisation du TEB 933.6.4 R
- Page 115 and 116: 3.6. Minimisation du TEB 9510 010
- Page 117 and 118: 3.6. Minimisation du TEB 97351.1130
- Page 119: 3.7. Conclusion 99directivité vers
- Page 122 and 123: NF@ABCD N?@ABCDNR@ABCDI?J?@LD I?J?@
- Page 124 and 125: 104 Chapitre 4. Techniques multi-ut
- Page 126 and 127: 106 Chapitre 4. Techniques multi-ut
- Page 128 and 129: 108 Chapitre 4. Techniques multi-ut
- Page 130 and 131: 110 Chapitre 4. Techniques multi-ut
- Page 132 and 133: 112 Chapitre 4. Techniques multi-ut
- Page 134 and 135: 114 Chapitre 4. Techniques multi-ut
- Page 136 and 137: 116 Chapitre 4. Techniques multi-ut
- Page 138 and 139: 118 Chapitre 4. Techniques multi-ut
- Page 140 and 141: 120 Chapitre 4. Techniques multi-ut
- Page 142 and 143: 122 Chapitre 4. Techniques multi-ut
- Page 144 and 145: 124 Chapitre 4. Techniques multi-ut
- Page 146 and 147: 126 Chapitre 5. Conclusion et persp
- Page 148 and 149: 128 Bibliographie[11] J. K. Cavers.
- Page 150 and 151: 130 Bibliographie[37] B. Raghothama
- Page 153 and 154: Index d’auteursAAlamouti, S. M.,
- Page 155: Travaux publiés pendant la thèseA
88 Chapitre 3. Techniques mono-utilisateur3.6.3 Algorithme mBER-TD-DB (minimum BER-TransmitDiversity-Downlink Beamforming)Pour trouver la solution optimale correspondant au critère de minimum de TEB,on propose d’utiliser une méthode itérative basée sur la méthode du gradient [24,8]. Étant donné que la contrainte concerne seulement la norme de ω, on peut latraiter de façon indépendante de la minimisation en soi. Ainsi, la méthode du gradientsera appliquée à la fonction coût J mBER (ω) comme si c’était une minimisation sanscontrainte. Après chaque itération du gradient, le vecteur ω trouvé sera normalisé defaçon à respecter la contrainte de puissance d’émission. Cela résulte en un algorithmesimple et efficace, comme on verra par la suite.( √Ns )Avant d’énoncer l’algorithme, calculons la dérivée de Q γ b par rapportà ωdQ( √ N s γ b )= dQ(√ N s γ b ) dγ bdω dγ b dω . (3.66)Pour le premier terme de la dérivée, en partant de l’équation (3.62), on obtientdQ( √ N s γ b )dγ bN s= −2 √ exp2πN s γ b(− N )sγ b −f(γ b ) . (3.67)2Notons que la fonction f(γ b ) ainsi définie dépend indirectement de ω.En exploitant l’équation (3.60), le second terme de la dérivée vautdγ bdω = 2 P TXR(b)ω . (3.68)σν2Finalement, on aboutit au gradient de J mBER (ω), qui s’écrit comme{ }∇J mBER (ω) = ∂J mBER(ω)= −2 P TXE f(γ∂ω σν2 b ) R(b) ω . (3.69){ }On note que, à une itération donnée, l’espérance E f(γ b ) R(b) correspond à unematrice de covariance formée par les matrices R(b) pondérées par la fonction f(γ b ).On pose alors{ }R k = Ef(γ b ) R(b)comme la matrice de covariance résultante à l’itération k de l’algorithme.(3.70)La fonction f(γ b ) peut être vue comme un estimateur du TEB du bloc b pourdes RSB relativement élevés, comme montre la figure 3.25. On peut voir que, pourγ b > −5 dB, la fonction f(γ b ) est une bonne approximation pour la fonction Q( √ γ b ).Par contre, pour des RSB inférieurs à −5 dB, la fonction f(γ b ) peut être vue comme