TH`ESE - Library of Ph.D. Theses | EURASIP

TH`ESE - Library of Ph.D. Theses | EURASIP TH`ESE - Library of Ph.D. Theses | EURASIP

theses.eurasip.org
from theses.eurasip.org More from this publisher
12.07.2015 Views

88 Chapitre 3. Techniques mono-utilisateur3.6.3 Algorithme mBER-TD-DB (minimum BER-TransmitDiversity-Downlink Beamforming)Pour trouver la solution optimale correspondant au critère de minimum de TEB,on propose d’utiliser une méthode itérative basée sur la méthode du gradient [24,8]. Étant donné que la contrainte concerne seulement la norme de ω, on peut latraiter de façon indépendante de la minimisation en soi. Ainsi, la méthode du gradientsera appliquée à la fonction coût J mBER (ω) comme si c’était une minimisation sanscontrainte. Après chaque itération du gradient, le vecteur ω trouvé sera normalisé defaçon à respecter la contrainte de puissance d’émission. Cela résulte en un algorithmesimple et efficace, comme on verra par la suite.( √Ns )Avant d’énoncer l’algorithme, calculons la dérivée de Q γ b par rapportà ωdQ( √ N s γ b )= dQ(√ N s γ b ) dγ bdω dγ b dω . (3.66)Pour le premier terme de la dérivée, en partant de l’équation (3.62), on obtientdQ( √ N s γ b )dγ bN s= −2 √ exp2πN s γ b(− N )sγ b −f(γ b ) . (3.67)2Notons que la fonction f(γ b ) ainsi définie dépend indirectement de ω.En exploitant l’équation (3.60), le second terme de la dérivée vautdγ bdω = 2 P TXR(b)ω . (3.68)σν2Finalement, on aboutit au gradient de J mBER (ω), qui s’écrit comme{ }∇J mBER (ω) = ∂J mBER(ω)= −2 P TXE f(γ∂ω σν2 b ) R(b) ω . (3.69){ }On note que, à une itération donnée, l’espérance E f(γ b ) R(b) correspond à unematrice de covariance formée par les matrices R(b) pondérées par la fonction f(γ b ).On pose alors{ }R k = Ef(γ b ) R(b)comme la matrice de covariance résultante à l’itération k de l’algorithme.(3.70)La fonction f(γ b ) peut être vue comme un estimateur du TEB du bloc b pourdes RSB relativement élevés, comme montre la figure 3.25. On peut voir que, pourγ b > −5 dB, la fonction f(γ b ) est une bonne approximation pour la fonction Q( √ γ b ).Par contre, pour des RSB inférieurs à −5 dB, la fonction f(γ b ) peut être vue comme

3.6. Minimisation du TEB 8910 2 γ bQ( γ b1/2 )10 0f( γ b)10 −210 −410 −610 −810 −1010 −1210 −1410 −16−35 −30 −25 −20 −15 −10 −5 0 5 10 15 20Fig. 3.25: Comparaison entre les fonctions Q( √ γ b ) et f(γ b ).un indicatif de la qualité du signal, plus la valeur de cette fonction est importante,pire est la qualité du signal.Ainsi, la moyenne pondérée dont le résultat est la matrice R k accorde plus d’importanceaux blocs dont le TEB est élevé et, parmi ces blocs, plus particulièrementà ceux dont le RSB instantané γ b est très faible. Par conséquent, dans l’obtention duprécodeur ω optimal, on tiendra davantage compte de ces blocs de façon à minimiserla probabilité d’occurrence de très faibles puissances reçues. Comme montré dans lasection 3.4, cette procédure mène à la réduction du TEB.À ce point, on peut faire un parallèle entre le critère de minimum de TEB et celuiqui vise à maximiser le RSB, présenté dans la section 2.5.2. Le critère de maximumde RSB, contrairement à celui de minimum de TEB, pondère les matrices R(b) detous les blocs avec la même intensité. Cela revient à donner la même force à desblocs dont le TEB est différent à cause du fading. Cependant, comme la techniquede maximisation du RSB est basée sur la matrice moyenne sur tous les blocs, elle nepeut pas voir cette variation de puissance entre les différents blocs. Ceci représente legrand avantage du critère proposé ici par rapport au critère classique de maximisationdu RSB.Algorithme mBER-TD-DB Comme mentionné auparavant, l’algorithme proposé,appelé mBER-TD-DB (minimum BER-Transmit Diversity-Downlink Beamforming),est composé de deux étapes : la mise à jour de ω par une méthode de typegradient et la normalisation de ω pour respecter la contrainte.En partant du gradient exprimé dans (3.69) et en posant k comme l’indice d’itéra-

88 Chapitre 3. Techniques mono-utilisateur3.6.3 Algorithme mBER-TD-DB (minimum BER-TransmitDiversity-Downlink Beamforming)Pour trouver la solution optimale correspondant au critère de minimum de TEB,on propose d’utiliser une méthode itérative basée sur la méthode du gradient [24,8]. Étant donné que la contrainte concerne seulement la norme de ω, on peut latraiter de façon indépendante de la minimisation en soi. Ainsi, la méthode du gradientsera appliquée à la fonction coût J mBER (ω) comme si c’était une minimisation sanscontrainte. Après chaque itération du gradient, le vecteur ω trouvé sera normalisé defaçon à respecter la contrainte de puissance d’émission. Cela résulte en un algorithmesimple et efficace, comme on verra par la suite.( √Ns )Avant d’énoncer l’algorithme, calculons la dérivée de Q γ b par rapportà ωdQ( √ N s γ b )= dQ(√ N s γ b ) dγ bdω dγ b dω . (3.66)Pour le premier terme de la dérivée, en partant de l’équation (3.62), on obtientdQ( √ N s γ b )dγ bN s= −2 √ exp2πN s γ b(− N )sγ b −f(γ b ) . (3.67)2Notons que la fonction f(γ b ) ainsi définie dépend indirectement de ω.En exploitant l’équation (3.60), le second terme de la dérivée vautdγ bdω = 2 P TXR(b)ω . (3.68)σν2Finalement, on aboutit au gradient de J mBER (ω), qui s’écrit comme{ }∇J mBER (ω) = ∂J mBER(ω)= −2 P TXE f(γ∂ω σν2 b ) R(b) ω . (3.69){ }On note que, à une itération donnée, l’espérance E f(γ b ) R(b) correspond à unematrice de covariance formée par les matrices R(b) pondérées par la fonction f(γ b ).On pose alors{ }R k = Ef(γ b ) R(b)comme la matrice de covariance résultante à l’itération k de l’algorithme.(3.70)La fonction f(γ b ) peut être vue comme un estimateur du TEB du bloc b pourdes RSB relativement élevés, comme montre la figure 3.25. On peut voir que, pourγ b > −5 dB, la fonction f(γ b ) est une bonne approximation pour la fonction Q( √ γ b ).Par contre, pour des RSB inférieurs à −5 dB, la fonction f(γ b ) peut être vue comme

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!