You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Appunti dalle lezioni<br />
di<br />
Trasmissioni numeriche II<br />
Teoria del ricevitore <strong>ottimo</strong><br />
(Ing. A. Fasano)<br />
1
1. Il problema della decisione<br />
Il problema della rivelazione ottima di segnali numerici immersi in rumore può essere ascritto al<br />
più generale problema della decisione statistica. Ciò in ragione del fatto che dei contributi di<br />
rumore, inevitabilmente presenti, si ha in genere una sola descrizione di tipo statistico<br />
(probabilistico). Il ricevitore in questo senso opera una decisione attuando quella che viene detta<br />
una regola di decisione, cioè una procedura (soddisfacente preassegnati criteri) che sulla base del<br />
segnale ricevuto stabilisce quale tra M possibili segnali distinti è stato trasmesso. Nell’ambito delle<br />
trasmissioni numeriche il criterio che appare (ragionevolmente) più opportuno è quello che conduce<br />
ad una regola di decisione che minimizza la probabilità di errore.<br />
Trattandosi di un criterio applicabile in molti ambiti diversi (non limitato quindi alle sole<br />
trasmissioni numeriche) vogliamo ora derivare la regola di decisione a cui conduce, analizzando il<br />
problema sotto condizioni molto generali.<br />
Schema di principio per un problema di decisione<br />
Si supponga di avere un sistema Σ (il nostro trasmettitore ad esempio) che possa trovarsi in uno<br />
(il possibile segnale trasmesso) di M distinti stati s k ( k = 1, … , M ) che rappresentano le M possibili<br />
ipotesi k<br />
Sistema Σ<br />
sk<br />
H che possono farsi sul sistema Σ ( H stato( Σ ) = s ) . Il sistema produce un’uscita x<br />
k k<br />
(funzione del suo stato) non direttamente accessibile e, dopo essersi combinata in vario modo con<br />
possibili disturbi presenti n , produce la grandezza osservabile r che assumiamo essere un vettore<br />
N<br />
con valori in uno spazio Ω ( Ω ⊆ ℝ ) detto spazio di osservazione.<br />
Si presume inoltre che sia nota (perché data o calcolabile dal problema) la densità di probabilità<br />
condizionata in avanti pR| S ( r | s k ) . Si ammette infine di conoscere le probabilità a priori delle M<br />
ipotesi H k , cioè Pk = Pr{ H k } = Pr { stato(<br />
Σ ) = s k } .<br />
x<br />
n<br />
disturbi<br />
r<br />
decisore<br />
sˆ = d(<br />
r)<br />
2
Il decisore attua la cosiddetta regola di decisione definita come la funzione<br />
{ }<br />
d : Ω → s , s , ⋯ , sM<br />
che ad ogni vettore osservato r associa la decisione sˆ = d(<br />
r ) . Ogni regola<br />
1 2<br />
di decisione d( ⋅ ) individua una partizione dello spazio di osservazione Ω in regioni di decisione<br />
{ r ∈Ω | ( r) = s }<br />
R ≐ d<br />
i i<br />
M<br />
⎛ ⎞<br />
⎜ Ri ∩ Rj = ∅ per i ≠ j e ∪ Ri<br />
= Ω⎟<br />
. Viceversa, una partizione di Ω in<br />
⎝ i=<br />
1 ⎠<br />
regioni R j<br />
ɶ ( j = 1, … , M ) definisce una regola di decisione dɶ ( ⋅)<br />
. È quindi evidente che individuare<br />
la regola di decisione d( ⋅ ) è equivalente a determinare le regioni di decisione R i ( i = 1, … , M ), che<br />
costituiscono una partizione di Ω .<br />
La regola, a sua volta, è individuata una volta specificato il criterio di ottimalità che si decide di<br />
seguire. Nel caso in esame il criterio è la minimizzazione della probabilità media di errore nella<br />
decisione, indicata con P e . Poiché inoltre Pe = 1−<br />
Pc<br />
, dove P c è la probabilità media di decisione<br />
corretta, il criterio può equivalentemente essere visto in termini di massimizzazione della<br />
probabilità di corretta decisione.<br />
Seguendo questo criterio andiamo ora a determinare le regioni R i che individuano la<br />
corrispondente regola di decisione.<br />
M<br />
∑<br />
{ sˆ s s }<br />
P = Pr = & stato(<br />
Σ ) =<br />
c i i<br />
i=<br />
1<br />
M<br />
∑<br />
i=<br />
1<br />
i= 1 Ri<br />
i= 1 Ri<br />
{ sˆ s stato s } { stato s }<br />
= Pr = | ( Σ ) = Pr ( Σ ) =<br />
M<br />
∑ ∫<br />
= [ p ( r | s ) ⋅ P ] dr<br />
M<br />
∑ ∫<br />
R| S<br />
i i i<br />
i i<br />
k= 1, …,<br />
M<br />
( R| S k k )<br />
≤ f ( r) dr dove f ( r) = max p ( r | s ) ⋅ P<br />
M<br />
⎛ ⎞<br />
= f ( r) dr = cost ⎜essendo R = Ω e R ∩ R = ∅ i ≠ j ⎟<br />
∫<br />
Ω<br />
∪<br />
i i j<br />
⎝ i=<br />
1<br />
⎠<br />
Da ciò segue che P ≤ ∫ f ( r) dr<br />
ed il valore costante dell’integrale a secondo membro può essere<br />
c<br />
Ω<br />
raggiunto se le regioni R i sono scelte in modo che si abbia<br />
r ∈ R ⇒ P ⋅ p ( r | s ) = f ( r) ≐ max P ⋅ p ( r | s )<br />
i i R| S i k R| S k<br />
k= 1, …,<br />
M<br />
cioè ∀r ∈Ω assegnando r alla regione i R per cui è massimo il prodotto Pi ⋅ pR|<br />
S ( r | s i ) . In realtà il<br />
decisore non deve realmente calcolare le regioni R i ma limitarsi a calcolare per ogni r ricevuto le<br />
3
quantità Pk p | k<br />
massimo, cioè<br />
⋅ R S ( r | s ) per k = 1, … , M e decidere in favore dell’indice k che produce il valore<br />
sˆ = d( r) = arg max ⎡P ⋅ p ( r | s ) ⎤<br />
(1)<br />
sk<br />
⎣ k R| S k ⎦<br />
dove l’operatore “arg max” ritorna l’argomento che massimizza la funzione a cui è applicato (ad<br />
esempio<br />
⎡ x ⎤<br />
2<br />
arg max ⎣2 − ( − 1) ⎦ = 1<br />
x∈ℝ<br />
)<br />
Alla (1) è possibile dare un’altra forma osservando che la massimizzazione è condotta rispetto a<br />
s k ed eventuali fattori non dipendenti da questo sono ininfluenti. Si ha:<br />
sˆ = arg max ⎡P ⋅ p ( r | s ) ⎤<br />
sk<br />
⎣ k R| S k ⎦<br />
⎡ P ⋅ p ( r | s ) ⎤<br />
= ⎢ ⎥<br />
⎣ ⎦<br />
( p r s )<br />
k R| S k<br />
arg max R ( ) non dipende da<br />
sk<br />
pR<br />
( r)<br />
= ⎣PS | R k ⎦<br />
sk<br />
( )<br />
arg max ⎡ ( s | r)<br />
⎤<br />
teorema di Bayes<br />
Applicare la regola di decisione (1) equivale quindi a cercare il particolare s k che presenta la<br />
massima probabilità a posteriori PS | R ( sk | r ) per fissata osservazione r . Per questa ragione la regola<br />
(1) è nota come decisione a massima probabilità a posteriori o decisione MPA (maximum a<br />
posteriori o MAP in letteratura anglosassone) e con analoga terminologia ci si riferisce al<br />
corrispondente decisore.<br />
Quando le probabilità a priori sono uguali<br />
k<br />
1<br />
Pk = ( ⇔ le ipotesi H k sono equiprobabili) nella<br />
M<br />
(1) si può eliminare P k (costante rispetto a k) e la regola di decisione diviene<br />
sˆ arg max ⎡ ( r | s ) ⎤<br />
(ipotesi equiprobabili)<br />
= ⎣ pR|<br />
S k ⎦<br />
sk<br />
che in generale costituisce una procedura distinta da quella MPA ed alla quale si da il nome di<br />
decisione a massima verosimiglianza o decisione MV (maximum likelihood o ML in letteratura<br />
anglosassone) poiché la densità di probabilità condizionata in avanti pR| S ( r | s k ) , vista come<br />
funzione di s k per r fissato, è detta verosimiglianza.<br />
In conclusione la politica di decisione che garantisce la minima probabilità di errore è quella a<br />
massima probabilità a posteriori (è anche detta procedura dell’osservatore ideale) e corrisponde<br />
alla seguente regola<br />
4
sˆ = arg max ⎡<br />
⎣P ⋅ p ( r | s ) ⎤<br />
⎦<br />
(decisione MPA)<br />
MPA k R| S k<br />
sk<br />
Oltre a questa esiste la procedura a massima verosimiglianza che, non facendo uso<br />
dell’informazione a priori sulle ipotesi, in generale non gode di particolari proprietà di <strong>ottimo</strong> ed è<br />
caratterizzata dalla seguente regola<br />
sˆ = arg max ⎡<br />
⎣ p ( r | s ) ⎤<br />
⎦<br />
(decisione MV)<br />
MV R| S k<br />
sk<br />
Questa coincide con la decisione MPA nella sola circostanza in cui le ipotesi siano<br />
equiprobabili. Cioè<br />
Ipotesi equiprobabili ⇒ sˆ ≡ s ˆ<br />
MV MPA<br />
Vale la pena mettere l’accento sul fatto che la decisione MV garantisce la minima probabilità di<br />
errore solo quando coincide con la decisione MPA e questo accade, come detto sopra, quando le<br />
probabilità a priori sono uguali. Quest’ultima tuttavia è un’assunzione frequente nel caso delle<br />
trasmissioni numeriche.<br />
⎯⎯⎯⎯ ο ⎯⎯⎯⎯<br />
5
2. Cenni sulla rappresentazione discreta di segnali continui<br />
In questo paragrafo daremo brevissimi cenni riguardo alla possibilità di associare a segnali<br />
continui di energia una rappresentazione discreta in termini di una sequenza numerica, con un<br />
numero di termini eventualmente finito o infinito ma al più numerabile. Tale tipo di<br />
rappresentazione poggia le basi sulla teoria degli spazi vettoriali e consente di interpretare o<br />
risolvere geometricamente problemi che coinvolgono segnali.<br />
La classe dei segnali di energia presenta una struttura di spazio vettoriale rispetto alle usuali<br />
operazioni di somma tra segnali e moltiplicazione per uno scalare. Ciò significa che ogni segnale<br />
può essere riguardato alla stregua di un vettore in relazione alle proprietà di cui godono le<br />
operazioni di composizione tra segnali (somma e moltiplicazione per uno scalare) che sono<br />
analoghe, mutatis mutandis, alle corrispondenti proprietà delle operazioni tra vettori di<br />
L’analogia è in realtà molto stretta nel senso che, come per i vettori di<br />
possibile introdurre il concetto di prodotto scalare che risulta definito come segue<br />
+∞<br />
3<br />
ℝ .<br />
3<br />
ℝ , anche per i segnali è<br />
x( t), y( t) = ∫ x( t) y( t) dt<br />
(1)<br />
−∞<br />
e gode delle stesse proprietà di cui gode il prodotto scalare tra vettori di<br />
segnali si diranno ortogonali se risulta x( t), y( t ) = 0 .<br />
Un aspetto fondamentale dei vettori di<br />
3<br />
ℝ . In particolar modo due<br />
3<br />
ℝ è la possibilità, fissati tre versori, di poter<br />
rappresentare qualunque generico vettore in termini delle sue componenti. Nello specifico dette<br />
componenti sono ottenute facendo il prodotto scalare (proiezione) tra il vettore ed il generico<br />
versore .<br />
Volendo estendere tale caratteristica anche allo spazio vettoriale dei segnali di energia nasce<br />
spontaneo considerare quelli che sono possibili candidati ad essere versori e cioè sistemi di segnali<br />
ortonormali. Un insieme di segnali { ϕ ( t), ϕ ( t), , ϕ ( t)<br />
}<br />
1 2<br />
⋯ dove N ≤ ∞ è detto un sistema<br />
ortonormale se i suoi componenti hanno energia unitaria e risultano mutuamente ortogonali, cioè<br />
ϕ ( t), ϕ ( t)<br />
k j<br />
⎧1,<br />
= ⎨<br />
⎩0<br />
,<br />
k = j<br />
k ≠ j<br />
N<br />
( k, j = 1,2, … ) . (2)<br />
Scelto ora un generico segnale (vettore) di energia x( t ) si calcolino le componenti rispetto a<br />
ciascuno dei possibili “versori” ϕ ( ) utilizzando il prodotto scalare<br />
k t<br />
x = x( t), ϕ ( t)<br />
. (3)<br />
k k<br />
6
A questo punto è lecito domandarsi se, analogamente a quanto avviene per i vettori di<br />
possibile scrivere la seguente uguaglianza (il punto interrogativo evidenzia il quesito)<br />
k = 1<br />
3<br />
ℝ , è<br />
N ?<br />
x( t) =∑ x ϕ ( t)<br />
. (4)<br />
k k<br />
Sfortunatamente la risposta è in generale negativa anche prendendo N = ∞ e la ragione di ciò<br />
risiede nel fatto che lo spazio dei segnali di energia ha dimensione non finita. Esistono tuttavia<br />
sistemi ortonormali particolari per cui nella (4) vale l’uguaglianza. In tale circostanza si dice che il<br />
sistema ortonormale è completo per il segnale x( t ) o equivalentemente che è una base completa<br />
per x( t ) e il segnale stesso può essere rappresentato dall’insieme dei suoi coefficienti<br />
{ x x x }<br />
1, 2,<br />
⋯ , N o equivalentemente dal vettore [ ] T N<br />
x = x1 x2 ⋯ xN<br />
∈ ℝ .<br />
L’utilità di tale rappresentazione risulta evidente quando si osserva che è possibile effettuare<br />
operazioni tra segnali per il tramite delle loro rappresentazioni vettoriali.<br />
Si considerino infatti due segnali di energia x( t ) e ( )<br />
completa per entrambi. Ciò significa che valgono le relazioni<br />
N<br />
k=<br />
1<br />
y t e sia { ψ ( t), ψ ( t), , ψ ( t)<br />
}<br />
1 2<br />
⋯ una base<br />
x( t) = ∑ x ψ ( t)<br />
con x = ∫ x( t) ψ ( t) dt ; (5)<br />
N<br />
k = 1<br />
k k<br />
∞<br />
k<br />
−∞<br />
k<br />
y( t) = ∑ y ψ ( t)<br />
con y = ∫ y( t) ψ ( t) dt ; (6)<br />
k k<br />
indicando inoltre con [ ] T<br />
= x x x<br />
∞<br />
k<br />
−∞<br />
k<br />
x 1 2⋯ N e [ ] T<br />
= y1 y2 yN<br />
y ⋯ i corrispondenti vettori di<br />
rappresentativi dei due segnali, si verifica immediatamente che valgono le seguenti relazioni<br />
x<br />
[ ( ) ]<br />
+∞ 2 T 2<br />
∫ x x x (7)<br />
−∞<br />
E = x t dt = =<br />
xy<br />
+∞<br />
T<br />
∫ ( ) ( ) x y (8)<br />
−∞<br />
E = x t y t dt =<br />
Dimostriamo la (8) visto che la (7) si ottiene da questa ponendo y( t) = x( t)<br />
.<br />
Si ha infatti<br />
+∞ +∞ ⎡ N N<br />
⎛ ⎞⎛<br />
⎞⎤<br />
Exy = ∫ x( t) y( t) dt = xkψ k ( t) y jψ j ( t) dt<br />
−∞ ∫ ⎢ −∞ ⎜∑ ⎟⎜∑<br />
⎟⎥<br />
⎢⎣ ⎝ k = 1 ⎠⎝<br />
j=<br />
1 ⎠⎥⎦<br />
=<br />
N N<br />
∑∑ ∫<br />
k= 1 j=<br />
1<br />
+∞<br />
x y ψ ( t) ψ ( t) dt<br />
k j j k<br />
−∞<br />
N N<br />
= ∑∑<br />
xk y jδ k , j δk<br />
, j = ⎨<br />
k= 1 j=<br />
1<br />
⎛ ⎧1,<br />
k = j ⎞<br />
⎜ ⎟<br />
⎝ ⎩0<br />
, k ≠ j ⎠<br />
N<br />
N<br />
ℝ<br />
7
E<br />
xy<br />
N<br />
∑ xk yk<br />
k = 1<br />
T<br />
x y . (9)<br />
= =<br />
Specializziamo ora quanto detto alla situazione che incontreremo nei paragrafi successivi. Si<br />
immagini di avere un insieme di M ( M < ∞ ) segnali di energia { s ( t), s ( t), , s ( t)<br />
}<br />
1 2<br />
⋯ che assumono<br />
valori non nulli (solo) nell’intervallo [0, T ] . Si è interessati a determinare, ammesso che esista, una<br />
base completa { ψ ( t), ψ ( t), , ψ ( t)<br />
}<br />
1 2<br />
il minimo) di funzioni.<br />
⋯ per detto insieme che abbia un numero finito (possibilmente<br />
N<br />
È possibile provare che detta base esiste sempre ed è caratterizzata da un numero di funzioni<br />
N ≤ M . La si ottiene applicando la procedura di ortogonalizzazione di Gram-Schmidt all’insieme<br />
dei segnali { s ( t), s ( t), , s ( t)<br />
}<br />
1 2<br />
⋯ ed è formata dal minimo numero possibile di funzioni della base.<br />
M<br />
Se gli M segnali sk ( t ) ( k = 1, … , M ) sono linearmente indipendenti risulta N = M , se invece<br />
risultano linearmente dipendenti si avrà N < M . Il parametro N acquista quindi il significato di<br />
dimensione dello spazio di segnali { s ( t), s ( t), , s ( t)<br />
}<br />
1 2<br />
Indicando con { ψ ( t), ψ ( t), , ψ ( t)<br />
}<br />
1 2<br />
N<br />
⋯ .<br />
M<br />
⋯ la base completa ottenuta dalla procedura di Gram-<br />
Schmidt, si verifica facilmente che a meno di un differente ordinamento dei segnali le funzioni della<br />
base sono date dalle seguenti espressioni<br />
s ( t)<br />
1 ψ 1(<br />
t)<br />
= ; (10)<br />
s1( t)<br />
ψ ( t)<br />
=<br />
2<br />
ψ ( t)<br />
=<br />
ψ<br />
3<br />
s ( t) − s ( t), ψ ( t)<br />
2 2 1<br />
s ( t) − s ( t), ψ ( t)<br />
2 2 1<br />
s ( t) − s ( t), ψ ( t) − s ( t), ψ ( t)<br />
3 3 2 3 1<br />
s ( t) − s ( t), ψ ( t) − s ( t), ψ ( t)<br />
3 3 2 3 1<br />
⋮ ⋮ ⋮<br />
N −1<br />
∑<br />
s ( t) − s ( t), ψ ( t)<br />
N N k<br />
N ( t)<br />
=<br />
k=<br />
1<br />
N −1<br />
∑<br />
s ( t) − s ( t), ψ ( t)<br />
N N k<br />
k=<br />
1<br />
; (11)<br />
; (12)<br />
. (13)<br />
Individuata quindi la base completa tramite la procedura sopra descritta ad ogni segnale sk ( t )<br />
( k = 1, … , M ) risulta associato un vettore<br />
N<br />
ℝ , le cui componenti sono calcolate come segue<br />
s = [ s s ⋯ s ] appartenente allo spazio euclideo<br />
(1) (2) ( N ) T<br />
k k k k<br />
M<br />
8
T<br />
s = s ( t), ψ ( t) = ∫ s ( t) ψ ( t) dt<br />
(14)<br />
( j)<br />
k k j<br />
0<br />
k j<br />
Ciascun vettore s k può essere inoltre interpretato come punto di<br />
N<br />
ℝ e l’insieme degli M punti<br />
nello spazio ad N dimensioni prende il nome di costellazione di segnale e fornisce un utile<br />
strumento geometrico per analizzare le tecniche di modulazione. Si rammenta in conclusione che<br />
un’applicazione della (7) e della (8) alla circostanza in esame porta a scrivere senza difficoltà le<br />
seguenti relazioni<br />
T<br />
[ ] 2 2 T<br />
( )<br />
Ek = ∫ s<br />
0<br />
k t dt = sk = sk s k , ( k = 1, … , M ); (15)<br />
T<br />
T<br />
kj = ( ) ( )<br />
0<br />
k j = k j<br />
E ∫ s t s t dt s s , ( k = 1, … , M ); (16)<br />
T<br />
2 2 2 2<br />
T<br />
∫ ⎡ ( ) ( ) 2<br />
0 ⎣sk t − s j t ⎤<br />
⎦ dt = sk − s j = sk + s j − sk s j , ( k j<br />
⎯⎯⎯⎯ ο ⎯⎯⎯⎯<br />
≠ ). (17)<br />
9
3. Demodulatore coerente<br />
Si supponga che il modulatore dal lato trasmettitore generi nell’intervallo [0, T ] (intervallo di<br />
segnalazione) una tra M possibili segnali reali ad energia finita sk ( t ) , k = 1, … , M . Si ammette<br />
inoltre che i segnali siano equiprobabili e che il demodulatore dal lato ricevitore veda nel medesimo<br />
intervallo [0, T ] una copia del segnale trasmesso più rumore additivo n( t ) che si assume essere una<br />
realizzazione di un processo gaussiano a valore atteso nullo, stazionario ed ergodico con spettro di<br />
densità di potenza (bilatero) uniforme 1 N0<br />
PN ( f ) = statisticamente indipendente dal segnale<br />
2<br />
trasmesso.<br />
Il segnale ricevuto nell’intervallo di segnalazione risulta quindi<br />
r( t) = s ( t) + n( t)<br />
t ∈ [0, T ]<br />
(1)<br />
k<br />
Il modello di canale descritto dalla (1) è non distorcente ( sk ( t ) non viene alterato) e l’unico<br />
effetto che ha è l’aggiunta di rumore gaussiano bianco (cioè con<br />
noto in letteratura come canale AWGN (Additive White Gaussian Noise).<br />
N<br />
2<br />
0 PN ( f ) = ); per questa ragione è<br />
Deriveremo ora la struttura del ricevitore <strong>ottimo</strong> nell’ipotesi che gli M segnali siano<br />
perfettamente noti al ricevitore. Questa ipotesi qualifica il ricevitore come coerente.<br />
Per quanto visto nei paragrafi precedenti, il ricevitore <strong>ottimo</strong> è quello che attua la decisione MPA<br />
che, stante l’ipotesi fatta di segnali trasmessi equiprobabili, coincide con la decisione MV.<br />
Nasce un primo problema legato al fatto che nel paragrafo 1 la regola di decisione ottima (MPA)<br />
è stata ricavata supponendo di osservare un vettore di valori. In questo caso invece l’osservazione è<br />
costituita dal segnale r( t ) osservato per t ∈ [0, T ] . Il problema può essere risolto o cercando di<br />
derivare la corrispondente regola di decisione ottima quando l’osservazione è continua (approccio<br />
complesso e che non muta nella sostanza il risultato a cui si perviene) oppure cercando di ricavare<br />
dal modello di osservazione, che coinvolge i segnali nel tempo, un corrispondente modello<br />
vettoriale che risulti equivalente dal punto di vista della decisione. Seguiremo appunto quest’ultima<br />
strada ricorrendo alla rappresentazione del segnale ricevuto in un’opportuna base ortonormale. La<br />
scelta di quest’ultima deve essere fatta in modo tale che la rappresentazione tramite i coefficienti<br />
dello sviluppo non perda informazione in merito alla porzione di segnale utile ( sk ( t ) ).<br />
N<br />
RN ( τ ) = E n( t) n( t + τ ) = δ ( τ ) .<br />
2<br />
1 La corrispondente funzione di autocorrelazione è { } 0<br />
10
Relativamente al rumore una perdita può essere tollerata a patto che questa risulti irrilevante ai fini<br />
della successiva decisione statistica. Quanto detto euristicamente trova supporto teorico nel fatto,<br />
dimostrabile, che:<br />
“Nelle ipotesi di rumore bianco additivo una qualunque base ortonormale completa per<br />
l’insieme dei possibili segnali trasmessi ({ s ( t), s ( t), ⋯ , s ( t)<br />
} ) dà origine ad un vettore r che<br />
1 2<br />
risulta equivalente, ai fini della decisione statistica, all’intera osservazione r( t ) per t ∈ [0, T ] ”.<br />
Il vettore r così ottenuto è detto rilevante ed in termini tecnici questo significa che costituisce<br />
una statistica sufficiente nei riguardi del problema di decisione. Per quanto detto sopra risulta<br />
inoltre che la struttura del ricevitore è indipendente dalla particolare base scelta, purché completa<br />
per la parte di segnale utile ( sk ( t ) , k = 1, … , M ). In particolare la base ortonormale<br />
{ ψ ( t), ψ ( t), , ψ ( t)<br />
}<br />
1 2<br />
⋯ che porta ad un vettore r rilevante con il minimo numero di componenti N<br />
N<br />
è quella che si ottiene applicando la procedura di ortogonalizzazione di Gram-Schmidt all’insieme<br />
dei possibili M segnali trasmessi { s ( t), s ( t), , s ( t)<br />
}<br />
ovviamente N ≤ M ).<br />
1 2<br />
Scelta quindi la base ortonormale { ψ ( t), ψ ( t), , ψ ( t)<br />
}<br />
segnali trasmessi { s ( t), s ( t), , s ( t)<br />
}<br />
1 2<br />
seguenti coefficienti dello sviluppo<br />
M<br />
1 2<br />
M<br />
M<br />
⋯ (per quanto detto nel paragrafo 2 risulta<br />
⋯ , completa per l’insieme dei possibili<br />
N<br />
⋯ , si proietti in essa il segnale ricevuto r( t ) , ottenendo i<br />
T T T<br />
( j) ( j) ( j)<br />
= ( ) ψ ( ) ( ) ( ) ( ) ( )<br />
0<br />
j =<br />
0<br />
k ψ j + ψ<br />
0<br />
j = k +<br />
∫ ∫ ∫ , 1, ,<br />
r r t t dt s t t dt n t t dt s n<br />
che raccolti nei vettori<br />
(1)<br />
⎡ ⎤<br />
r<br />
⎢ (2) ⎥<br />
r<br />
r = ⎢ ⎥<br />
⎢ ⋮ ⎥<br />
⎢ ( N ) ⎥<br />
⎣r ⎦<br />
,<br />
s<br />
k<br />
(1) ⎡ s ⎤ k<br />
⎢ (2) ⎥<br />
sk<br />
= ⎢ ⎥<br />
⎢ ⋮ ⎥<br />
⎢ ( N ) ⎥<br />
⎢⎣ sk<br />
⎥⎦<br />
,<br />
(1)<br />
⎡ ⎤<br />
n<br />
⎢ (2) ⎥<br />
n<br />
n = ⎢ ⎥<br />
⎢ ⋮ ⎥<br />
⎢ ( N ) ⎥<br />
⎣n ⎦<br />
j = … N (2)<br />
, (3)<br />
portano al seguente modello vettoriale di osservazione equivalente a (1) dal punto di vista della<br />
decisione statistica<br />
r = sk + n . (4)<br />
Vale la pena osservare che si ha<br />
N<br />
( j)<br />
k ( ) k ψ j ( )<br />
j=<br />
1<br />
T<br />
( j)<br />
= ∑ ( dove sk s ( ) ( )<br />
0<br />
k t ψ j t dt)<br />
s t s t<br />
= ∫ t ∈ [0, T ]<br />
(5)<br />
11
essendo la base completa per i segnali sk ( t ) ( k = 1, … , M ), mentre in generale<br />
N<br />
( j)<br />
( ) ψ j ( )<br />
j=<br />
1<br />
n t ≠ ∑ n t<br />
t ∈ [0, T ]<br />
(6)<br />
ma per quanto detto prima ciò non comporta alcuna perdita ai fini della decisione.<br />
A questo punto avendo a disposizione un’osservazione vettoriale possiamo applicare la teoria<br />
sviluppata nel paragrafo 1 e concludere che il ricevitore <strong>ottimo</strong> (nell’ipotesi di segnali sk ( t )<br />
equiprobabili) è quello che attua la seguente regola di decisione a massima verosimiglianza<br />
sˆ arg max ( r | s )<br />
( s k equiprobabili) (7)<br />
MV = pRS<br />
| k<br />
sk<br />
Il calcolo della pRS | ( r | s k ) si effettua a partire dalla descrizione statistica del vettore di rumore n.<br />
Questo è ottenuto per trasformazione lineare di un processo gaussiano e quindi risulta a sua volta<br />
un vettore gaussiano. Rimane da caratterizzarne il vettore dei valori attesi e la matrice di<br />
covarianza. Relativamente al primo si osserva<br />
(1) { n }<br />
(2) { n }<br />
⎡ E ⎤<br />
⎢ ⎥<br />
⎢ E ⎥<br />
mn = E{<br />
n} = ⎢ ⎥ = 0<br />
⎢ ⋮ ⎥<br />
⎢ ( N ) ⎥<br />
⎢⎣ E{<br />
n } ⎥⎦<br />
dove 0 è il vettore nullo di dimensione N, poiché<br />
T T<br />
( j)<br />
{ } { } { }<br />
∫ ψ<br />
0<br />
j ∫ ψ<br />
0<br />
j . (9)<br />
E n = E n( t) ( t) dt = E n( t) ( t) dt = 0<br />
In merito alla seconda si ha<br />
T N0<br />
Kn = E{<br />
nn } = σ ij = I<br />
i, j= 1, …N<br />
2<br />
dove I è la matrice identità di dimensioni N×N, risultando<br />
T T<br />
( i) ( j)<br />
{ n n } { ∫ n t t dt<br />
0 ∫ n d<br />
0<br />
}<br />
σ = E = E ( ) ψ ( ) ⋅ ( τ ) ψ ( τ ) τ<br />
ij i j<br />
=<br />
T T<br />
∫ ∫<br />
0 0<br />
{ }<br />
E n( t) n( τ ) ψ ( t) ψ ( τ ) dtdτ<br />
N<br />
δ ( t<br />
2<br />
τ ) ψ i ( t) ψ j ( τ ) dtdτ<br />
⎧ N<br />
⎪ i = j<br />
T T<br />
0 = ∫ −<br />
0 ∫0<br />
N<br />
i j<br />
0<br />
T<br />
0<br />
= ( ) ( ) 2<br />
2 ∫ ψ i t ψ j t dt = ⎨ 0<br />
⎪0 ≠<br />
⎩<br />
i j<br />
Le componenti di n (vettore gaussiano) essendo incorrelate risultano anche statisticamente<br />
indipendenti. In conclusione si ha che<br />
(8)<br />
(10)<br />
(11)<br />
12
⎛ N ⎞<br />
∼ ⎜ ,<br />
2<br />
⎟ . (12)<br />
⎝ ⎠<br />
0<br />
n 0 I<br />
Da ciò segue facilmente che, essendo rumore e segnale trasmesso indipendenti, il vettore r<br />
condizionatamente a k s (in simboli r | ) ha ancora distribuzione gaussiana, ma con vettore dei<br />
sk<br />
valori attesi s k e matrice di covarianza quella del rumore. In sintesi<br />
⎛ N ⎞<br />
∼ ⎜ ,<br />
2<br />
⎟<br />
(13)<br />
⎝ ⎠<br />
0<br />
r | sk I<br />
sk<br />
da cui segue immediatamente che<br />
R| S<br />
T<br />
( r−sk ) ( r−sk )<br />
2<br />
r−sk N0 N0<br />
1 1<br />
p ( r | s ) = e = e . (14)<br />
k<br />
( π N ) ( π N )<br />
Tenendo poi conto del fatto che<br />
N N<br />
0 0<br />
T<br />
( k ) ( k )<br />
1<br />
N<br />
2<br />
0<br />
k k<br />
N<br />
k k k<br />
( 0 )<br />
e<br />
r−s r−s = − = −<br />
s s s<br />
π N<br />
arg max arg min r s arg min r s , (15)<br />
il ricevitore <strong>ottimo</strong> attua la seguente regola di decisione<br />
sˆ = arg min r − s . (16)<br />
MV k<br />
sk<br />
Essendo r − s k la distanza euclidea tra i vettori r e s k si ha il notevole risultato che, nelle<br />
ipotesi in cui si è analizzato il problema, cioè di segnali trasmessi equiprobabili osservati in rumore<br />
additivo gaussiano bianco, il ricevitore <strong>ottimo</strong> coincide con il ricevitore a minima distanza euclidea.<br />
Un primo schema realizzativo dello stesso che proietta il segnale ricevuto nella base<br />
{ ψ ( t), ψ ( t), , ψ ( t)<br />
}<br />
1 2<br />
⋯ , è quindi il seguente<br />
r( t)<br />
N<br />
ψ<br />
1<br />
( ) t<br />
N ( ) t ψ<br />
T<br />
∫<br />
0<br />
T<br />
∫<br />
0<br />
(1)<br />
r<br />
( N )<br />
r<br />
Calcolo<br />
delle<br />
distanze<br />
di r da<br />
s1,s2,..,sM<br />
r − s<br />
1<br />
r − s<br />
M<br />
M<br />
I<br />
N<br />
sˆ<br />
MV<br />
13
È possibile tuttavia derivare strutture alternative del ricevitore in dipendenza delle diverse forme<br />
(equivalenti) in cui è possibile scrivere la (16). Sviluppando la norma ivi presente (o meglio il suo<br />
quadrato) si ottiene<br />
sˆ = arg min r − s<br />
MV k<br />
sk<br />
2<br />
2 2 T<br />
{ r sk r sk<br />
}<br />
= arg min + − 2<br />
sk<br />
=<br />
⎧<br />
−<br />
⎩<br />
⎡<br />
⎣<br />
1<br />
−<br />
⎤⎫<br />
⎦⎭<br />
⎧ T<br />
= arg max ⎨r sk sk<br />
⎩<br />
1<br />
− sk<br />
2<br />
2 ⎫<br />
⎬ .<br />
⎭<br />
( )<br />
T<br />
2 2<br />
arg min ⎨ 2<br />
⎢<br />
r sk sk ⎬ essendo costante rispetto a k<br />
k<br />
2 ⎥<br />
r s<br />
s<br />
Esprimendo ora i prodotti scalari che compaiono nella (17) in termini dei corrispondenti integrali<br />
tra le funzioni del tempo (vedi paragrafo 2) è facile verificare che si ha<br />
T<br />
T<br />
r s k r( t) s ( )<br />
0<br />
k t dt , ( k 1, , M )<br />
= ∫<br />
[ ] 2<br />
2 T<br />
T<br />
sk = s s k = ∫ s ( )<br />
0<br />
k t dt = Ek<br />
, ( k 1, , M )<br />
(17)<br />
= … ; (18)<br />
= … ; (19)<br />
essendo E k l’energia del k-esimo possibile segnale trasmesso. Sulla base delle (18) e (19) si ottiene<br />
una prima forma equivalente della (16)<br />
1<br />
ˆ<br />
⎧ T<br />
⎫<br />
s MV = arg max ⎨∫ r( t) sk ( t) dt − Ek<br />
⎬<br />
(20)<br />
s<br />
0<br />
k ⎩ 2 ⎭<br />
a cui corrisponde la seguente struttura di demodulatore cosiddetto a correlazione, per via della<br />
circostanza che il primo termine tra parentesi graffe nella (20) è un integrale di correlazione tra il<br />
segnale ricevuto r( t ) ed il generico possibile segnale trasmesso ( )<br />
r( t)<br />
s ( t)<br />
1<br />
s ( t)<br />
M<br />
T<br />
∫<br />
0<br />
T<br />
∫<br />
0<br />
crs1<br />
crsM<br />
1<br />
2 E<br />
s t ( k 1, , M )<br />
1<br />
k<br />
1<br />
2 M E<br />
M<br />
A<br />
X<br />
= … .<br />
sˆ<br />
MV<br />
14
Un ulteriore schema si ottiene osservando che il generico integrale di correlazione presente nella<br />
(20) può calcolarsi equivalentemente facendo transitare il segnale ricevuto r( t ) in un filtro (causale)<br />
avente risposta impulsiva h ( t) = s ( T − t)<br />
e campionando la corrispondente uscita all’istante t = T ,<br />
infatti<br />
0<br />
k k<br />
| |<br />
r( t) ∗ h ( t) = r( t) ∗ s ( T − t)<br />
k k<br />
t= T<br />
+∞<br />
t= T<br />
= r( τ ) s ( T − t + τ ) dτ<br />
=<br />
∫<br />
−∞<br />
∫<br />
T<br />
k<br />
r( τ ) s ( τ ) dτ<br />
che consente di riscrivere la (16)<br />
k<br />
|<br />
t= T<br />
1<br />
ˆ<br />
⎧ ⎫<br />
s MV = arg max ⎨r( t) ∗hk ( t) − Ek<br />
| ⎬<br />
(22)<br />
sk<br />
⎩ t= T 2 ⎭<br />
da cui segue senza difficoltà il seguente schema del demodulatore cosiddetto a filtro adattato, in<br />
quanto ciascuno dei filtri hk ( t ) è adattato al corrispondente segnale sk ( t ) .<br />
r( t)<br />
In sintesi la regola di decisone attuata dal ricevitore <strong>ottimo</strong> può porsi nelle forme seguenti<br />
sˆ = arg min r − s<br />
MV k<br />
sk<br />
⎧ T<br />
1 ⎫<br />
= arg max ⎨ r( t) s ( t) dt − E ⎬ demodulatore a correlazione<br />
sk<br />
∫<br />
h ( t) = s ( T − t)<br />
1 1<br />
h ( t) = s ( T − t)<br />
M M<br />
0<br />
k k<br />
⎩ 2 ⎭<br />
( )<br />
⎧ 1 ⎫<br />
= arg max ⎨r( t) ∗hk ( t) − Ek<br />
demodulatore a filtro adattato<br />
| ⎬<br />
sk<br />
⎩ t= T 2 ⎭<br />
( )<br />
cui corrispondono rispettivamente gli schemi (tutti equivalenti) riportati nelle ultime tre figure.<br />
t = T<br />
t =<br />
T<br />
crs1<br />
crsM<br />
1<br />
2 E<br />
1<br />
1<br />
2 M E<br />
M<br />
A<br />
X<br />
sˆ<br />
MV<br />
(21)<br />
15
A conclusione vale la pena osservare che la struttura di decisione che conduce alla minima<br />
distanza euclidea dipende fortemente dalle ipotesi fatte. In particolare il fatto che il rumore sia<br />
gaussiano e bianco garantisce che la massimizzazione della densità di probabilità in avanti sia<br />
equivalente alla minimizzazione della forma quadratica presente ad esponente nella gaussiana (la<br />
bianchezza in particolare implica che detta forma quadratica sia proprio una distanza euclidea). In<br />
ultimo si sottolinea l’assunta ipotesi di equiprobabilità dei segnali trasmessi; è infatti possibile<br />
dimostrare che quando questa non è verificata il ricevitore <strong>ottimo</strong>, che sarà necessariamente del tipo<br />
a massima probabilità a posteriori, non è in generale a minima distanza euclidea.<br />
⎯⎯⎯⎯ ο ⎯⎯⎯⎯<br />
16
4. Prestazioni del ricevitore <strong>ottimo</strong> coerente<br />
Le prestazioni del ricevitore <strong>ottimo</strong> coerente sono valutate in termini dello stesso parametro che<br />
esso minimizza e cioè della probabilità di errore sul simbolo. Tenendo conto del fatto che il<br />
modulatore associa in maniera biunivoca ad ognuno degli M distinti simboli che la sorgente emette<br />
un diverso segnale sk ( t ) ( k = 1, … , M ), la probabilità di errore sul simbolo è definita (utilizzando la<br />
rappresentazione tramite vettori) come segue<br />
{ ˆ }<br />
P( e ) = Pr sMV ≠ s (1)<br />
dove s ed sˆ MV rappresentano rispettivamente il segnale trasmesso e quello per il quale si è deciso.<br />
Tenendo conto del fatto che la probabilità di errore è il complemento ad 1 della probabilità di<br />
corretta decisione P( c ) = Pr{<br />
ˆ = }<br />
(1) può porsi equivalentemente nella forma<br />
k = 1<br />
k = 1<br />
k=<br />
1<br />
s s ed inoltre che i segnali trasmessi sono assunti equiprobabili la<br />
{ sˆ s}<br />
P( e) = 1 − P( c)<br />
= 1− Pr =<br />
M<br />
∑<br />
MV<br />
{ sˆ s s s }<br />
= 1− Pr = , =<br />
M<br />
∑<br />
MV k k<br />
{ sˆ s s s } { s s }<br />
= 1− Pr = | = Pr =<br />
MV k k k<br />
M 1<br />
= 1− ∑Pr<br />
{ sˆ MV = sk | s = sk<br />
} .<br />
M<br />
Il calcolo esplicito della (2) può essere condotto tenendo presente quanto detto nel paragrafo 1<br />
riguardo al fatto che applicare una regola di decisione equivale a partizionare lo spazio di<br />
osservazione in regioni di accettazione R j ( r ∈ R ˆ j ⇒ sMV = s j ). Nel caso specifico del ricevitore<br />
coerente lo spazio di osservazione è lo spazio euclideo<br />
(2)<br />
N<br />
ℝ i cui punti sono possibili vettori ricevuti.<br />
Le regioni R j ( j = 1, … , M ) sono facilmente ricavabili come luogo geometrico dei punti di<br />
N<br />
ℝ a<br />
distanza minima dagli M punti di costellazione associati ai segnali trasmessi s j ( j = 1, … , M ). Tali<br />
regioni sono dette regioni di decisione a massima verosimiglianza o regioni di Voronoi e sono<br />
definite formalmente come segue<br />
N { r ℝ | r s r s , { 1,2, ⋯ , } { j}<br />
}<br />
R = ∈ − ≤ − k ∈ M<br />
j j k<br />
j−1<br />
⎛ ⎞<br />
⎜ Ri<br />
⎟<br />
i=<br />
1<br />
∪ . (3)<br />
⎝ ⎠<br />
Da notare che nella definizione della generica R j sono stati rimossi i punti appartenenti alle<br />
regioni R k con k j < . Ciò si rende necessario per far si che le M regioni R j costituiscano una<br />
17
partizione di<br />
N<br />
ℝ . Ciascuna regione j<br />
R ammette come frontiera punti che sono equidistanti da due<br />
punti di costellazione prossimi. L’attribuzione di detti punti di frontiera ad una regione piuttosto che<br />
ad un’altra è del tutto arbitraria non avendo alcuna influenza sulle prestazioni, cioè sulla probabilità<br />
di errore. La ragione di ciò è legata al fatto che eventi del tipo<br />
{ − k = − j } ≡ { il vettore ricevuto è equidistante da k e da j}<br />
r s r s r s s hanno probabilità nulla.<br />
Sulla base di quanto detto sopra risulta quindi evidente che<br />
{ ˆ = = } = { ∈ R = }<br />
Pr s s | s s Pr r | s s e quindi la (2) può scriversi come<br />
MV k k k k<br />
M 1<br />
P( e)<br />
= 1− ∑Pr<br />
= | =<br />
M<br />
k=<br />
1<br />
M<br />
∑∫ R<br />
R| S<br />
k<br />
k=<br />
1<br />
{ sˆ s s s }<br />
k k<br />
1<br />
= 1 − p ( r | sk ) dr<br />
;<br />
M<br />
ricordando poi i risultati del paragrafo precedente si giunge facilmente alla seguente espressione<br />
generale per il calcolo della probabilità di errore media sul simbolo<br />
M Rk N<br />
k = 1 ( π N0<br />
)<br />
2<br />
r−sk N0<br />
M 1 1<br />
P( e) = 1−<br />
∑∫ e dr<br />
. (5)<br />
Una volta noti i punti della costellazione s k ( k 1, , M = … ) le regioni R k si ricavano facilmente<br />
per mezzo della (3) o più semplicemente tramite considerazioni geometriche e la (5) fornisce il<br />
ricercato indice prestazionale.<br />
Vale la pena fare alcune considerazioni in merito alla (5). La funzione integranda risulta essere a<br />
simmetria circolare rispetto a k s (cioè in punti equidistanti da s k assume lo stesso valore). Questo<br />
porta a concludere che ciascuno degli integrali nella (5) dipende solo dalla forma e dall’estensione<br />
della corrispondente regione di decisione R k e non dalla sua posizione nello spazio di osservazione.<br />
Da ciò segue che qualunque trasformazione che altera la costellazione, lasciando invariate forma e<br />
dimensioni delle regioni R k non muta la probabilità di errore. In particolare questo è vero per<br />
traslazioni, rotazioni e riflessioni.<br />
Ad esempio le costellazioni di seguito riportate, fanno riferimento ad un sistema di M = 4<br />
segnali rappresentabili in una base ortonormale di dimensione N = 2.<br />
ψ<br />
2<br />
R 1<br />
ψ1<br />
ψ 2<br />
ψ 2<br />
R1 ɶ<br />
R1<br />
ψ1 ψ1<br />
(4)<br />
18
A tratteggio sono indicate le frontiere delle regioni di decisione (nella prima figura coincidono<br />
con gli assi). Risultando dette regioni, uguali per forma ed estensione (ad esempio 1 R , 1 Rɶ ed 1 R<br />
differiscono solo per la loro posizione nel piano ( , )<br />
ψ ψ ), le tre diverse costellazioni presentano la<br />
medesima probabilità di errore. Questo non significa tuttavia che possano ritenersi equivalenti sotto<br />
tutti gli altri punti di vista, in particolar modo quello energetico. L’obiettivo che si cerca di<br />
raggiungere infatti è la riduzione dell’energia impiegata nella trasmissione a parità di probabilità di<br />
errore.<br />
1 2<br />
L’energia media richiesta per la trasmissione di M segnali equiprobabili è data da<br />
M 1<br />
∑ k<br />
M 1<br />
∑ s k<br />
2<br />
(6)<br />
k= 1 k = 1<br />
E = E =<br />
M M<br />
da cui si deduce immediatamente la terza configurazione di figura richiede in media più energia<br />
delle altre due avendo i punti della costellazione più distanti dall’origine. È interessante rilevare che<br />
il valore minimo della (6) si ottiene quando i punti della costellazione presentano valor medio nullo,<br />
cioè quando<br />
M<br />
∑s k<br />
k= 1<br />
= 0 . (7)<br />
La prova di quanto detto si basa sull’osservazione che la (6) può essere interpretata come il<br />
momento d’inerzia rispetto all’origine del sistema di punti descritti dai vettori s k ( k = 1, … , M ) ed<br />
aventi massa 1<br />
M<br />
. È noto che il momento d’inerzia è minimo se calcolato rispetto al centro di<br />
massa. La costellazione a minima energia media è quindi quella che ha il centro di massa<br />
nell’origine, cioè<br />
1<br />
1<br />
M<br />
∑s k = 0 , da cui la (7).<br />
M k=<br />
Relativamente al calcolo della (5) si fa notare che a dispetto del fatto che le regioni R k sono<br />
facilmente individuabili, risulta in generale piuttosto complicato calcolare gli integrali e, salvo casi<br />
particolari in cui esiste un’espressione in forma chiusa, la valutazione va condotta per via numerica.<br />
Nasce quindi la necessità di individuare limiti superiori alla probabilità di errore che consentano<br />
da una parte di fornire stime alla (5) e dall’altra di mettere in evidenza i parametri chiave utili in<br />
sede di sintesi della costellazione. Con questo obiettivo in mente richiamiamo alcuni risultati, noti<br />
da altri corsi, che serviranno per gli sviluppi successivi.<br />
Nel caso di trasmissione binaria ( M = 2 ) è noto che la probabilità di errore media sul simbolo<br />
binario coincide con le probabilità di errore condizionate ( P( e | s 1)<br />
e P( e | s 2 ) ) ed assume la<br />
seguente espressione<br />
19
⎧il vettore ricevuto r è più vicino a s2 che a s1,<br />
⎫<br />
P( e) = P( e | s1)<br />
≡ Pr ⎨ ⎬<br />
⎩posto che sia stato trasmesso s1<br />
⎭<br />
⎧il vettore ricevuto r è più vicino a s1 che a s2<br />
, ⎫<br />
= P( e | s2<br />
) ≡ Pr ⎨ ⎬<br />
⎩posto<br />
che sia stato trasmesso s2<br />
⎭<br />
2<br />
1 ⎛ d ⎞<br />
12<br />
= erfc⎜<br />
⎟<br />
2 ⎜ 4N<br />
⎟<br />
dove il parametro<br />
2<br />
⎝ 0 ⎠<br />
2<br />
d 12 è l’energia del segnale differenza tra i due possibili segnali trasmessi s1 ( t ) e<br />
s ( t ) o equivalentemente la distanza al quadrato tra gli stessi<br />
[ ( ) ( ) ]<br />
T<br />
2<br />
2 2<br />
12 = ∫0 1 − 2 = s1 − s 2 ; (9)<br />
d s t s t dt<br />
poiché inoltre si ha<br />
d<br />
essendo<br />
2 2 2 2 T<br />
12 = 1 − 2 = 1 + 2 − 2 1 2<br />
(8) diviene<br />
s s s s s s (10)<br />
= E + E − 2ρ<br />
E E<br />
1 2 1 2<br />
T<br />
T<br />
s 1 2<br />
1 s2<br />
∫0<br />
ρ = =<br />
E E<br />
1 2<br />
s ( t) s ( t) dt<br />
T T<br />
∫ [ 1( ) ] [ 2 ( ) ]<br />
0 ∫0<br />
2 2<br />
s t dt s t dt<br />
0<br />
⎝ ⎠<br />
(8)<br />
il coefficiente di correlazione tra i due segnali, la<br />
1<br />
⎛ E1 + E2 − 2ρ<br />
E1E ⎞<br />
2<br />
P( e)<br />
= erfc⎜<br />
⎟ . (11)<br />
2 ⎜ 4N<br />
⎟<br />
È noto che nel caso in cui le energie siano vincolate a non superare un prefissato valore E, la<br />
miglior configurazione di segnali (quella cioè che garantisce la minima probabilità di errore) è<br />
quella per cui E1 = E2 = E e 1<br />
1 erfc<br />
2<br />
⎝ 0 ⎠<br />
ρ = − cioè segnali antipodali ( s ( t) s ( t)<br />
)<br />
= − e la (11) diviene<br />
1 2<br />
⎛ E ⎞<br />
⎜ ⎟ . Questa costituisce quindi la miglior configurazione nel caso di trasmissione binaria<br />
⎜ N ⎟<br />
(con vincolo sull’energia) e demodulazione coerente. Si noti che in questo caso le prestazioni non<br />
dipendono dalla forma del segnale ma solo dalla sua energia.<br />
Svilupperemo ora un limite superiore alla (5) sfruttando i risultati sopra richiamati.<br />
Partendo dalla definizione di probabilità di errore media sul simbolo, valgono i seguenti sviluppi<br />
20
k = 1<br />
k = 1<br />
{ sˆ s}<br />
P( e)<br />
= Pr ≠<br />
M<br />
∑<br />
MV<br />
k = 1<br />
{ sˆ s s s }<br />
= Pr ≠ , =<br />
M<br />
∑<br />
MV k k<br />
{ sˆ s s s } { s s }<br />
= Pr ≠ | = Pr =<br />
MV k k k<br />
M 1<br />
= ∑Pr<br />
≠ | =<br />
M<br />
{ sˆ s s s }<br />
MV k k<br />
Per individuare una maggiorazione dei termini ad argomento della sommatoria è utile richiamare<br />
il seguente risultato, noto nell’ambito della teoria della probabilità come limite dell’unione (union<br />
bound):<br />
Siano 1 2<br />
A , A , ⋯ , AL<br />
generici eventi aventi probabilità rispettivamente { 1}<br />
⋯, Pr{ A L}<br />
, allora per la probabilità dell’evento unione vale la seguente maggiorazione<br />
⎧ ⎫<br />
Pr ≤ Pr<br />
L L<br />
⎨ ⎬<br />
⎩ k=<br />
1 ⎭ k=<br />
1<br />
∑<br />
(12)<br />
Pr A , { }<br />
Pr A ,<br />
Ak { Ak<br />
}<br />
∪ (13)<br />
dove l’uguaglianza si ha se gli eventi sono disgiunti ( A A = ∅ , i ≠ j ).<br />
∩<br />
i j<br />
Prendendo in considerazione il generico termine della sommatoria nella (12) si osservi che<br />
l’evento<br />
≠ =<br />
⎧il vettore ricevuto r non è più vicino a sk<br />
, ⎫<br />
≡ ⎨ ⎬<br />
⎩posto che sia stato trasmesso sk<br />
⎭<br />
⎧il vettore ricevuto r è più vicino a s1 oppure a s2 oppure .... oppure a sk<br />
−1<br />
⎫<br />
≡ ⎨ ⎬<br />
⎩oppure a sk + 1 .... oppure a sM −1<br />
oppure a sM , posto che sia stato trasmesso sk<br />
⎭<br />
{ sˆ s | s s }<br />
MV k k<br />
può essere scritto come unione dei seguenti eventi (non disgiunti) indicati con il simbolo Ek→ j<br />
E →<br />
k j<br />
⎧⎪ il vettore ricevuto r è più vicino a s j che a sk<br />
, ⎫⎪<br />
= ⎨ ⎬<br />
⎪⎩ posto che sia stato trasmesso sk<br />
⎪⎭<br />
cioè { ˆ | }<br />
MV k k j<br />
j=<br />
1<br />
j≠k M<br />
s ≠ s s = s = ∪ E → , per cui si può concludere che<br />
⎧ ⎫<br />
M<br />
⎪ ⎪<br />
Pr { sˆ MV ≠ sk | s = sk } = Pr ⎨∪ Ek→<br />
j ⎬<br />
⎪ j=<br />
1 ⎪<br />
⎩ j≠k ⎭<br />
( applicando il limite dell'unione (13) )<br />
M<br />
≤ ∑Pr<br />
j=<br />
1<br />
j≠k { Ek→<br />
j}<br />
2<br />
(14)<br />
21
Confrontando ora la definizione degli eventi Ek→ j con quanto riportato nella (8) si conclude che<br />
il generico termine Pr{ Ek→ j}<br />
rappresenta la probabilità di errore di un sistema di trasmissione<br />
binario in cui gli unici segnali trasmessi sono k s e j s . Indicando con d k j = k − j<br />
due segnali, dalla (8) segue quindi che<br />
1 ⎛ d ⎞ k j<br />
Pr{ Ek→<br />
j}<br />
= erfc⎜<br />
⎟<br />
2 ⎜ 2 N ⎟<br />
⎝ 0 ⎠<br />
s s la distanza tra i<br />
che sostituito nella (14) e poi nella (12) porta alla seguente maggiorazione per la probabilità di<br />
errore<br />
M M 1 ⎛ d ⎞ k j<br />
P( e)<br />
≤ ∑∑ erfc⎜<br />
⎟ , (16)<br />
2M ⎜ 2 N ⎟<br />
⎝ ⎠<br />
k = 1 j= 1 0<br />
j≠k nota in letteratura come limite superiore dell’unione (union upper bound). Per il suo calcolo è<br />
sufficiente conoscere le distanze tra i possibili segnali generati dal modulatore o equivalentemente<br />
tra i punti della costellazione. È importante far notare che il limite nella (16) diviene sempre più<br />
stretto al diminuire del livello di rumore 0 N e per N0 → 0 è asintoticamente esatto. Risulta quindi<br />
una buona approssimazione di P( e ) per alti SNR.<br />
Dalla (16) è possibile derivare un altro limite superiore più semplice ma più lasco. Basandosi<br />
infatti sulla circostanza che la funzione erfc( x ) è decrescente, indicando con<br />
d = d<br />
min<br />
min k j<br />
k≠ j<br />
la minima distanza esistente tra i punti della costellazione, si ha ovviamente<br />
⎛ d ⎞ ⎛ d ⎞<br />
erfc erfc<br />
da cui segue<br />
k j<br />
min<br />
⎜ ⎟ ≤ ⎜ ⎟<br />
⎜ 2 N ⎟ ⎜<br />
0 2 N ⎟<br />
⎝ ⎠ ⎝ 0 ⎠<br />
M M 1 ⎛ d ⎞ k j<br />
P( e)<br />
≤ ∑∑ erfc⎜<br />
⎟<br />
2M ⎜ 2 N ⎟<br />
⎝ ⎠<br />
1<br />
k = 1 j=<br />
1 0<br />
j≠k M M<br />
min<br />
≤ ∑∑ erfc⎜<br />
⎟<br />
2M ⎜ k = 1 j=<br />
1 2 N ⎟<br />
⎝ 0 ⎠<br />
j≠k 1<br />
=<br />
2 M<br />
e quindi in definitiva<br />
⎛ d ⎞<br />
⎛ d ⎞<br />
min<br />
M ( M −1)erfc ⎜ ⎟<br />
⎜ 2 N ⎟<br />
⎝ 0 ⎠<br />
(15)<br />
(17)<br />
(18)<br />
22
M −1<br />
⎛ d ⎞<br />
P( e)<br />
erfc<br />
min<br />
≤ ⎜ ⎟<br />
2 ⎜ 2 N ⎟<br />
⎝ 0 ⎠<br />
che costituisce il limite superiore dell’unione semplificato. In merito a quest’ultimo vale la pena<br />
osservare che per il calcolo e sufficiente conoscere la sola distanza minima tra i punti della<br />
costellazione. L’importanza della (18) è inoltre legata al fatto che mette in luce il parametro da<br />
ottimizzare per migliorare le prestazioni. Almeno nel caso di basso livello di rumore dalla (18) si<br />
evince infatti che la distanza minima d min rappresenta il parametro dominante ai fini delle<br />
prestazioni di un insieme di segnali e la sua massimizzazione è infatti un criterio comunemente<br />
seguito nella sintesi della costellazione. Vale la pena tuttavia sottolineare che per valori non piccoli<br />
della probabilità di errore (cioè livello di rumore non basso) è necessario tener conto di altri aspetti<br />
per conseguire un miglioramento delle prestazioni.<br />
⎯⎯⎯⎯ ο ⎯⎯⎯⎯<br />
(19)<br />
23
5. Demodulatore incoerente<br />
Il modello del segnale ricevuto può esprimersi come segue:<br />
j( 2π<br />
fot+ θ )<br />
{ }<br />
r( t) s ( t; θ ) n( t) Re s ( t) e n( t)<br />
= + = + t [ 0, T ]<br />
j j<br />
dove sj ( t ) è l’inviluppo complesso di s j ( t ) rispetto alla frequenza f o .<br />
∈ (1)<br />
Anche in questo caso si procede nel ricercare il modello vettoriale equivalente espandendo il<br />
segnale ricevuto r( t ) in una base di sviluppo ortonormale che sia, al solito, completa per la<br />
( )<br />
componente di segnale utile s j ( t; θ ) con j = 1, ⋯ , M e θ ∈[<br />
0,2π<br />
) . Si fa notare che in questo caso<br />
la base ortonormale è in generale “più ricca” rispetto alla corrispondente base impiegata nel caso di<br />
ricevitore coerente; ciò in ragione della necessità di dover tenere conto del termine di fase θ . È<br />
possibile dimostrare che a parità di segnali s j ( t ) con j = 1, ⋯ , M , la base che consente di avere il<br />
minimo numero di coefficienti per lo sviluppo ha dimensione doppia rispetto alla corrispondente nel<br />
caso coerente.<br />
Indicando con { ψ ( t), ψ ( t), , ψ ( t)<br />
}<br />
(1)<br />
⎡ ⎤<br />
r<br />
⎢ (2) ⎥<br />
r<br />
r = ⎢ ⎥<br />
⎢ ⋮ ⎥<br />
⎢ ( N ) ⎥<br />
⎣r ⎦<br />
(1)<br />
⎡ s j ( θ ) ⎤<br />
⎢ (2) ⎥<br />
s j ( θ )<br />
s j ( θ ) = ⎢ ⎥<br />
⎢ ⋮ ⎥<br />
⎢ ( N ) ⎥<br />
⎢⎣ s j ( θ ) ⎥⎦<br />
(1)<br />
⎡ ⎤<br />
n<br />
⎢ (2) ⎥<br />
n<br />
n = ⎢ ⎥<br />
⎢ ⋮ ⎥<br />
⎢ ( N ) ⎥<br />
⎣n ⎦<br />
1 2<br />
⋯ la suddetta base ed introducendo, come solito i vettori:<br />
N<br />
con<br />
con<br />
con<br />
il modello vettoriale equivalente della (1) è<br />
T<br />
( k )<br />
r r( t) ψ k ( t) dt<br />
0<br />
= ∫ ;<br />
T<br />
s ( θ ) = ∫ s ( t; θ ) ψ ( t) dt ;<br />
( k )<br />
j j k<br />
0<br />
T<br />
( k )<br />
n n( t) ψ k ( t) dt<br />
0<br />
= ∫ ;<br />
24
= s ( ) + n . (2)<br />
j θ<br />
Sulla base di quanto detto nei paragrafi precedenti il ricevitore <strong>ottimo</strong>, nell’ipotesi che gli M<br />
segnali trasmessi siano equiprobabili, si concretizza in un sistema che realizza la seguente decisione<br />
a massima verosimiglianza<br />
( k )<br />
sˆ arg max p r s . (3)<br />
= R S<br />
sk<br />
La presenza del termine di fase aleatoria θ rende più articolato il calcolo della densità di<br />
probabilità “in avanti” p ( r s R S k ) . Quest’ultima tuttavia può essere espressa in termini di grandezze<br />
facilmente ricavabili dal modello di osservazione (sulla base delle ipotesi fatte) mediante i seguenti<br />
passaggi:<br />
+∞<br />
( r sk ) = ∫ ( r, θ s ) ( ddp marginale ottenuta per saturazione della ddp congiunta)<br />
,<br />
k θ<br />
Θ<br />
p p d<br />
R S R S<br />
−∞<br />
+∞<br />
p( x | y, z) p( y, z)<br />
= ∫ p , ( r θ, sk ) p ( θ sk<br />
) dθ<br />
ricorda che p( x, y | z) =<br />
p( x | y, z) p( y | z)<br />
Θ Θ<br />
⎜ =<br />
R S S<br />
⎟<br />
−∞<br />
p( z)<br />
=<br />
+∞<br />
∫<br />
−∞<br />
1<br />
R Θ,<br />
S<br />
( k )<br />
r θ, s ( θ ) θ ( indipendenza<br />
tra fase aleatoria Θ e segnale trasmesso S)<br />
p p d<br />
2π<br />
= Θ,<br />
2π<br />
∫ R S<br />
0<br />
Θ<br />
⎛ ⎞<br />
⎝ ⎠<br />
( r θ, sk<br />
) θ fase aleatoria a distribuzione uniforme in [ 0, 2π<br />
)<br />
p d<br />
A questo punto p ( θ,<br />
k )<br />
R Θ,<br />
S<br />
( )<br />
r s si ricava immediatamente dal modello di osservazione poiché<br />
l’assunta indipendenza tra rumore, segnali trasmessi e fase aleatoria porta a concludere che il<br />
vettore (aleatorio) di osservazione r, condizionatamente al segnale trasmesso s k ed alla fase θ<br />
(indicato con<br />
r ) ha la seguente distribuzione<br />
θ,<br />
s k<br />
⎛ N ⎞<br />
∼ ⎜ θ ⎟ (dove I è la matrice identità di dimensione N)<br />
⎝ ⎠<br />
0<br />
r sk ( ), I<br />
θ,<br />
sk 2<br />
da cui segue<br />
1<br />
p = e<br />
R Θ,<br />
S<br />
( r θ,<br />
sk<br />
)<br />
=<br />
( π N )<br />
1<br />
0<br />
( π N )<br />
N<br />
2<br />
r−sk ( θ )<br />
−<br />
N0<br />
2<br />
2 ⎛<br />
k ( θ ) 2 ⎞<br />
r s<br />
⎜ T<br />
+ r sk<br />
( θ ) ⎟<br />
N<br />
⎜ N0 N0<br />
⎟<br />
0 ⎝ ⎠<br />
e e<br />
0<br />
⎛<br />
⎜<br />
⎜<br />
⎝<br />
N<br />
2<br />
sk<br />
( θ ) 2 ⎞<br />
T<br />
+ r sk<br />
( θ ) ⎟<br />
N0 N0 ⎟<br />
⎠<br />
⎛<br />
⎜ A( r)<br />
=<br />
⎜<br />
1<br />
N<br />
( π N0<br />
)<br />
e<br />
2<br />
r ⎞<br />
N0<br />
⎟<br />
⎟<br />
= A( r)<br />
e<br />
⎝ ⎠<br />
(4)<br />
(5)<br />
25
dove si è enucleato il termine che non dipende dall’indice k e che quindi risulterà ininfluente ai fini<br />
della successiva decisione.<br />
Sostituendo la (5) nella (4) si ottiene<br />
⎛ 2<br />
sk<br />
( θ ) 2 ⎞<br />
T<br />
2 π ⎜ + r sk<br />
( θ ) ⎟<br />
⎜ N0 N0<br />
⎟<br />
⎝ ⎠<br />
1<br />
p ( r sk ) = A( r ) e dθ<br />
R S<br />
2π<br />
∫<br />
. (6)<br />
0<br />
Al fine di semplificare ulteriormente tale espressione è opportuno considerare i termini che<br />
compaiono ad esponente nell’integrando. Per quanto riguarda<br />
2<br />
s k ( θ ) , questo rappresenta l’energia<br />
della componente utile (alterata nella fase) del segnale ricevuto ed è facile convincersi che questa<br />
coincide con l’energia del segnale trasmesso sk ( t ) poiché la presenza di un termine di fase costante<br />
non comporta variazioni dell’energia. Si ha quindi<br />
2<br />
T T<br />
2 2<br />
∫[ ] ∫[<br />
]<br />
s ( θ ) = s ( t; θ ) dt = s ( t) dt = E<br />
(7)<br />
k k k k<br />
0 0<br />
che ne evidenzia la conseguente indipendenza da θ .<br />
Il termine<br />
T<br />
r s rappresenta invece l’intercorrelazione tra il segnale ricevuto ( )<br />
k ( θ )<br />
r t e la<br />
componente utile dello stesso (alterata nella fase) sk ( t; θ ) . Può quindi esprimersi in termini del<br />
corrispondente integrale tra le funzioni del tempo<br />
T T<br />
T r sk<br />
θ = ∫ k θ = ∫<br />
k<br />
0 0<br />
jθ<br />
{ e zk<br />
}<br />
jθ<br />
j 2π<br />
fot { }<br />
( ) r( t) s ( t; ) dt r( t)Re s ( t) e e dt<br />
T T<br />
⎧ j<br />
j2π fot ⎫ ⎛ j2π fot ⎞<br />
θ<br />
= Re ⎨e ∫ r( t) s ( t) e dt definendo zk r( t) s ( t) e dt<br />
k ⎬ ⎜ ≐ ∫ k ⎟<br />
⎩ 0 ⎭ ⎝ 0<br />
⎠<br />
= Re<br />
jϕk<br />
( ℂ)<br />
= z cos( θ + ϕ ) . avendo scritto z = z e , poiché z ∈<br />
k k k k k<br />
La procedura di valutazione di<br />
T<br />
j2π fot zk ∫ r( t) s ( t) e dt<br />
k<br />
0<br />
Andando ora a sostituire la (7) e la (8) nella (6) si ottiene<br />
0<br />
≐ sarà analizzata in dettaglio più avanti.<br />
E 2π k<br />
2 z 1<br />
k<br />
cos(<br />
θ + ϕk<br />
)<br />
p ( r s ) ( ) N0 N0<br />
k = A r e e dθ<br />
R S<br />
2π<br />
∫<br />
; (9)<br />
l’integrale nella (9) presenta una struttura particolare potendo infatti essere scritto in termini della<br />
funzione speciale I0 ( x ) nota come funzione di Bessel modificata di prima specie di ordine zero e<br />
definita come segue<br />
(8)<br />
26
1 θ 1<br />
I ( ) ≜ θ = θ ∀ϕ ∈ ℝ (10)<br />
π 2π<br />
x cos<br />
x cos(<br />
θ + ϕ )<br />
o x e d e d<br />
π ∫ 2π<br />
∫<br />
0 0<br />
ed il cui grafico è rappresentato in figura. Vale la pena osservare che I0 ( x ) risulta essere una<br />
funzione crescente per argomenti non negativi.<br />
Io(x)<br />
1<br />
0<br />
A questo punto è immediato riconoscere che la (9) assume la seguente forma finale<br />
Ek<br />
⎛ 2 zk<br />
⎞<br />
p ( r s ) ( ) N0<br />
k = A r e I<br />
R S 0 ⎜ ⎟ . (11)<br />
N<br />
⎝ 0 ⎠<br />
Tenendo conto infine del fatto che il termine A( r ) non dipende dall’indice k e che quindi è<br />
ininfluente ai fini della decisione rispetto a s k il ricevitore incoerente <strong>ottimo</strong> è quello che realizza la<br />
seguente regola di decisione<br />
⎧ Ek<br />
z ⎫<br />
T<br />
⎪ ⎛ k ⎞⎪<br />
⎛<br />
ˆ arg max e N<br />
j2π fot ⎞<br />
s = ⎨ 0 I0 ⎜ ⎟⎬<br />
, ⎜ dove zk ≐ r( t) s ( t) e dt<br />
k<br />
sk<br />
⎪⎩ ⎝ N<br />
∫<br />
⎟ , (12)<br />
0 ⎠⎪⎭<br />
⎝ 0<br />
⎠<br />
Esso opera quindi nella seguente modalità. Sulla base del segnale ricevuto r( t ) nell’intervallo di<br />
segnalazione [ ]<br />
Grafico della I0 ( x )<br />
0,T , calcola le M statistiche z k ( k = 1, … , M ) e quindi decide in favore del segnale<br />
⎡ Ek<br />
⎛ zk<br />
⎞⎤<br />
che rende massima l’espressione ⎢e N0<br />
I0 ⎜ ⎟⎥<br />
. Vale la pena osservare che il ricevitore, oltre a<br />
⎢⎣ ⎝ N0<br />
⎠⎥⎦<br />
dover conoscere i possibili segnali trasmessi sk ( t ) ( k = 1, … , M ), deve avere anche informazioni in<br />
merito al livello di rumore N 0 .<br />
x<br />
Nell’ipotesi in cui i segnali sk ( t ) abbiano la stessa energia, circostanza tipica nei sistemi in cui<br />
si utilizza rivelazione incoerente, la regola di decisione si semplifica notevolmente<br />
27
⎧ Ek<br />
⎪ ⎛ zk<br />
⎞⎫⎪<br />
sˆ<br />
= arg max ⎨e N0<br />
I0 ⎜ ⎟⎬<br />
k = 1, …,<br />
M ⎪⎩ ⎝ N0<br />
⎠⎪⎭<br />
⎧⎪ ⎛ zk<br />
⎞⎫⎪<br />
= arg max ⎨I 0 ⎜ ⎟⎬<br />
Ek<br />
= cost<br />
k = 1, …,<br />
M ⎪⎩ ⎝ N0<br />
⎠⎪⎭<br />
k = 1, …,<br />
M<br />
( )<br />
( )<br />
= arg max z . essendo I ( x) crescente per x ≥ 0<br />
k<br />
0<br />
Da notare che in questo caso ( E k = cost ) il ricevitore non necessita della conoscenza del livello<br />
di rumore ed inoltre la decisione si basa semplicemente sulla ricerca dell’indice k a cui corrisponde<br />
il massimo valore per z k .<br />
Vediamo ora, limitatamente alla circostanza considerata di segnali equienergia, la struttura a<br />
blocchi del ricevitore. Per la derivazione è necessario calcolare le statistiche k z<br />
T<br />
j 2π<br />
fot zk r( t) sk ( t) e dt<br />
0<br />
= ∫ (14)<br />
in cui sk ( t ) è l’inviluppo complesso del segnale sk ( t ) rispetto alla frequenza f o .<br />
Lo studente attento avrà riconosciuto che il prodotto<br />
+<br />
analitico s ( t)<br />
k<br />
s ( t) e π<br />
k<br />
j2 fot (13)<br />
è proporzionale al segnale<br />
associato a sk ( t ) . Ricordando la definizione di quest’ultimo si giunge facilmente<br />
alla seguente catena di uguaglianze<br />
s t e s t s t jsˆ t<br />
j2π fot +<br />
k ( ) = 2 k ( ) = k ( ) + k ( )<br />
dove sˆ ( t) { ( t)<br />
}<br />
k<br />
= è la trasformata di Hilbert di s ( t ) .<br />
Ne consegue che z k si ottiene calcolando<br />
T T<br />
z = r( t) s ( t) dt + j r( t) sˆ ( t) dt<br />
k k k<br />
0 0<br />
k<br />
∫ ∫ . (15)<br />
Il ricevitore dovrà quindi essere in grado di generare localmente sia i segnali sk ( t ) che le loro<br />
trasformate di Hilbert. Trattandosi tuttavia di segnali in banda traslata il calcolo della trasformata di<br />
Hilbert risulta grandemente semplificato poiché si riduce ad un’operazione di sfasamento. Vale<br />
infatti la seguente notevole proprietà (dimostrare per esercizio).<br />
Proprietà. Sia x( t ) un segnale reale e sia x( t ) il suo inviluppo complesso rispetto alla frequenza<br />
f o , per cui { } o j 2 f t<br />
x( t) Re x( t) e π<br />
= . Allora la trasformata di Hilbert di x( t ) assume la forma<br />
28
π<br />
⎧ j(2 π fot ) ⎫<br />
ˆ( 2<br />
x t) = { x( t) } = Re ⎨x( t) e ⎬.<br />
⎩ ⎭<br />
Sfruttando la proprietà indicata e tenendo inoltre conto del fatto che<br />
sˆ<br />
= arg max z = arg max z<br />
k k<br />
k= 1, …, M k= 1, …,<br />
M<br />
2<br />
si giunge allo schema del ricevitore incoerente a correlazione per segnali equienergia.<br />
r( t)<br />
π/2<br />
π/2<br />
s ( t)<br />
Da notare che rispetto al caso di ricevitore coerente qui sono richieste due correlazioni per<br />
ciascun segnale sk ( t ) . Limitatamente a questo aspetto la complessità è aumentata, per contro il<br />
ricevitore incoerente non richiede dispositivi per la stima e l’inseguimento della fase del segnale<br />
ricevuto e questa è la fondamentale ragione della sua maggior semplicità realizzativa. Quest’ultima<br />
è ancor più evidente quando si va a considerare l’altra forma comune del demodulatore incoerente<br />
(usata in particolare per le modulazioni FSK) cosiddetta a filtro adattato in banda traslata<br />
(bandpass matched filter in letteratura anglosassone).<br />
1<br />
s ( t)<br />
M<br />
T<br />
∫<br />
0<br />
T<br />
∫<br />
0<br />
T<br />
∫<br />
0<br />
T<br />
∫<br />
0<br />
( ) 2<br />
( ) 2<br />
( ) 2<br />
( ) 2<br />
È infatti possibile provare che la statistica z k ( k = 1, … , M ) può essere equivalentemente<br />
z1<br />
zM<br />
2<br />
2<br />
M<br />
A<br />
X<br />
ˆs<br />
(16)<br />
29
icavata facendo transitare r( t ) in un filtro adattato a s ( t ) (che appunto è in banda traslata),<br />
estraendo l’inviluppo [2] dell’uscita e campionando all’istante t = T .<br />
Lo schema del ricevitore incoerente a filtro adattato per segnali equienergia è il seguente<br />
r( t)<br />
Lo studente interessato potrà trovare nei seguenti passaggi la giustificazione teorica allo schema<br />
sopra sviluppato<br />
T T T<br />
k = ∫ ( ) k ( )<br />
j2π fot = ∫ ( ) k ( ) + ∫ ( ) ˆk<br />
( )<br />
0 0 0<br />
z r t s t e dt r t s t dt j r t s t dt<br />
z<br />
| |<br />
= r( t) ∗ s ( T − t) + jr( t) ∗ sˆ ( T − t)<br />
k k<br />
t= T t= T<br />
⎛ 1 ⎞<br />
⎜ ma sˆ k ( T − t) = −sk ( T − t)<br />
∗ ⎟<br />
⎝ πt<br />
⎠<br />
1<br />
= r( t) ∗ s ( T − t) − jr( t) ∗ s ( T − t)<br />
∗<br />
t<br />
k k k<br />
( posto w( t) = r( t) ∗ s ( T − t)<br />
)<br />
z = w( t) − jwˆ ( t)<br />
= w( t)<br />
k t= T t=<br />
T<br />
essendo<br />
h ( t) = s ( T − t)<br />
1 1<br />
h ( t) = s ( T − t)<br />
M M<br />
k<br />
π t= T<br />
+ − j2π fot +<br />
w( t) = 2 w ( t) e = 2 w ( t) = w( t) + jwˆ ( t) = w( t) − jwˆ ( t)<br />
.<br />
2<br />
Ricorda che l’inviluppo di un segnale x( t ) è il modulo del suo inviluppo complesso x( t ) . Quindi<br />
[ ] 2 2<br />
Inviluppo x( t) = x( t) = x ( t) + x ( t)<br />
.<br />
c s<br />
w ( t)<br />
1<br />
w ( t)<br />
M<br />
Rivelatore<br />
d’inviluppo<br />
Rivelatore<br />
d’inviluppo<br />
k<br />
t = T<br />
t = T<br />
z1<br />
zM<br />
M<br />
A<br />
X<br />
ˆs<br />
30
Cenni sulle prestazioni<br />
Ci limitiamo a considerare solo il caso di trasmissione binaria. È possibile provare che avendo<br />
un vincolo sull’energia massima (E), quando l’informazione sulla fase del segnale ricevuto non è<br />
nota, la migliore configurazione (quella cioè che garantisce la minima probabilità di errore) è quella<br />
di segnali ortogonali con la stessa energia.<br />
T<br />
∫ s1( t) s2 ( t) dt = 0 e<br />
0<br />
T T<br />
2<br />
∫ 1<br />
2<br />
∫ 2<br />
0 0<br />
s ( t) dt = s ( t) dt = E<br />
In questo caso si dimostra che la probabilità di errore è data da<br />
1<br />
Pe e<br />
2<br />
−<br />
=<br />
E<br />
2N0<br />
⎯⎯⎯⎯ ο ⎯⎯⎯⎯<br />
31