03.08.2013 Views

Ricevitore ottimo - InfoCom

Ricevitore ottimo - InfoCom

Ricevitore ottimo - InfoCom

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Appunti dalle lezioni<br />

di<br />

Trasmissioni numeriche II<br />

Teoria del ricevitore <strong>ottimo</strong><br />

(Ing. A. Fasano)<br />

1


1. Il problema della decisione<br />

Il problema della rivelazione ottima di segnali numerici immersi in rumore può essere ascritto al<br />

più generale problema della decisione statistica. Ciò in ragione del fatto che dei contributi di<br />

rumore, inevitabilmente presenti, si ha in genere una sola descrizione di tipo statistico<br />

(probabilistico). Il ricevitore in questo senso opera una decisione attuando quella che viene detta<br />

una regola di decisione, cioè una procedura (soddisfacente preassegnati criteri) che sulla base del<br />

segnale ricevuto stabilisce quale tra M possibili segnali distinti è stato trasmesso. Nell’ambito delle<br />

trasmissioni numeriche il criterio che appare (ragionevolmente) più opportuno è quello che conduce<br />

ad una regola di decisione che minimizza la probabilità di errore.<br />

Trattandosi di un criterio applicabile in molti ambiti diversi (non limitato quindi alle sole<br />

trasmissioni numeriche) vogliamo ora derivare la regola di decisione a cui conduce, analizzando il<br />

problema sotto condizioni molto generali.<br />

Schema di principio per un problema di decisione<br />

Si supponga di avere un sistema Σ (il nostro trasmettitore ad esempio) che possa trovarsi in uno<br />

(il possibile segnale trasmesso) di M distinti stati s k ( k = 1, … , M ) che rappresentano le M possibili<br />

ipotesi k<br />

Sistema Σ<br />

sk<br />

H che possono farsi sul sistema Σ ( H stato( Σ ) = s ) . Il sistema produce un’uscita x<br />

k k<br />

(funzione del suo stato) non direttamente accessibile e, dopo essersi combinata in vario modo con<br />

possibili disturbi presenti n , produce la grandezza osservabile r che assumiamo essere un vettore<br />

N<br />

con valori in uno spazio Ω ( Ω ⊆ ℝ ) detto spazio di osservazione.<br />

Si presume inoltre che sia nota (perché data o calcolabile dal problema) la densità di probabilità<br />

condizionata in avanti pR| S ( r | s k ) . Si ammette infine di conoscere le probabilità a priori delle M<br />

ipotesi H k , cioè Pk = Pr{ H k } = Pr { stato(<br />

Σ ) = s k } .<br />

x<br />

n<br />

disturbi<br />

r<br />

decisore<br />

sˆ = d(<br />

r)<br />

2


Il decisore attua la cosiddetta regola di decisione definita come la funzione<br />

{ }<br />

d : Ω → s , s , ⋯ , sM<br />

che ad ogni vettore osservato r associa la decisione sˆ = d(<br />

r ) . Ogni regola<br />

1 2<br />

di decisione d( ⋅ ) individua una partizione dello spazio di osservazione Ω in regioni di decisione<br />

{ r ∈Ω | ( r) = s }<br />

R ≐ d<br />

i i<br />

M<br />

⎛ ⎞<br />

⎜ Ri ∩ Rj = ∅ per i ≠ j e ∪ Ri<br />

= Ω⎟<br />

. Viceversa, una partizione di Ω in<br />

⎝ i=<br />

1 ⎠<br />

regioni R j<br />

ɶ ( j = 1, … , M ) definisce una regola di decisione dɶ ( ⋅)<br />

. È quindi evidente che individuare<br />

la regola di decisione d( ⋅ ) è equivalente a determinare le regioni di decisione R i ( i = 1, … , M ), che<br />

costituiscono una partizione di Ω .<br />

La regola, a sua volta, è individuata una volta specificato il criterio di ottimalità che si decide di<br />

seguire. Nel caso in esame il criterio è la minimizzazione della probabilità media di errore nella<br />

decisione, indicata con P e . Poiché inoltre Pe = 1−<br />

Pc<br />

, dove P c è la probabilità media di decisione<br />

corretta, il criterio può equivalentemente essere visto in termini di massimizzazione della<br />

probabilità di corretta decisione.<br />

Seguendo questo criterio andiamo ora a determinare le regioni R i che individuano la<br />

corrispondente regola di decisione.<br />

M<br />

∑<br />

{ sˆ s s }<br />

P = Pr = & stato(<br />

Σ ) =<br />

c i i<br />

i=<br />

1<br />

M<br />

∑<br />

i=<br />

1<br />

i= 1 Ri<br />

i= 1 Ri<br />

{ sˆ s stato s } { stato s }<br />

= Pr = | ( Σ ) = Pr ( Σ ) =<br />

M<br />

∑ ∫<br />

= [ p ( r | s ) ⋅ P ] dr<br />

M<br />

∑ ∫<br />

R| S<br />

i i i<br />

i i<br />

k= 1, …,<br />

M<br />

( R| S k k )<br />

≤ f ( r) dr dove f ( r) = max p ( r | s ) ⋅ P<br />

M<br />

⎛ ⎞<br />

= f ( r) dr = cost ⎜essendo R = Ω e R ∩ R = ∅ i ≠ j ⎟<br />

∫<br />

Ω<br />

∪<br />

i i j<br />

⎝ i=<br />

1<br />

⎠<br />

Da ciò segue che P ≤ ∫ f ( r) dr<br />

ed il valore costante dell’integrale a secondo membro può essere<br />

c<br />

Ω<br />

raggiunto se le regioni R i sono scelte in modo che si abbia<br />

r ∈ R ⇒ P ⋅ p ( r | s ) = f ( r) ≐ max P ⋅ p ( r | s )<br />

i i R| S i k R| S k<br />

k= 1, …,<br />

M<br />

cioè ∀r ∈Ω assegnando r alla regione i R per cui è massimo il prodotto Pi ⋅ pR|<br />

S ( r | s i ) . In realtà il<br />

decisore non deve realmente calcolare le regioni R i ma limitarsi a calcolare per ogni r ricevuto le<br />

3


quantità Pk p | k<br />

massimo, cioè<br />

⋅ R S ( r | s ) per k = 1, … , M e decidere in favore dell’indice k che produce il valore<br />

sˆ = d( r) = arg max ⎡P ⋅ p ( r | s ) ⎤<br />

(1)<br />

sk<br />

⎣ k R| S k ⎦<br />

dove l’operatore “arg max” ritorna l’argomento che massimizza la funzione a cui è applicato (ad<br />

esempio<br />

⎡ x ⎤<br />

2<br />

arg max ⎣2 − ( − 1) ⎦ = 1<br />

x∈ℝ<br />

)<br />

Alla (1) è possibile dare un’altra forma osservando che la massimizzazione è condotta rispetto a<br />

s k ed eventuali fattori non dipendenti da questo sono ininfluenti. Si ha:<br />

sˆ = arg max ⎡P ⋅ p ( r | s ) ⎤<br />

sk<br />

⎣ k R| S k ⎦<br />

⎡ P ⋅ p ( r | s ) ⎤<br />

= ⎢ ⎥<br />

⎣ ⎦<br />

( p r s )<br />

k R| S k<br />

arg max R ( ) non dipende da<br />

sk<br />

pR<br />

( r)<br />

= ⎣PS | R k ⎦<br />

sk<br />

( )<br />

arg max ⎡ ( s | r)<br />

⎤<br />

teorema di Bayes<br />

Applicare la regola di decisione (1) equivale quindi a cercare il particolare s k che presenta la<br />

massima probabilità a posteriori PS | R ( sk | r ) per fissata osservazione r . Per questa ragione la regola<br />

(1) è nota come decisione a massima probabilità a posteriori o decisione MPA (maximum a<br />

posteriori o MAP in letteratura anglosassone) e con analoga terminologia ci si riferisce al<br />

corrispondente decisore.<br />

Quando le probabilità a priori sono uguali<br />

k<br />

1<br />

Pk = ( ⇔ le ipotesi H k sono equiprobabili) nella<br />

M<br />

(1) si può eliminare P k (costante rispetto a k) e la regola di decisione diviene<br />

sˆ arg max ⎡ ( r | s ) ⎤<br />

(ipotesi equiprobabili)<br />

= ⎣ pR|<br />

S k ⎦<br />

sk<br />

che in generale costituisce una procedura distinta da quella MPA ed alla quale si da il nome di<br />

decisione a massima verosimiglianza o decisione MV (maximum likelihood o ML in letteratura<br />

anglosassone) poiché la densità di probabilità condizionata in avanti pR| S ( r | s k ) , vista come<br />

funzione di s k per r fissato, è detta verosimiglianza.<br />

In conclusione la politica di decisione che garantisce la minima probabilità di errore è quella a<br />

massima probabilità a posteriori (è anche detta procedura dell’osservatore ideale) e corrisponde<br />

alla seguente regola<br />

4


sˆ = arg max ⎡<br />

⎣P ⋅ p ( r | s ) ⎤<br />

⎦<br />

(decisione MPA)<br />

MPA k R| S k<br />

sk<br />

Oltre a questa esiste la procedura a massima verosimiglianza che, non facendo uso<br />

dell’informazione a priori sulle ipotesi, in generale non gode di particolari proprietà di <strong>ottimo</strong> ed è<br />

caratterizzata dalla seguente regola<br />

sˆ = arg max ⎡<br />

⎣ p ( r | s ) ⎤<br />

⎦<br />

(decisione MV)<br />

MV R| S k<br />

sk<br />

Questa coincide con la decisione MPA nella sola circostanza in cui le ipotesi siano<br />

equiprobabili. Cioè<br />

Ipotesi equiprobabili ⇒ sˆ ≡ s ˆ<br />

MV MPA<br />

Vale la pena mettere l’accento sul fatto che la decisione MV garantisce la minima probabilità di<br />

errore solo quando coincide con la decisione MPA e questo accade, come detto sopra, quando le<br />

probabilità a priori sono uguali. Quest’ultima tuttavia è un’assunzione frequente nel caso delle<br />

trasmissioni numeriche.<br />

⎯⎯⎯⎯ ο ⎯⎯⎯⎯<br />

5


2. Cenni sulla rappresentazione discreta di segnali continui<br />

In questo paragrafo daremo brevissimi cenni riguardo alla possibilità di associare a segnali<br />

continui di energia una rappresentazione discreta in termini di una sequenza numerica, con un<br />

numero di termini eventualmente finito o infinito ma al più numerabile. Tale tipo di<br />

rappresentazione poggia le basi sulla teoria degli spazi vettoriali e consente di interpretare o<br />

risolvere geometricamente problemi che coinvolgono segnali.<br />

La classe dei segnali di energia presenta una struttura di spazio vettoriale rispetto alle usuali<br />

operazioni di somma tra segnali e moltiplicazione per uno scalare. Ciò significa che ogni segnale<br />

può essere riguardato alla stregua di un vettore in relazione alle proprietà di cui godono le<br />

operazioni di composizione tra segnali (somma e moltiplicazione per uno scalare) che sono<br />

analoghe, mutatis mutandis, alle corrispondenti proprietà delle operazioni tra vettori di<br />

L’analogia è in realtà molto stretta nel senso che, come per i vettori di<br />

possibile introdurre il concetto di prodotto scalare che risulta definito come segue<br />

+∞<br />

3<br />

ℝ .<br />

3<br />

ℝ , anche per i segnali è<br />

x( t), y( t) = ∫ x( t) y( t) dt<br />

(1)<br />

−∞<br />

e gode delle stesse proprietà di cui gode il prodotto scalare tra vettori di<br />

segnali si diranno ortogonali se risulta x( t), y( t ) = 0 .<br />

Un aspetto fondamentale dei vettori di<br />

3<br />

ℝ . In particolar modo due<br />

3<br />

ℝ è la possibilità, fissati tre versori, di poter<br />

rappresentare qualunque generico vettore in termini delle sue componenti. Nello specifico dette<br />

componenti sono ottenute facendo il prodotto scalare (proiezione) tra il vettore ed il generico<br />

versore .<br />

Volendo estendere tale caratteristica anche allo spazio vettoriale dei segnali di energia nasce<br />

spontaneo considerare quelli che sono possibili candidati ad essere versori e cioè sistemi di segnali<br />

ortonormali. Un insieme di segnali { ϕ ( t), ϕ ( t), , ϕ ( t)<br />

}<br />

1 2<br />

⋯ dove N ≤ ∞ è detto un sistema<br />

ortonormale se i suoi componenti hanno energia unitaria e risultano mutuamente ortogonali, cioè<br />

ϕ ( t), ϕ ( t)<br />

k j<br />

⎧1,<br />

= ⎨<br />

⎩0<br />

,<br />

k = j<br />

k ≠ j<br />

N<br />

( k, j = 1,2, … ) . (2)<br />

Scelto ora un generico segnale (vettore) di energia x( t ) si calcolino le componenti rispetto a<br />

ciascuno dei possibili “versori” ϕ ( ) utilizzando il prodotto scalare<br />

k t<br />

x = x( t), ϕ ( t)<br />

. (3)<br />

k k<br />

6


A questo punto è lecito domandarsi se, analogamente a quanto avviene per i vettori di<br />

possibile scrivere la seguente uguaglianza (il punto interrogativo evidenzia il quesito)<br />

k = 1<br />

3<br />

ℝ , è<br />

N ?<br />

x( t) =∑ x ϕ ( t)<br />

. (4)<br />

k k<br />

Sfortunatamente la risposta è in generale negativa anche prendendo N = ∞ e la ragione di ciò<br />

risiede nel fatto che lo spazio dei segnali di energia ha dimensione non finita. Esistono tuttavia<br />

sistemi ortonormali particolari per cui nella (4) vale l’uguaglianza. In tale circostanza si dice che il<br />

sistema ortonormale è completo per il segnale x( t ) o equivalentemente che è una base completa<br />

per x( t ) e il segnale stesso può essere rappresentato dall’insieme dei suoi coefficienti<br />

{ x x x }<br />

1, 2,<br />

⋯ , N o equivalentemente dal vettore [ ] T N<br />

x = x1 x2 ⋯ xN<br />

∈ ℝ .<br />

L’utilità di tale rappresentazione risulta evidente quando si osserva che è possibile effettuare<br />

operazioni tra segnali per il tramite delle loro rappresentazioni vettoriali.<br />

Si considerino infatti due segnali di energia x( t ) e ( )<br />

completa per entrambi. Ciò significa che valgono le relazioni<br />

N<br />

k=<br />

1<br />

y t e sia { ψ ( t), ψ ( t), , ψ ( t)<br />

}<br />

1 2<br />

⋯ una base<br />

x( t) = ∑ x ψ ( t)<br />

con x = ∫ x( t) ψ ( t) dt ; (5)<br />

N<br />

k = 1<br />

k k<br />

∞<br />

k<br />

−∞<br />

k<br />

y( t) = ∑ y ψ ( t)<br />

con y = ∫ y( t) ψ ( t) dt ; (6)<br />

k k<br />

indicando inoltre con [ ] T<br />

= x x x<br />

∞<br />

k<br />

−∞<br />

k<br />

x 1 2⋯ N e [ ] T<br />

= y1 y2 yN<br />

y ⋯ i corrispondenti vettori di<br />

rappresentativi dei due segnali, si verifica immediatamente che valgono le seguenti relazioni<br />

x<br />

[ ( ) ]<br />

+∞ 2 T 2<br />

∫ x x x (7)<br />

−∞<br />

E = x t dt = =<br />

xy<br />

+∞<br />

T<br />

∫ ( ) ( ) x y (8)<br />

−∞<br />

E = x t y t dt =<br />

Dimostriamo la (8) visto che la (7) si ottiene da questa ponendo y( t) = x( t)<br />

.<br />

Si ha infatti<br />

+∞ +∞ ⎡ N N<br />

⎛ ⎞⎛<br />

⎞⎤<br />

Exy = ∫ x( t) y( t) dt = xkψ k ( t) y jψ j ( t) dt<br />

−∞ ∫ ⎢ −∞ ⎜∑ ⎟⎜∑<br />

⎟⎥<br />

⎢⎣ ⎝ k = 1 ⎠⎝<br />

j=<br />

1 ⎠⎥⎦<br />

=<br />

N N<br />

∑∑ ∫<br />

k= 1 j=<br />

1<br />

+∞<br />

x y ψ ( t) ψ ( t) dt<br />

k j j k<br />

−∞<br />

N N<br />

= ∑∑<br />

xk y jδ k , j δk<br />

, j = ⎨<br />

k= 1 j=<br />

1<br />

⎛ ⎧1,<br />

k = j ⎞<br />

⎜ ⎟<br />

⎝ ⎩0<br />

, k ≠ j ⎠<br />

N<br />

N<br />

ℝ<br />

7


E<br />

xy<br />

N<br />

∑ xk yk<br />

k = 1<br />

T<br />

x y . (9)<br />

= =<br />

Specializziamo ora quanto detto alla situazione che incontreremo nei paragrafi successivi. Si<br />

immagini di avere un insieme di M ( M < ∞ ) segnali di energia { s ( t), s ( t), , s ( t)<br />

}<br />

1 2<br />

⋯ che assumono<br />

valori non nulli (solo) nell’intervallo [0, T ] . Si è interessati a determinare, ammesso che esista, una<br />

base completa { ψ ( t), ψ ( t), , ψ ( t)<br />

}<br />

1 2<br />

il minimo) di funzioni.<br />

⋯ per detto insieme che abbia un numero finito (possibilmente<br />

N<br />

È possibile provare che detta base esiste sempre ed è caratterizzata da un numero di funzioni<br />

N ≤ M . La si ottiene applicando la procedura di ortogonalizzazione di Gram-Schmidt all’insieme<br />

dei segnali { s ( t), s ( t), , s ( t)<br />

}<br />

1 2<br />

⋯ ed è formata dal minimo numero possibile di funzioni della base.<br />

M<br />

Se gli M segnali sk ( t ) ( k = 1, … , M ) sono linearmente indipendenti risulta N = M , se invece<br />

risultano linearmente dipendenti si avrà N < M . Il parametro N acquista quindi il significato di<br />

dimensione dello spazio di segnali { s ( t), s ( t), , s ( t)<br />

}<br />

1 2<br />

Indicando con { ψ ( t), ψ ( t), , ψ ( t)<br />

}<br />

1 2<br />

N<br />

⋯ .<br />

M<br />

⋯ la base completa ottenuta dalla procedura di Gram-<br />

Schmidt, si verifica facilmente che a meno di un differente ordinamento dei segnali le funzioni della<br />

base sono date dalle seguenti espressioni<br />

s ( t)<br />

1 ψ 1(<br />

t)<br />

= ; (10)<br />

s1( t)<br />

ψ ( t)<br />

=<br />

2<br />

ψ ( t)<br />

=<br />

ψ<br />

3<br />

s ( t) − s ( t), ψ ( t)<br />

2 2 1<br />

s ( t) − s ( t), ψ ( t)<br />

2 2 1<br />

s ( t) − s ( t), ψ ( t) − s ( t), ψ ( t)<br />

3 3 2 3 1<br />

s ( t) − s ( t), ψ ( t) − s ( t), ψ ( t)<br />

3 3 2 3 1<br />

⋮ ⋮ ⋮<br />

N −1<br />

∑<br />

s ( t) − s ( t), ψ ( t)<br />

N N k<br />

N ( t)<br />

=<br />

k=<br />

1<br />

N −1<br />

∑<br />

s ( t) − s ( t), ψ ( t)<br />

N N k<br />

k=<br />

1<br />

; (11)<br />

; (12)<br />

. (13)<br />

Individuata quindi la base completa tramite la procedura sopra descritta ad ogni segnale sk ( t )<br />

( k = 1, … , M ) risulta associato un vettore<br />

N<br />

ℝ , le cui componenti sono calcolate come segue<br />

s = [ s s ⋯ s ] appartenente allo spazio euclideo<br />

(1) (2) ( N ) T<br />

k k k k<br />

M<br />

8


T<br />

s = s ( t), ψ ( t) = ∫ s ( t) ψ ( t) dt<br />

(14)<br />

( j)<br />

k k j<br />

0<br />

k j<br />

Ciascun vettore s k può essere inoltre interpretato come punto di<br />

N<br />

ℝ e l’insieme degli M punti<br />

nello spazio ad N dimensioni prende il nome di costellazione di segnale e fornisce un utile<br />

strumento geometrico per analizzare le tecniche di modulazione. Si rammenta in conclusione che<br />

un’applicazione della (7) e della (8) alla circostanza in esame porta a scrivere senza difficoltà le<br />

seguenti relazioni<br />

T<br />

[ ] 2 2 T<br />

( )<br />

Ek = ∫ s<br />

0<br />

k t dt = sk = sk s k , ( k = 1, … , M ); (15)<br />

T<br />

T<br />

kj = ( ) ( )<br />

0<br />

k j = k j<br />

E ∫ s t s t dt s s , ( k = 1, … , M ); (16)<br />

T<br />

2 2 2 2<br />

T<br />

∫ ⎡ ( ) ( ) 2<br />

0 ⎣sk t − s j t ⎤<br />

⎦ dt = sk − s j = sk + s j − sk s j , ( k j<br />

⎯⎯⎯⎯ ο ⎯⎯⎯⎯<br />

≠ ). (17)<br />

9


3. Demodulatore coerente<br />

Si supponga che il modulatore dal lato trasmettitore generi nell’intervallo [0, T ] (intervallo di<br />

segnalazione) una tra M possibili segnali reali ad energia finita sk ( t ) , k = 1, … , M . Si ammette<br />

inoltre che i segnali siano equiprobabili e che il demodulatore dal lato ricevitore veda nel medesimo<br />

intervallo [0, T ] una copia del segnale trasmesso più rumore additivo n( t ) che si assume essere una<br />

realizzazione di un processo gaussiano a valore atteso nullo, stazionario ed ergodico con spettro di<br />

densità di potenza (bilatero) uniforme 1 N0<br />

PN ( f ) = statisticamente indipendente dal segnale<br />

2<br />

trasmesso.<br />

Il segnale ricevuto nell’intervallo di segnalazione risulta quindi<br />

r( t) = s ( t) + n( t)<br />

t ∈ [0, T ]<br />

(1)<br />

k<br />

Il modello di canale descritto dalla (1) è non distorcente ( sk ( t ) non viene alterato) e l’unico<br />

effetto che ha è l’aggiunta di rumore gaussiano bianco (cioè con<br />

noto in letteratura come canale AWGN (Additive White Gaussian Noise).<br />

N<br />

2<br />

0 PN ( f ) = ); per questa ragione è<br />

Deriveremo ora la struttura del ricevitore <strong>ottimo</strong> nell’ipotesi che gli M segnali siano<br />

perfettamente noti al ricevitore. Questa ipotesi qualifica il ricevitore come coerente.<br />

Per quanto visto nei paragrafi precedenti, il ricevitore <strong>ottimo</strong> è quello che attua la decisione MPA<br />

che, stante l’ipotesi fatta di segnali trasmessi equiprobabili, coincide con la decisione MV.<br />

Nasce un primo problema legato al fatto che nel paragrafo 1 la regola di decisione ottima (MPA)<br />

è stata ricavata supponendo di osservare un vettore di valori. In questo caso invece l’osservazione è<br />

costituita dal segnale r( t ) osservato per t ∈ [0, T ] . Il problema può essere risolto o cercando di<br />

derivare la corrispondente regola di decisione ottima quando l’osservazione è continua (approccio<br />

complesso e che non muta nella sostanza il risultato a cui si perviene) oppure cercando di ricavare<br />

dal modello di osservazione, che coinvolge i segnali nel tempo, un corrispondente modello<br />

vettoriale che risulti equivalente dal punto di vista della decisione. Seguiremo appunto quest’ultima<br />

strada ricorrendo alla rappresentazione del segnale ricevuto in un’opportuna base ortonormale. La<br />

scelta di quest’ultima deve essere fatta in modo tale che la rappresentazione tramite i coefficienti<br />

dello sviluppo non perda informazione in merito alla porzione di segnale utile ( sk ( t ) ).<br />

N<br />

RN ( τ ) = E n( t) n( t + τ ) = δ ( τ ) .<br />

2<br />

1 La corrispondente funzione di autocorrelazione è { } 0<br />

10


Relativamente al rumore una perdita può essere tollerata a patto che questa risulti irrilevante ai fini<br />

della successiva decisione statistica. Quanto detto euristicamente trova supporto teorico nel fatto,<br />

dimostrabile, che:<br />

“Nelle ipotesi di rumore bianco additivo una qualunque base ortonormale completa per<br />

l’insieme dei possibili segnali trasmessi ({ s ( t), s ( t), ⋯ , s ( t)<br />

} ) dà origine ad un vettore r che<br />

1 2<br />

risulta equivalente, ai fini della decisione statistica, all’intera osservazione r( t ) per t ∈ [0, T ] ”.<br />

Il vettore r così ottenuto è detto rilevante ed in termini tecnici questo significa che costituisce<br />

una statistica sufficiente nei riguardi del problema di decisione. Per quanto detto sopra risulta<br />

inoltre che la struttura del ricevitore è indipendente dalla particolare base scelta, purché completa<br />

per la parte di segnale utile ( sk ( t ) , k = 1, … , M ). In particolare la base ortonormale<br />

{ ψ ( t), ψ ( t), , ψ ( t)<br />

}<br />

1 2<br />

⋯ che porta ad un vettore r rilevante con il minimo numero di componenti N<br />

N<br />

è quella che si ottiene applicando la procedura di ortogonalizzazione di Gram-Schmidt all’insieme<br />

dei possibili M segnali trasmessi { s ( t), s ( t), , s ( t)<br />

}<br />

ovviamente N ≤ M ).<br />

1 2<br />

Scelta quindi la base ortonormale { ψ ( t), ψ ( t), , ψ ( t)<br />

}<br />

segnali trasmessi { s ( t), s ( t), , s ( t)<br />

}<br />

1 2<br />

seguenti coefficienti dello sviluppo<br />

M<br />

1 2<br />

M<br />

M<br />

⋯ (per quanto detto nel paragrafo 2 risulta<br />

⋯ , completa per l’insieme dei possibili<br />

N<br />

⋯ , si proietti in essa il segnale ricevuto r( t ) , ottenendo i<br />

T T T<br />

( j) ( j) ( j)<br />

= ( ) ψ ( ) ( ) ( ) ( ) ( )<br />

0<br />

j =<br />

0<br />

k ψ j + ψ<br />

0<br />

j = k +<br />

∫ ∫ ∫ , 1, ,<br />

r r t t dt s t t dt n t t dt s n<br />

che raccolti nei vettori<br />

(1)<br />

⎡ ⎤<br />

r<br />

⎢ (2) ⎥<br />

r<br />

r = ⎢ ⎥<br />

⎢ ⋮ ⎥<br />

⎢ ( N ) ⎥<br />

⎣r ⎦<br />

,<br />

s<br />

k<br />

(1) ⎡ s ⎤ k<br />

⎢ (2) ⎥<br />

sk<br />

= ⎢ ⎥<br />

⎢ ⋮ ⎥<br />

⎢ ( N ) ⎥<br />

⎢⎣ sk<br />

⎥⎦<br />

,<br />

(1)<br />

⎡ ⎤<br />

n<br />

⎢ (2) ⎥<br />

n<br />

n = ⎢ ⎥<br />

⎢ ⋮ ⎥<br />

⎢ ( N ) ⎥<br />

⎣n ⎦<br />

j = … N (2)<br />

, (3)<br />

portano al seguente modello vettoriale di osservazione equivalente a (1) dal punto di vista della<br />

decisione statistica<br />

r = sk + n . (4)<br />

Vale la pena osservare che si ha<br />

N<br />

( j)<br />

k ( ) k ψ j ( )<br />

j=<br />

1<br />

T<br />

( j)<br />

= ∑ ( dove sk s ( ) ( )<br />

0<br />

k t ψ j t dt)<br />

s t s t<br />

= ∫ t ∈ [0, T ]<br />

(5)<br />

11


essendo la base completa per i segnali sk ( t ) ( k = 1, … , M ), mentre in generale<br />

N<br />

( j)<br />

( ) ψ j ( )<br />

j=<br />

1<br />

n t ≠ ∑ n t<br />

t ∈ [0, T ]<br />

(6)<br />

ma per quanto detto prima ciò non comporta alcuna perdita ai fini della decisione.<br />

A questo punto avendo a disposizione un’osservazione vettoriale possiamo applicare la teoria<br />

sviluppata nel paragrafo 1 e concludere che il ricevitore <strong>ottimo</strong> (nell’ipotesi di segnali sk ( t )<br />

equiprobabili) è quello che attua la seguente regola di decisione a massima verosimiglianza<br />

sˆ arg max ( r | s )<br />

( s k equiprobabili) (7)<br />

MV = pRS<br />

| k<br />

sk<br />

Il calcolo della pRS | ( r | s k ) si effettua a partire dalla descrizione statistica del vettore di rumore n.<br />

Questo è ottenuto per trasformazione lineare di un processo gaussiano e quindi risulta a sua volta<br />

un vettore gaussiano. Rimane da caratterizzarne il vettore dei valori attesi e la matrice di<br />

covarianza. Relativamente al primo si osserva<br />

(1) { n }<br />

(2) { n }<br />

⎡ E ⎤<br />

⎢ ⎥<br />

⎢ E ⎥<br />

mn = E{<br />

n} = ⎢ ⎥ = 0<br />

⎢ ⋮ ⎥<br />

⎢ ( N ) ⎥<br />

⎢⎣ E{<br />

n } ⎥⎦<br />

dove 0 è il vettore nullo di dimensione N, poiché<br />

T T<br />

( j)<br />

{ } { } { }<br />

∫ ψ<br />

0<br />

j ∫ ψ<br />

0<br />

j . (9)<br />

E n = E n( t) ( t) dt = E n( t) ( t) dt = 0<br />

In merito alla seconda si ha<br />

T N0<br />

Kn = E{<br />

nn } = σ ij = I<br />

i, j= 1, …N<br />

2<br />

dove I è la matrice identità di dimensioni N×N, risultando<br />

T T<br />

( i) ( j)<br />

{ n n } { ∫ n t t dt<br />

0 ∫ n d<br />

0<br />

}<br />

σ = E = E ( ) ψ ( ) ⋅ ( τ ) ψ ( τ ) τ<br />

ij i j<br />

=<br />

T T<br />

∫ ∫<br />

0 0<br />

{ }<br />

E n( t) n( τ ) ψ ( t) ψ ( τ ) dtdτ<br />

N<br />

δ ( t<br />

2<br />

τ ) ψ i ( t) ψ j ( τ ) dtdτ<br />

⎧ N<br />

⎪ i = j<br />

T T<br />

0 = ∫ −<br />

0 ∫0<br />

N<br />

i j<br />

0<br />

T<br />

0<br />

= ( ) ( ) 2<br />

2 ∫ ψ i t ψ j t dt = ⎨ 0<br />

⎪0 ≠<br />

⎩<br />

i j<br />

Le componenti di n (vettore gaussiano) essendo incorrelate risultano anche statisticamente<br />

indipendenti. In conclusione si ha che<br />

(8)<br />

(10)<br />

(11)<br />

12


⎛ N ⎞<br />

∼ ⎜ ,<br />

2<br />

⎟ . (12)<br />

⎝ ⎠<br />

0<br />

n 0 I<br />

Da ciò segue facilmente che, essendo rumore e segnale trasmesso indipendenti, il vettore r<br />

condizionatamente a k s (in simboli r | ) ha ancora distribuzione gaussiana, ma con vettore dei<br />

sk<br />

valori attesi s k e matrice di covarianza quella del rumore. In sintesi<br />

⎛ N ⎞<br />

∼ ⎜ ,<br />

2<br />

⎟<br />

(13)<br />

⎝ ⎠<br />

0<br />

r | sk I<br />

sk<br />

da cui segue immediatamente che<br />

R| S<br />

T<br />

( r−sk ) ( r−sk )<br />

2<br />

r−sk N0 N0<br />

1 1<br />

p ( r | s ) = e = e . (14)<br />

k<br />

( π N ) ( π N )<br />

Tenendo poi conto del fatto che<br />

N N<br />

0 0<br />

T<br />

( k ) ( k )<br />

1<br />

N<br />

2<br />

0<br />

k k<br />

N<br />

k k k<br />

( 0 )<br />

e<br />

r−s r−s = − = −<br />

s s s<br />

π N<br />

arg max arg min r s arg min r s , (15)<br />

il ricevitore <strong>ottimo</strong> attua la seguente regola di decisione<br />

sˆ = arg min r − s . (16)<br />

MV k<br />

sk<br />

Essendo r − s k la distanza euclidea tra i vettori r e s k si ha il notevole risultato che, nelle<br />

ipotesi in cui si è analizzato il problema, cioè di segnali trasmessi equiprobabili osservati in rumore<br />

additivo gaussiano bianco, il ricevitore <strong>ottimo</strong> coincide con il ricevitore a minima distanza euclidea.<br />

Un primo schema realizzativo dello stesso che proietta il segnale ricevuto nella base<br />

{ ψ ( t), ψ ( t), , ψ ( t)<br />

}<br />

1 2<br />

⋯ , è quindi il seguente<br />

r( t)<br />

N<br />

ψ<br />

1<br />

( ) t<br />

N ( ) t ψ<br />

T<br />

∫<br />

0<br />

T<br />

∫<br />

0<br />

(1)<br />

r<br />

( N )<br />

r<br />

Calcolo<br />

delle<br />

distanze<br />

di r da<br />

s1,s2,..,sM<br />

r − s<br />

1<br />

r − s<br />

M<br />

M<br />

I<br />

N<br />

sˆ<br />

MV<br />

13


È possibile tuttavia derivare strutture alternative del ricevitore in dipendenza delle diverse forme<br />

(equivalenti) in cui è possibile scrivere la (16). Sviluppando la norma ivi presente (o meglio il suo<br />

quadrato) si ottiene<br />

sˆ = arg min r − s<br />

MV k<br />

sk<br />

2<br />

2 2 T<br />

{ r sk r sk<br />

}<br />

= arg min + − 2<br />

sk<br />

=<br />

⎧<br />

−<br />

⎩<br />

⎡<br />

⎣<br />

1<br />

−<br />

⎤⎫<br />

⎦⎭<br />

⎧ T<br />

= arg max ⎨r sk sk<br />

⎩<br />

1<br />

− sk<br />

2<br />

2 ⎫<br />

⎬ .<br />

⎭<br />

( )<br />

T<br />

2 2<br />

arg min ⎨ 2<br />

⎢<br />

r sk sk ⎬ essendo costante rispetto a k<br />

k<br />

2 ⎥<br />

r s<br />

s<br />

Esprimendo ora i prodotti scalari che compaiono nella (17) in termini dei corrispondenti integrali<br />

tra le funzioni del tempo (vedi paragrafo 2) è facile verificare che si ha<br />

T<br />

T<br />

r s k r( t) s ( )<br />

0<br />

k t dt , ( k 1, , M )<br />

= ∫<br />

[ ] 2<br />

2 T<br />

T<br />

sk = s s k = ∫ s ( )<br />

0<br />

k t dt = Ek<br />

, ( k 1, , M )<br />

(17)<br />

= … ; (18)<br />

= … ; (19)<br />

essendo E k l’energia del k-esimo possibile segnale trasmesso. Sulla base delle (18) e (19) si ottiene<br />

una prima forma equivalente della (16)<br />

1<br />

ˆ<br />

⎧ T<br />

⎫<br />

s MV = arg max ⎨∫ r( t) sk ( t) dt − Ek<br />

⎬<br />

(20)<br />

s<br />

0<br />

k ⎩ 2 ⎭<br />

a cui corrisponde la seguente struttura di demodulatore cosiddetto a correlazione, per via della<br />

circostanza che il primo termine tra parentesi graffe nella (20) è un integrale di correlazione tra il<br />

segnale ricevuto r( t ) ed il generico possibile segnale trasmesso ( )<br />

r( t)<br />

s ( t)<br />

1<br />

s ( t)<br />

M<br />

T<br />

∫<br />

0<br />

T<br />

∫<br />

0<br />

crs1<br />

crsM<br />

1<br />

2 E<br />

s t ( k 1, , M )<br />

1<br />

k<br />

1<br />

2 M E<br />

M<br />

A<br />

X<br />

= … .<br />

sˆ<br />

MV<br />

14


Un ulteriore schema si ottiene osservando che il generico integrale di correlazione presente nella<br />

(20) può calcolarsi equivalentemente facendo transitare il segnale ricevuto r( t ) in un filtro (causale)<br />

avente risposta impulsiva h ( t) = s ( T − t)<br />

e campionando la corrispondente uscita all’istante t = T ,<br />

infatti<br />

0<br />

k k<br />

| |<br />

r( t) ∗ h ( t) = r( t) ∗ s ( T − t)<br />

k k<br />

t= T<br />

+∞<br />

t= T<br />

= r( τ ) s ( T − t + τ ) dτ<br />

=<br />

∫<br />

−∞<br />

∫<br />

T<br />

k<br />

r( τ ) s ( τ ) dτ<br />

che consente di riscrivere la (16)<br />

k<br />

|<br />

t= T<br />

1<br />

ˆ<br />

⎧ ⎫<br />

s MV = arg max ⎨r( t) ∗hk ( t) − Ek<br />

| ⎬<br />

(22)<br />

sk<br />

⎩ t= T 2 ⎭<br />

da cui segue senza difficoltà il seguente schema del demodulatore cosiddetto a filtro adattato, in<br />

quanto ciascuno dei filtri hk ( t ) è adattato al corrispondente segnale sk ( t ) .<br />

r( t)<br />

In sintesi la regola di decisone attuata dal ricevitore <strong>ottimo</strong> può porsi nelle forme seguenti<br />

sˆ = arg min r − s<br />

MV k<br />

sk<br />

⎧ T<br />

1 ⎫<br />

= arg max ⎨ r( t) s ( t) dt − E ⎬ demodulatore a correlazione<br />

sk<br />

∫<br />

h ( t) = s ( T − t)<br />

1 1<br />

h ( t) = s ( T − t)<br />

M M<br />

0<br />

k k<br />

⎩ 2 ⎭<br />

( )<br />

⎧ 1 ⎫<br />

= arg max ⎨r( t) ∗hk ( t) − Ek<br />

demodulatore a filtro adattato<br />

| ⎬<br />

sk<br />

⎩ t= T 2 ⎭<br />

( )<br />

cui corrispondono rispettivamente gli schemi (tutti equivalenti) riportati nelle ultime tre figure.<br />

t = T<br />

t =<br />

T<br />

crs1<br />

crsM<br />

1<br />

2 E<br />

1<br />

1<br />

2 M E<br />

M<br />

A<br />

X<br />

sˆ<br />

MV<br />

(21)<br />

15


A conclusione vale la pena osservare che la struttura di decisione che conduce alla minima<br />

distanza euclidea dipende fortemente dalle ipotesi fatte. In particolare il fatto che il rumore sia<br />

gaussiano e bianco garantisce che la massimizzazione della densità di probabilità in avanti sia<br />

equivalente alla minimizzazione della forma quadratica presente ad esponente nella gaussiana (la<br />

bianchezza in particolare implica che detta forma quadratica sia proprio una distanza euclidea). In<br />

ultimo si sottolinea l’assunta ipotesi di equiprobabilità dei segnali trasmessi; è infatti possibile<br />

dimostrare che quando questa non è verificata il ricevitore <strong>ottimo</strong>, che sarà necessariamente del tipo<br />

a massima probabilità a posteriori, non è in generale a minima distanza euclidea.<br />

⎯⎯⎯⎯ ο ⎯⎯⎯⎯<br />

16


4. Prestazioni del ricevitore <strong>ottimo</strong> coerente<br />

Le prestazioni del ricevitore <strong>ottimo</strong> coerente sono valutate in termini dello stesso parametro che<br />

esso minimizza e cioè della probabilità di errore sul simbolo. Tenendo conto del fatto che il<br />

modulatore associa in maniera biunivoca ad ognuno degli M distinti simboli che la sorgente emette<br />

un diverso segnale sk ( t ) ( k = 1, … , M ), la probabilità di errore sul simbolo è definita (utilizzando la<br />

rappresentazione tramite vettori) come segue<br />

{ ˆ }<br />

P( e ) = Pr sMV ≠ s (1)<br />

dove s ed sˆ MV rappresentano rispettivamente il segnale trasmesso e quello per il quale si è deciso.<br />

Tenendo conto del fatto che la probabilità di errore è il complemento ad 1 della probabilità di<br />

corretta decisione P( c ) = Pr{<br />

ˆ = }<br />

(1) può porsi equivalentemente nella forma<br />

k = 1<br />

k = 1<br />

k=<br />

1<br />

s s ed inoltre che i segnali trasmessi sono assunti equiprobabili la<br />

{ sˆ s}<br />

P( e) = 1 − P( c)<br />

= 1− Pr =<br />

M<br />

∑<br />

MV<br />

{ sˆ s s s }<br />

= 1− Pr = , =<br />

M<br />

∑<br />

MV k k<br />

{ sˆ s s s } { s s }<br />

= 1− Pr = | = Pr =<br />

MV k k k<br />

M 1<br />

= 1− ∑Pr<br />

{ sˆ MV = sk | s = sk<br />

} .<br />

M<br />

Il calcolo esplicito della (2) può essere condotto tenendo presente quanto detto nel paragrafo 1<br />

riguardo al fatto che applicare una regola di decisione equivale a partizionare lo spazio di<br />

osservazione in regioni di accettazione R j ( r ∈ R ˆ j ⇒ sMV = s j ). Nel caso specifico del ricevitore<br />

coerente lo spazio di osservazione è lo spazio euclideo<br />

(2)<br />

N<br />

ℝ i cui punti sono possibili vettori ricevuti.<br />

Le regioni R j ( j = 1, … , M ) sono facilmente ricavabili come luogo geometrico dei punti di<br />

N<br />

ℝ a<br />

distanza minima dagli M punti di costellazione associati ai segnali trasmessi s j ( j = 1, … , M ). Tali<br />

regioni sono dette regioni di decisione a massima verosimiglianza o regioni di Voronoi e sono<br />

definite formalmente come segue<br />

N { r ℝ | r s r s , { 1,2, ⋯ , } { j}<br />

}<br />

R = ∈ − ≤ − k ∈ M<br />

j j k<br />

j−1<br />

⎛ ⎞<br />

⎜ Ri<br />

⎟<br />

i=<br />

1<br />

∪ . (3)<br />

⎝ ⎠<br />

Da notare che nella definizione della generica R j sono stati rimossi i punti appartenenti alle<br />

regioni R k con k j < . Ciò si rende necessario per far si che le M regioni R j costituiscano una<br />

17


partizione di<br />

N<br />

ℝ . Ciascuna regione j<br />

R ammette come frontiera punti che sono equidistanti da due<br />

punti di costellazione prossimi. L’attribuzione di detti punti di frontiera ad una regione piuttosto che<br />

ad un’altra è del tutto arbitraria non avendo alcuna influenza sulle prestazioni, cioè sulla probabilità<br />

di errore. La ragione di ciò è legata al fatto che eventi del tipo<br />

{ − k = − j } ≡ { il vettore ricevuto è equidistante da k e da j}<br />

r s r s r s s hanno probabilità nulla.<br />

Sulla base di quanto detto sopra risulta quindi evidente che<br />

{ ˆ = = } = { ∈ R = }<br />

Pr s s | s s Pr r | s s e quindi la (2) può scriversi come<br />

MV k k k k<br />

M 1<br />

P( e)<br />

= 1− ∑Pr<br />

= | =<br />

M<br />

k=<br />

1<br />

M<br />

∑∫ R<br />

R| S<br />

k<br />

k=<br />

1<br />

{ sˆ s s s }<br />

k k<br />

1<br />

= 1 − p ( r | sk ) dr<br />

;<br />

M<br />

ricordando poi i risultati del paragrafo precedente si giunge facilmente alla seguente espressione<br />

generale per il calcolo della probabilità di errore media sul simbolo<br />

M Rk N<br />

k = 1 ( π N0<br />

)<br />

2<br />

r−sk N0<br />

M 1 1<br />

P( e) = 1−<br />

∑∫ e dr<br />

. (5)<br />

Una volta noti i punti della costellazione s k ( k 1, , M = … ) le regioni R k si ricavano facilmente<br />

per mezzo della (3) o più semplicemente tramite considerazioni geometriche e la (5) fornisce il<br />

ricercato indice prestazionale.<br />

Vale la pena fare alcune considerazioni in merito alla (5). La funzione integranda risulta essere a<br />

simmetria circolare rispetto a k s (cioè in punti equidistanti da s k assume lo stesso valore). Questo<br />

porta a concludere che ciascuno degli integrali nella (5) dipende solo dalla forma e dall’estensione<br />

della corrispondente regione di decisione R k e non dalla sua posizione nello spazio di osservazione.<br />

Da ciò segue che qualunque trasformazione che altera la costellazione, lasciando invariate forma e<br />

dimensioni delle regioni R k non muta la probabilità di errore. In particolare questo è vero per<br />

traslazioni, rotazioni e riflessioni.<br />

Ad esempio le costellazioni di seguito riportate, fanno riferimento ad un sistema di M = 4<br />

segnali rappresentabili in una base ortonormale di dimensione N = 2.<br />

ψ<br />

2<br />

R 1<br />

ψ1<br />

ψ 2<br />

ψ 2<br />

R1 ɶ<br />

R1<br />

ψ1 ψ1<br />

(4)<br />

18


A tratteggio sono indicate le frontiere delle regioni di decisione (nella prima figura coincidono<br />

con gli assi). Risultando dette regioni, uguali per forma ed estensione (ad esempio 1 R , 1 Rɶ ed 1 R<br />

differiscono solo per la loro posizione nel piano ( , )<br />

ψ ψ ), le tre diverse costellazioni presentano la<br />

medesima probabilità di errore. Questo non significa tuttavia che possano ritenersi equivalenti sotto<br />

tutti gli altri punti di vista, in particolar modo quello energetico. L’obiettivo che si cerca di<br />

raggiungere infatti è la riduzione dell’energia impiegata nella trasmissione a parità di probabilità di<br />

errore.<br />

1 2<br />

L’energia media richiesta per la trasmissione di M segnali equiprobabili è data da<br />

M 1<br />

∑ k<br />

M 1<br />

∑ s k<br />

2<br />

(6)<br />

k= 1 k = 1<br />

E = E =<br />

M M<br />

da cui si deduce immediatamente la terza configurazione di figura richiede in media più energia<br />

delle altre due avendo i punti della costellazione più distanti dall’origine. È interessante rilevare che<br />

il valore minimo della (6) si ottiene quando i punti della costellazione presentano valor medio nullo,<br />

cioè quando<br />

M<br />

∑s k<br />

k= 1<br />

= 0 . (7)<br />

La prova di quanto detto si basa sull’osservazione che la (6) può essere interpretata come il<br />

momento d’inerzia rispetto all’origine del sistema di punti descritti dai vettori s k ( k = 1, … , M ) ed<br />

aventi massa 1<br />

M<br />

. È noto che il momento d’inerzia è minimo se calcolato rispetto al centro di<br />

massa. La costellazione a minima energia media è quindi quella che ha il centro di massa<br />

nell’origine, cioè<br />

1<br />

1<br />

M<br />

∑s k = 0 , da cui la (7).<br />

M k=<br />

Relativamente al calcolo della (5) si fa notare che a dispetto del fatto che le regioni R k sono<br />

facilmente individuabili, risulta in generale piuttosto complicato calcolare gli integrali e, salvo casi<br />

particolari in cui esiste un’espressione in forma chiusa, la valutazione va condotta per via numerica.<br />

Nasce quindi la necessità di individuare limiti superiori alla probabilità di errore che consentano<br />

da una parte di fornire stime alla (5) e dall’altra di mettere in evidenza i parametri chiave utili in<br />

sede di sintesi della costellazione. Con questo obiettivo in mente richiamiamo alcuni risultati, noti<br />

da altri corsi, che serviranno per gli sviluppi successivi.<br />

Nel caso di trasmissione binaria ( M = 2 ) è noto che la probabilità di errore media sul simbolo<br />

binario coincide con le probabilità di errore condizionate ( P( e | s 1)<br />

e P( e | s 2 ) ) ed assume la<br />

seguente espressione<br />

19


⎧il vettore ricevuto r è più vicino a s2 che a s1,<br />

⎫<br />

P( e) = P( e | s1)<br />

≡ Pr ⎨ ⎬<br />

⎩posto che sia stato trasmesso s1<br />

⎭<br />

⎧il vettore ricevuto r è più vicino a s1 che a s2<br />

, ⎫<br />

= P( e | s2<br />

) ≡ Pr ⎨ ⎬<br />

⎩posto<br />

che sia stato trasmesso s2<br />

⎭<br />

2<br />

1 ⎛ d ⎞<br />

12<br />

= erfc⎜<br />

⎟<br />

2 ⎜ 4N<br />

⎟<br />

dove il parametro<br />

2<br />

⎝ 0 ⎠<br />

2<br />

d 12 è l’energia del segnale differenza tra i due possibili segnali trasmessi s1 ( t ) e<br />

s ( t ) o equivalentemente la distanza al quadrato tra gli stessi<br />

[ ( ) ( ) ]<br />

T<br />

2<br />

2 2<br />

12 = ∫0 1 − 2 = s1 − s 2 ; (9)<br />

d s t s t dt<br />

poiché inoltre si ha<br />

d<br />

essendo<br />

2 2 2 2 T<br />

12 = 1 − 2 = 1 + 2 − 2 1 2<br />

(8) diviene<br />

s s s s s s (10)<br />

= E + E − 2ρ<br />

E E<br />

1 2 1 2<br />

T<br />

T<br />

s 1 2<br />

1 s2<br />

∫0<br />

ρ = =<br />

E E<br />

1 2<br />

s ( t) s ( t) dt<br />

T T<br />

∫ [ 1( ) ] [ 2 ( ) ]<br />

0 ∫0<br />

2 2<br />

s t dt s t dt<br />

0<br />

⎝ ⎠<br />

(8)<br />

il coefficiente di correlazione tra i due segnali, la<br />

1<br />

⎛ E1 + E2 − 2ρ<br />

E1E ⎞<br />

2<br />

P( e)<br />

= erfc⎜<br />

⎟ . (11)<br />

2 ⎜ 4N<br />

⎟<br />

È noto che nel caso in cui le energie siano vincolate a non superare un prefissato valore E, la<br />

miglior configurazione di segnali (quella cioè che garantisce la minima probabilità di errore) è<br />

quella per cui E1 = E2 = E e 1<br />

1 erfc<br />

2<br />

⎝ 0 ⎠<br />

ρ = − cioè segnali antipodali ( s ( t) s ( t)<br />

)<br />

= − e la (11) diviene<br />

1 2<br />

⎛ E ⎞<br />

⎜ ⎟ . Questa costituisce quindi la miglior configurazione nel caso di trasmissione binaria<br />

⎜ N ⎟<br />

(con vincolo sull’energia) e demodulazione coerente. Si noti che in questo caso le prestazioni non<br />

dipendono dalla forma del segnale ma solo dalla sua energia.<br />

Svilupperemo ora un limite superiore alla (5) sfruttando i risultati sopra richiamati.<br />

Partendo dalla definizione di probabilità di errore media sul simbolo, valgono i seguenti sviluppi<br />

20


k = 1<br />

k = 1<br />

{ sˆ s}<br />

P( e)<br />

= Pr ≠<br />

M<br />

∑<br />

MV<br />

k = 1<br />

{ sˆ s s s }<br />

= Pr ≠ , =<br />

M<br />

∑<br />

MV k k<br />

{ sˆ s s s } { s s }<br />

= Pr ≠ | = Pr =<br />

MV k k k<br />

M 1<br />

= ∑Pr<br />

≠ | =<br />

M<br />

{ sˆ s s s }<br />

MV k k<br />

Per individuare una maggiorazione dei termini ad argomento della sommatoria è utile richiamare<br />

il seguente risultato, noto nell’ambito della teoria della probabilità come limite dell’unione (union<br />

bound):<br />

Siano 1 2<br />

A , A , ⋯ , AL<br />

generici eventi aventi probabilità rispettivamente { 1}<br />

⋯, Pr{ A L}<br />

, allora per la probabilità dell’evento unione vale la seguente maggiorazione<br />

⎧ ⎫<br />

Pr ≤ Pr<br />

L L<br />

⎨ ⎬<br />

⎩ k=<br />

1 ⎭ k=<br />

1<br />

∑<br />

(12)<br />

Pr A , { }<br />

Pr A ,<br />

Ak { Ak<br />

}<br />

∪ (13)<br />

dove l’uguaglianza si ha se gli eventi sono disgiunti ( A A = ∅ , i ≠ j ).<br />

∩<br />

i j<br />

Prendendo in considerazione il generico termine della sommatoria nella (12) si osservi che<br />

l’evento<br />

≠ =<br />

⎧il vettore ricevuto r non è più vicino a sk<br />

, ⎫<br />

≡ ⎨ ⎬<br />

⎩posto che sia stato trasmesso sk<br />

⎭<br />

⎧il vettore ricevuto r è più vicino a s1 oppure a s2 oppure .... oppure a sk<br />

−1<br />

⎫<br />

≡ ⎨ ⎬<br />

⎩oppure a sk + 1 .... oppure a sM −1<br />

oppure a sM , posto che sia stato trasmesso sk<br />

⎭<br />

{ sˆ s | s s }<br />

MV k k<br />

può essere scritto come unione dei seguenti eventi (non disgiunti) indicati con il simbolo Ek→ j<br />

E →<br />

k j<br />

⎧⎪ il vettore ricevuto r è più vicino a s j che a sk<br />

, ⎫⎪<br />

= ⎨ ⎬<br />

⎪⎩ posto che sia stato trasmesso sk<br />

⎪⎭<br />

cioè { ˆ | }<br />

MV k k j<br />

j=<br />

1<br />

j≠k M<br />

s ≠ s s = s = ∪ E → , per cui si può concludere che<br />

⎧ ⎫<br />

M<br />

⎪ ⎪<br />

Pr { sˆ MV ≠ sk | s = sk } = Pr ⎨∪ Ek→<br />

j ⎬<br />

⎪ j=<br />

1 ⎪<br />

⎩ j≠k ⎭<br />

( applicando il limite dell'unione (13) )<br />

M<br />

≤ ∑Pr<br />

j=<br />

1<br />

j≠k { Ek→<br />

j}<br />

2<br />

(14)<br />

21


Confrontando ora la definizione degli eventi Ek→ j con quanto riportato nella (8) si conclude che<br />

il generico termine Pr{ Ek→ j}<br />

rappresenta la probabilità di errore di un sistema di trasmissione<br />

binario in cui gli unici segnali trasmessi sono k s e j s . Indicando con d k j = k − j<br />

due segnali, dalla (8) segue quindi che<br />

1 ⎛ d ⎞ k j<br />

Pr{ Ek→<br />

j}<br />

= erfc⎜<br />

⎟<br />

2 ⎜ 2 N ⎟<br />

⎝ 0 ⎠<br />

s s la distanza tra i<br />

che sostituito nella (14) e poi nella (12) porta alla seguente maggiorazione per la probabilità di<br />

errore<br />

M M 1 ⎛ d ⎞ k j<br />

P( e)<br />

≤ ∑∑ erfc⎜<br />

⎟ , (16)<br />

2M ⎜ 2 N ⎟<br />

⎝ ⎠<br />

k = 1 j= 1 0<br />

j≠k nota in letteratura come limite superiore dell’unione (union upper bound). Per il suo calcolo è<br />

sufficiente conoscere le distanze tra i possibili segnali generati dal modulatore o equivalentemente<br />

tra i punti della costellazione. È importante far notare che il limite nella (16) diviene sempre più<br />

stretto al diminuire del livello di rumore 0 N e per N0 → 0 è asintoticamente esatto. Risulta quindi<br />

una buona approssimazione di P( e ) per alti SNR.<br />

Dalla (16) è possibile derivare un altro limite superiore più semplice ma più lasco. Basandosi<br />

infatti sulla circostanza che la funzione erfc( x ) è decrescente, indicando con<br />

d = d<br />

min<br />

min k j<br />

k≠ j<br />

la minima distanza esistente tra i punti della costellazione, si ha ovviamente<br />

⎛ d ⎞ ⎛ d ⎞<br />

erfc erfc<br />

da cui segue<br />

k j<br />

min<br />

⎜ ⎟ ≤ ⎜ ⎟<br />

⎜ 2 N ⎟ ⎜<br />

0 2 N ⎟<br />

⎝ ⎠ ⎝ 0 ⎠<br />

M M 1 ⎛ d ⎞ k j<br />

P( e)<br />

≤ ∑∑ erfc⎜<br />

⎟<br />

2M ⎜ 2 N ⎟<br />

⎝ ⎠<br />

1<br />

k = 1 j=<br />

1 0<br />

j≠k M M<br />

min<br />

≤ ∑∑ erfc⎜<br />

⎟<br />

2M ⎜ k = 1 j=<br />

1 2 N ⎟<br />

⎝ 0 ⎠<br />

j≠k 1<br />

=<br />

2 M<br />

e quindi in definitiva<br />

⎛ d ⎞<br />

⎛ d ⎞<br />

min<br />

M ( M −1)erfc ⎜ ⎟<br />

⎜ 2 N ⎟<br />

⎝ 0 ⎠<br />

(15)<br />

(17)<br />

(18)<br />

22


M −1<br />

⎛ d ⎞<br />

P( e)<br />

erfc<br />

min<br />

≤ ⎜ ⎟<br />

2 ⎜ 2 N ⎟<br />

⎝ 0 ⎠<br />

che costituisce il limite superiore dell’unione semplificato. In merito a quest’ultimo vale la pena<br />

osservare che per il calcolo e sufficiente conoscere la sola distanza minima tra i punti della<br />

costellazione. L’importanza della (18) è inoltre legata al fatto che mette in luce il parametro da<br />

ottimizzare per migliorare le prestazioni. Almeno nel caso di basso livello di rumore dalla (18) si<br />

evince infatti che la distanza minima d min rappresenta il parametro dominante ai fini delle<br />

prestazioni di un insieme di segnali e la sua massimizzazione è infatti un criterio comunemente<br />

seguito nella sintesi della costellazione. Vale la pena tuttavia sottolineare che per valori non piccoli<br />

della probabilità di errore (cioè livello di rumore non basso) è necessario tener conto di altri aspetti<br />

per conseguire un miglioramento delle prestazioni.<br />

⎯⎯⎯⎯ ο ⎯⎯⎯⎯<br />

(19)<br />

23


5. Demodulatore incoerente<br />

Il modello del segnale ricevuto può esprimersi come segue:<br />

j( 2π<br />

fot+ θ )<br />

{ }<br />

r( t) s ( t; θ ) n( t) Re s ( t) e n( t)<br />

= + = + t [ 0, T ]<br />

j j<br />

dove sj ( t ) è l’inviluppo complesso di s j ( t ) rispetto alla frequenza f o .<br />

∈ (1)<br />

Anche in questo caso si procede nel ricercare il modello vettoriale equivalente espandendo il<br />

segnale ricevuto r( t ) in una base di sviluppo ortonormale che sia, al solito, completa per la<br />

( )<br />

componente di segnale utile s j ( t; θ ) con j = 1, ⋯ , M e θ ∈[<br />

0,2π<br />

) . Si fa notare che in questo caso<br />

la base ortonormale è in generale “più ricca” rispetto alla corrispondente base impiegata nel caso di<br />

ricevitore coerente; ciò in ragione della necessità di dover tenere conto del termine di fase θ . È<br />

possibile dimostrare che a parità di segnali s j ( t ) con j = 1, ⋯ , M , la base che consente di avere il<br />

minimo numero di coefficienti per lo sviluppo ha dimensione doppia rispetto alla corrispondente nel<br />

caso coerente.<br />

Indicando con { ψ ( t), ψ ( t), , ψ ( t)<br />

}<br />

(1)<br />

⎡ ⎤<br />

r<br />

⎢ (2) ⎥<br />

r<br />

r = ⎢ ⎥<br />

⎢ ⋮ ⎥<br />

⎢ ( N ) ⎥<br />

⎣r ⎦<br />

(1)<br />

⎡ s j ( θ ) ⎤<br />

⎢ (2) ⎥<br />

s j ( θ )<br />

s j ( θ ) = ⎢ ⎥<br />

⎢ ⋮ ⎥<br />

⎢ ( N ) ⎥<br />

⎢⎣ s j ( θ ) ⎥⎦<br />

(1)<br />

⎡ ⎤<br />

n<br />

⎢ (2) ⎥<br />

n<br />

n = ⎢ ⎥<br />

⎢ ⋮ ⎥<br />

⎢ ( N ) ⎥<br />

⎣n ⎦<br />

1 2<br />

⋯ la suddetta base ed introducendo, come solito i vettori:<br />

N<br />

con<br />

con<br />

con<br />

il modello vettoriale equivalente della (1) è<br />

T<br />

( k )<br />

r r( t) ψ k ( t) dt<br />

0<br />

= ∫ ;<br />

T<br />

s ( θ ) = ∫ s ( t; θ ) ψ ( t) dt ;<br />

( k )<br />

j j k<br />

0<br />

T<br />

( k )<br />

n n( t) ψ k ( t) dt<br />

0<br />

= ∫ ;<br />

24


= s ( ) + n . (2)<br />

j θ<br />

Sulla base di quanto detto nei paragrafi precedenti il ricevitore <strong>ottimo</strong>, nell’ipotesi che gli M<br />

segnali trasmessi siano equiprobabili, si concretizza in un sistema che realizza la seguente decisione<br />

a massima verosimiglianza<br />

( k )<br />

sˆ arg max p r s . (3)<br />

= R S<br />

sk<br />

La presenza del termine di fase aleatoria θ rende più articolato il calcolo della densità di<br />

probabilità “in avanti” p ( r s R S k ) . Quest’ultima tuttavia può essere espressa in termini di grandezze<br />

facilmente ricavabili dal modello di osservazione (sulla base delle ipotesi fatte) mediante i seguenti<br />

passaggi:<br />

+∞<br />

( r sk ) = ∫ ( r, θ s ) ( ddp marginale ottenuta per saturazione della ddp congiunta)<br />

,<br />

k θ<br />

Θ<br />

p p d<br />

R S R S<br />

−∞<br />

+∞<br />

p( x | y, z) p( y, z)<br />

= ∫ p , ( r θ, sk ) p ( θ sk<br />

) dθ<br />

ricorda che p( x, y | z) =<br />

p( x | y, z) p( y | z)<br />

Θ Θ<br />

⎜ =<br />

R S S<br />

⎟<br />

−∞<br />

p( z)<br />

=<br />

+∞<br />

∫<br />

−∞<br />

1<br />

R Θ,<br />

S<br />

( k )<br />

r θ, s ( θ ) θ ( indipendenza<br />

tra fase aleatoria Θ e segnale trasmesso S)<br />

p p d<br />

2π<br />

= Θ,<br />

2π<br />

∫ R S<br />

0<br />

Θ<br />

⎛ ⎞<br />

⎝ ⎠<br />

( r θ, sk<br />

) θ fase aleatoria a distribuzione uniforme in [ 0, 2π<br />

)<br />

p d<br />

A questo punto p ( θ,<br />

k )<br />

R Θ,<br />

S<br />

( )<br />

r s si ricava immediatamente dal modello di osservazione poiché<br />

l’assunta indipendenza tra rumore, segnali trasmessi e fase aleatoria porta a concludere che il<br />

vettore (aleatorio) di osservazione r, condizionatamente al segnale trasmesso s k ed alla fase θ<br />

(indicato con<br />

r ) ha la seguente distribuzione<br />

θ,<br />

s k<br />

⎛ N ⎞<br />

∼ ⎜ θ ⎟ (dove I è la matrice identità di dimensione N)<br />

⎝ ⎠<br />

0<br />

r sk ( ), I<br />

θ,<br />

sk 2<br />

da cui segue<br />

1<br />

p = e<br />

R Θ,<br />

S<br />

( r θ,<br />

sk<br />

)<br />

=<br />

( π N )<br />

1<br />

0<br />

( π N )<br />

N<br />

2<br />

r−sk ( θ )<br />

−<br />

N0<br />

2<br />

2 ⎛<br />

k ( θ ) 2 ⎞<br />

r s<br />

⎜ T<br />

+ r sk<br />

( θ ) ⎟<br />

N<br />

⎜ N0 N0<br />

⎟<br />

0 ⎝ ⎠<br />

e e<br />

0<br />

⎛<br />

⎜<br />

⎜<br />

⎝<br />

N<br />

2<br />

sk<br />

( θ ) 2 ⎞<br />

T<br />

+ r sk<br />

( θ ) ⎟<br />

N0 N0 ⎟<br />

⎠<br />

⎛<br />

⎜ A( r)<br />

=<br />

⎜<br />

1<br />

N<br />

( π N0<br />

)<br />

e<br />

2<br />

r ⎞<br />

N0<br />

⎟<br />

⎟<br />

= A( r)<br />

e<br />

⎝ ⎠<br />

(4)<br />

(5)<br />

25


dove si è enucleato il termine che non dipende dall’indice k e che quindi risulterà ininfluente ai fini<br />

della successiva decisione.<br />

Sostituendo la (5) nella (4) si ottiene<br />

⎛ 2<br />

sk<br />

( θ ) 2 ⎞<br />

T<br />

2 π ⎜ + r sk<br />

( θ ) ⎟<br />

⎜ N0 N0<br />

⎟<br />

⎝ ⎠<br />

1<br />

p ( r sk ) = A( r ) e dθ<br />

R S<br />

2π<br />

∫<br />

. (6)<br />

0<br />

Al fine di semplificare ulteriormente tale espressione è opportuno considerare i termini che<br />

compaiono ad esponente nell’integrando. Per quanto riguarda<br />

2<br />

s k ( θ ) , questo rappresenta l’energia<br />

della componente utile (alterata nella fase) del segnale ricevuto ed è facile convincersi che questa<br />

coincide con l’energia del segnale trasmesso sk ( t ) poiché la presenza di un termine di fase costante<br />

non comporta variazioni dell’energia. Si ha quindi<br />

2<br />

T T<br />

2 2<br />

∫[ ] ∫[<br />

]<br />

s ( θ ) = s ( t; θ ) dt = s ( t) dt = E<br />

(7)<br />

k k k k<br />

0 0<br />

che ne evidenzia la conseguente indipendenza da θ .<br />

Il termine<br />

T<br />

r s rappresenta invece l’intercorrelazione tra il segnale ricevuto ( )<br />

k ( θ )<br />

r t e la<br />

componente utile dello stesso (alterata nella fase) sk ( t; θ ) . Può quindi esprimersi in termini del<br />

corrispondente integrale tra le funzioni del tempo<br />

T T<br />

T r sk<br />

θ = ∫ k θ = ∫<br />

k<br />

0 0<br />

jθ<br />

{ e zk<br />

}<br />

jθ<br />

j 2π<br />

fot { }<br />

( ) r( t) s ( t; ) dt r( t)Re s ( t) e e dt<br />

T T<br />

⎧ j<br />

j2π fot ⎫ ⎛ j2π fot ⎞<br />

θ<br />

= Re ⎨e ∫ r( t) s ( t) e dt definendo zk r( t) s ( t) e dt<br />

k ⎬ ⎜ ≐ ∫ k ⎟<br />

⎩ 0 ⎭ ⎝ 0<br />

⎠<br />

= Re<br />

jϕk<br />

( ℂ)<br />

= z cos( θ + ϕ ) . avendo scritto z = z e , poiché z ∈<br />

k k k k k<br />

La procedura di valutazione di<br />

T<br />

j2π fot zk ∫ r( t) s ( t) e dt<br />

k<br />

0<br />

Andando ora a sostituire la (7) e la (8) nella (6) si ottiene<br />

0<br />

≐ sarà analizzata in dettaglio più avanti.<br />

E 2π k<br />

2 z 1<br />

k<br />

cos(<br />

θ + ϕk<br />

)<br />

p ( r s ) ( ) N0 N0<br />

k = A r e e dθ<br />

R S<br />

2π<br />

∫<br />

; (9)<br />

l’integrale nella (9) presenta una struttura particolare potendo infatti essere scritto in termini della<br />

funzione speciale I0 ( x ) nota come funzione di Bessel modificata di prima specie di ordine zero e<br />

definita come segue<br />

(8)<br />

26


1 θ 1<br />

I ( ) ≜ θ = θ ∀ϕ ∈ ℝ (10)<br />

π 2π<br />

x cos<br />

x cos(<br />

θ + ϕ )<br />

o x e d e d<br />

π ∫ 2π<br />

∫<br />

0 0<br />

ed il cui grafico è rappresentato in figura. Vale la pena osservare che I0 ( x ) risulta essere una<br />

funzione crescente per argomenti non negativi.<br />

Io(x)<br />

1<br />

0<br />

A questo punto è immediato riconoscere che la (9) assume la seguente forma finale<br />

Ek<br />

⎛ 2 zk<br />

⎞<br />

p ( r s ) ( ) N0<br />

k = A r e I<br />

R S 0 ⎜ ⎟ . (11)<br />

N<br />

⎝ 0 ⎠<br />

Tenendo conto infine del fatto che il termine A( r ) non dipende dall’indice k e che quindi è<br />

ininfluente ai fini della decisione rispetto a s k il ricevitore incoerente <strong>ottimo</strong> è quello che realizza la<br />

seguente regola di decisione<br />

⎧ Ek<br />

z ⎫<br />

T<br />

⎪ ⎛ k ⎞⎪<br />

⎛<br />

ˆ arg max e N<br />

j2π fot ⎞<br />

s = ⎨ 0 I0 ⎜ ⎟⎬<br />

, ⎜ dove zk ≐ r( t) s ( t) e dt<br />

k<br />

sk<br />

⎪⎩ ⎝ N<br />

∫<br />

⎟ , (12)<br />

0 ⎠⎪⎭<br />

⎝ 0<br />

⎠<br />

Esso opera quindi nella seguente modalità. Sulla base del segnale ricevuto r( t ) nell’intervallo di<br />

segnalazione [ ]<br />

Grafico della I0 ( x )<br />

0,T , calcola le M statistiche z k ( k = 1, … , M ) e quindi decide in favore del segnale<br />

⎡ Ek<br />

⎛ zk<br />

⎞⎤<br />

che rende massima l’espressione ⎢e N0<br />

I0 ⎜ ⎟⎥<br />

. Vale la pena osservare che il ricevitore, oltre a<br />

⎢⎣ ⎝ N0<br />

⎠⎥⎦<br />

dover conoscere i possibili segnali trasmessi sk ( t ) ( k = 1, … , M ), deve avere anche informazioni in<br />

merito al livello di rumore N 0 .<br />

x<br />

Nell’ipotesi in cui i segnali sk ( t ) abbiano la stessa energia, circostanza tipica nei sistemi in cui<br />

si utilizza rivelazione incoerente, la regola di decisione si semplifica notevolmente<br />

27


⎧ Ek<br />

⎪ ⎛ zk<br />

⎞⎫⎪<br />

sˆ<br />

= arg max ⎨e N0<br />

I0 ⎜ ⎟⎬<br />

k = 1, …,<br />

M ⎪⎩ ⎝ N0<br />

⎠⎪⎭<br />

⎧⎪ ⎛ zk<br />

⎞⎫⎪<br />

= arg max ⎨I 0 ⎜ ⎟⎬<br />

Ek<br />

= cost<br />

k = 1, …,<br />

M ⎪⎩ ⎝ N0<br />

⎠⎪⎭<br />

k = 1, …,<br />

M<br />

( )<br />

( )<br />

= arg max z . essendo I ( x) crescente per x ≥ 0<br />

k<br />

0<br />

Da notare che in questo caso ( E k = cost ) il ricevitore non necessita della conoscenza del livello<br />

di rumore ed inoltre la decisione si basa semplicemente sulla ricerca dell’indice k a cui corrisponde<br />

il massimo valore per z k .<br />

Vediamo ora, limitatamente alla circostanza considerata di segnali equienergia, la struttura a<br />

blocchi del ricevitore. Per la derivazione è necessario calcolare le statistiche k z<br />

T<br />

j 2π<br />

fot zk r( t) sk ( t) e dt<br />

0<br />

= ∫ (14)<br />

in cui sk ( t ) è l’inviluppo complesso del segnale sk ( t ) rispetto alla frequenza f o .<br />

Lo studente attento avrà riconosciuto che il prodotto<br />

+<br />

analitico s ( t)<br />

k<br />

s ( t) e π<br />

k<br />

j2 fot (13)<br />

è proporzionale al segnale<br />

associato a sk ( t ) . Ricordando la definizione di quest’ultimo si giunge facilmente<br />

alla seguente catena di uguaglianze<br />

s t e s t s t jsˆ t<br />

j2π fot +<br />

k ( ) = 2 k ( ) = k ( ) + k ( )<br />

dove sˆ ( t) { ( t)<br />

}<br />

k<br />

= è la trasformata di Hilbert di s ( t ) .<br />

Ne consegue che z k si ottiene calcolando<br />

T T<br />

z = r( t) s ( t) dt + j r( t) sˆ ( t) dt<br />

k k k<br />

0 0<br />

k<br />

∫ ∫ . (15)<br />

Il ricevitore dovrà quindi essere in grado di generare localmente sia i segnali sk ( t ) che le loro<br />

trasformate di Hilbert. Trattandosi tuttavia di segnali in banda traslata il calcolo della trasformata di<br />

Hilbert risulta grandemente semplificato poiché si riduce ad un’operazione di sfasamento. Vale<br />

infatti la seguente notevole proprietà (dimostrare per esercizio).<br />

Proprietà. Sia x( t ) un segnale reale e sia x( t ) il suo inviluppo complesso rispetto alla frequenza<br />

f o , per cui { } o j 2 f t<br />

x( t) Re x( t) e π<br />

= . Allora la trasformata di Hilbert di x( t ) assume la forma<br />

28


π<br />

⎧ j(2 π fot ) ⎫<br />

ˆ( 2<br />

x t) = { x( t) } = Re ⎨x( t) e ⎬.<br />

⎩ ⎭<br />

Sfruttando la proprietà indicata e tenendo inoltre conto del fatto che<br />

sˆ<br />

= arg max z = arg max z<br />

k k<br />

k= 1, …, M k= 1, …,<br />

M<br />

2<br />

si giunge allo schema del ricevitore incoerente a correlazione per segnali equienergia.<br />

r( t)<br />

π/2<br />

π/2<br />

s ( t)<br />

Da notare che rispetto al caso di ricevitore coerente qui sono richieste due correlazioni per<br />

ciascun segnale sk ( t ) . Limitatamente a questo aspetto la complessità è aumentata, per contro il<br />

ricevitore incoerente non richiede dispositivi per la stima e l’inseguimento della fase del segnale<br />

ricevuto e questa è la fondamentale ragione della sua maggior semplicità realizzativa. Quest’ultima<br />

è ancor più evidente quando si va a considerare l’altra forma comune del demodulatore incoerente<br />

(usata in particolare per le modulazioni FSK) cosiddetta a filtro adattato in banda traslata<br />

(bandpass matched filter in letteratura anglosassone).<br />

1<br />

s ( t)<br />

M<br />

T<br />

∫<br />

0<br />

T<br />

∫<br />

0<br />

T<br />

∫<br />

0<br />

T<br />

∫<br />

0<br />

( ) 2<br />

( ) 2<br />

( ) 2<br />

( ) 2<br />

È infatti possibile provare che la statistica z k ( k = 1, … , M ) può essere equivalentemente<br />

z1<br />

zM<br />

2<br />

2<br />

M<br />

A<br />

X<br />

ˆs<br />

(16)<br />

29


icavata facendo transitare r( t ) in un filtro adattato a s ( t ) (che appunto è in banda traslata),<br />

estraendo l’inviluppo [2] dell’uscita e campionando all’istante t = T .<br />

Lo schema del ricevitore incoerente a filtro adattato per segnali equienergia è il seguente<br />

r( t)<br />

Lo studente interessato potrà trovare nei seguenti passaggi la giustificazione teorica allo schema<br />

sopra sviluppato<br />

T T T<br />

k = ∫ ( ) k ( )<br />

j2π fot = ∫ ( ) k ( ) + ∫ ( ) ˆk<br />

( )<br />

0 0 0<br />

z r t s t e dt r t s t dt j r t s t dt<br />

z<br />

| |<br />

= r( t) ∗ s ( T − t) + jr( t) ∗ sˆ ( T − t)<br />

k k<br />

t= T t= T<br />

⎛ 1 ⎞<br />

⎜ ma sˆ k ( T − t) = −sk ( T − t)<br />

∗ ⎟<br />

⎝ πt<br />

⎠<br />

1<br />

= r( t) ∗ s ( T − t) − jr( t) ∗ s ( T − t)<br />

∗<br />

t<br />

k k k<br />

( posto w( t) = r( t) ∗ s ( T − t)<br />

)<br />

z = w( t) − jwˆ ( t)<br />

= w( t)<br />

k t= T t=<br />

T<br />

essendo<br />

h ( t) = s ( T − t)<br />

1 1<br />

h ( t) = s ( T − t)<br />

M M<br />

k<br />

π t= T<br />

+ − j2π fot +<br />

w( t) = 2 w ( t) e = 2 w ( t) = w( t) + jwˆ ( t) = w( t) − jwˆ ( t)<br />

.<br />

2<br />

Ricorda che l’inviluppo di un segnale x( t ) è il modulo del suo inviluppo complesso x( t ) . Quindi<br />

[ ] 2 2<br />

Inviluppo x( t) = x( t) = x ( t) + x ( t)<br />

.<br />

c s<br />

w ( t)<br />

1<br />

w ( t)<br />

M<br />

Rivelatore<br />

d’inviluppo<br />

Rivelatore<br />

d’inviluppo<br />

k<br />

t = T<br />

t = T<br />

z1<br />

zM<br />

M<br />

A<br />

X<br />

ˆs<br />

30


Cenni sulle prestazioni<br />

Ci limitiamo a considerare solo il caso di trasmissione binaria. È possibile provare che avendo<br />

un vincolo sull’energia massima (E), quando l’informazione sulla fase del segnale ricevuto non è<br />

nota, la migliore configurazione (quella cioè che garantisce la minima probabilità di errore) è quella<br />

di segnali ortogonali con la stessa energia.<br />

T<br />

∫ s1( t) s2 ( t) dt = 0 e<br />

0<br />

T T<br />

2<br />

∫ 1<br />

2<br />

∫ 2<br />

0 0<br />

s ( t) dt = s ( t) dt = E<br />

In questo caso si dimostra che la probabilità di errore è data da<br />

1<br />

Pe e<br />

2<br />

−<br />

=<br />

E<br />

2N0<br />

⎯⎯⎯⎯ ο ⎯⎯⎯⎯<br />

31

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!