Vladimir Kotelnikov John Wozencraft Irwin Jacobs Simon aykin
Detecția mai multor semnale din zgomot. Abordarea detecției de până acum este cea a unui operator de RADAR sau SONAR. În ipoteza se presupunea că doar zgomotul este prezent, nu și semnalul util (cel căutat). În ipoteza se presupunea că este prezent semnalul util, dar afectat de zgomot. În cazul sistemelor de telecomunicații abordarea detecției este diferită. În mod uzual se transmite unul din cele M semnale, corespunzătoare celor M simboluri cu care se fac transmisiile. La recepție nu se pune problema să decidem dacă este prezent un semnal util sau numai zgomotul. rebuie să detectăm care dintre cele M semnale este prezent, evident, însoțit de zgomot aditiv. Deși ceeace descriem este o problemă de clasificare, o vom numi tot detecție. Vom discuta cazul detecției a M= semnale și vom trece apoi, prin generalizare, la cazul M>. Detecția unui semnal dintre două semnale posibile. Definim problema de detecție, sau, dacă doriți, de testare a ipotezelor : xn [ ] = s[ n] + wn [ ];,,..., N- : xn [ ] = s[ n] + wn [ ];,,..., N- w N (, σ Iu ) Cele două semnale utile se consideră a fi deterministe, și pe deplin cunoscute, iar zgomotul este alb, gaussian. În telecomunicații erorile de orice tip sunt la fel de indezirabile, motiv pentru care vom face detecția recurgând la criteriul bayesian al probabilității de eroare minime. Dacă cele două simboluri utilizate în transmisie sunt echiprobabile, tot așa este și apariția celor două semnale utile, așa că P{ } = P{ } = Detecția bayesiană se face conform valorii raportului de plauzibilitate condiționată, adică conform relației () { } p x P{ > } = p{ x } P{ } ceeace înseamnă că detectorul este de tip ML.Cu datele x recepționate, se calculează valorile p x ; p x { ( ) ( ) } Decizia se ia în funcție de care dintre aceste două valori este mai mare. Repartițiile datelor în cele două ipoteze se deduc ușor și sunt x N ( si, σ Iu) ; i =, adică N p( x i ) = ( ) N x n si n i = σ ( πσ ) exp [ ] [ ] ;,
Maximizarea expresiei p( x ); i =, i este echivalentă cu minimizarea exponentului, mai precis a sumei N Di = ( x n si n ) i = [ ] [ ] ;, (6) Cu datele x[n] măsurate, adică recepționate, și cu cele două semnale utile păstrate în copie (replică), se calculează, aplicând relația (6), valorile { D ; D} și se alege acea ipoteză care corespunde valorii minime. Reamintim că, dacă u este un vector în spațiul real N dimensional, pătratul normei sale este u N uk k= = = u u În spațiile cu dimensiune N cel mult 3, norma vectorului este egală cu lungimea sa (euclidiană). Vom păstra pentru normă denumirea de lungime, deși ea poate fi improprie. Distanța dintre punctele definite de doi vectori, u și v,se calculează cu relația N ( u, v) = ( u v) ( u v) = ( k k) d u v k= Vom privi vectorii x, w, s, s ca fiind din spațiul real, N dimensional. După cum se vede dintr-un exemplu prezentat în figură, pentru un spațiu bidimensional, D<D, fapt ce implică selectarea ipotezei. Se poate vedea din relația N Di = ( x[ n] si[ n] ) = ( x si) ( x si) = x si ; i =, că Di este distanța dintre punctul x ce reprezintă datele recepționate și cele două puncte ce reprezintă semnalele si. Se calculează distanțele la cele două puncte de semnal, iar decizia se ia după distanța minimă 3
Locul geometric al punctelor de date, x, egal depărtate de cele două puncte de semnal este mediatoare segmentului ce le unește, așa cum se vede și din figură. Punctele aflate mai aproape de s formează regiunea de decizie R, în timp ce punctele aflate mai aproape de s formează regiunea de decizie R. Receptorul (detectorul) ce lucrează conform relației (6), se numește și receptor de distanță minimă. Relația de funcționare a receptorului de distanță poate fi simplificată ca formă. Dezvoltăm pătratul și obținem N N N N i = ( [ ] i[ ]) = ( xn) [ i + ( i n ) = D x n s n [ ] x n] s[ n] s[ ] ; i, ermenul marcat (cu albastru), depinde de date, dar nu depinde de ipoteză. Ambele distanțe se calculează cu același termen albastru. Vom introduce statistica dependentă de date și de ipoteze, (x) cu relația N N i( x) = x[ n] si[ n] ( si[ n] ) N = xns [ ] i[ n] i; i=, Pentru pătratul distanței rezultă expresia N Di = ( xn [ ]) i( x) ; i =, Distanța este minimă atunci când statistica (x) este maximă. Cu datele x recepționate, se calculează valorile celor două statistici, ce măsoară gradul de potrivire între date și replicile memorate ale celor două semnale utile. { ( x) ; ( x) } Selecția ipotezelor se face în conformitate cu statistica de valoare mai mare. 4
Structura receptorului cu probabilitate de eroare medie minimă este arătată în figură. Se remarcă prezența a două corelatoare de replică, câte unul pentru fiecare semnal utilizat în transmisie. Din rezultatul corelării datelor cu semnalele de replică, se scade câte jumătate din energia semnalului replică. Urmează un bloc ce selectează cea mai mare valoare dintre cele două statistici, luând decizia în conformitate cu această valoare. Dacă cele două semnale au aceleași energii, statisticile testului devin N ( x) = x[ n] s[ n]; i =, i și nu mai este necesară corecția cu jumătate din energia replicilor. i Performanțele statistice ale detectorului unui semnal, din două posibile. Probabilitatea medie de eroare, așa cum am văzut, se calculează cu relația e { } { } { } { } P = P P + P P Cum cele două semnale posibile au probabilități apriorice egale P{ } = P{ } = așa că probabilitatea de eroare devine { } { } P { ( x) ( x) } P { ( x) ( x) } Pe = P + P = > + > Se introduce o nouă statistică, (x), ca diferență a celor două statistici utilizate N ( x) = ( x) ( x) = x[ n] ( s[ n] s[ n] ) ( ) (7) Datele x au, în ambele ipoteze, o repartiție gaussiană x N s, σ I ; =, ( ) i u i iar statistica (x) are o dependență liniară de aceste date, așa că, în ambele ipoteze și este gaussiană. Este suficient, deci, să determinăm mediile și dispersiile ei, în ambele ipoteze, pentru a scrie expresiile plauzibilităților. Pentru calculul mediilor avem 5
N E E x n s n s n { } = [ ]( [ ] [ ]) ( ) N N N { }( ) ( ) = E x[ n] s [ n] s [ n] { [ ] [ ]}( [ ] [ ]) ( ) ( ) ( ) = E s n + w n s n s n = s[ n] s[ n] s[ n] N N = s [ n] s [ n] [ ] ( s n ) ( ) și rezultă media condiționată a statisticii N E{ } = s[ n] s[ n] ( + ) Această formă mai poate fi rescrisă astfel N { } = s[ n] s[ n] ( + ) E N N N = ( s[ n] ) s[ n] s[ n] + ( s[ n] ) N = ( s[ n] s[ n] ) = s s În mod asemănător se arată că E{ } = s s Dispersiile se calculează cu N Disp{ } = Disp x[ n] ( s[ n] s[ n] ) ( ) N N = Disp{ x[ n] }( s[ n] s[ n] ) = σ ( s[ n] s[ n] ) = σ s s Dispersia în cealaltă ipoteză este aceeași Disp { } = σ s s 6
Am ajuns în etapa în care putem descrie repartițiile statisticii, în cele două ipoteze N s s, σ s s, în ipoteza N + s s, σ s s, în ipoteza În figură se arată repartițiile statisticii, în cele două ipoteze. Densitățile de probabilitate diferă doar prin medie, dispersia fiind aceeași. Analizând simetria figurii, se remarcă ușor că cele două tipuri de erori ce apar în cursul luării deciziilor, sunt egale, adică P> = P< { } { } Dar P { } Q + s s s s > = = Q σ σ s s și s s P { < } = Q σ Probabilitatea medie minimă de eroare se calculează cu relația Pe = P{ } + P{ } = P { ( x) > ( x) } + P { ( x) > ( x) } = P ( x) ( x) > + P ( x) ( x) < = P { > } + P { < } s s = Q (8) σ Este evident că, pentru a reduce acest minim al erorii, trebuie crescută distanța dintre cele două semnale cu care se face transmisia, dar respectând constrângerile energetice ce apar în telecomunicații în general și în cele mobile în special. 7
Energia medie (statistic) utilizată într-o transmisie binară, cum este cazul analizat, se calculează cu relația + = P{ } + P{ } = Pătratul normei diferenței vectorilor de semnal se poate pune și sub forma s s = ( s s) ( s s) = s s+ s s s s s s = ( s s+ s s) ( s s+ s s) s s = ( + ) Se definește coeficientul de corelare al celor două semnale cu care se transmite, cu relația s s s s ρs = = ; ρ s ( s s+ s s) Dacă cei doi vectori de semnal sunt ortogonali, coeficientul lor de corelare este nul; dacă vectorii de semnal sunt coliniari, dar au sensuri opuse, valoarea coeficientului de corelare este -. Relația anterioară devine s s = ( ρ ) s Substituim acest rezultat în forma (8) a probabilității de eroare, și obținem pentru ea ( ρs ) Pe = Q (9) σ În concluzie, pentru a obține cea mai redusă valoare a probabilității de eroare, la o energie medie dată și o putere a zgomotului dată, trebuie să semnalizăm cu semnale coliniare, dar de sensuri opuse. Astfel de perechi de semnale se numesc semnale antipodale. Exemplu. Sistem de transmisie binară, cu modulaţie coerentă de fază, PSK. Într-un sistem PSK binar se transmite unul dintre semnalele antipodale, având coeficientul de intercorelaţie s[ n] = Acos( π fn) ; f (,.5) s[ n] = Acos( π fn+ π) = Acos( π fn) ; s[ n] = s [ n] ρ = ; s Pentru precizarea ideilor, vom considera o frecvenţă digitală de.5 cicli/eşantion, pentru care semnalele utilizate în transmisie devin π s[ n] = Acos n ; n =, π s[ n] = Acos n ; n =, s [ n] = s [ n] ρ = ; s 8
Cei doi vectori de semnal sunt acum s A A = ; = ; s şi sunt reprezentaţi în figură. Se vede că sunt vectori coliniari, dar de sensuri opuse. Vom calcula în mod direct coeficientul de intercorelaţie, deşi cunoaştem valoarea sa A [ A ] s s A ρs = = = = s A A s+ s s A + A [ A ] + [ A ] Probabilitatea minimă de eroare devine, conform relaţiei (9), unde = = =, = Pe Q σ ; () este energia emisă pentru un simbol binar Pentru un raport ENR de 5 db (adică 3.6 în valoare absolută), rezultă o probabilitate medie de eroare de 8 ( ) Pe Q 3.6 Curba probabilitate de eroare funcţie de ENR se dă în figură, împreună cu curba corespunzătoare sistemului FSK. *** Exemplu. Sistem de transmisie binară, cu modulaţie coerentă de frecvenţă, FSK. Într-un sistem de transmisie binară, cu modulaţie FSK coerentă, se efectuează transmisia cu semnalele ortogonale s[ n] = Acos( π fn) ; f (,.5 ), n =,,..., N - s[ n] = Acos( π fn) ; f (,.5 ), n =,,..., N - Pentru: f f s[ n] s[ n] = ρs = ; N Cele două semnale au aceeaşi energie, energia emisă pentru un simbol binar, adică = = = şi deci probabilitatea minimă de eroare este, conform relaţiei (9) Pe = Q ; () σ 9
Din () şi () vom deduce relaţia dintre puterile necesare pentru transmiterea unui simbol binar, cu aceeaşi probabilităţi de eroare, în sistemele PSK şi FSK PSK PSK FSK Pe = Q = Q = FSK σ σ FSK PSK PSK sau log = log + log = log + 3dB σ σ σ Ca să asigure aceeaşi probabilitate de eroare, un sistem FSK are nevoie de o putere emisă, pe simbol binar, dublă faţă de cea necesară unui sistem PSK. Curbele probabilităţilor de eroare, ca funcţie de ENR, atât pentru sistemul PSK, cât şi pentru sistemul FSK, sunt arătate în figură. Se remarcă diferenţa de 3dB între cele două curbe. ***
Receptoare M-are Dacă avem de transmis nu două, ci M> simboluri, vom folosi pentru transmisie M semnale, câte unul pentru fiecare simbol { s [ n], s [ n],..., s [ n] } M În telecomunicaţii, cele M simboluri au probabilităţile apriorice egale între ele şi deci de valoare /M. Receptorul (detectorul) va fi deci unul de tip ML. Avem regula de decizie Pentru P{ i } =, i =,,..., M - M cu datele x recepţionate, se calculează cele M valori ale plauzibilităţilor condiţionate p{ x i }, i =,,..., M - Dacă p p, i k, i,,..., M - () { x } > { x i} = este ipoteza adevărată k k *** Receptorul ML ce funcţionează conform regulii () este un receptor optimal. El este tot un receptor de distanţă minimă. Schema sa este prezentată în figură şi constă din M corelatoare de replică, ce generează M statistici şi dintr-un bloc de selectare a valorii maxime. ( x) Se calculează statisticile N = x[ n] s[ n] ; i =,,..., M - i i n i = şi se ia decizia în funcţie de care anume dintre valorile calculate este mai mare.
Determinarea probabilităţii de eroare este dificilă în acest caz, deoarece apare o eroare dacă oricare dintre cele M statistici depăşeşte statistica asociată cu ipoteza adevărată. Dacă semnalele cu care se efectuează transmisiile { s [ n], s [ n],..., s [ n] } M sunt ortogonale între ele, atunci statisticile sunt şi ele ortogonale între ele, şi sunt şi necorelate.. Deoarece datele sunt gaussiene, şi statisticile, care sunt funcţii liniare de date, sunt gaussiene iar necorelarea atrage după sine independenţa (statistică) a statisticilor. Pentru a verifica acest fapt calculăm covarianţa a două statistici. Mai întâi N E{ i l } = E x[ n] si[ n] i l N = E ( sl[ n] + w[ n] ) si[ n] i = E + N = E{ w[ n] } si[ n] i N N sl[ n] si[ n] E w[ n] si[ n] i = = i ; il, =,,..., M ; i l Calculăm covarianţa, dacă i şi j diferă de l { l} { i, j l} = E i E{ i l} j E{ j l} Cov N N = E xns [ ] i[ n] i + i xns [ ] j[ n] j + j l N N = E s n + w n s n s n + ( l[ ] [ ]) i[ ] ( l[ ] w[ n] ) sj[ n] N N = E wns [ ] i[ n] wns [ ] j[ n] N N N N = E wnwms [ ] [ ] i[ ns ] j[ m] = E{ wnwm [ ] [ ]} si[ ns ] j[ m] m= m= N N m= N i = σδ[ n m] s[ n] s [ m] = σ i j s[ n] s [ n] = ; pentru i j, i l si j l j
Vom mai simplifica prezentarea considerând că toate semnalele au aceeaşi energie (ceeace nu e întotdeauna adevărat, decât dacă punctele ce reprezintă semnalele se află pe un cerc, cu centrul în origine) i = ; i =,,..., M - Reamintim că apare o eroare, dacă statistica ataşată ipotezei adevărate, este depăşită de oricare altă statistică. Probabilitatea de apariţie a unei astfel de erori se notează cu { i < max {,,..., i, i+,..., M } i} P Pentru a obţine probabilitatea medie de eroare, însumăm aceste probabilităţi, ponderate cu probabilitatea apriorică a ipotezelor, pentru toate valorile i posibile e M i= M = M i= { i < max{,,..., i, i+,..., M } i} { i} P = P P { i < max{,,..., i, i+,..., M } i} P Aşa cum am văzut în cazul M= şi ca urmare a simetriei, toate erorile condiţionate sunt egale între ele. Suma dă de M ori valoarea uneia dintre probabilităţile condiţionate şi, după simplificare cu M rămâne că { max {,,..., M } } P = P < e Vom stabili acum media şi dispersia statisticii condiţionată de ipoteza. Pentru acest caz, dacă energiile tuturor semnalelor sunt egale, avem = x[ n] s[ n] = s [ n] + w[ n] s[ n] N N i i i ( ) i N N = s[ n] si[ n] + w[ n] si[ n] = s si + w si și E E E s s =, i = = s si =, i = { i } = s si + w si = s si + { w } si Mai rămâne să determinăm dispersiile statisticilor i, condiționate de ipoteza. Vom începe cu dispersia pentru statistica. Avem 3
N Disp{ } = E x[ n] s [ n] N = E ( s[ n] + w[ n] ) s[ n] n = N N = E ( s[ n] ) + w[ n] s[ n] N N N N = E w[ n] w[ m] s[ n] s[ m] = E{ w[ n] w[ m] } s[ n] s[ m] m= m= N N N σδ[ n m] s[ n] s[ m] σ ( s[ n] ) σ = = = m= La fel vom proceda pentru statistica i N Disp{ i } = E x[ n] s [ n] + i N = E ( s[ n] + w[ n] ) si[ n] n = N N N = E s[ ns ] i[ n] + wns [ ] i[ n] = E wns [ ] i[ n] n = N N N N = E wnwms [ ] [ ] i[ ns ] i[ m] = E{ wnwm [ ] [ ]} si[ ns ] i[ m] m= m= N N N σδ[ n m] si[ n] si[ m] σ ( si[ n] ) σ = = = m= Am determinat repartițiile statisticilor,, pentru N σ i = i N σ i,, pentru 4
și, după cum am văzut deja { i j l} Cov, =, pentru i j, i l si j l Vom determina mai întâi probabilitatea deciziei corecte, în ipoteza, adică P = P > max,,..., { { M } } { > >... > M } = P si si si { >, >,..., t > M, } () = Pt t = t p tdt Deoarece statisticile sunt statistic independente, probabilitatea deciziei corecte devine i= { >, >,..., t > M, } () P = P t t = t p t dt M = Pt { > i = t, } p () tdt p () t în care = exp πσ ( t ) σ Se știe că, pentru o variabilă aleatoare X, repartizată normal, adică X N ( μ, σ ) se poate scrie că ( x μ) t exp πσ σ t μ P{ X < t} = dx =Φ σ în care Φ(x) este funcția lui Laplace. Avem deci t + P { i < t = t, } =Φ σ și, în final, probabilitatea deciziei corecte { > max {,,..., M } } M t exp σ πσ P = P ( t ) σ + = Φ dt Dar probabilitatea de eroare adunată cu probabilitatea deciziei corecte dă unu, așa că { < max{,,..., M } } P> max{ } P = P e { M } M t σ πσ =,,..., ( t ) + = Φ exp dt σ 5
Cu schimbarea de variabilă t + σ = u expresia probabilității de eroare devine M Pe = Φ( u) exp u du σ M = Φ( u) exp ( u ENR) du La un număr dat de simboluri transmise, M, de obicei o putere a lui doi, probabilitatea de eroare este o funcție descrescătoare de raportul ENR, definit prin ENR = σ Probabilitatea de eroare scade odată cu creșterea numărului M de simboluri, dacă ENR este același (vezi figura), deoarece trebuie să distingem între semnale a căror distanță între ele nu crește. 6
Pentru transmisii se recurge, așa cum am mai afirmat, la semnale ortogonale. Este necesar să lucrăm cu N M În figură se dau exemple de semnale ortogonale, în cazurile N=M= și N=M=3, ce au energia unitară. În cazul general, pătratul distanței (normei) de la punctul de semnal la origine, este energia semnalului. Pentru cazul semnalelor de energie egală, punctele lor reprezentative trebuie să se afle pe un cerc, pe o sferă sau o hipersferă. Cazul modelului liniar În cadrul modelului liniar vectorul de date, x, poate fi pus sub forma ( ) x = θ + w = s+ w; w N, C Distincţia între două ipoteze se face prin valorile parametrului vector θ : θ = ; semnalul util este absent : θ= θ ; semnalul util este prezent Problema de detecţie constă în a decide dacă semnalul util s este prezent în datele x. Cele două ipoteze pot fi reformulate : x = w; semnalul util este absent : x = θ + w; semnalul util este prezent Detectorul NP ia decizii conform regulii ( x) = x C s= x C θ > γ Asigurând, la o probabilitate impusă a alarmei false, o probabilitate de detecţie dată de D ( ( FA) sc s) ( ( PFA) θc θ) P = Q Q P = QQ 7
Exempu. Detecţia unei sinusoide din zgomot alb, gaussian. Semnalul util este de forma sn [ ] = Acos( π fn + φ) = Acosφcosπ fn Asinφsin π fn ( ) = acosπ f n+ bsin π f n; f,.5 ( σ ) a : xn [ ] = wn [ ];,,..., N- : x[ n] = acosπ f n+ bsin π f n+ w[ n]; n =,,..., N - wn [ ] N, Cele două ipoteze se pot formula astfel x[] w[] x[] cosπ f sin π f a w[] = + b xn [ ] cos( N ) π f sin ( N ) π f θ wn [ ] x Pentru ipoteza putem scrie că x = θ + w b w Pentru zgomotul alb gaussian, matricea de covarianţă şi inversa ei sunt C= σ Iu C = Iu σ Decidem că semnalul util este prezent, dacă ( x) = x C θ = x θ> γ Statistica ce se utilizează în luarea deciziei se poate transforma σ σ ( x) = ( x) = x θ > γ N N Expresia acestei noi statistici este = = N N ( x) x θ x θ Expresia marcată cu roşu este estimatorul parametrului θ 8
x[] cos cos( ) π f N π f x[] x= N N sin π f sin ( N ) π f xn [ ] N xn [ ]cosπ fn N aˆ N bˆ xn [ ]sinπ fn N = = = θˆ Noua statistică devine a = a b = aa+ bb= b ( ) ˆ ˆ ˆ x ˆ ˆ θθ şi este o corelaţie între vectorul estimat din date, cu o replică păstrată la recepţie. *** Pentru a generaliza rezultatul obţinut în exemplul prezentat, plecăm de la expresia estimatorului MVU pentru modelul liniar ˆ ( ) θ = C C x şi punem statistica detectorului NP pentru modelul liniar, sub forma x = x C θ = C x θ ( ) ( ) Modificăm această formă a statisticii, prin introducerea a doi factori cu produsul unitar x = x C θ = C x θ ( ) ( ) = ( C )( C ) C x θ ˆ θ şi rezultă ˆ ( x) = θc θ Matricea de covarinţă a estimatorului, şi inversa ei sunt ˆ θ ( ) ; ˆ θ C = C C = C 9
Statistica testului ia forma finală ( ) ˆ x = θc ˆ θ θ Deciziile se iau conform regulii modificate ( x) ˆ Dacă analizăm comparativ statistica obţinută acum, cu cea din relaţia (4) ( ) ; ( ) x = x C s> γ x = θ ; C ˆ θ θ > γ = θˆ C θ > γ θ rezultă că se pot menţine cele stabilite pentru un semnal de replică cunoscut şi în cazul parametrului de replică cunoscut, făcând substituirile formale x θˆ, C C, s θ ˆ θ Problema de detecţie se transformă : s = s = ; : θ= θ = ; : s = s; : θ = θ; Probabilitatea de eroare este, tot ca urmare a celor remarcate ( ( ) sc s) D ( A) ( θc θ ) ˆ PD = Q Q PFA P = QQ PF θ Vom da un rezultat important, fără a-l justifica: Pentru a testa ipoteze despre un parametru θ al unui model liniar, vom înlocui cele N eşantioane de date cu p valori estimate cu ˆ ( ) θ = C C x Repartiţia vectorului estimator este N ( ( ) ) θˆ θ, C ; Orice problemă de decizie privind vectorul θ, se poate rezolva apelând la estimatorul dat.