ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη

Σχετικά έγγραφα
ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 4η διάλεξη (4η έκδοση, 11/3/2013)

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 6η διάλεξη

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη (3η έκδοση, 11/3)

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 11η διάλεξη

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 12η διάλεξη (2η έκδοση, 20/5/2013)

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 11η διάλεξη

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 11η διάλεξη

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη (2η έκδοση, 7/5/2013)

ΕΕ725 Ειδικά Θέµατα Ψηφιακών Επικοινωνιών 4η διάλεξη

EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας 3η σειρά ασκήσεων Διακριτά και Συνεχή Κανάλια. Παράδοση: Έως 22/6/2015

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 12η διάλεξη

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 11η & 12η διάλεξη

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

22Α004 - Προχωρημένα Θέματα Θεωρίας Πληροφορίας Τελική Εξέταση

1 Βασικές Έννοιες Θεωρίας Πληροφορίας

Τηλεπικοινωνιακά Συστήματα ΙΙ

ιαφορική εντροπία Σεραφείµ Καραµπογιάς

EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας Λυμένες ασκήσεις σε Κανάλια

Ψηφιακές Τηλεπικοινωνίες

( ) log 2 = E. Σεραφείµ Καραµπογιάς

Θεωρία Πληροφορίας. Διάλεξη 4: Διακριτή πηγή πληροφορίας χωρίς μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 2 : Πληροφορία και Εντροπία Διάλεξη: Κώστας Μαλιάτσος Χρήστος Ξενάκης, Κώστας Μαλιάτσος

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Θεωρία πληροφοριών. Τεχνολογία Πολυµέσων 07-1

Εισαγωγή στη θεωρία πληροφορίας

Ψηφιακές Τηλεπικοινωνίες. Θεωρία Ρυθμού Παραμόρφωσης

Μηχανική ΙI Ροή στο χώρο των φάσεων, θεώρηµα Liouville

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 3 : Πηγές Πληροφορίας Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Ψηφιακές Τηλεπικοινωνίες

Σηµειώσεις στις σειρές

Ψηφιακές Τηλεπικοινωνίες. Βέλτιστος Δέκτης

Αθανάσιος Χρ. Τζέμος Τομέας Θεωρητικής Φυσικής. Εντροπία Shannon

Κεφάλαιο 2 Πληροφορία και εντροπία

Θέματα Συστημάτων Πολυμέσων

Ασκήσεις στο µάθηµα «Επισκόπηση των Τηλεπικοινωνιών»

Πρόλογος 1. 1 Μαθηµατικό υπόβαθρο 9

Πιθανότητες και Στοχαστικές ιαδικασίες Θόρυβος µετρήσεων είκτης Χρηµατιστηρίου Σήµα Πληροφορίας (φωνή, data) Ατµοσφαιρικός Θόρυβος Πως δηµιουργείται

Δίαυλος Πληροφορίας. Η λειτουργία του περιγράφεται από:

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Θεώρημα κωδικοποίησης πηγής

EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας 3η σειρά ασκήσεων Ενδεικτικές Λύσεις

Κεφάλαιο 3 ΠΑΡΑΓΩΓΟΣ. 3.1 Η έννοια της παραγώγου. y = f(x) f(x 0 ), = f(x 0 + x) f(x 0 )

ΕΕ725 Ειδικά Θέµατα Ψηφιακών Επικοινωνιών 5η διάλεξη

Κεφάλαιο 4. Ευθέα γινόµενα οµάδων. 4.1 Ευθύ εξωτερικό γινόµενο οµάδων. i 1 G 1 G 1 G 2, g 1 (g 1, e 2 ), (4.1.1)

cov(x, Y ) = E[(X E[X]) (Y E[Y ])] cov(x, Y ) = E[X Y ] E[X] E[Y ]

Μάθημα Εισαγωγή στις Τηλεπικοινωνίες Κωδικοποίηση πηγής- καναλιού Μάθημα 9o

Θεωρία Λήψης Αποφάσεων

Σεραφείµ Καραµπογιάς. Πηγές Πληροφορίας και Κωδικοποίηση Πηγής 6.3-1

ΚΕΦΑΛΑΙΟ 3: Συνθήκες Αλυσίδων

3 Αναδροµή και Επαγωγή

Θεωρία Πληροφορίας. Διάλεξη 5: Διακριτή πηγή πληροφορίας με μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Ανάλυση Δεδοµένων µε χρήση του Στατιστικού Πακέτου R

Ακρότατα υπό συνθήκη και οι πολλαπλασιαστές του Lagrange

Γραµµική Αλγεβρα Ι. Ενότητα: ιανυσµατικοί χώροι. Ευάγγελος Ράπτης. Τµήµα Μαθηµατικών

ΣΥΝΕΧΕΙΣ ΜΕΤΑΣΧΗΜΑΤΙΣΜΟΙ ΚΑΙ ΣΥΝΕΧΕΙΣ ΣΥΜΜΕΤΡΙΕΣ

HMY 795: Αναγνώριση Προτύπων

Θέµατα ( ικαιολογείστε πλήρως όλες τις απαντήσεις σας)

Λυμένες Ασκήσεις σε Εντροπία, Αμοιβαία Πληροφορία, Κωδικοποίηση Πηγής και AEP

Παράρτηµα Α. Στοιχεία θεωρίας µέτρου και ολοκλήρωσης.

3. ΠΑΡΑΜΕΤΡΟΙ ΚΑΤΑΝΟΜΩΝ

Δίαυλος Πληροφορίας. Δρ. Α. Πολίτης

Πίνακες Διασποράς. Χρησιμοποιούμε ένα πίνακα διασποράς T και μια συνάρτηση διασποράς h. Ένα στοιχείο με κλειδί k αποθηκεύεται στη θέση

ΣΗΜΕΙΩΣΕΙΣ ΜΑΘΗΜΑΤΙΚΗΣ ΑΝΑΛΥΣΗΣ Ι ( )

(365)(364)(363)...(365 n + 1) (365) k

ΕΑΠ/ΠΛΗ22/ΑΘΗ.3. 4 η ΟΣΣ

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

ΘΕΩΡΙΑ ΑΡΙΘΜΩΝ Λυσεις Ασκησεων - Φυλλαδιο 1

Περίληψη Προηγούμενου Μαθήματος Κανάλια επικοινωνίας με θόρυβο και η χωρητικότητά τους

Συμπίεση Δεδομένων

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

Τεχνολογία Πολυμέσων. Ενότητα # 7: Θεωρία πληροφορίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΡΟΓΡΑΜΜΑ ΣΠΟΥ ΩΝ «ΠΛΗΡΟΦΟΡΙΚΗ» ΜΑΘΗΜΑΤΙΚΑ Ι (ΘΕ ΠΛΗ 12) ΕΡΓΑΣΙΑ 4

Θέματα Συστημάτων Πολυμέσων

Ανω Φράγµα στην Τάξη των Συναρτήσεων. Ρυθµός Αύξησης (Τάξη) των Συναρτήσεων. Παράδειγµα (1/2) O( g(n) ) είναι σύνολο συναρτήσεων:

Markov. Γ. Κορίλη, Αλυσίδες. Αλυσίδες Markov

Κωστόπουλος ηµήτριος Μ.Π.Λ.Α. TAPE COMPRESSION (θεώρηµα 2.3 Παπαδηµητρίου)

HMY 795: Αναγνώριση Προτύπων. Διάλεξη 2

Συμπίεση Δεδομένων

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

Λύσεις σετ ασκήσεων #6

1 Ορισµός ακολουθίας πραγµατικών αριθµών

Αριθµητική Ανάλυση 1 εκεµβρίου / 43

Κεφάλαιο 1. Θεωρία Ζήτησης

ΚΕΦΑΛΑΙΟ 2 ΜΗ ΓΡΑΜΜΙΚΕΣ ΕΞΙΣΩΣΕΙΣ

11ο Πανελλήνιο Συνέδριο της ΕΕΦ, Λάρισα 30-31/03, 1-2/04/2006. Πρακτικά Συνεδρίου

Βασικά στοιχεία της θεωρίας πιθανοτήτων

5.1 Θεωρητική εισαγωγή

Τηλεπικοινωνιακά Συστήματα ΙΙ

x 2 = x x 2 2. x 2 = u 2 + x 2 3 Χρησιµοποιώντας το συµβολισµό του ανάστροφου, αυτό γράφεται x 2 = x T x. = x T x.

Απαντήσεις σε απορίες

Βασικά στοιχεία της θεωρίας πιθανοτήτων

Κεφάλαιο 6 Παράγωγος

f(y) dy = b a dy = b a x f(x) dx = b a dx = x 2 = b2 a 2 2(b a) b a dx = = (a2 + ab + b 2 )(b a) 3(b a)

Στροβιλισµός πεδίου δυνάµεων

Ορισµός. (neighboring) καταστάσεων. ηλαδή στην περίπτωση αλυσίδας Markov. 1.2 ιαµόρφωση µοντέλου

ροµολόγηση πακέτων σε δίκτυα υπολογιστών

Σύνθετες Ασκήσεις για ιάδοση, ιασπορά και Αντιστάθµισή της

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Εργαστήριο Επεξεργασίας Σηµάτων και Τηλεπικοινωνιών Κινητά ίκτυα Επικοινωνιών

Transcript:

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη ηµήτρης-αλέξανδρος Τουµπακάρης Τµήµα ΗΜ&ΤΥ, Πανεπιστήµιο Πατρών 21 Μαΐου 2015 ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 1/ 60

Περιεχόµενα 10ης διάλεξης Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano 1 Το Θεώρηµα Κωδικοποίησης Καναλιού (συνέχεια) Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano 2 Εισαγωγή, Ορισµοί και Μοντέλο C FB = C 3 Παρατηρήσεις και ϑεωρήµατα σχετικά µε τη χωρητικότητα 4 Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας Εκθέτης Σφάλµατος 5 Εισαγωγή Απόδειξη ευθέος Απόδειξη αντιστρόφου ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 2/ 60

Αντιστοιχία 10ης διάλεξης µε ϐιβλία Cover & Thomas και El Gamal & Kim Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano Βιβλίο Cover & Thomas (2η έκδοση): 7.9, 7.10, 7.12, 7.13. Βιβλίο El Gamal & Kim: 3.1.4, 3.1.5. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 3/ 60

I(X n ; Y n ) nc Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano Θα αποδείξουµε, κατ αρχάς, ότι, για ιακριτά Κανάλια Χωρίς Μνήµη, η πληροφοριακή χωρητικότητα ανά χρήση του καναλιού δεν αυξάνει εάν το κανάλι χρησιµοποιηθεί ως κανάλι γινοµένου. ηλαδή, I(X n ; Y n ) nc για οποιαδήποτε p(x), όπου C = max p(x) I(X; Y ). I(X n ; Y n ) = H(Y n ) H(Y n X n ) = H(Y n ) (a) = H(Y n ) = n i=1 n I(X i ; Y i ) nc. i=1 H(Y i X i ) (b) n H(Y i Y 1,..., Y i 1, X n ) = i=1 n H(Y i ) i=1 n H(Y i X i ) (a) Το κανάλι δεν έχει µνήµη και δε χρησιµοποιείται ανάδραση. (b) Η από i=1 κοινού εντροπία δεν υπερβαίνει το άθροισµα των εντροπιών. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 4/ 60

Ανισότητα Fano Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano Για την απόδειξη του αντιστρόφου του Θεωρήµατος Κωδικοποίησης Καναλιού ϑα χρησιµοποιήσουµε την Ανισότητα Fano. Είδαµε ότι, για κάθε εκτιµητή ˆX = g(y ), H(X Y ) H(X ˆX) H(Pe )+P e log X H(X ˆX) 1+Pe log X, όπου P e = Pr{ˆX X}. Εάν ϑεωρήσουµε ιακριτό Κανάλι Χωρίς Μνήµη µε ϐιβλίο κωδίκων C και οµοιόµορφα κατανεµηµένα µηνύµατα M, (n) H(M ˆM) 1 + P e nr, όπου P (n) e = Pr{M ˆM}. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 5/ 60

Θεώρηµα Κωδικοποίησης Καναλιού Απόδειξη ασθενούς αντιστρόφου Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano Θα δείξουµε ότι, για κάθε κώδικα (2 nr, n) µε λ (n) 0, πρέπει να ισχύει R C. εδοµένου ότι λ (n) 0 και η µέση πιθανότητα σφάλµατος P (n) e 0. Εστω ότι ο δέκτης αποφασίζει ποια ακολουθία µεταδόθηκε µε ϐάση κάποια συνάρτηση αποκωδικοποίησης ˆM = g(y n ). Ισχύει M X n (M) Y n ˆM. Εστω, επίσης, ότι το µήνυµα που στέλνεται στο κανάλι επιλέγεται µε ϐάση οµοιόµορφη κατανοµή στο σύνολο των πιθανών µηνυµάτων {1, 2,..., 2 nr (n) }. Εποµένως, Pr{ ˆM M} = P e = 1 2 i λ i. nr ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 6/ 60

Θεώρηµα Κωδικοποίησης Καναλιού Απόδειξη ασθενούς αντιστρόφου (2) Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano Συνεπώς, nr (a) = H(M) (b) (c) (n) = I(M; ˆM) + H(M ˆM) I(M; ˆM) + 1 + P nr (d) I(X n ; Y n ) + 1 + P (n) e (e) nr nc + 1 + P (n) e nr. (a) M οµοιόµορφη τ.µ., (b) σχέση αµοιβαίας πληροφορίας εντροπίας, (c) ανισότητα Fano, (d) ανισότητα επεξεργασίας δεδο- µένων, (e) I(X n ; Y n ) nc. e ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 7/ 60

Θεώρηµα Κωδικοποίησης Καναλιού Απόδειξη ασθενούς αντιστρόφου (3) Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano nr 1 + P (n) e nr + nc R P (n) e R + 1 n + C. Από την υπόθεση ότι λ (n) 0, P (n) e R 0 για n. Εποµένως, για n, R < C. Λύνοντας ως προς P (n) e, P (n) e 1 C 1. Συνεπώς, εάν R > C, R nr P (n) e > 0 για n. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 8/ 60

Θεώρηµα Κωδικοποίησης Καναλιού Απόδειξη ασθενούς αντιστρόφου (4) Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano Το αποτέλεσµα αυτό ονοµάζεται ασθενές αντίστροφο του Θεω- ϱήµατος Κωδικοποίησης Καναλιού. Αποδεικνύεται (ισχυρό αντίστρο- ϕο) ότι, εάν R > C, P (n) e 1 εκθετικά. Συνεπώς, η χωρητικότητα καναλιού C αποτελεί µια πολύ σαφή διαχωριστική γραµµή: Οταν R < C η πιθανότητα σφάλµατος τείνει εκθετικά στο 0. Αντίθετα, όταν R > C, η πιθανότητα σφάλµατος τείνει εκθετικά στο 1. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 9/ 60

Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano Θεώρηµα Κωδικοποίησης Καναλιού Εναλλακτική απόδειξη ασθενούς αντιστρόφου Θα αποδείξουµε ξανά το αντίστροφο µε µία µικρή παραλλαγή στη χρήση της ανισότητας Fano. Η απόδειξη αυτή είναι πιο γενική. Οπως ϑα δούµε σύντοµα, µπορεί να εφαρµοστεί και στην περίπτωση που χρησιµοποιείται ανάδραση. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 10/ 60

Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano Θεώρηµα Κωδικοποίησης Καναλιού Εναλλακτική απόδειξη ασθενούς αντιστρόφου (2) Επειδή M X n (M) Y n ˆM, Επίσης, από την ανισότητα Fano, H(M Y n ) H(M ˆM). (n) H(M ˆM) 1 + P e nr, όπου P (n) e = Pr{M ˆM}. Υποθέτοντας, και πάλι, ότι τα µηνύµατα M ακολουθούν οµοιόµορφη κατανοµή, nr = H(M) (a) = I(M; Y n ) + H(M Y n ) (b) I(M; Y n ) + 1 + P (n) e (a) Σχέση εντροπίας-αµοιβαίας πληροφορίας, (b) ανισότητα Fano. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 11/ 60 nr

Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano Θεώρηµα Κωδικοποίησης Καναλιού Εναλλακτική απόδειξη ασθενούς αντιστρόφου (3) nr I(M; Y n ) + 1 + P (n) e n (c) = (d) (e) i=1 n i=1 n i=1 nr I(M; Y i Y i 1 ) + 1 + P (n) e nr I(M, Y i 1 ; Y i ) + 1 + P (n) e nr I(X i, M, Y i 1 ; Y i ) + 1 + P (n) e nr (c) κανόνας αλυσίδας, (d) I(M, Y i 1 ; Y i ) = I(Y i 1 ; Y i ) + I(M; Y i Y i 1 ), (e) X i = f (M, Y i 1 ) (ισχύει ακόµα και όταν χρησιµοποιείται ανάδραση). ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 12/ 60

Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano Θεώρηµα Κωδικοποίησης Καναλιού Εναλλακτική απόδειξη ασθενούς αντιστρόφου (4) nr (f ) = (g) n i=1 n i=1 I(X i, M, Y i 1 ; Y i ) + 1 + P (n) e nr I(X i ; Y i ) + 1 + P (n) e nr nc + 1 + P (n) e nr = n ( C + 1 n + P(n) e R ) (f ) X i = f (M, Y i 1 ) και το κανάλι δεν έχει µνήµη, οπότε (M, Y i 1 ) X i Y i. (g) Από τον πληροφοριακό ορισµό της χωρητικότητας. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 13/ 60

Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano Θεώρηµα Κωδικοποίησης Καναλιού Εναλλακτική απόδειξη ασθενούς αντιστρόφου (5) Εποµένως, για n και P (n) e 0, nr n (C + ɛ n ) R < C. Παρατηρήστε ότι δεν απαγορέψαµε τη χρήση ανάδρασης στον κώδικα (περισσότερα σύντοµα). Αυτό σηµαίνει ότι, σε ένα κανάλι χωρίς µνήµη, ακόµα και αν µπορούµε να χρησιµοποιήσουµε ανάδραση, η χωρητικότητα δεν αυξάνει (περισσότερα σύντοµα). ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 14/ 60

Γιατί χρησιµοποιούµε M Unif [0, 2 nr 1]; Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano Στην απόδειξη του ασθενούς αντιστρόφου µε χρήση της ανισότητας Fano υποθέσαµε ότι M [ Unif 0, 2 nr ] 1. Μήπως αυτό σηµαίνει ότι το αντίστροφο ισχύει µόνο για κώδικες όπου όλες οι κωδικές λέξεις είναι ισοπίθανες; Οχι (αυτό είναι ένα λεπτό σηµείο). Θυµηθείτε ότι η χωρητικότητα ισούται µε το µέγιστο εφικτό ϱυθµό µετάδοσης. Ο ϱυθµός µετάδοσης ισούται µε log M/n. ηλαδή, για να δείξουµε ότι ο ϱυθµός µετάδοσης ενός κώδικα είναι R αρκεί να αποδείξουµε ότι υπάρχει κώδικας µε 2 nr κωδικές λέξεις τον οποίο µπορούµε να χρησιµοποιήσουµε και να επιτύχουµε P (n) e 0. Για να δείξουµε ότι η χωρητικότητα ενός καναλιού είναι C πρέπει να δείξουµε ότι δεν υπάρχει κώδικας µήκους n µε περισσότερες από 2 nc κωδικές λέξεις. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 15/ 60

Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano Γιατί χρησιµοποιούµε M Unif [0, 2 nr 1]; (2) Η πιθανότητα µε την οποία ο χρήστης του κώδικα στέλνει κάθε κωδική λέξη δε µας αφορά (τουλάχιστον όσον αφορά την απόδειξη του αντιστρόφου). Εµείς ϑέλουµε µόνο να κατασκευάσουµε 2 nr κωδικές λέξεις τις οποίες να µπορεί να διακρίνει ο δέκτης µε αυθαίρετα µικρή πιθανότητα σφάλµατος. Η επιλογή M Unif [ 0, 2 nr 1 ] γίνεται απλώς και µόνο γιατί µας ϐολεύει στην απόδειξη του αντιστρόφου. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 16/ 60

Εισαγωγή, Ορισµοί και Μοντέλο C FB = C 1 Το Θεώρηµα Κωδικοποίησης Καναλιού (συνέχεια) Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano 2 Εισαγωγή, Ορισµοί και Μοντέλο C FB = C 3 Παρατηρήσεις και ϑεωρήµατα σχετικά µε τη χωρητικότητα 4 Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας Εκθέτης Σφάλµατος 5 Εισαγωγή Απόδειξη ευθέος Απόδειξη αντιστρόφου ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 17/ 60

Παράδειγµα 10.1 Εισαγωγή, Ορισµοί και Μοντέλο C FB = C Θεωρούµε το διακριτό κανάλι χωρίς µνήµη του σχήµατος (``ενθόρυβη γραφοµηχανή ). Η χωρητικότητα του καναλιού ισούται µε C = max I(X; Y ) = max {H(Y ) H(Y X)} = 2 1 = 1 bit. Μπορούµε να επιτύχουµε µετάδοση µε ϱυθµό ίσο µε τη χωρητικότητα και µε µηδενική πιθανότητα σφάλµατος χρησιµοποιώντας π.χ. τις εισόδους 0 και 2. Προφανώς, R = 1 bit = C. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 18/ 60

Παράδειγµα 10.1 (συνέχεια) Εισαγωγή, Ορισµοί και Μοντέλο C FB = C Ο,τι και να συµβεί στο κανάλι είµαστε ϐέβαιοι ότι δε ϑα εµφανιστεί σφάλµα αποκωδικοποίησης. Εάν µπορούσαµε να χρησιµοποιήσουµε ανάδραση (feedback), η χωρητικότητα ϑα παρέµενε η ίδια; ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 19/ 60

Παράδειγµα 10.2 Εισαγωγή, Ορισµοί και Μοντέλο C FB = C Ας ϑεωρήσουµε, τώρα, το δυαδικό συµµετρικό κανάλι. Γνωρίζουµε ότι C = 1 H(p) και ότι η χωρητικότητα επιτυγχάνεται χρησιµοποιώντας και τα δύο µηνύµατα µε ίση πιθανότητα. Επο- µένως, κάθε ϕορά που στέλνουµε ένα από τα δύο µηνύµατα στο κανάλι δε γνωρίζουµε εάν το µήνυµα µεταδόθηκε επιτυχώς. Η πιθανότητα σφάλµατος ανά µετάδοση είναι µη µηδενική. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 20/ 60

Παράδειγµα 10.2 (συνέχεια) Εισαγωγή, Ορισµοί και Μοντέλο C FB = C Τι συµβαίνει εάν χρησιµοποιήσουµε ανάδραση; (όπου γνωρίζουµε εάν έχει εµφανιστεί σφάλµα στο δέκτη;) Σηµείωση: Οταν χρησιµοποιούµε ανάδραση στο BSC, ο ποµπός γνωρίζει ότι συνέβη σφάλµα, όχι, όµως, ο δέκτης! Παρόλο που κανείς ϑα περίµενε, ίσως, το αντίθετο, ϑα αποδείξουµε ότι, σε διακριτά κανάλια χωρίς µνήµη, η χρήση ανάδρασης δεν αυξάνει τη χωρητικότητα! ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 21/ 60

Εισαγωγή, Ορισµοί και Μοντέλο C FB = C Χωρητικότητα καναλιού µε ανάδραση Μοντέλο Στο µοντέλο του σχήµατος ϑεωρούµε ότι ο δέκτης στέλνει όλα τα ληφθέντα σύµβολα Y i στον ποµπό άµεσα και χωρίς σφάλµατα. Ο ποµπός χρησιµοποιεί την πληροφορία που λαµβάνει από το δέκτη προκειµένου να αποφασίσει πώς ϑα µεταδώσει. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 22/ 60

Εισαγωγή, Ορισµοί και Μοντέλο C FB = C Χωρητικότητα καναλιού µε ανάδραση Ορισµοί Ορισµός 10.1. Κώδικας ανάδρασης (feedback code) (2 nr, n): Ενας κωδικοποιητής που παράγει ακολουθία x i (M, Y i 1 ), όπου κάθε x i είναι συνάρτηση του τρέχοντος µηνύµατος M, καθώς και των σηµάτων που ελήφθησαν στο δέκτη έως και τη χρονική στιγµή i 1: Y 1, Y 2,..., Y i 1 και Ενας αποκωδικοποιητής g : Y n {1, 2,..., 2 nr }. Θεωρούµε ότι τα µηνύµατα M είναι οµοιόµορφα κατανεµηµένα. Εποµένως, P (n) e = Pr{g(Y n ) M}, όπου X n = x n (M). Ορισµός 10.2. Η (λειτουργική) χωρητικότητα µε ανάδραση (feedback capacity), C FB, του διακριτού καναλιού χωρίς µνήµη ισούται µε το µέγιστο ϱυθµό που είναι εφικτός µε χρήση κωδίκων ανάδρασης. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 23/ 60

Χωρητικότητα καναλιού µε ανάδραση Εισαγωγή, Ορισµοί και Μοντέλο C FB = C Θεώρηµα 10.3. (Cover & Thomas 7.12.1): C FB = C = max p(x) I(X; Y ). Απόδειξη Είναι, κατ αρχάς, προφανές ότι C FB C (ευθύ), δεδο- µένου ότι το κανάλι χωρίς ανάδραση µπορεί να ϑεωρηθεί ως ειδική περίπτωση του καναλιού µε ανάδραση. Θα αποδείξουµε ότι C C FB και, εποµένως, C = C FB. Θα χρησιµοποιήσουµε και πάλι την ανισότητα Fano, όπως και στο αντίστροφο του Θεωρήµατος Κωδικοποίησης Καναλιού. Ωστόσο, στην απόδειξη πρέπει να ληφθεί υπόψη ότι στο κανάλι µε ανάδραση δεν ισχύει η σχέση I(X n ; Y n ) nc. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 24/ 60

Εισαγωγή, Ορισµοί και Μοντέλο C FB = C Χωρητικότητα καναλιού µε ανάδραση (2) Αρκεί να χρησιµοποιήσουµε την εναλλακτική απόδειξη του αντιστρόφου της προηγούµενης εβδοµάδας. Η απόδειξη επαναλαµβάνεται αυτούσια για διευκόλυνση και για να τονιστεί ότι δεν επηρεάζεται από την ύπαρξη ή µη ανάδρασης. Επειδή M Y n ˆM = g(y n ), Επίσης, από την ανισότητα Fano, H(M Y n ) H(M ˆM). (n) H(M ˆM) 1 + P e nr, όπου P (n) e = Pr{M ˆM}. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 25/ 60

Εισαγωγή, Ορισµοί και Μοντέλο C FB = C Χωρητικότητα καναλιού µε ανάδραση (3) Υποθέτοντας, και πάλι, ότι η τ.µ. M ακολουθεί οµοιόµορφη κατανο- µή, nr = H(M) (a) = I(M; Y n ) + H(M Y n ) (b) I(M; Y n ) + 1 + P (n) e (a) Σχέση εντροπίας-αµοιβαίας πληροφορίας, (b) ανισότητα Fano. nr ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 26/ 60

Εισαγωγή, Ορισµοί και Μοντέλο C FB = C Χωρητικότητα καναλιού µε ανάδραση (4) nr I(M; Y n ) + 1 + P (n) e n (c) = (d) (e) i=1 n i=1 n i=1 nr I(M; Y i Y i 1 ) + 1 + P (n) e nr I(M, Y i 1 ; Y i ) + 1 + P (n) e nr I(X i, M, Y i 1 ; Y i ) + 1 + P (n) e nr (c) κανόνας αλυσίδας, (d) I(M, Y i 1 ; Y i ) = I(Y i 1 ; Y i ) + I(M; Y i Y i 1 ), (e) X i = f (M, Y i 1 ). ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 27/ 60

Εισαγωγή, Ορισµοί και Μοντέλο C FB = C Χωρητικότητα καναλιού µε ανάδραση (5) nr (f ) = n i=1 n i=1 I(X i, M, Y i 1 ; Y i ) + 1 + P (n) e nr I(X i ; Y i ) + 1 + P (n) e nr nc + 1 + P (n) e nr = n ( C + 1 n + P(n) e ) (f ) X i = x i (M, Y i 1 ) και το κανάλι δεν έχει µνήµη, οπότε (M, Y i 1 ) X i Y i. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 28/ 60

Εισαγωγή, Ορισµοί και Μοντέλο C FB = C Χωρητικότητα καναλιού µε ανάδραση (6) Εποµένως, I(M; Y n ) nc, και nr 1 + P (n) e ιαιρώντας µε n, και για n, nr + I(M; Y n ) P (n) e nr + 1 + nc. R C, και, εποµένως, C FB C. Παρόλο που η χρήση ανάδρασης σε διακριτά κανάλια χωρίς µνήµη δεν αυξάνει τη χωρητικότητα, ενδέχεται να διευκολύνει τη µετάδοση. Για παράδειγµα, στο κανάλι διαγραφής, η µετάδοση απλουστεύεται εάν γνωρίζουµε πότε το σήµα εισόδου διαγράφεται. Φυσικά, στην πράξη, µπορεί να µην υπάρχει αξιόπιστος δίαυλος α- νάδρασης ή να έχει κόστος (π.χ. σε εύρος Ϲώνης ή καθυστέρηση). ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 29/ 60

Παρατηρήσεις και ϑεωρήµατα σχετικά µε τη χωρητικότητα 1 Το Θεώρηµα Κωδικοποίησης Καναλιού (συνέχεια) Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano 2 Εισαγωγή, Ορισµοί και Μοντέλο C FB = C 3 Παρατηρήσεις και ϑεωρήµατα σχετικά µε τη χωρητικότητα 4 Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας Εκθέτης Σφάλµατος 5 Εισαγωγή Απόδειξη ευθέος Απόδειξη αντιστρόφου ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 30/ 60

Μεγιστοποίηση κοίλης συνάρτησης κατανοµής πιθανότητας Θεωρούµε συνάρτηση f (p) : R n R η οποία είναι κοίλη ως προς p. Εστω, επίσης, ότι το p είναι κατανοµή (διάνυσµα πιθανότητας), δηλαδή p i 0, i = 1,..., n και n i=1 p i = 1 T p = 1. Τέλος, ϑεωρούµε ότι οι µερικές παράγωγοι f (p)/ p i ορίζονται και ότι είναι συνεχείς µε µοναδική εξαίρεση το lim pi 0 f (p)/ p i που µπορεί να είναι και +. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 31/ 60

Μεγιστοποίηση κοίλης συνάρτησης κατανοµής πιθανότητας (συνέχεια) Αποδεικνύεται ότι οι παρακάτω συνθήκες είναι ικανές και αναγκαίες για να µεγιστοποιείται η f () στο σηµείο (κατανοµή) p. f (p) p i = λ, για όλα τα i για τα οποία p i > 0 f (p) p i λ, για όλα τα i για τα οποία p i = 0 για κάποια τιµή της παραµέτρου λ. Για την απόδειξη δείτε π.χ. Gallager Theorem 4.4.1. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 32/ 60

Μεγιστοποίηση αµοιβαίας πληροφορίας Με χρήση του προηγούµενου ϑεωρήµατος και του ότι η I(X; Y ) ε- ίναι κοίλη συνάρτηση της κατανοµής εισόδου p(x) για δεδοµένο κανάλι p(y x), αποδεικνύεται ότι οι παρακάτω δύο συνθήκες αποτελούν ικανή και αναγκαία συνθήκη για να επιτυγχάνει µια κατανοµή p τη χωρητικότητα. I(X = x i ; Y ) = C, για όλα τα x i για τα οποία p (x i ) > 0 I(X = x i ; Y ) C, για όλα τα x i για τα οποία p (x i ) = 0 όπου I(X = x i ; Y ) = y Y p(y x i) log p(y xi) p(y) ϱοφορία µεταξύ X = x i και Y. η αµοιβαία πλη- ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 33/ 60

Μεγιστοποίηση αµοιβαίας πληροφορίας (συνέχεια) Το αποτέλεσµα αυτό έχει µια διαισθητική επεξήγηση: Εάν για x i x j I(X = x i ; Y ) > I(X = x j ; Y ), µπορούµε να αυξήσουµε την I(X; Y ) = x k p(x k )I(X = x k ; Y ) χρησιµοποιώντας τη x i πιο συχνά και τη x j λιγότερο συχνά (αλλάζοντας τις p(x i ) και p(x j )). Αυτό έχει ως αποτέλεσµα να αλλάξει η p(y) = x k p(x k )p(y x k ). Τελικά, η διαδικασία αυτή ϑα ισορροπήσει σε σηµείο όπου όλες οι I(X = x i ; Y ) που χρησιµοποιούνται ϑα ισούνται µεταξύ τους (και, εποµένως, και µε τη χωρητικότητα, C). ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 34/ 60

Αλλες ενδιαφέρουσες ιδιότητες και αποτελέσµατα Αναφέρουµε, τέλος, 3 ενδιαφέροντα πορίσµατα. Για αποδείξεις δείτε π.χ. Gallager Κεφ. 4.5. Πόρισµα 10.4. Για οποιαδήποτε κατανοµή εισόδου, p (x), που επιτυγχάνει τη χωρητικότητα σε διακριτό κανάλι χωρίς µνήµη, όλες οι πιθανότητες συµ- ϐόλων εξόδου, p(y), είναι αυστηρώς ϑετικές (αρκεί για κάθε έξοδο να υπάρχει τουλάχιστον µία είσοδος που οδηγεί σε αυτήν). Πόρισµα 10.5. Η κατανοµή εξόδου, p (y), για την οποία I(X; Y ) = C είναι µοναδική. Ολες οι κατανοµές εισόδου, p(x), για τις οποίες x X p(x)p(y x) = p (y) επιτυγχάνουν τη χωρητικότητα. Πόρισµα 10.6. Εστω m ο ελάχιστος αριθµός συµβόλων εισόδου που µπο- ϱούν να χρησιµοποιηθούν (µε µη µηδενική πιθανότητα) για να επιτευχθεί µετάδοση µε τη χωρητικότητα. Εστω A ένα τέτοιο σύνολο m συµβόλων εισόδου. Ισχύει m Y. Επίσης, η κατανοµή p(x) στα στοιχεία του A που επιτυγχάνει τη χωρητικότητα είναι µοναδική. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 35/ 60

Πώς υπολογίζουµε τη χωρητικότητα; Γενικά, ο υπολογισµός της χωρητικότητας δεν είναι εύκολη υπόθεση. Σε µερικές, ειδικές, περιπτώσεις µπορούµε να χρησιµοποιήσουµε ιδιότητες όπως, π.χ. στην περίπτωση συµµετρικών καναλιών. Αλλες ϕορές µπορούµε να ``µαντέψουµε την κατανοµή εισόδου και να δείξουµε ότι επιτυγχάνει ένα άνω ϕράγµα για τη χωρητικότητα (όπως κάναµε για το συµµετρικό κανάλι). Στη γενική περίπτωση καταφεύγουµε σε αριθµητικές µεθόδους µε χρήση υπολογιστή. Μια ευρέως χρησιµοποιούµενη µέθοδος είναι των Blahut & Arimoto. Τα τελευταία χρόνια έχουν προταθεί ϐελτιώσεις που συγκλίνουν πολύ πιο γρήγορα σε σχέση µε τον αρχικό αλγόριθµο. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 36/ 60

Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας Εκθέτης Σφάλµατος Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας και Εκθέτης Σφάλµατος 1 Το Θεώρηµα Κωδικοποίησης Καναλιού (συνέχεια) Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano 2 Εισαγωγή, Ορισµοί και Μοντέλο C FB = C 3 Παρατηρήσεις και ϑεωρήµατα σχετικά µε τη χωρητικότητα 4 Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας Εκθέτης Σφάλµατος 5 Εισαγωγή Απόδειξη ευθέος Απόδειξη αντιστρόφου ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 37/ 60

Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας Εκθέτης Σφάλµατος Αποκωδικοποίηση Μέγιστης εκ των Υστέρων Πιθανότητας (Maximum A Posteriori Probability - MAP) Για την απόδειξη του Θεωρήµατος Κωδικοποίησης Καναλιού υπο- ϑέσαµε ότι η αποκωδικοποίηση ϐασίζεται στην Ιδιότητα Από Κοινού Ασυµπτωτικής Ισοδιαµέρισης (Joint AEP). είξαµε ότι εάν η αποκωδικοποίηση ϐασίζεται στο Joint AEP µπο- ϱούµε να µεταδώσουµε µε ϱυθµούς αυθαίρετα κοντά στη χωρητικότητα µε αυθαίρετα µικρή πιθανότητα σφάλµατος. Αποδείξαµε ότι δεν µπορούµε να υπερβούµε τη χωρητικότητα. Εποµένως, η αποκωδικοποίηση µε χρήση από κοινού τυπικών ακολουθιών είναι ασυµπτωτικώς ϐέλτιστη. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 38/ 60

Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας Εκθέτης Σφάλµατος Αποκωδικοποίηση Μέγιστης εκ των Υστέρων Πιθανότητας (2) Εάν το κριτήριο είναι να ελαχιστοποιηθεί η πιθανότητα σφάλµατος στο δέκτη, πρέπει να χρησιµοποιηθεί αποκωδικοποίηση Μέγιστης εκ των Υστέρων Πιθανότητας (Maximum a Posteriori (MAP) probability decoding). Θεωρούµε την πιθανότητα p(y n x n (m)) να ληφθεί η ακολουθία y n στο δέκτη δεδοµένου ότι εστάλη ακολουθία x n (m) η οποία αντιστοιχεί στο µήνυµα m (η κωδική λέξη του µηνύµατος m). Από το Θεώρηµα Ολικής πιθανότητας, Pr{ ˆm = m}(= 1 Pr{ ˆm m}) = Y n y n =1 p(yn ) Pr{ ˆm = m y n } = Y n y n =1 p(yn ) Pr{ˆx n = x n y n }. Επειδή p(y n ) 0, για να µεγιστοποιήσουµε την Pr{ ˆm = m} αρκεί να µεγιστοποιήσουµε κάθε όρο Pr{ˆx n = x n y n }. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 39/ 60

Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας Εκθέτης Σφάλµατος Αποκωδικοποίηση Μέγιστης εκ των Υστέρων Πιθανότητας (3) Από τον κανόνα του Bayes, p(m y n ) = p(yn x n (m))p(m), p(y n ) όπου p(y n ) = M m=1 p(m)p(y n x n (m)). Για να ελαχιστοποιηθεί η πιθανότητα σφάλµατος, πρέπει να επιλεγεί το µήνυµα m το οποίο µεγιστοποιεί την εκ των υστέρων (a posteriori) πιθανότητα του m δεδοµένης της ληφθείσας ακολουθίας y n (p(m y n )). ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 40/ 60

Κανόνας αποκωδικοποίησης MAP Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας Εκθέτης Σφάλµατος ˆm = g(y n ), τέτοιο ώστε Κανόνας αποκωδικοποίησης MAP p( ˆm y n ) p(m y n ), για όλα τα m ˆm, ˆm, m M Εναλλακτική έκφραση ˆm = g(y n ) = arg max m p(m y n ) ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 41/ 60

Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας Εκθέτης Σφάλµατος Αποκωδικοποίηση Μέγιστης εκ των Υστέρων Πιθανότητας (4) Με χρήση του κανόνα του Bayes, p(y n x n (m))p(m) p(y n ) p(m y n ) p(m y n ) p(yn x n (m ))p(m ) p(y n ) Εποµένως, ο κανόνας MAP µπορεί να γραφτεί ως: Για κανάλι χωρίς µνήµη, Κανόνας MAP p(y n x n (m))p(m) p(y n x n (m ))p(m ) Κανόνας MAP για κανάλι χωρίς µνήµη n p(y n x n (m)) = p(y i x i (m)). i=1 ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 42/ 60

Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας Εκθέτης Σφάλµατος Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας (Maximum Likelihood (ML) decoding) Με ϐάση τον κανόνα MAP επιλέγεται το µήνυµα που ικανοποιεί τη σχέση p(y n x n (m))p(m) p(y n x n (m ))p(m ) για όλα τα m m. Εάν όλα τα µηνύµατα εκπέµπονται µε την ίδια πιθανότητα (οµοιόµορφα), ο αποκωδικοποιητής µπορεί να αποκωδικοποιήσει µε ϐάση τη σχέση p(y n x n (m)) p(y n x n (m )) για όλα τα m m. Η αποκωδικοποίηση µε ϐάση την παραπάνω σχέση ονοµάζεται µέγιστης πιθανοφάνειας (Maximum Likelihood - ML). Στη γενική περίπτωση (όπου τα µηνύµατα δεν ακολουθούν οµοιόµορφη κατανοµή) δε µεγιστοποιεί την πιθανότητα να έχει µεταδοθεί το µήνυµα m δεδοµένης της ακολουθίας y n. Ωστόσο, µεγιστοποιείται η πιθανότητα να έχει ληφθεί η y n δεδοµένου του m. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 43/ 60

Γιατί ML και όχι MAP; Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας Εκθέτης Σφάλµατος Στη γενική περίπτωση (όπου η κατανοµή των µηνυµάτων στην είσοδο του καναλιού δεν είναι οµοιόµορφη) η αποκωδικοποίηση ML δεν είναι ϐέλτιστη. Ωστόσο, στην πράξη, η αποκωδικοποίηση ML χρησιµοποιείται συχνότερα από την αποκωδικοποίηση MAP. Κάποιοι από τους λόγους είναι οι εξής: Πολύ συχνά, τα µηνύµατα που στέλνονται είναι ισοπίθανα (π.χ. όταν έχει γίνει καλή συµπίεση πριν από τη µετάδοση), οπότε η αποκωδικοποίηση ML είναι ϐέλτιστη. Αποδεικνύεται (ϐλ. π.χ. Cioffi, http://www.stanford.edu/group/cioffi/book/chap1.pdf) ότι, εάν η κατανοµή των µηνυµάτων p(w) είναι άγνωστη, η αποκωδικοποίηση ML ελαχιστοποιεί την πιθανότητα σφάλµατος για τη ``χειρότερη κατανοµή εισόδου. Πολλές ϕορές η αποκωδικοποίηση ML είναι πολύπλοκη, οπότε χρησιµοποιούνται υποβέλτιστες µέθοδοι. Περισσότερα στα µαθήµατα Ψηφιακών Επικοινωνιών. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 44/ 60

Εκθέτης Σφάλµατος Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας Εκθέτης Σφάλµατος 1 Το Θεώρηµα Κωδικοποίησης Καναλιού (συνέχεια) Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano 2 Εισαγωγή, Ορισµοί και Μοντέλο C FB = C 3 Παρατηρήσεις και ϑεωρήµατα σχετικά µε τη χωρητικότητα 4 Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας Εκθέτης Σφάλµατος 5 Εισαγωγή Απόδειξη ευθέος Απόδειξη αντιστρόφου ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 45/ 60

Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας Εκθέτης Σφάλµατος Εκθέτης Σφάλµατος (Error Exponent) (εισαγωγή) Σύµφωνα µε το Θεώρηµα Κωδικοποίησης Καναλιού, είναι δυνατόν να µεταδώσουµε σε διακριτό κανάλι χωρίς µνήµη µε αυθαίρετα µικρή πιθανότητα σφάλµατος, αρκεί ο ϱυθµός µετάδοσης να µην υπερβαίνει τη χωρητικότητα. Αντιστρόφως, δεν υπάρχει κώδικας µε αυθαίρετα µικρή πιθανότητα σφάλµατος ο οποίος επιτυγχάνει µετάδοση µε ϱυθµό µεγαλύτερο από τη χωρητικότητα καναλιού. Αποδείξαµε το Θεώρηµα Κωδικοποίησης Καναλιού όταν ο δέκτης αποκωδικοποιεί µε ϐάση την Ιδιότητα Από Κοινού Ασυµπτωτικής Ισοδιαµέρισης. Το Θεώρηµα αποδεικνύεται και για αποκωδικοποίηση µέγιστης πιθανοφάνειας (ML ϐλ. π.χ. Gallager). ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 46/ 60

Εκθέτης Σφάλµατος (Error Exponent) (2) Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας Εκθέτης Σφάλµατος Στην απόδειξη, για να επιτύχουµε αυθαίρετα µικρή πιθανότητα σφάλ- µατος, αφήσαµε το n να τείνει στο άπειρο. Τι συµβαίνει όταν το n είναι πεπερασµένο; Πώς µεταβάλλεται η πιθανότητα σφάλµατος ως συνάρτηση του n; Ενας τρόπος να ποσοτικοποιηθεί η εξάρτηση της µέσης πιθανότητας σφάλµατος από το n είναι ο εκθέτης σφάλµατος (error exponent) ο οποίος παρέχει ένα άνω ϕράγµα όταν χρησιµοποιειται αποκωδικοποίηση µέγιστης πιθανοφάνειας. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 47/ 60

Εκθέτης Σφάλµατος (Error Exponent) (3) Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας Εκθέτης Σφάλµατος Θεώρηµα 7.7. (Gallager 5.6.2 & Corollary 1): Εστω διακριτό κανάλι χωρίς µνήµη µε πίνακα µετάβασης p(y j x k), j = 1,..., J και k = 1,..., K. Για δεδοµένο n και R ϑεωρούµε το σύνολο των κωδίκων (2 nr, n) των οποίων τα σύµβολα επιλέγονται ανεξάρτητα µε ϐάση κατανοµή p(x). Εάν ο δέκτης χρησιµοποιεί αποκωδικοποίηση µέγιστης πιθανοφάνειας, για τη µέση τιµή σφάλµατος υπολογισµένη για όλους τους τυχαίους κώδικες οι οποίοι παράγονται µε ϐάση κατανοµή p (x) και για όλα τα πιθανά µηνύµατα, ισχύει P (n) e exp{ ne r(r)}, όπου E r(r) είναι ο εκθέτης τυχαίας κωδικοποίησης ή εκθέτης σφάλµατος (random coding/error exponent) E r(r) = max max{e 0(ρ, p(x)) ρr}, 0 ρ 1 p(x) p (x) η κατανοµή που επιτυγχάνει τον E r(r) και [ J K ] 1+ρ E 0(ρ, p(x)) = log p(x k)p(y j x k) 1/(1+ρ). j=1 k=1 ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 48/ 60

Εκθέτης Σφάλµατος (Error Exponent) (4) Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας Εκθέτης Σφάλµατος Παρόλο που η έκφραση για τον εκθέτη σφάλµατος είναι σχετικά πολύπλοκη, ϐασίζεται σε απλά ϐήµατα (ϐλ. Gallager 5.6). Εάν µπορούµε να υπολογίσουµε τον E r (R) για δεδοµένο διακριτό κανάλι χωρίς µνήµη, αποκτούµε ένα ϕράγµα για την πιθανότητα σφάλµατος για δεδοµένο ϱυθµό µετάδοσης και δεδοµένο µήκος κώδικα n: P (n) e exp{ ne r (R)}. Αποδεικνύεται ότι, για 0 R < C, E r (R) > 0 και, εποµένως, µε κατάλληλη κωδικοποίηση, η πιθανότητα σφάλµατος µπορεί να κρατηθεί αυθαίρετα κοντά στο µηδέν µε χρήση κωδίκων κατάλληλου µήκους n. Οπως και στην περίπτωση αποκωδικοποίησης µε χρήση από κοινού τυπικότητας, το γεγονός ότι P (n) e exp{ ne r (R)} δε συνεπάγεται ότι η πιθανότητα σφάλµατος P (n) e,m που αντιστοιχεί στην κωδική λέξη x n (m) ϑα είναι exp{ ne r (R)}. Ωστόσο, αποδεικνύεται (Gallager 5.6 Corollary 2) ότι υπάρχει κώδικας (2 nr, n) τέτοιος ώστε P (n) e,m 4 exp{ ne r (R)} για όλα τα m = 1, 2,..., 2 nr. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 49/ 60

Εισαγωγή Απόδειξη ευθέος Απόδειξη αντιστρόφου 1 Το Θεώρηµα Κωδικοποίησης Καναλιού (συνέχεια) Απόδειξη ασθενους αντιστρόφου µε χρήση Ανισότητας Fano 2 Εισαγωγή, Ορισµοί και Μοντέλο C FB = C 3 Παρατηρήσεις και ϑεωρήµατα σχετικά µε τη χωρητικότητα 4 Αποκωδικοποίηση Μέγιστης Πιθανοφάνειας Εκθέτης Σφάλµατος 5 Εισαγωγή Απόδειξη ευθέος Απόδειξη αντιστρόφου ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 50/ 60

Εισαγωγή Απόδειξη ευθέος Απόδειξη αντιστρόφου Εισαγωγή Γνωρίζουµε, πλέον, ότι για να συµπιέσουµε µια πηγή µε ϱυθµό εντροπίας H(X ) χρειαζόµαστε R > H(X ) bits/σύµβολο. Αντίστοιχα, για να µεταδώσουµε ένα από 2 nr µηνύµατα/χρήση διακριτού καναλιού χωρίς µνήµη πρέπει R < C. Εστω ότι ϑέλουµε να µεταδώσουµε τα µηνύµατα πηγής µε ϱυθ- µό εντροπίας H(X ) µε χρήση καναλιού χωρητικότητας C. Είναι η συνθήκη H(X ) < C ικανή και αναγκαία για να µπορεί να γίνει µετάδοση των µηνυµάτων της πηγής; ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 51/ 60

Εισαγωγή Απόδειξη ευθέος Απόδειξη αντιστρόφου Εισαγωγή (2) Ειδικότερα, είναι ϐέλτιστο να συµπιέσουµε την πηγή κοντά στο ϱυθµό εντροπίας της και µετά να µεταδώσουµε τη συµπιεσµένη ακολουθία στο κανάλι ή µήπως υπάρχει πιο αποδοτικός τρόπος µετάδοσης (και, άρα, τρόπος να µεταδώσουµε µε µεγαλύτερο ϱυθµο;) Θα αποδείξουµε ότι η µετάδοση µε συµπίεση της πηγής και, στη συνέχεια, µε κωδικοποίηση καναλιού είναι το ίδιο αποδοτική µε οποιαδήποτε άλλη µέθοδο. ηλαδή, εάν H(X ) < C, µπορούµε να συµπιέσουµε την πηγή και να µεταδώσουµε την πληροφορία που παράγει µέσω του καναλιού. Αντιστρόφως, προκειµένου να είναι εφικτό η πληροφορία µιας πηγής να µεταδοθεί µε αυθαίρετα µικρή πιθανότητα σφάλµατος στο κανάλι, πρέπει να ισχύει H(X ) < C. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 52/ 60

Εισαγωγή Απόδειξη ευθέος Απόδειξη αντιστρόφου Εισαγωγή (3) Παρόλο που το ϕαίνεται προφανές, υπάρχουν περιπτώσεις στις οποίες δεν ισχύει! (κανάλια πολλών χρηστών). Στις περιπτώσεις που το Θεώρηµα ισχύει, διευκολύνεται ο σχεδιασµός Συστηµάτων Επικοινωνιών, δεδοµένου ότι ο Κωδικοποιητής Πηγής και ο Κωδικοποιητής Καναλιού µπορούν να σχεδιαστούν α- νεξάρτητα. Για παράδειγµα, ο τρόπος µετάδοσης σε µια γραµµή ADSL ή σε ένα δίκτυο WiFi είναι ο ίδιος, ανεξάρτητα από το εάν ο χρήστης στέλνει µουσική ή εικόνες ή κείµενο. Ωστόσο, το γεγονός ότι η µέθοδος δύο ϐηµάτων που συνίσταται στη συµπίεση της πηγής ανεξάρτητα από το κανάλι και στη µετάδοση της συµπιεσµένης ακολουθίας δε συνεπάγεται απώλειες, δε σηµαίνει, κατ ανάγκη, ότι είναι πάντοτε και η λιγότερο πολύπλοκη. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 53/ 60

Εισαγωγή Απόδειξη ευθέος Απόδειξη αντιστρόφου Θεωρούµε πηγή V η οποία παράγει σύµβολα από πεπερασµένο αλφάβητο V. Η πηγή ικανοποιεί τη (γενικευµένη) Ιδιότητα Ασυµπτωτικής Ισοδιαµέρισης αλλά δεν είναι, κατ ανάγκη, χωρίς µνήµη. Στη γενική περίπτωση είναι στάσιµη και εργοδική. Ο ποµπός απεικονίζει την ακολουθία V n = V 1, V 2,..., V n της πηγής σε κωδική λέξη X n (V n ) και τη µεταδίδει στο κανάλι. Ο δέκτης παράγει εκτίµηση ˆV n της ακολουθίας της πηγής µε ϐάση τη ληφθείσα ακολουθία Y n. Οταν ˆV n V n εµφανίζεται σφάλµα στο δέκτη. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 54/ 60

Εισαγωγή Απόδειξη ευθέος Απόδειξη αντιστρόφου (συνέχεια) Η πιθανότητα σφάλµατος ισούται µε Pr{V n ˆV n } = p(v n )p(y n x n (v n ))I(g(y n ) v n ), y n v n όπου I η συνάρτηση-δείκτης και g( ) η συνάρτηση αποκωδικοποίησης. Θεώρηµα 7.8. ( ιαχωρισµού Πηγής - Καναλιού ευθύ): Εστω V 1, V 2,..., V n στοχαστική διαδικασία µε πεπερασµένο αλφάβητο η οποία ικανοποιεί το AEP, και για την οποία ισχύει H(V) < C, όπου C είναι η χωρητικότητα του διακριτού καναλιού χωρίς µνήµη µέσω του οποίου γίνεται η µετάδοση. Υπάρχει κώδικας πηγής-καναλιού µε πιθανότητα σφάλµατος Pr{ˆV n V n } 0. Αντιστρόφως, για κάθε στάσιµη και εργοδική στοχαστική διαδικασία, εάν H(V) > C, η πιθανότητα σφάλµατος δεν µπορεί να περιοριστεί αυθαίρετα κοντά στο 0 και, εµποµένως, δεν είναι δυνατή η µετάδοση της στοχαστικής διαδικασίας µέσω του καναλιού µε αυθαίρετα µικρή πιθανότητα σφάλµατος. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 55/ 60

Εισαγωγή Απόδειξη ευθέος Απόδειξη αντιστρόφου Απόδειξη ευθέος Θα χρησιµοποιήσουµε κωδικοποίηση δύο ϕάσεων: 1) Κωδικοποίηση πηγής (συµπίεση) και 2) Κωδικοποίηση καναλιού. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 56/ 60

Εισαγωγή Απόδειξη ευθέος Απόδειξη αντιστρόφου Απόδειξη ευθέος (2) Από το AEP, για µεγάλο n το τυπικό σύνολο περιέχει 2 n(h(v)+ɛ) στοιχεία και σχεδόν όλη την πιθανότητα. Κωδικοποιούµε µόνο τις τυπικές ακολουθίες και αγνοούµε τις υπόλοιπες. Σε κάθε τυπική ακολουθία αντιστοιχίζουµε µία κωδική λέξη από το ϐιβλίο κωδίκων. Εποµένως, χρειαζόµαστε το πολύ 2 n(h(v)+ɛ) κωδικές λέξεις. Προκειµένου να µεταδώσουµε µία από 2 n(h(v)+ɛ) κωδικές λέξεις στο κανάλι πρέπει να ισχύει H(V) + ɛ = R < C. Ο δέκτης αποκωδικοποιεί µε ϐάση την από κοινού τυπικότητα. Για την πιθανότητα σφάλµατος ισχύει { Pr V n n ˆV } { } { } Pr V n / A ɛ (n) +Pr g(y n ) V n V n A ɛ (n). ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 57/ 60

Εισαγωγή Απόδειξη ευθέος Απόδειξη αντιστρόφου Απόδειξη ευθέος (3) { Pr V n n ˆV } { } { } Pr V n / A ɛ (n) + Pr g(y n ) V n V n A ɛ (n). { } Για αρκούντως µεγάλο n, από το AEP, Pr V n / A ɛ (n) ɛ. Οµοίως, από το Joint AEP, για { αρκούντως µεγάλο n, και } δεδοµένου ότι H(V) + ɛ = R < C, Pr g(y n ) V n V n A ɛ (n) ɛ. Συνεπώς, για οποιοδήποτε ɛ, και εφόσον H(V) + ɛ < C, υπάρχει µήκος κωδικής λέξης n 0 τέτοιο ώστε, για n > n 0, Pr{V n ˆV n } 2ɛ. Εποµένως, χρησιµοποιώντας τη µέθοδο δύο ϐηµάτων (συµπίεση και κωδικοποίηση καναλιού), µπορούµε να µεταδώσουµε µε αυθαίρετα µικρή πιθανότητα σφάλµατος εάν H(V) < C. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 58/ 60

Εισαγωγή Απόδειξη ευθέος Απόδειξη αντιστρόφου Απόδειξη αντιστρόφου Θα δείξουµε ότι, για οποιαδήποτε µέθοδο κωδικοποίησης (ακόµα και τυχαία) X n (V n ) : V n X n και αποκωδικοποίησης g(y n ) : Y n V n, εάν Pr{ˆV n V n } 0, τότε H(V) C. Από την ανισότητα Fano, H ( V n ˆV n ) 1+Pr {ˆV n V n} log V n = 1+n Pr {ˆV n V n} log V. Θα υπολογίσουµε άνω ϕράγµα για την H(V) H(V) (a) H(V 1, V 2,..., V n ) = H(V n ) = 1 n n n H(V n ˆV n ) + 1 n I(V n ; ˆV n ) (b) 1 ( 1 + n Pr {ˆV n V n} log V ) + 1 n n I(V n ; ˆV n ) (a) Ρυθµός εντροπίας για στάσιµες στοχαστικές διαδικασίες, (b) Ανισότητα Fano ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 59/ 60

Εισαγωγή Απόδειξη ευθέος Απόδειξη αντιστρόφου Απόδειξη αντιστρόφου (συνέχεια) H(V) 1 ( 1 + n Pr {ˆV n V n} log V ) + 1 n n I(V n ; ˆV n ) (a) 1 ( 1 + n Pr {ˆV n V n} log V ) + 1 n n I(X n ; Y n ) (b) 1 n + Pr {ˆV n V n} log V + C. (a) Ανισότητα Επεξεργασίας εδοµένων, (b) το κανάλι δεν έχει µνήµη. Για n, Pr {ˆV n V n} 0 και, εποµένως, H(V) C. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη 60/ 60