ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη (3η έκδοση, 11/3)

Σχετικά έγγραφα
ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 4η διάλεξη (4η έκδοση, 11/3/2013)

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 6η διάλεξη

1 Βασικές Έννοιες Θεωρίας Πληροφορίας

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 11η διάλεξη

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 11η διάλεξη

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 12η διάλεξη (2η έκδοση, 20/5/2013)

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 12η διάλεξη

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 10η διάλεξη (2η έκδοση, 7/5/2013)

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 2 : Πληροφορία και Εντροπία Διάλεξη: Κώστας Μαλιάτσος Χρήστος Ξενάκης, Κώστας Μαλιάτσος

Λυμένες Ασκήσεις σε Εντροπία, Αμοιβαία Πληροφορία, Κωδικοποίηση Πηγής και AEP

EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας 3η σειρά ασκήσεων Διακριτά και Συνεχή Κανάλια. Παράδοση: Έως 22/6/2015

Ψηφιακές Τηλεπικοινωνίες

Κεφάλαιο 2 Πληροφορία και εντροπία

ιαφορική εντροπία Σεραφείµ Καραµπογιάς

Τηλεπικοινωνιακά Συστήματα ΙΙ

Θέματα Συστημάτων Πολυμέσων

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 11η διάλεξη

Αθανάσιος Χρ. Τζέμος Τομέας Θεωρητικής Φυσικής. Εντροπία Shannon

( ) log 2 = E. Σεραφείµ Καραµπογιάς

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Ψηφιακές Τηλεπικοινωνίες

Τεχνολογία Πολυμέσων. Ενότητα # 7: Θεωρία πληροφορίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Εισαγωγή στη θεωρία πληροφορίας

Θεωρία πληροφοριών. Τεχνολογία Πολυµέσων 07-1

Κεφάλαιο 3 ΠΑΡΑΓΩΓΟΣ. 3.1 Η έννοια της παραγώγου. y = f(x) f(x 0 ), = f(x 0 + x) f(x 0 )

Θεωρία Πληροφορίας. Διάλεξη 4: Διακριτή πηγή πληροφορίας χωρίς μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Θεώρημα κωδικοποίησης πηγής

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 11η & 12η διάλεξη

Ψηφιακές Τηλεπικοινωνίες. Θεωρία Ρυθμού Παραμόρφωσης

ΕΙΣΑΓΩΓΗ ΚΑΙ ΠΡΟΕΠΙΣΚΟΠΗΣΗ

EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας Λυμένες ασκήσεις σε Κανάλια

22Α004 - Προχωρημένα Θέματα Θεωρίας Πληροφορίας Τελική Εξέταση

Θέματα Συστημάτων Πολυμέσων

Πρόλογος 1. 1 Μαθηµατικό υπόβαθρο 9

Σεραφείµ Καραµπογιάς. Πηγές Πληροφορίας και Κωδικοποίηση Πηγής 6.3-1

ΓΡΑΠΤΗΣ ΕΡΓΑΣΙΑΣ. ΛΥΣΕΙΣ 3 ης. Άσκηση 1. , z1. Παρατηρούµε ότι: z0 = z5. = + ) και. β) 1 ος τρόπος: Έστω z = x+ iy, x, = x + y.

ΚΑΤΑΝΟΜΕΣ Ι ΙΑΣΤΑΤΩΝ ΤΥΧΑΙΩΝ ΜΕΤΑΒΛΗΤΩΝ

Θέµατα και απαντήσεις 1 στα «Σύνολα και Αριθµοί» Εξεταστική Ιανουαρίου 2012 ιδάξας Χ. Κορνάρος.

Θεωρία της Πληροφορίας 3 ο Εξάμηνο

Δίαυλος Πληροφορίας. Η λειτουργία του περιγράφεται από:

Κεφάλαιο 6 Παράγωγος

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 3 : Πηγές Πληροφορίας Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

(365)(364)(363)...(365 n + 1) (365) k

Απαντήσεις σε απορίες

ΑΝΑΛΥΣΗ 2. Μ. Παπαδημητράκης.

Αρµονική Ανάλυση. Ενότητα: L p Σύγκλιση. Απόστολος Γιαννόπουλος. Τµήµα Μαθηµατικών

Οικονομικό Πανεπιστήμιο Αθηνών Τμήμα Πληροφορικής ΠΜΣ Κρυπτογραφία και Εφαρμογές

Ακουλουθίες ρ. Κωνσταντίνα Παναγιωτίδου

Συμπίεση Δεδομένων

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ Τμήμα Φυσικής Σημειώσεις Ανάλυσης Ι (ανανεωμένο στις 5 Δεκεμβρίου 2012)

Αρµονική Ανάλυση. Ενότητα: Προσεγγίσεις της µονάδας και Αθροισιµότητα - Ασκήσεις. Απόστολος Γιαννόπουλος. Τµήµα Μαθηµατικών

Σηµειώσεις στις σειρές

Αρµονική Ανάλυση. Ενότητα: Προσεγγίσεις της µονάδας και Αθροισιµότητα. Απόστολος Γιαννόπουλος. Τµήµα Μαθηµατικών

< 1 για κάθε k N, τότε η σειρά a k συγκλίνει. +, τότε η η σειρά a k αποκλίνει.

HMY 429: Εισαγωγή στην Επεξεργασία Ψηφιακών. Χρόνου (Ι)

4.1 Το αόριστο ολοκλήρωµα - Βασικά ολοκληρώ-

ΣΤΟΧΑΣΤΙΚΑ ΣΥΣΤΗΜΑΤΑ & ΕΠΙΚΟΙΝΩΝΙΕΣ 1o Τμήμα (Α - Κ): Αμφιθέατρο 3, Νέα Κτίρια ΣΗΜΜΥ Θεωρία Πιθανοτήτων & Στοχαστικές Ανελίξεις - 1

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας 3η σειρά ασκήσεων Ενδεικτικές Λύσεις

ΣΗΜΕΙΩΣΕΙΣ ΜΑΘΗΜΑΤΙΚΗΣ ΑΝΑΛΥΣΗΣ Ι ( )

Τυχαίες Μεταβλητές Γεώργιος Γαλάνης Κωνσταντίνα Παναγιωτίδου

P( X < 8) = P( 8 < X < 8) = Φ(0.6) Φ( 1) = Φ(0.6) (1 Φ(1)) = Φ(0.6)+Φ(1) 1

Αρµονική Ανάλυση. Ενότητα: L 2 -σύγκλιση σειρών Fourier. Απόστολος Γιαννόπουλος. Τµήµα Μαθηµατικών

ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΛΟΠΟΝΝΗΣΟΥ

Σύγκλιση σειρών Fourier σε χώρους L p

Βασικά στοιχεία της θεωρίας πιθανοτήτων

ΚΑΤΑΝΟΜΕΣ ΠΙΘΑΝΟΤΗΤΑΣ ΤΥΧΑΙΩΝ ΜΕΤΑΒΛΗΤΩΝ (Συνέχεια)

ΕΕ725 Ειδικά Θέµατα Ψηφιακών Επικοινωνιών 4η διάλεξη

ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΡΗΤΗΣ Τµήµα Επιστήµης Υπολογιστών. HY-217: Πιθανότητες - Χειµερινό Εξάµηνο 2017 ιδάσκων : Π. Τσακαλίδης


Διδάσκων: Καθηγητής Νικόλαος Μαρμαρίδης, Καθηγητής Ιωάννης Μπεληγιάννης

Αρµονική Ανάλυση. Ενότητα: Χώροι L p - Ασκήσεις. Απόστολος Γιαννόπουλος. Τµήµα Μαθηµατικών

ΚΕΦΑΛΑΙΟ ΠΕΜΠΤΟ ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ

ΟΜΟΣΠΟΝ ΙΑ ΕΚΠΑΙ ΕΥΤΙΚΩΝ ΦΡΟΝΤΙΣΤΩΝ ΕΛΛΑ ΟΣ (Ο.Ε.Φ.Ε.) ΕΠΑΝΑΛΗΠΤΙΚΑ ΘΕΜΑΤΑ ΕΠΑΝΑΛΗΠΤΙΚΑ ΘΕΜΑΤΑ 2014

Αρµονική Ανάλυση. Ενότητα: Το ϑεώρηµα παρεµβολής του Riesz και η ανισότητα Hausdorff-Young. Απόστολος Γιαννόπουλος.

sup B, τότε υπάρχουν στοιχεία α A και β B µε α < β.

Ορισμός : Η συνάρτηση X : Ω είναι μετρήσιμη εάν 1. της τυχαίας μεταβλητής X : Ω, είναι το πεδίο τιμών της X. Δηλαδή είναι το υποσύνολο του { }

Παράρτηµα Α. Στοιχεία θεωρίας µέτρου και ολοκλήρωσης.

ΜΙΓΑ ΙΚΟΣ ΛΟΓΙΣΜΟΣ ΚΑΙ ΟΛΟΚΛ. ΜΕΤΑΣΧΗΜΑΤΙΣΜΟΙ ΓΡΑΠΤΕΣ ΕΞΕΤΑΣΕΙΣ ΣΕΠΤΕΜΒΡΙΟΥ 2010 ΛΥΣΕΙΣ ΤΩΝ ΘΕΜΑΤΩΝ

2πσ 2 e (x µ)2 /2σ 2 dx = 1. (13.1) e x2 dx. e y2 dy, I = 2. e (y2 +z 2) dy dz.

Σχολή Εφαρμοσμένων Μαθηματικών και Φυσικών Επιστημών Εθνικό Μετσόβιο Πολυτεχνείο. Ενδεικτικές Λύσεις Ασκήσεων. Κεφάλαιο 3. Κοκολάκης Γεώργιος

Pr(10 X 15) = Pr(15 X 20) = 1/2, (10.2)

Εισαγωγή στην επιστήµη των υπολογιστών ΑΡΙΘΜΗΤΙΚΑ ΣΥΣΤΗΜΑΤΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΥΠΡΟΥ, ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

όπου D(f ) = (, 0) (0, + ) = R {0}. Είναι Σχήµα 10: Η γραφική παράσταση της συνάρτησης f (x) = 1/x.

Θεωρία Πληροφορίας. Διάλεξη 5: Διακριτή πηγή πληροφορίας με μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Βασικά στοιχεία της θεωρίας πιθανοτήτων

Ορισμός : Η συνάρτηση X : Ω είναι μετρήσιμη εάν 1. της τυχαίας μεταβλητής X : Ω, είναι το πεδίο τιμών της X. Δηλαδή είναι το υποσύνολο του { }

ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΡΗΤΗΣ ΤΜΗΜΑ ΜΑΘΗΜΑΤΙΚΩΝ - ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ ΕΙΣΑΓΩΓΙΚΕΣ ΜΕΤΑΠΤΥΧΙΑΚΕΣ ΕΞΕΤΑΣΕΙΣ 26 ΙΟΥΛΙΟΥ 2008 ΕΥΤΕΡΟ ΜΕΡΟΣ :

Εφαρμογές της Θεωρίας της Πληροφορίας σε διαδικασίες ανάκτησης εικόνας

ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΡΗΤΗΣ Τµήµα Επιστήµης Υπολογιστών. HY-217: Πιθανότητες-Χειµερινό Εξάµηνο ιδάσκων : Π. Τσακαλίδης.


Ασκήσεις στο µάθηµα «Επισκόπηση των Τηλεπικοινωνιών»

1 1 c c c c c c = 1 c = 1 28 P (Y < X) = P ((1, 2)) + P ((4, 1)) + P ((4, 3)) = 2 1/ / /28 = 18/28

P (A B) = P (AB) P (B) P (A B) = P (A) P (A B) = P (A) P (B)

5.1 Συναρτήσεις δύο ή περισσοτέρων µεταβλητών

ΤΥΧΑΙΑ ΙΑΝΥΣΜΑΤΑ. Θεωρία Πιθανοτήτων και Στοχαστικές ιαδικασίες, Κ. Πετρόπουλος. Τµ. Επιστήµης των Υλικών

Ανω Φράγµα στην Τάξη των Συναρτήσεων. Ρυθµός Αύξησης (Τάξη) των Συναρτήσεων. Παράδειγµα (1/2) O( g(n) ) είναι σύνολο συναρτήσεων:

Transcript:

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη (3η έκδοση, 11/3) ηµήτρης-αλέξανδρος Τουµπακάρης Τµήµα ΗΜ&ΤΥ, Πανεπιστήµιο Πατρών 19 Φεβρουαρίου 2013 ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 1/ 32

Περιεχόµενα 2ης διάλεξης 1 Η Ιδιότητα Ασυµπτωτικής Ισοδιαµέρισης (συνέχεια) 2 ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 2/ 32

Αντιστοιχία 2ης διάλεξης µε ϐιβλία Cover & Thomas και El Gamal & Kim Βιβλίο Cover & Thomas (2η έκδοση): Κεφ. 3, Κεφ. 2.1 2.5 Βιβλίο El Gamal & Kim: Κεφ. 2.4, 2.1, 2.3 ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 3/ 32

Τυπικό Σύνολο (Typical Set) και ιδιότητες Ορισµός 2.1 Το (ασθενώς) τυπικό σύνολο (weakly typical set) A (n) ɛ που αντιστοιχεί στην κατανοµή p(x) αποτελείται από τις ακολουθίες (x 1, x 2,..., x n ) X n που ικανοποιούν τη σχέση Ιδιότητες A (n) ɛ : 2 n(h(x)+ɛ) p(x 1, x 2,..., x n ) 2 n(h(x) ɛ). 1. Εάν (x 1, x 2,..., x n ) A ɛ (n), H(X) ɛ 1 n log p(x 1, x 2,..., x n ) H(X) + ɛ. { } 2. Pr A ɛ (n) > 1 ɛ για n µεγαλύτερο από κάποια τιµή n 0. 3. A ɛ (n) 2 n(h(x)+ɛ), όπου A ɛ (n) ο αριθµός των στοιχείων του τυπικού συνόλου A ɛ (n). 4. A ɛ (n) (1 ɛ)2 n(h(x) ɛ), για n µεγαλύτερο από κάποια τιµή n 0. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 4/ 32

Τυπικό Σύνολο ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 5/ 32

Αποδείξεις ιδιοτήτων Τυπικού Συνόλου 1. Εάν (x 1, x 2,..., x n ) A ɛ (n), H(X) ɛ 1 n log p(x 1, x 2,..., x n ) H(X) + ɛ. Προκύπτει άµεσα από τον ορισµό του ασθενώς τυπικού συνόλου παίρνοντας το λογάριθµο. { 2. Pr A (n) ɛ } > 1 ɛ για n µεγαλύτερο από κάποια τιµή n 0. Προκύπτει άµεσα από το AEP δεδοµένου ότι η πιθανότητα µια ακολουθία να είναι τυπική τείνει στο 1 καθώς το n τείνει στο άπειρο. Εποµένως, για κάθε δ > 0, υπάρχει n 0 τέτοιο ώστε, για n n 0, { Pr 1 } n log p(x 1, X 2,..., X n ) H(X) < ɛ > 1 δ. Θέτοντας δ = ɛ προκύπτει η ιδιότητα. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 6/ 32

Αποδείξεις ιδιοτήτων Τυπικού Συνόλου (2) 3. A ɛ (n) 2 n(h(x)+ɛ). 1 = p(x) p(x) (a) x X n x A ɛ (n) = 2 n(h(x)+ɛ) A (n). ɛ x A (n) ɛ 2 n(h(x)+ɛ) 4. Στο (a) χρησιµοποιήθηκε ο ορισµός του τυπικού συνόλου. A ɛ (n) (1 ɛ)2 n(h(x) ɛ), για n µεγαλύτερο από κάποια τιµή n 0. Από τη 2η ιδιότητα, για n n 0, { } 1 ɛ < Pr A ɛ (n) = p(x) 2 n(h(x) ɛ) x A (n) ɛ x A ɛ (n) = 2 n(h(x) ɛ) A (n) ɛ. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 7/ 32

Αποδείξεις ιδιοτήτων Τυπικού Συνόλου (3) Μπορεί, επίσης, να αποδειχτεί ότι υπάρχει ɛ τέτοιο ώστε, για n µεγαλύτερο απο κάποια τιµή n 0, A ɛ (n) 2 n(h(x) ɛ ). ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 8/ 32

Παράδειγµα 2.1 (Cover & Thomas Problem 3.6) Εστω οι ανεξάρτητες και οµοίως κατανεµηµένες τ.µ. X 1, X 2,..., X n που ακολουθούν κατανοµή p(x). Να ϐρεθεί η τιµή του ορίου Απάντηση: lim n {p(x 1, X 2,..., X n ) 1/n }. } lim {log p(x 1, X 2,..., X n ) 1/n = lim n n { } lim p(x 1, X 2,..., X n ) 1/n = 2 H(X). n { } 1 n log p(x 1, X 2,..., X n ) = ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 9/ 32

Σχέση τυπικού συνόλου µε σύνολα που περιέχουν σχεδόν όλη την πιθανότητα { } Είδαµε ότι (Ιδιότητα 2), Pr A ɛ (n) > 1 ɛ για n µεγαλύτερο από κάποια τιµή n 0. Ενα ερώτηµα που δεν έχει απαντηθεί ακόµη είναι το εξής: Μήπως υπάρχει { κάποιο } σύνολο τέτοιο ώστε Pr B ɛ (n) > 1 ɛ και B ɛ (n) < A ɛ (n) ; Μήπως, δηλαδή, µπορούµε να ελαττώσουµε περαιτέρω τον αριθµό ακολουθιών που κωδικοποιούµε; Αποδεικνύεται (δείτε π.χ. Cover & Thomas Theorem 3.3.1) ότι το τυπικό σύνολο, A ɛ (n), έχει περίπου το ίδιο µέγεθος µε το µικρότερο σύνολο, B ɛ (n), που περιέχει σχεδόν όλη την πιθανότητα. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 10/ 32

(Strong Typicality) Εως τώρα ασχοληθήκαµε µε την ασθενή τυπικότητα. Μια ακολουθία είναι ασθενώς τυπική όταν η εµπειρική της εντροπία ϐρίσκεται κοντά στην πραγµατική εντροπία της πηγής που παράγει την ακολουθία. Για να είναι µια ακολουθία ισχυρώς τυπική πρέπει η σχετική συχνότητα µε την οποία εµφανίζεται κάθε σύµβολο µέσα στην ακολουθία να ϐρίσκεται κοντά στην κατανοµή της πηγής. Για παράδειγµα, για πηγή Bern(1/2), η ακολουθία 0 0 0 1 0 0 0 είναι ασθενώς τυπική, αλλά όχι ισχυρώς τυπική (ϑεωρούµε µικρό ɛ). Η ακολουθία 0 0 0 1 1 0 1 1 είναι ισχυρώς και ασθενώς τυπική. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 11/ 32

Ισχυρώς Τυπικό Σύνολο ορισµός Θεωρούµε πηγή χωρίς µνήµη µε κατανοµή p(x). Εστω ότι S X X είναι το σύνολο στο οποίο p(x) > 0. Το ισχυρώς τυπικό σύνολο T ɛ (n) που αντιστοιχεί στην κατανοµή p(x) αποτελείται από τις ακολουθίες X1 n X n για τις οποίες N(x; X1 n) = 0 για x / S X και 1 n N(x; X n 1 ) p(x) ɛ, x S X όπου N(x; X1 n ) είναι ο αριθµός των εµφανίσεων του στοιχείου x µέσα στην ακολουθία X1 n και ɛ είναι αυθαίρετα µικρός πραγµατικός αριθµός. Οι ακολουθίες που ανήκουν στο T ɛ (n) ονοµάζονται ισχυρώς ɛ- τυπικές. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 12/ 32

σχόλια Αποδεικνύεται ότι αν µια ακολουθία είναι ισχυρώς τυπική τότε είναι και ασθενώς τυπική. Το αντίστροφο δεν ισχύει, όπως είδαµε στο παράδειγµα πηγής Bern(1/2) χωρίς µνήµη. Η ισχυρή τυπικότητα είναι πιο ευέλικτη από την ασθενή. Μπορούµε να αποδείξουµε τις ίδιες ιδιότητες για τις ισχυρώς τυπικές ακολουθίες όπως και για τις ασθενώς τυπικές µε παρόµοιο τρόπο. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 13/ 32

Σθεναρή Τυπικότητα Συχνά, το τυπικό σύνολο ορίζεται ως το σύνολο των ακολουθιών που ικανοποιούν τη σχέση π(x X n ) p(x) ɛ p(x), για όλα τα x X, όπου π(x X n ) N(x;X n ) n είναι ο τύπος (type) (ή εµπειρική pmf) της ακολουθίας X n. Το είδος αυτό τυπικότητας ονοµάζεται σθεναρή (robust typicality). Παρατηρήστε ότι x S X π(x X n ) p(x) x S X ɛ p(x) = ɛ. Στη συνέχεια, όταν αναφερόµαστε σε ισχυρή τυπικότητα ϑα εννοούµε τη σθεναρή τυπικότητα. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 14/ 32

Λήµµα Τυπικού Μέσου (Typical Average Lemma) Οπως προαναφέρθηκε, το AEP αποτελεί ειδική περίπτωση του Λήµ- µατος Τυπικού Μέσου. Typical Average Lemma Εστω ότι η ακολουθία x1 n T ɛ (n). Για οποιαδήποτε µη αρνητική συνάρτηση g(x) µε πεδίο ορισµού το X, (1 ɛ)e [g(x)] 1 n n g(x i ) (1 + ɛ)e [g(x)]. i=1 Απόδειξη: Προκύπτει εύκολα από τον ορισµό της σθεναρής τυπικότητας (κάντε το ως άσκηση). ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 15/ 32

Ιδιότητες σθεναρώς τυπικού συνόλου Για το σθεναρώς τυπικό συνολο ισχύουν οι ίδιες ιδιότητες µε το ασθενώς τυπικό, µε τη διαφορά ότι στα παρακάτω δ(ɛ) = ɛh(x). ηλαδή, 1. Εάν (x 1, x 2,..., x n ) T ɛ (n), H(X) δ(ɛ) 1 n log p(x 1, x 2,..., x n ) H(X) + δ(ɛ). { } 2. Pr T ɛ (n) > 1 ɛ για n µεγαλύτερο από κάποια τιµή n 0. 3. T ɛ (n) 2 n(h(x)+δ(ɛ)), 4. T ɛ (n) (1 ɛ)2 n(h(x) δ(ɛ)), για n µεγαλύτερο από κάποια τιµή n 0. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 16/ 32

Επανάληψη Βασικών Ποσοτήτων Θεωρίας Πληροφορίας 1 Η Ιδιότητα Ασυµπτωτικής Ισοδιαµέρισης (συνέχεια) 2 ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 17/ 32

Τι εννοούµε µε τον όρο ``κωδικοποίηση ; Η αναπαράσταση ενός σήµατος/µηνύµατος από κάποιο άλλο. Μια απεικόνιση από ένα σήµα/µήνυµα σε ένα άλλο. Ενδέχεται να µην είναι αντιστρέψιµη (κωδικοποίηση µε απώλειες lossy compression). Σε τι χρησιµεύει η κωδικοποίηση; 1. Συµπίεση (Κωδικοποίηση πηγής) 2. Μετάδοση µέσω καναλιού (Κωδικοποίηση καναλιού) 3. Μετατροπή σήµατος/µηνύµατος σε µορφή την οποία µπορούµε να επεξεργαστούµε. Παράδειγµα: Κβαντισµός συνεχούς σήµατος, µετατροπή σήµατος σε δυαδική µορφή. 4. Προστασία δεδοµένων και πνευµατικής ιδιοκτησίας (Κρυπτογραφία, Υδατογράφηση). ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 18/ 32

Εντροπία διακριτής τ.µ. Εστω διακριτή τ.µ. X µε συνάρτηση µάζας πιθανότητας (pmf) p(x). ] 1 H(X) = E p [log = p(x) log 1 p(x) p(x) = p(x) log p(x). x x log 1 p(x) : Η πληροφορία που περιέχεται στο ενδεχόµενο X = x. Η H(X) δεν εξαρτάται από τις τιµές της X, παρά µόνο από την κατανοµή της. H(X): Το όριο συµπίεσης. Το µέσο µήκος της συντοµότερης περιγραφής της X Η µέση πληροφορία που περιέχεται στη X. Η µέση αβεβαιότητα που έχουµε για τη X (πριν µας αποκαλυφθεί η τιµή της). Μονάδα µέτρησης: bit (log log 2 ). Σπανιότερα, nat (log ln). H b (X) = log b a H a (X). Από εδώ και στο εξής log υπονοεί log 2 (αν και δεν έχει ιδιαίτερη σηµασία ποια µονάδα χρησιµοποιούµε). ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 19/ 32

Από κοινού και υπό συνθήκη εντροπία Από κοινού (συνδυασµένη) εντροπία (joint entropy) 2 τ.µ. µε από κοινού pmf p(x, y): ] 1 H(X, Y ) = E p [log p(x, Y ) = 1 p(x, y) log p(x, y) = p(x, y) log p(x, y). x y x y εσµευµένη εντροπία (conditional entropy) της τ.µ. X δεδοµένης της τ.µ. Y : ] 1 H(X Y ) = E p [log = 1 p(x, y) log p(x Y ) p(x y) x y = p(x, y) log p(x y) = p(y)p(x y) log p(x y) x y x y = y p(y) x p(x y) log p(x y) = y p(y)h(x Y = y). ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 20/ 32

Ιδιότητες Εντροπίας διακριτής τ.µ. H(X) 0. Η εντροπία είναι κοίλη ( ) συνάρτηση της συνάρτησης µάζας πιθανότητας p(x). Θα το αποδείξουµε. H(X) log X, όπου X το µέγεθος του αλφαβήτου της X. Το µέγιστο επιτυγχάνεται από την οµοιόµορφη κατανοµή: p(x i ) = 1 X για όλα τα X i X. Αποδείχτηκε στη ``Θεωρία Πληροφορίας. H(X, Y ) = H(Y, X) (εύκολο, π.χ. µε χρήση του ορισµού, δεδο- µένου ότι p(x, y) = p(y, x)). Κανόνας αλυσίδας: H(X 1, X 2,..., X n ) = H(X 1 ) + H(X 2 X 1 ) +... + H(X n X 1, X 2,..., X n 1 ). Απόδειξη µε χρήση ορισµού και κανόνα Bayes. Για ανεξάρτητες τ.µ., H(X 1, X 2,..., X n ) = n i=1 H(X i). Επίσης, εάν οι τ.µ. X και Y είναι ανεξάρτητες, H(X Y ) = H(X) και H(Y X) = H(Y ). Γενικά, H(X Y ) H(Y X). ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 21/ 32

Ρυθµός Εντροπίας διακριτής πηγής Ρυθµός εντροπίας διακριτής πηγής (τυχαίας διαδικασίας): 1 H(X ) = lim n n H(X 1, X 2,..., X n ) bits/σύµβολο, εάν το όριο συγκλίνει. Το όριο συγκλίνει πάντα όταν η πηγή είναι στάσιµη. Στην περίπτωση αυτή, συγκλίνει και η ποσότητα και H(X ) = H (X ). H (X ) = lim n H(X n X 1, X 2,..., X n 1 ) ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 22/ 32

Ρυθµός Εντροπίας διακριτής πηγής (συνέχεια) Εάν οι τ.µ. είναι ανεξάρτητες, H(X ) = H (X ) = lim n 1 n n i=1 H(X i). Εάν, επιπλέον, οι τ.µ. είναι και οµοίως κατανεµηµένες, H(X ) = H (X ) = lim n 1 n nh(x i) = H(X i ) = H(X 1 ). Για στάσιµες πηγές, ο ϱυθµός εντροπίας ποσοτικοποιεί το µέσο ποσό νέας πληροφορίας κάθε ϕορά που παίρνουµε ένα νέο δείγµα (το ποσό πληροφορίας των innovations για όσους έχουν ασχοληθεί µε Θεωρία Εκτίµησης). ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 23/ 32

Παράδειγµα 2.2 (Cover & Thomas σελ. 74) Εστω ακολουθία δυαδικών τ.µ. Bernoulli µε p i = Pr{X i = 1} που δεν είναι σταθερή, αλλά εξαρτάται από το i ως εξής: { 0.5 εάν 2k < log log i 2k + 1 p i = 0 εάν 2k + 1 < log log i 2k + 2, για k = 0, 1, 2,.... Εποµένως, κοµµάτια όπου H(X i ) = 1 ακολουθούνται από εκθετικώς αυξανόµενα κοµµάτια όπου H(X i ) = 0 κ.ο.κ. Συνεπώς, ο µέσος όρος της H(X i ) µεταβάλλεται συνεχώς και δε συγκλίνει. Στη συγκεκριµένη περίπτωση δεν είναι δυνατό να οριστεί ϱυθµός εντροπίας H(X ). ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 24/ 32

Σχετική Εντροπία D(p q) Η σχετική εντροπία (relative entropy) ή απόσταση Kullback-Leibler µεταξύ δύο κατανοµών p και q που ορίζονται στο ίδιο αλφάβητο A ισούται µε D(p q) = x p(x) log p(x) [ q(x) = E p log p(x) q(x) Προσοχή: Η µέση τιµή είναι ως προς την κατανοµή p. Από πού πηγάζει αυτός ο ορισµός; Οπως είδαµε στη ``Θεωρία Πληροφορίας, η D(p q) ποσοτικοποιεί τα επιπλέον bits που χρεια- Ϲόµαστε για να συµπιέσουµε µια τ.µ. µε πραγµατική κατανοµή p όταν για τη συµπίεση χρησιµοποιείται η κατανοµή q. ]. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 25/ 32

Σχετική Εντροπία D(p q) (συνέχεια) Οταν χρησιµοποιείται κώδικας Shannon, H(X)+D(p q) E[l ] < H(X) + D(p q) + 1, όπου E[l ] είναι το µέσο µήκος του κώδικα Shannon για την κατανοµή q, ενώ η πραγµατική κατανοµή της X είναι η p. D(p q) 0. Αποδείχτηκε στη ``Θεωρία Πληροφορίας µε χρήση της ανισότητας Jensen και του γεγονότος ότι η log είναι κοίλη ( ). Θα επαναλάβουµε την απόδειξη στο µάθηµα. Ωστόσο, η D(p q) δεν είναι απόσταση κατά την αυστηρή έννοια: D(p q) D(q p). Επίσης, δεν ισχύει η τριγωνική ανισότητα. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 26/ 32

εσµευµένη Σχετική Εντροπία και Κανόνας Αλυσίδας εσµευµένη σχετική εντροπία (conditional relative entropy): [ ] p(y X) D(p(y x) q(y x)) = E p log = p(x, y) log p(y x) q(y X) q(y x). x y Προσοχή: Μέση τιµή ως προς την p(x, y). Κανόνας αλυσίδας για τη σχετική εντροπία D(p(x, y) q(x, y)) = D(p(x) q(x)) + D(p(y x) q(y x)). Απόδειξη: Απλή, µε χρήση ορισµού (Cover & Thomas Theorem 2.5.3). ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 27/ 32

Αµοιβαία Πληροφορία I(X; Y ) Εστω µια τ.µ. X p(x). Εάν µας γνωστοποιηθεί η τιµή της τ.µ. Y, η κατανοµή πιθανότητας της X αλλάζει σε p(x Y ). Εποµένως, κατά µέσο όρο, γνώση [ της] Y αλλάζει την αβεβαιότητα που έχουµε για τη X κατά E p(x Y ) p p(x) (η µέση τιµή υπολογίζεται για όλες τις τιµές των X και Y ). Συνεπώς, [ I(X; Y ) E p log p(x Y ) ] = p(x) x y = p(x, y) log p(x y)p(y) = p(x)p(y) x y x [ = D(p(x, y) p(x)p(y)) = E p p(x, y) log p(x y) p(x) p(x, y) log y log p(x, Y ) p(x)p(y ) ]. p(x, y) p(x)p(y) ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 28/ 32

Αµοιβαία Πληροφορία I(X; Y ) (2) Προφανώς (από την προηγούµενη σχέση), I(X; Y ) = I(Y ; X). Αρα, αποκάλυψη της X οδηγεί στην ίδια µεταβολή της αβεβαιότητας για την Y κατά µέσο όρο. Η ποσότητα I(X; Y ) ονοµάζεται αµοιβαία πληροφορία. Εχουµε δει (και ϑα το αποδείξουµε, και πάλι, αργότερα) ότι I(X; Y ) 0. Εποµένως, αποκάλυψη της τιµής της Y ελαττώνει την αβεβαιότητα για τη X κατά µέσο όρο. Προσοχή: Για κάποιες τιµές της Y, ενδέχεται I(X; Y = y) < 0. Ωστόσο, ισχύει πάντα I(X; Y ) = E Y [I(X; Y = y)] 0. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 29/ 32

Αµοιβαία Πληροφορία I(X; Y ) (3) Μια διαφορετική ερµηνεία της αµοιβαίας πληροφορίας µε ϐάση τη σχετική εντροπία: Η πληροφορία που ``χάνουµε εάν ϑεωρήσουµε ότι οι X και Y είναι ανεξάρτητες, ενώ, στην πραγµατικότητα, δεν είναι. I(X; Y ) = H(X) H(X Y ) = H(Y ) H(Y X) = H(X) + H(Y ) H(X, Y ). Προκύπτει από τον ορισµό (αποδείχτηκε στη ``Θεωρία Πληροφορίας ). ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 30/ 32

Αµοιβαία Πληροφορία I(X; Y ) (4) I(X; X) = H(X) H(X X) = H(X). Η X περιέχει όλη την πληροφορία για τον εαυτό της. Κανόνας αλυσίδας για την αµοιβαία πληροφορία: I(X 1, X 2,..., X n ; Y ) = n I(X i ; Y X 1, X 2,..., X i 1 ). i=1 Απόδειξη: Εύκολα, από κανόνα αλυσίδας εντροπίας και χρήση I(X 1, X 2,..., X n ; Y ) = H(X 1, X 2,..., X n ) H(X 1, X 2,..., X n Y ). Υπό συνθήκη αµοιβαία πληροφορία: I(X; Y Z) = H(X Z) H(X Y, Z). ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 31/ 32

ιάγραµµα Venn Η σχέση µεταξύ εντροπίας, δεσµευµένης εντροπίας και αµοιβαίας πληροφορίας µπορεί να αναπαρασταθεί και µε χρήση διαγράµµατος Venn. ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη 32/ 32