Λυμένες Ασκήσεις σε Εντροπία, Αμοιβαία Πληροφορία, Κωδικοποίηση Πηγής και AEP

Σχετικά έγγραφα
EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας 3η σειρά ασκήσεων Διακριτά και Συνεχή Κανάλια. Παράδοση: Έως 22/6/2015

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη (3η έκδοση, 11/3)

22Α004 - Προχωρημένα Θέματα Θεωρίας Πληροφορίας Τελική Εξέταση

EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας Λυμένες ασκήσεις σε Κανάλια

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 2 : Πληροφορία και Εντροπία Διάλεξη: Κώστας Μαλιάτσος Χρήστος Ξενάκης, Κώστας Μαλιάτσος

f(y) dy = b a dy = b a x f(x) dx = b a dx = x 2 = b2 a 2 2(b a) b a dx = = (a2 + ab + b 2 )(b a) 3(b a)

X i = Y = X 1 + X X N.

Τηλεπικοινωνιακά Συστήματα ΙΙ

Θεωρία Πληροφορίας. Διάλεξη 4: Διακριτή πηγή πληροφορίας χωρίς μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

1 Βασικές Έννοιες Θεωρίας Πληροφορίας

Pr(10 X 15) = Pr(15 X 20) = 1/2, (10.2)

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

x P (x) c P (x) = c P (x), x S : x c

ΕΝΟΤΗΤΑ 1: ΟΡΙΣΜΟΣ ΠΕΔΙΟ ΟΡΙΣΜΟΥ ΠΡΑΞΕΙΣ ΣΥΝΑΡΤΗΣΕΩΝ ΓΡΑΦΙΚΕΣ ΠΑΡΑΣΤΑΣΕΙΣ ΒΑΣΙΚΩΝ ΣΥΝΑΡΤΗΣΕΩΝ ΛΥΜΕΝΑ ΘΕΜΑΤΑ ΘΕΜΑ Α

ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΔΙΑΚΡΙΤΑ ΜΑΘΗΜΑΤΙΚΑ» - 6/2/2014 Διάρκεια Εξέτασης: 2 ώρες και 50 λεπτά Ομάδα Α

Ασκήσεις3 Διαγωνισιμότητα Βασικά σημεία Διαγωνίσιμοι πίνακες: o Ορισμός και παραδείγματα.

Ψηφιακές Τηλεπικοινωνίες

Δίαυλος Πληροφορίας. Η λειτουργία του περιγράφεται από:

Θέματα Συστημάτων Πολυμέσων

ΕΠΑΝΑΛΗΠΤΙΚΑ ΘΕΜΑΤΑ ΚΕΦΑΛΑΙΟ 3ο: ΠΙΘΑΝΟΤΗΤΕΣ ΘΕΜΑ Α. α) Τι λέγεται δειγματικός χώρος και τι ενδεχόμενο ενός πειράματος τύχης;

d k 10 k + d k 1 10 k d d = k i=0 d i 10 i.

ΗΥ-217-ΠΙΘΑΝΟΤΗΤΕΣ-ΧΕΙΜΕΡΙΝΟ ΕΞΑΜΗΝΟ 2016 ΔΙΔΑΣΚΩΝ: ΠΑΝΑΓΙΩΤΗΣ ΤΣΑΚΑΛΙΔΗΣ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ Τμήμα Φυσικής Σημειώσεις Ανάλυσης Ι (ανανεωμένο στις 5 Δεκεμβρίου 2012)

Ψηφιακές Τηλεπικοινωνίες. Θεωρία Ρυθμού Παραμόρφωσης

Ψηφιακές Τηλεπικοινωνίες

Ασκήσεις3 Διαγωνίσιμες Γραμμικές Απεικονίσεις

βαθμού 1 με A 2. Υπολογίστε τα χαρακτηριστικά και ελάχιστα πολυώνυμα των

Εισαγωγή στη θεωρία πληροφορίας

ΕΦΑΡΜΟΣΜΕΝΗ ΣΤΑΤΙΣΤΙΚΗ I Παντελής Δημήτριος Τμήμα Μηχανολόγων Μηχανικών

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

Από το Γυμνάσιο στο Λύκειο Δειγματικός χώρος Ενδεχόμενα Εύρεση δειγματικού χώρου... 46

Στοχαστικές Στρατηγικές

με Τέλος πάντων, έστω ότι ξεκινάει ένα άλλο υποθετικό σενάριο που απλά δεν διευκρινίζεται. Για το i) θα έχουμε , 2

Θεώρημα κωδικοποίησης πηγής

ΚΕΦΑΛΑΙΟ 3 ΤΟ ΔΙΩΝΥΜΙΚΟ ΘΕΩΡΗΜΑ

Λύσεις 2ης Ομάδας Ασκήσεων

Αριθμητική Ανάλυση και Εφαρμογές

Πεπερασμένες Διαφορές.

ΔΕΣΜΕΥΜΕΝΕΣ Ή ΥΠΟ ΣΥΝΘΗΚΗ ΠΙΘΑΝΟΤΗΤΕΣ

Φεργαδιώτης Αθανάσιος ΤΡΑΠΕΖΑ ΘΕΜΑΤΩΝ ΣΤΗΝ ΑΛΓΕΒΡΑ Α ΛΥΚΕΙΟΥ. Θέμα 2 ο (150)

EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας 3η σειρά ασκήσεων Ενδεικτικές Λύσεις

Θεωρία Πιθανοτήτων, εαρινό εξάμηνο Λύσεις του πέμπτου φυλλαδίου ασκήσεων.. Δηλαδή:

Πίνακες Διασποράς. Χρησιμοποιούμε ένα πίνακα διασποράς T και μια συνάρτηση διασποράς h. Ένα στοιχείο με κλειδί k αποθηκεύεται στη θέση

1 Αριθμητική κινητής υποδιαστολής και σφάλματα στρογγύλευσης


I. ΜΙΓΑΔΙΚΟΙ ΑΡΙΘΜΟΙ. math-gr

ΟΙΚΟΝΟΜΙΚΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ - ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ Θεωρία Παιγνίων και Αποφάσεων Διδάσκων: Ε. Μαρκάκης, Εαρινό εξάμηνο 2015

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 4η διάλεξη (4η έκδοση, 11/3/2013)

B = F i. (X \ F i ) = i I

( ) log 2 = E. Σεραφείµ Καραµπογιάς

Μέθοδος μέγιστης πιθανοφάνειας

Γνωστό: P (M) = 2 M = τρόποι επιλογής υποσυνόλου του M. Π.χ. M = {A, B, C} π. 1. Π.χ.

Ασκήσεις μελέτης της 16 ης διάλεξης

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

Τυχαία μεταβλητή (τ.μ.)

ΘΕΜΑ 2. βρείτε. (Μονάδες 15) με διαφορά ω.

Μέθοδος μέγιστης πιθανοφάνειας

h(x, y) = card ({ 1 i n : x i y i

ΚΕΦΑΛΑΙΟ 4 ο : ΑΝΙΣΩΣΕΙΣ ΤΟ 2 Ο ΘΕΜΑ

Ονοματεπώνυμο: Ερώτημα: Σύνολο Μονάδες: Βαθμός:

ΚΕΦΑΛΑΙΟ 2 ΔΙΑΤΑΞΕΙΣ, ΜΕΤΑΘΕΣΕΙΣ, ΣΥΝΔΥΑΣΜΟΙ

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 6η διάλεξη

Α Λυκείου Άλγεβρα Τράπεζα Θεμάτων Το Δεύτερο Θέμα

ρ πε α εμ των α ματ ών 2014 Ο Η ΡΗ Ο Ο Γ Ρ Θ μα 2ο

Αθανάσιος Χρ. Τζέμος Τομέας Θεωρητικής Φυσικής. Εντροπία Shannon

B = {x A : f(x) = 1}.

ΤΕΧΝΟΛΟΓΙΚΟ ΕΚΠΑΙΔΕΥΤΙΚΟ ΙΔΡΥΜΑ ΚΕΝΤΡΙΚΗΣ ΜΑΚΕΔΟΝΙΑΣ ΣΧΟΛΗ ΤΜΗΜΑ. Μαθηματικά 2. Σταύρος Παπαϊωάννου

Θεώρημα Βolzano. Κατηγορία 1 η Δίνεται η συνάρτηση:

ΘΕΜΑ 2. Θεωρούμε την ακολουθία (α ν ) των θετικών περιττών αριθμών: 1, 3, 5, 7,

B A B A A 1 A 2 A N = A i, i=1. i=1

Κ Ε Φ Α Λ Α Ι Ο 3 ο : Ε ξ ι σ ώ σ ε ι ς. 3.1 Εξισώσεις 1 ου Βαθμού. 3.2 Η εξίσωση x. 3.3 Εξισώσεις 2 ου Βαθμού. ρωτήσεις αντικειμενικού τύπουθέμα Α1-

Υπολογιστικά & Διακριτά Μαθηματικά

Από το Γυμνάσιο στο Λύκειο Δειγματικός χώρος Ενδεχόμενα Εύρεση δειγματικού χώρου... 46

pdf: X = 0, 1 - p = q E(X) = 1 p + 0 (1 p) = p V ar(x) = E[(X µ) 2 ] = (1 p) 2 p + (0 p) 2 (1 p) = p (1 p) [1 p + p] = p (1 p) = p q

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 11η διάλεξη

2. Η πιθανότητα της αριθμήσιμης ένωσης ξένων μεταξύ τους ενδεχομένων είναι το άθροισμα των πιθανοτήτων των ενδεχομένων.

3.1 ΔΕΙΓΜΑΤΙΚΟΙ ΧΩΡΟΙ ΕΝΔΕΧΟΜΕΝΑ

Αναγνώριση Προτύπων Ι

ΜΕΘΟΔΟΛΟΓΙΕΣ & ΑΣΚΗΣΕΙΣ ΓΙΑ ΤΗΝ ΑΛΓΕΒΡΑ ΤΗΣ Α ΛΥΚΕΙΟΥ

B= πραγματοποιείται τουλάχιστον ένα από τα ενδεχόμενα Α και Β ii) B = πραγματοποιούνται ταυτόχρονα τα ενδεχόμενα Β και Γ iii)

ΘΕΩΡΙΑ ΑΠΟΦΑΣΕΩΝ 3 ο ΦΡΟΝΤΙΣΤΗΡΙΟ ΛΥΣΕΙΣ ΤΩΝ ΑΣΚΗΣΕΩΝ


Ασκήσεις μελέτης της 6 ης διάλεξης

Λύσεις των Θεμάτων του Διαγ/τος στην Τάξη και Σχόλια-Ιούνιος 2011

Θέματα Συστημάτων Πολυμέσων

ΑΡΙΘΜΗΤΙΚΗ ΠΡΟΟΔΟΣ. Σύμφωνα με τα παραπάνω, για μια αριθμητική πρόοδο που έχει πρώτο όρο τον ...

7. α) Να λύσετε την ανίσωση x 5 <4. β) Αν κάποιος αριθμός α επαληθεύει την παραπάνω ανίσωση, να αποδείξετε ότι

n 5 = 7 ε (π.χ. ορίζοντας n0 = 1+ ε συνεπώς (σύμϕωνα με τις παραπάνω ισοδυναμίες) an 5 < ε. Επομένως a n β n 23 + β n+1

pdf: X = 0, 1 - p = q E(X) = 1 p + 0 (1 p) = p V ar(x) = E[(X µ) 2 ] = (1 p) 2 p + (0 p) 2 (1 p) = p (1 p) [1 p + p] = p (1 p) = p q

ΜΕΓΙΣΤΙΚΟΣ ΤΕΛΕΣΤΗΣ 18 Σεπτεμβρίου 2014

ΘΕΩΡΙΑ ΠΙΘΑΝΟΤΗΤΩΝ Ι Φεβρουάριος 2018 Σειρά Α Θέματα 3 ως 7 και αναλυτικές (ή σύντομες) απαντήσεις

Y = X 1 + X X N = X i. i=1

Αριθμητική Ανάλυση & Εφαρμογές

Μ Α Θ Η Μ Α Τ Α Γ Λ Υ Κ Ε Ι Ο Υ

ΚΕΦΑΛΑΙΟ 5 ΑΚΟΛΟΥΘΙΕΣ ΑΡΙΘΜΗΤΙΚΗ ΓΕΩΜΕΤΡΙΚΗ ΠΡΟΟΔΟΣ

ΑΚΡΟΤΑΤΑ ΣΥΝΑΡΤΗΣΕΩΝ ΠΟΛΛΩΝ ΜΕΤΑΒΛΗΤΩΝ

ΛΥΣΕΙΣ ΘΕΜΑΤΩΝ ΣΤΑΤΙΣΤΙΚΗ Ι ΜΕΡΟΣ Α (Σ. ΧΑΤΖΗΣΠΥΡΟΣ) . Δείξτε ότι η στατιστική συνάρτηση T = X( n)

xp X (x) = k 3 10 = k 3 10 = 8 3

Transcript:

22Α004 (eclass EE728) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας Φυλλάδιο 2 Δ. Τουμπακάρης 7 Μαΐου 205 Λυμένες Ασκήσεις σε Εντροπία, Αμοιβαία Πληροφορία, Κωδικοποίηση Πηγής και AEP. Συναρτήσεις τυχαίων μεταβλητών Cover & Thomas 2.2 (παραλλαγή) (*α) Έστω y = g(x), g( ) ντετερμινιστική συνάρτηση και X μια (διακριτή) τυχαία μεταβλητή. Μπορεί να ειπωθεί κάτι για τη σχέση μεταξύ της εντροπίας της Y = g(x) και της εντροπίας της X; Εάν ναι, τι; Υπόδειξη: O πιο απλός τρόπος να λύσετε την άσκηση είναι με χρήση της αρχής διαχωρισιμότητας της εντροπίας. (β) Βρείτε τη σχέση μεταξύ H(X) και H(Y ) για τις συναρτήσεις y = x 3 και y = x/2, x ακέραιος. 2. Εντροπία αθροίσματος τυχαίων μεταβλητών Cover & Thomas 2.4 (α) Έστω X και Y τυχαίες μεταβλητές και Z = X + Y. Να αποδειχτεί ότι H(Z X) = H(Y X). (*β) Εάν οι X και Y είναι ανεξάρτητες, να αποδειχτεί ότι H(Y ) H(Z) και H(X) H(Z). Επομένως, όταν σε μια τ.μ. προστίθεται μια ανεξάρτητή της τ.μ., η αβεβαιότητα αυξάνει. (*γ) Δώστε ένα παράδειγμα (μη ανεξάρτητων) τ.μ. X και Y για τις οποίες H(Y ) H(Z) και H(X) H(Z). 3. Μια εναλλακτική απόδειξη της ανισότητας D(p q) 0 Cover & Thomas 2.26 (α) Δείξτε ότι, για 0 < x <, ln x x. (β) Δικαιολογήστε τα παρακάτω βήματα D(p q) = x (i) x (ii) 0. p(x) ln q(x) p(x) ( ) q(x) p(x) p(x) (γ) Πότε ισχύει η ισότητα;

4. Ανισότητα Fano Cover & Τhomas 2.32 Έστω η εξής από κοινού κατανομή μάζας πιθανότητας για τις τ.μ. (X, Y ) 6 X 2 2 3 2 Y a b c Έστω, επίσης, ˆX(Y ) εκτιμητής για τη X με βάση την Y και Pe = Pr{ ˆX(Y ) X}. (α) Βρείτε το βέλτιστο εκτιμητή ˆX(Y ), καθώς και την P e που αντιστοιχεί στο βέλτιστο εκτιμητή. (β) Βρείτε το φράγμα για την P e που προκύπτει από την ανισότητα Fano και συγκρίνετε. 5. Σχετική Εντροπία Cover & Thomas 2.37 Έστω 3 τ.μ. X, Y, Z με από κοινού συνάρτηση μάζας πιθανότητας p(x, y, z). Η σχετική εντροπία μεταξύ της από κοινού κατανομής και του γινομένου των περιθώριων κατανομών ορίζεται ως 2 6 2 D(p(x, y, z) p(x)p(y)p(z)) = E 2 2 6 [ log ] p(x, y, z). p(x)p(y)p(z) (α) Εκφράστε την D(p(x, y, z) p(x)p(y)p(z)) συναρτήσει εντροπιών. (β) Πότε η D(p(x, y, z) p(x)p(y)p(z)) ισούται με 0; 6. Κέρμα και ζάρι Cover & Thomas 2.43 (α) Θεωρήστε το αποτέλεσμα της ρίψης αμερόληπτου κέρματος. Με τι ισούται η αμοιβαία πληροφορία μεταξύ της επάνω και κάτω πλευράς του κέρματος; Συμφωνεί το αποτέλεσμα με αυτό που περιμένατε διαισθητικά; (β) Αλλάζει η απάντησή σας εάν το κέρμα είναι μεροληπτικό; (γ) Θεωρήστε τη ρίψη αμερόληπτου ζαριού με 6 πλευρές. Ποια είναι η αμοιβαία πληροφορία μεταξύ της επάνω και της μπροστινής πλευράς; Υπενθυμίζεται ότι σε ένα ζάρι το άθροισμα των αντίθετων πλευρών ισούται με 7. 7. Μήκος Ακολουθίας Cover & Thomas 2.48 Θεωρούμε τυχαία διαδικασία Bernoulli ( 2) {Xi }. Σταματάμε τη διαδικασία όταν εμφανίζεται το πρώτο. Έστω N το μήκος της ακολουθίας όταν σταματάμε. Επομένως, η ακολουθία X N είναι ένα στοιχείο του συνόλου όλων των δυαδικών ακολουθιών πεπερασμένου μήκους: {0, } = {0,, 00, 0, 0,, 000,...}. (α) Βρείτε την I(N; X N ). (β) Βρείτε την H(X N N). 2

(γ) Βρείτε την H(X N ). (δ) Βρείτε την H(N X N ). (ε) Βρείτε την H(N). Υπόδειξη: Ενδέχεται να σας φανεί χρήσιμη η Άσκηση 2. του βιβλίου των Cover & Thomas. Αλλάζουμε, τώρα, τον τρόπο με τον οποίο σταματάμε την παραγωγή της ακολουθίας. Θεωρήστε και πάλι ότι X i Bernoulli ( ) 2. Με πιθανότητα σταματάμε όταν N = 6, 3 αλλιώς σταματάμε όταν N = 2. Επίσης, θεωρούμε ότι η επιλογή της τιμής του N είναι ανεξάρτητη της ακολουθίας X X 2... X 2. (στ) Βρείτε την I(N; X N ). (ζ) Βρείτε την H(X N N). (η) Βρείτε την H(X N ). (θ) Βρείτε την H(N X N ). (ι) Βρείτε την H(N). 8. Εντροπία και Aμοιβαία Πληροφορία (Πρόοδος Θ. Π., Νοέμβριος 2007) Έστω οι ανεξάρτητες τ.μ. X και Y. H X ακολουθεί ομοιόμορφη κατανομή με τιμές {, } (δηλαδή X = ή X = με την ίδια πιθανότητα), ενώ η Y ακολουθεί ομοιόμορφη κατανομή με γνωστές τιμές { a, a}, a R (δηλαδή Y = a ή Y = a με την ίδια πιθανότητα). Η τ.μ. Z δίνεται από τη σχέση Z = X + Y. Για όλες τις πιθανές τιμές του a R να βρεθούν (α) Η H(Y ). (β) Η H(Z). (γ) H I(X; Z). 9. Εντροπία, Aμοιβαία Πληροφορία και συμπίεση (Τελικό διαγώνισμα Θ. Π., Φεβρουάριος 2008) Έστω οι ανεξάρτητες τ.μ. X και Y, η καθεμία με ομοιόμορφη κατανομή στο σύνολο {0,, 2, 3}. Η τ.μ. Z δίνεται από τη σχέση Z = X Y (γινόμενο). Να βρεθούν (α) Η H(X). (β) Η H(Z). log 2 7 2.8074. (γ) H I(X; Z). (δ) Κατασκευάστε ένα δυαδικό κώδικα Huffman για την τ.μ. Z. Συγκρίνετε το μέσο μήκος κώδικα με την εντροπία της Z και σχολιάστε. 0. Σύντομες Ερωτήσεις (Τελικό Διαγώνισμα Θ. Π., Φεβρουάριος 2008) (α) Αποδείξτε ότι H(X, Y, Z) H(X, Y ) H(X, Z) H(X). Πότε ισχύει η ισότητα; (β) Σωστό ή λάθος; I(X; Y Z) = 0 I(X; Y ) = 0. Αποδείξτε ή δώστε αντιπαράδειγμα. 3

. Εντροπία (Τελικό Διαγώνισμα Π. Θ. Θ. Π., Ιούνιος 2008) Θεωρούμε μια διακριτή τυχαία τ.μ. που παίρνει τιμές από ένα πεπερασμένο σύνολο στοιχείων X = {,..., X }. Έστω ότι δίνεται η p() = Pr{X = } η οποία δεν είναι δυνατόν να μεταβληθεί. (α) Ποιες είναι οι τιμές p(i), i = 2,..., X, της κατανομής που μεγιστοποιεί την εντροπία H(X) (για δεδομένη p()); (β) Με τι ισούται η μέγιστη H(X) για δεδομένη p(); Δώστε μια ερμηνεία της έκφρασης για την H(X) με χρήση της αρχής διαχωρισιμότητας. Υπόδειξη: Χωρίστε το X σε δύο κατάλληλα υποσύνολα. (γ) Εάν ένας παίκτης Α μπορεί να μεταβάλλει την p() με σκοπό να μειώνει την εντροπία H(X) όσο περισσότερο μπορεί, ενώ ένας παίκτης Β μπορεί να μεταβάλλει οποιοδήποτε υποσύνολο των υπόλοιπων p(i) (αλλά όχι την p()) με σκοπό να αυξάνει την εντροπία όσο μπορεί, ποια τιμή πρέπει να επιλέξει ο Α για την p() αν παίζει πρώτος; Πώς πρέπει να απαντήσει ο Β; Αλλάζει η απάντησή σας εάν πρώτος παίζει ο Β; Θεωρούμε ότι οι παίκτες παίζουν έτσι ώστε να μην παραβιάζεται η συνθήκη X i= p(x i) = για το p. 2. Εντροπία (Επαναληπτική εξέταση Θ. Π., Σεπτέμβριος 2008) Επιστήμονες που μελετούν ένα σπάνιο ερπετό έχουν προσδιορίσει ότι η επώαση του κάθε αβγού του ερπετού διαρκεί τουλάχιστον 4 ημέρες και δεν υπερβαίνει τις 04 ημέρες. Κατά τα άλλα, τίποτα δεν είναι γνωστό για την κατανομή της διάρκειας επώασης των αβγών. (α) Έστω διακριτή τ.μ. που αναπαριστά τη διάρκεια επώασης ενός αβγού του ερπετού. Δώστε ένα άνω φράγμα και ένα κάτω φράγμα για την εντροπία της, καθώς και τις κατανομές που αντιστοιχούν στο άνω και στο κάτω φράγμα. Υποθέτουμε ότι η επώαση μετράται σε ακέραιο αριθμό ημερών (X N [4, 04], δηλαδή δεν μπορεί, για παράδειγμα, να διαρκέσει 65.3 ημέρες). (β) Μετά από νέες παρατηρήσεις, επιβεβαιώθηκε ότι 4 X 04, και προέκυψε, επίσης, ότι η πιθανότητα η επώαση του αβγού να διαρκεί περισσότερο από 56 ημέρες δεν μπορεί να υπερβεί την πιθανότητα η επώαση να διαρκεί 56 ημέρες ή λιγότερο. Επαναλάβετε το Ερώτημα (α) και συγκρίνετε τα νέα φράγματα που υπολογίσατε. 3. Εντροπία και Aμοιβαία Πληροφορία (Πρόοδος Θ. Π., Νοέμβριος 2008) Στο Σχήμα, οι τ.μ. X, N και N 2 είναι διακριτές, δυαδικές και ομοιόμορφα κατανεμημένες. Επίσης, είναι όλες ανεξάρτητες μεταξύ τους. Στην περίπτωση που σας χρειαστεί, δίνεται ότι log 2 3.585. (α) Με τι ισούται η εντροπία της X; (β) Βρείτε την εντροπία της Y. 4

Σχήμα : Σύστημα με δύο πηγές θορύβου (γ) Για οποιαδήποτε κατανομή της N 2 (όχι, κατ ανάγκη ομοιόμορφη όπως στο σχήμα), υποθέτοντας, πάντοτε, ότι η N 2 είναι τυχαία και ανεξάρτητη των X και N, δώστε το καλύτερο κάτω φράγμα που μπορείτε για την H(Z). Θεωρούμε ότι η κατανομή της N 2 (και, επομένως, και η εντροπία της) είναι γνωστή. Προσοχή: Σε αυτό το ερώτημα (αντίθετα με όλα τα άλλα) δε θεωρούμε ότι η N 2 είναι, κατ ανάγκη, δυαδική. (δ) Υπολογίστε, τώρα, την H(Z) για N 2 Unif{, +} και επαληθεύστε ότι υπερβαίνει το κάτω φράγμα που βρήκατε στο προηγούμενο ερώτημα. (ε) Υπολογίστε τις I(Y ; X), I(Z; X) και I(Y, Z; X). Συγκρίνετέ τις μεταξύ τους και σχολιάστε. (στ) Σας δίνονται οι εξής επιλογές: Παρατήρηση της τ.μ. Y μόνο, παρατήρηση της τ.μ. Z μόνο ή παρατήρηση του ζεύγους τ.μ. (Y, Z). Ποια παρατήρηση θα επιλέξετε ώστε να πάρετε όση περισσότερη πληροφορία για τη X μπορείτε (κατά μέσο όρο); 4. Σύστημα με δύο εξόδους (Τελικό διαγώνισμα Θ. Π., Φεβρουάριος 2009) Θεωρούμε το σύστημα του Σχήματος 2. H πηγή δεν έχει μνήμη και παίρνει τιμές + ή με την ίδια πιθανότητα /2. Οι πολλαπλασιαστικοί θόρυβοι Z και Z 2 παίρνουν, επίσης, τιμές στο σύνολο {, }, αλλά ακολουθούν κατανομή Bernoulli(p i ). Δηλαδή, { + με πιθανότητα pi Z i =. με πιθανότητα p i Οι τ.μ. Z και Z 2 είναι ανεξάρτητες της X. Ωστόσο, στη γενική περίπτωση, δεν είναι ανεξάρτητες μεταξύ τους. (α) Βρείτε την H(X) και τις H(Z i ) (συναρτήσει των p i ). (β) Για δεδομένα p και p 2, βρείτε ένα άνω φράγμα για την H(Z, Z 2 ), καθώς και την από κοινού συνάρτηση μάζας πιθανότητας p(z, z 2 ) η οποία επιτυγχάνει το άνω φράγμα. (γ) Βρείτε τις I(X; Y ) και I(X; Y 2 ). Για δεδομένα p και p 2 υπάρχει τρόπος να αυξήσετε τις I(X; Y ) και I(X; Y 2 ) αλλάζοντας την κατανομή της X; Επιτρέπεται να αλλάξετε μόνο τις πιθανότητες με τις οποίες X = ή. Δεν μπορείτε να αυξήσετε το πλήθος τιμών, X, της πηγής. 5

Σχήμα 2: Σύστημα με δύο εξόδους. (δ) Συγκρίνετε την I(X; Y, Y 2 ) με τις I(X; Y i ). Είναι μικρότερη; Μεγαλύτερη; Ίση; Ποια είναι η μεγαλύτερη τιμή (σε bits) που μπορεί να πάρει η I(X; Y, Y 2 ); Υπόδειξη: Στο ερώτημα αυτό μπορείτε να απαντήσετε χωρίς να βρείτε την τιμή της I(X; Y, Y 2 ). (ε) Υποθέστε, τώρα, ότι οι Z και Z 2 είναι ανεξάρτητες μεταξύ τους. Βρείτε μια έκφραση για την (X; Y, Y 2 ) συναρτήσει των p και p 2. Υπόδειξη: Ενδέχεται να σας φανεί χρήσιμη η αντικατάσταση α p + p 2 2p p 2. 5. Ανισότητες (Επαναληπτική Εξέταση Θ. Π., Σεπτέμβριος 2009) (α) Να αποδειχτεί ότι, για n 2, H(X, X 2,..., X n ) Στη συνέχεια, να αποδειχτεί ότι n H(X i X,..., X i, X i+,..., X n ). i= 2 [H(X, X 2 ) + H(X 2, X 3 ) + H(X, X 3 )] H(X, X 2, X 3 ). Υπόδειξη: Χρησιμοποιήστε τις σχέσεις H(X, X 2, X 3 ) = H(X i, X j ) + H(X k X i, X j ), καθώς και την πρώτη σχέση που αποδείξατε. (β) Έστω p XY (x, y) και q XY (x, y) δύο κατανομές μάζας πιθανότητας στο σύνολο X Y. Να αποδειχτεί ότι D(p XY q XY ) D(p X q X ), όπου p X (x) και q X (x) οι περιθώριες σ.μ.π. των p XY (x, y) και q XY (x, y), αντιστοίχως. 6. Iσότητες και ανισότητες (Επαναληπτική εξέταση Π. Θ. Θ. Π., Σεπτέμβριος 2009) Συμπληρώστε τις παρακάτω σχέσεις με =, ή. Δικαιολογήστε την απάντησή σας. Στην περίπτωση που ισχύει ή, προσδιορίστε πότε ισχύει η ισότητα. Σημείωση: Aπαντήσεις που δεν είναι επαρκώς αιτιολογημένες δε βαθμολογούνται. 6

(α) I(X; Y )? I(g(X); Y ). Η g() είναι ντετερμινιστική συνάρτηση. (β) I(Y ; Z X)? I(Y ; Z) εάν p(x, y, z) = p(x)p(y)p(z x, y). (γ) H(X Z)? H(X Y ) + H(Y Z). 7. Μεταβολή εντροπίας (Επαναληπτική Εξέταση Π. Θ. Θ. Π., Σεπτέμβριος 200) Θεωρήστε μια κατανομή p = (p, p 2,..., p N ) με N 2 ενδεχόμενα, όλα μη μηδενικής πιθανότητας, δηλαδή p n > 0 n. Θα δείξουμε ότι, για οποιαδήποτε κατανομή, υπάρχει πάντοτε τουλάχιστον ένα ενδεχόμενο, έστω K, το οποίο αν αφαιρέσουμε θα ελαττώσουμε την εντροπία. Δηλαδή, υπάρχει πάντοτε τουλάχιστον ένα p k έτσι ώστε, αν ( p = p p K, p 2 p K,..., p K p K, p K+ p K,..., p N p K ), H(p ) < H(p). (α) Δείξτε ότι δεν μπορούμε πάντοτε να ελαττώσουμε την εντροπία αν επιλέξουμε το ενδεχόμενο τυχαία. Δηλαδή, υπάρχουν κατανομές για τις οποίες υπάρχει p τέτοιο ώστε H(p ) > H(p). (β) Στη συνέχεια θα αποδείξετε ένα λήμμα που θα σας βοηθήσει να αποδείξετε το ζητούμενο. Δείξτε ότι, για p (0, /2], η συνάρτηση H(p), όπου H(p) p log p 2 p ( p) log 2 ( p) είναι φθίνουσα συνάρτηση του p. (γ) Εξηγήστε γιατί, σε μία οποιαδήποτε κατανομή με ενδεχόμενα, (p, p 2,..., p N ), όλα μη μηδενικά, υπάρχει πάντοτε τουλάχιστον ένα ενδεχόμενο, L, με p L N. (*δ) Χρησιμοποιώντας τα Eρωτήματα (β) και (γ) (ή κάποιον άλλο τρόπο, αν προτιμάτε) αποδείξτε ότι υπάρχει πάντοτε ένα ενδεχόμενο, K, το οποίο αν αφαιρεθεί η εντροπία της κατανομής μειώνεται. 8. Ανισότητες (Τελική Εξέταση Θ. Π., Φεβρουάριος 20) Θεωρήστε 4 διακριτές τ.μ. X, X 2, Y και Y 2 οι οποίες ικανοποιούν τις εξής συνθήκες Οι X και X 2 είναι ανεξάρτητες. Δηλαδή, p X X 2 (x, x 2 ) = p X (x ) p X2 (x 2 ). Οι Y και Y 2 εξαρτώνται από τις X και X 2 μέσω της p Y Y 2 X X 2 (y, y 2 x, x 2 ). Για παράδειγμα, οι Y και Y 2 μπορεί να είναι έξοδοι του συστήματος του Σχήματος 3, στο οποίο εισάγουμε ανεξάρτητες εισόδους (δηλαδή ο χρήστης δεν μπορεί να συνεννοηθεί με το χρήστη 2). Ωστόσο, στη γενική περίπτωση, η έξοδος Y j εξαρτάται όχι μόνο από τη X j, αλλά και από τη X i, i j. Σχήμα 3: Στοχαστικό σύστημα με εισόδους X και X 2 και εξόδους Y και Y 2. 7

(α) Δείξτε ότι I(X, X 2 ; Z) I(X ; Z) + I(X 2 ; Z), όπου Z = Y, Z = Y 2 ή Z = (Y, Y 2 ). Δηλαδή, κάποιος που διαθέτει πρόσβαση στα X και X 2 ταυτοχρόνως, μπορεί να αντλήσει περισσότερη πληροφορία για το Z από τη συνολική πληροφορία που μπορούν να αντλήσουν δύο άτομα που διαθέτουν πρόσβαση ο καθένας μόνο στο X και μόνο στο X 2. Πότε ίσχύει η ισότητα στην παραπάνω σχέση; (β) Έστω, τώρα, ότι ισχύει p(y, y 2 x, x 2 ) = p(y x, x 2 ) p(y 2 x, x 2 ). Δηλαδή, οι Y και Y 2 είναι ανεξάρτητες δεδομένων των X και X 2. Δείξτε ότι I(X, X 2 ; Y, Y 2 ) I(X, X 2 ; Y ) + I(X, X 2 ; Y 2 ). Δηλαδή, κάποιο μέρος της πληροφορίας που περιέχει η Y για τις X και X 2 υπάρχει και στην Y 2 (και αντιστρόφως). Πότε ισχύει η ισότητα; 9. Σύγκριση εντροπιών (Τελική Εξέταση Θ. Π., Φεβρουάριος 202) Θεωρούμε δυαδική πηγή χωρίς μνήμη, η οποία παράγει τα συμβολα 0 και με πιθανότητες p και p, αντιστοίχως. Έστω ότι συμβολίζουμε την έξοδο της πηγής με X i. Για κάθε ζεύγος εξόδων X 2k X 2k+ της πηγής, ορίζουμε την τ.μ. C k η οποία ισούται με τον αριθμό των 0 στο ζεύγος X 2k X 2k+. Δηλαδή, οι πιθανές τιμές της C k είναι 0, και 2. (α) Ποια είναι η κατανομή της C k ; Αν θεωρήσουμε ότι οι C k είναι έξοδοι μίας πηγής (η οποία παράγει σύμβολα με το μισό ρυθμό σε σχέση με την πηγή που παράγει τις X i ), η πηγή έχει μνήμη; (β) Βρείτε την εντροπία του ζεύγους (X 2k X 2k+ ), την εντροπία της C k και τη διαφορά τους. Σχολιάστε. Υπόδειξη: H άσκηση λύνεται γρήγορα αν εφαρμόσετε την αρχή διαχωρισιμότητας της εντροπίας. (γ) Για ποια τιμή του p μεγιστοποιείται η διαφορά H(X 2k, X 2k+ ) H(C k ); Υπάρχουν τιμές του p για τις οποίες H(X 2k, X 2k+ ) = H(C k ); (δ) Επαναλάβετε το Ερώτημα (β) για την περίπτωση τριάδων εξόδων της πηγής. Δηλαδή, ορίζουμε τ.μ. D k που ισούται με τον αριθμό των 0 στην τριάδα (X 3k, X 3k+, X 3k+2 ). (ε) Γενικεύστε για την περίπτωση όπου η τ.μ. E k ορίζεται ως ο αριθμός των 0 στη n-άδα (X nk, X nk+,..., X nk+n ). Αρκεί να δώσετε μία (σωστή) γενική σχέση. Υπόδειξη: (x+y) n = x n + ( ) n x n y+ ( ) n 2 x n 2 y 2 + + ( ) n 2 x 2 y n 2 + ( n ) xy n +y n. 20. Φράγματα για την εντροπία (Επαναληπτική Εξέταση Θ. Π., Σεπτέμβριος 202) Θεωρούμε διακριτή τ.μ. X με συνάρτηση μάζας πιθανότητας (pmf) p = {p, p 2,..., p N } και p p 2 p N. 8

(α) Δείξτε ότι H(X) N n= p n( p n ) nats p N nats. Υπόδειξη: Χρησιμοποιήστε την ανισότητα ln x x, x > 0. (β) Δείξτε ότι H(X) H(p N ), όπου H(p N ) p N log p N + ( p N ) log p N. Πότε ισχύει η ισότητα; (γ) Δείξτε ότι H(X) log p N. Πότε ισχύει η ισότητα; (δ) Πιο χρονοβόρο Δείξτε ότι H(X) 2( p N ) bits. Υπόδειξη: Χρησιμοποιήστε το φράγμα του Ερωτήματος (β) για την περίπτωση όπου p N 2 και το φράγμα του Ερωτήματος (γ) για την περίπτωση όπου p N 2. 2. Μεταβολή εντροπίας (Επαναληπτική Εξέταση Θ. Π., Σεπτέμβριος 203) Θεωρούμε διακριτή κατανομή με μάζες p, p 2,..., p N. Έστω ότι η κατανομή δεν είναι ομοιόμορφη, δηλαδή υπάρχουν τουλάχιστον δύο μάζες που δεν είναι ίσες. Χωρίς βλάβη της γενικότητας, έστω ότι οι μάζες αυτές είναι οι p και p 2. Επίσης, υποθέτουμε ότι p > p 2. Έστω, τώρα, ότι μεταβάλλουμε κατά μία μικρή ποσότητα p > 0 τις p i ως εξής: p = p p p 2 = p 2 + p Επίσης, θεωρούμε ότι p p p 2 + p. p i = p i, i, 2. Δηλαδή, κινούμαστε προς την κατεύθυνση της εξίσωσης των p και p 2 κρατώντας τις άλλες μάζες σταθερές. Δείξτε ότι οποιαδήποτε τέτοια απόπειρα εξίσωσης μαζών κατανομής (δηλαδή οποιαδήποτε κίνηση προς την ομοιόμορφη κατανομή) αυξάνει την εντροπία της κατανομής. Δηλαδή, δείξτε ότι H(p, p 2,..., p N) > H(p, p 2,..., p N ). 22. Σύντομες Ερωτήσεις (Τελική Εξέταση Θ. Π., Φεβρουάριος 204) (α) Έστω X διακριτή τ.μ. Συγκρίνετε την H(X) με την H(X + 3). (β) Έστω ότι κωδικοποιούμε από κοινού n σύμβολα πηγής X, X 2,..., X n με χρήση κώδικα Huffman. Αν c(x, X 2,..., X n ) είναι η κωδική λέξη που αντιστοιχεί στην ακολουθία X, X 2,..., X n, συγκρίνετε την H(X, X 2,..., X n ) με την H (c(x, X 2,..., X n )). (γ) Στο προηγούμενο ερώτημα, έστω, τώρα, ότι l(x, X 2,..., X n ) είναι η συνάρτηση μήκους, δηλαδή το μήκος της κωδικής λέξης c(x, X 2,..., X n ). Συγκρίνετε την H(X, X 2,..., X n ) με την H (l(x, X 2,..., X n )). 9

(δ) Έστω {X n } στάσιμη στοχαστική διαδικασία με X n X και H(X n ) <. Διατάξτε τις H(X ), H(X 2 X ) και 2 H(X, X 2 ). Δηλαδή αντιστοιχίστε τις 3 ποσότητες στα a, b και c ώστε a b c, όπου τα και αντιστοιχούν σε ή <. 23. Ο σκύλος που ψάχνει για το κόκκαλο Cover & Thomas 4.2 Ένας σκύλος κινείται επάνω στους ακέραιους αριθμούς. Σε κάθε βήμα συνεχίζει προς την ίδια κατεύθυνση με πιθανότητα 0.9, ενώ αλλάζει κατεύθυνση με πιθανότητα 0.. Υποθέστε ότι ο σκύλος ξεκινά από τη θέση X 0 = 0 και ότι το πρώτο βήμα μπορεί να γίνει προς οποιαδήποτε κατεύθυνση (θετική ή αρνητική) με την ίδια πιθανότητα. Για παράδειγμα, μια πιθανή διαδρομή του σκύλου είναι (X 0, X,...) = (0,, 2, 3, 4, 3, 2,, 0,, 2, 3, 4, 3,...). (α) Υπολογίστε την H(X 0, X,..., X n ). (β) Υπολογίστε το ρυθμό εντροπίας, H(X ), της θέσης του σκύλου. 24. Μέγιστο δύο τ.μ. (Πρόοδος Θ. Π., Νοέμβριος 2009) Θεωρούμε το ντετερμινιστικό σύστημα του Σχήματος 4. Οι τ.μ. X και Y ακολουθούν ομοιόμορφη κατανομή στο σύνολο X = Y = {0,, 2}. Οι X και Y είναι ανεξάρτητες μεταξύ τους. Το κύκλωμα υπολογίζει την έξοδο με χρήση της σχέσης Z = max{x, Y }. Δίνεται ότι log 2 3.585 και log 2 5 2.329. Εάν προτιμάτε, μπορείτε να αφήσετε στις απαντήσεις σας όρους της μορφής H(p) = H(p, p 2,..., p K ) χωρίς να τους υπολογίσετε, αρκεί να δώσετε τις τιμές των p, p 2,..., p K. Σχήμα 4: Υπολογισμός μεγίστου δύο τ.μ. (α) Υπολογίστε την H(X) και την I(X; Y ). (β) Yπολογίστε την H(Z) και την I(X; Z). (γ) Βρείτε ένα βέλτιστο άμεσο δυαδικό κώδικα για τη Z και συγκρίνετε το μέσο μήκος του με την H(Z). (δ) Δείξτε ότι I(X; Y Z) > 0 (όχι ). Συγκρίνετε με την I(X; Y ) του Ερωτήματος (α). Υπόδειξη: Η απάντηση προκύπτει πολύ πιο σύντομα αν χρησιμοποιήσετε ιδιότητες εντροπίας ή/και αμοιβαίας πληροφορίας και δείτε τι ισχύει στο συγκεκριμένο πρόβλημα, παρά αν κάνετε πράξεις. (ε) Εάν τόσο ο συμπιεστής όσο και ο αποσυμπιεστής γνωρίζουν, με κάποιο τρόπο, την τιμή της Y (αλλά όχι της X), προτείνετε ένα βέλτιστο άμεσο δυαδικό κώδικα για τη συμπίεση της Z. Πόσο αποδοτικός είναι ο κώδικας; 0

Θεωρήστε, τώρα, το τροποποιημένο σύστημα του Σχήματος 5. Τώρα χρησιμοποιούμε το κύκλωμα max{ } σε διαδοχικές χρονικές στιγμές. H τ.μ. Y έχει αντικατασταθεί από το δείγμα της X την προηγούμενη χρονική στιγμή, δηλαδή Z n = max{x n, X n }. Θεωρούμε, και πάλι, ότι X n Unif{0,, 2}. Επίσης, οι X n είναι ανεξάρτητες και ομοίως κατανεμημένες (i.i.d.). Θεωρούμε (παρόλο που δεν έχει ιδιαίτερη σημασία) ότι ο χρόνος αρχίζει τη στιγμή n = 0 και ότι X = 0. Σχήμα 5: Τροποποιημένο σύστημα. (στ) Υπολογίστε την H(Z n ) για n > 0 και την I(X n ; X n ) για n. (*ζ) Υπολογίστε την H(Z n Z n ) για n >. Είναι η {Z n } i.i.d.; (*η) Συγκρίνετε την H(Z n Z n, Z n 2 ) (για n > 2) με την H(Z n Z n ). Δε χρειάζεται να βρείτε ακριβή τιμή, απλώς να προσδιορίσετε εάν H(Z n Z n, Z n 2 ) = H(Z n Z n ) ή όχι. Είναι η {Z n } αλυσίδα Markov ης τάξης; 25. Αποταμίευση (Τελική Εξέταση Π. Θ. Θ. Π., Ιούνιος 2009) Ένας καταθέτης ανοίγει λογαριασμό με αρχικό κεφάλαιο X 0 = 000 και μηνιαίο επιτόκιο %. Θεωρούμε ότι το επιτόκιο αυτό είναι εγγυημένο για όσο παραμένει ανοικτός ο λογαριασμός, δηλαδή δε μεταβάλλεται. Επίσης, θεωρούμε ότι ο τόκος υπολογίζεται στο τέλος κάθε μήνα. Στο τέλος κάθε μήνα ο καταθέτης έχει την επιλογή να εισπράξει τον τόκο ή να τον αφήσει στο λογαριασμό, οπότε αυτός προστίθεται στο υπάρχον κεφάλαιο. Θεωρούμε, τέλος, ότι δεν επιτρέπεται στον καταθέτη να εισπράξει ποσό διαφορετικό από τον τόκο στο τέλος κάθε μήνα (ούτε μεγαλύτερο ούτε μικρότερο). Δηλαδή ο καταθέτης πρέπει να εισπράξει είτε τον τόκο του μήνα ή τίποτα. (α) Eάν σε σύνολο N μηνών ο καταθέτης έχει εισπράξει τον τόκο K φορές, δώστε μια έκφραση για το κεφάλαιο, X N, στο τέλος του N οστού μήνα. Θεωρούμε ότι η X N ισούται με το κεφάλαιο που απομένει μετά από την είσπραξη του τόκου, εφόσον αυτή γίνει. Εάν ο καταθέτης δεν εισπράξει ποτέ τους τόκους, μετά από πόσους μήνες θα έχει διπλασιάσει το αρχικό κεφάλαιο; Δίνεται ότι / log 2 (.0) 69.66. (β) Θεωρούμε, τώρα, ότι ο καταθέτης ενδέχεται να έχει ανάγκη τους τόκους, με αποτέλεσμα να τους εισπράττει στο τέλος κάθε μήνα με πιθανότητα /4. Η απόφαση αν θα εισπράξει τους τόκους το μήνα i είναι ανεξάρτητη από την απόφασή του το μήνα j i. Με τι ισούται η από κοινού εντροπία H(X 0, X,..., X N ); Με τι ισούται ο ρυθμός εντροπίας, H(X );

Με τι ισούται η από κοινού εντροπία H(X 0, X,..., X j, X j+,..., X N ), για κάποιο 0 < j < N; Δίνεται log 2 3.585. (γ) Δύο φοιτήτριες προσπαθούν να εκτιμήσουν πόσοι μήνες θα χρειαστούν ώστε ο καταθέτης να καταφέρει να οκταπλασιάσει το αρχικό του κεφάλαιο. Η εκτίμηση της πρώτης είναι ότι αυτό θα έχει συμβεί σχεδόν σίγουρα σε 209 μήνες. Η δεύτερη ισχυρίζεται ότι η εκτίμηση αυτή είναι παρακινδυνευμένη και υποθέτει ότι θα πρέπει να περιμένουμε τουλάχιστον 279 μήνες. Ποια από τις δύο εκτιμήσεις είναι ορθότερη; Δικαιολογήστε επαρκώς την απάντησή σας. Όπως και στο προηγούμενο ερώτημα, θεωρούμε ότι, στο τέλος κάθε μήνα, ο καταθέτης εισπράττει τους τόκους με πιθανότητα /4. (*δ) Δώστε μια έκφραση για την τιμή της H(X N ) για N. Υπόδειξη: Χρησιμοποιήστε το κεντρικό οριακό θεώρημα. Η έκφραση που θα προκύψει είναι συνάρτηση του N. 26. Τυπικές ακολουθίες (Επαναληπτική Εξέταση Π. Θ. Θ. Π., Σεπτέμβριος 200) Θεωρούμε πηγή χωρίς μνήμη που παράγει ακολουθία δυαδικών τ.μ. X i Bern(p). Δηλαδή, η X, X 2,... είναι ακολουθία ανεξάρτητων και ομοίως κατανεμημένων (i.i.d.) τ.μ. (α) Εάν A (n) ϵ είναι το πλήθος των ασθενώς ϵ τυπικών ακολουθιών μήκους n και X n είναι όλες οι δυαδικές ακολουθίες μήκους n, τι μπορούμε να πούμε για το λόγο ϵ / X n καθώς n και ϵ 0; A (n) Υπόδειξη: Πρέπει να δείτε αν ο λόγος συγκλίνει στην ίδια τιμή για όλες τις τιμές της παραμέτρου p. (β) Θεωρούμε, τώρα, ότι οι τιμές της X i είναι 0 (με πιθανότητα p) ή (με πιθανότητα p). Oρίζουμε το βάρος Hamming (Hamming weight), W (X n ), της ακολουθίας X n ως τον αριθμό των της ακολουθίας. Δείξτε ότι n W (Xn ) p για n. Yπόδειξη: Χρησιμοποιήστε το νόμο των μεγάλων αριθμών. (γ) Έστω, τώρα, ότι το μήκος, n, της ακολουθίας είναι πεπερασμένο και ότι ϵ > 0. Δείξτε ότι μπορούμε να αποφασίσουμε αν η ακολουθία X n μήκους n είναι ασθενώς ϵ τυπική αν γνωρίζουμε την τιμή του βάρους Hamming, W (X n ), της ακολουθίας. 2

Ενδεικτικές Λύσεις. Συναρτήσεις τυχαίων μεταβλητών Cover & Thomas 2.2 (παραλλαγή) (*α) Έστω y = g(x), g( ) ντετερμινιστική συνάρτηση και X μια (διακριτή) τυχαία μεταβλητή. Μπορεί να ειπωθεί κάτι για τη σχέση μεταξύ της εντροπίας της Y = g(x) και της εντροπίας της X; Εάν ναι, τι; Υπόδειξη: O πιο απλός τρόπος να λύσετε την άσκηση είναι με χρήση της αρχής διαχωρισιμότητας της εντροπίας. Από τον ορισμό της εντροπίας, H(Y ) = Y i= p(y i) log p(y i ). Εάν η συνάρτηση g(x) είναι -προς-, σε κάθε x i αντιστοιχεί ένα y i και ισχύει p(x i ) = p(y i ) και X = Y. Επομένως, Y X H(Y ) = p(y i ) log p(y i ) = p(x i ) log p(x i ) = H(X). i= Εάν η συνάρτηση g( ) δεν είναι -προς-, υπάρχει τουλάχιστον ένα y i στο οποίο αντιστοιχούν περισσότερα από ένα x j,i και p(y i ) = j p(x j,i). Άρα, p(y i ) p(x j,i ) για κάθε j, και, δεδομένου ότι η συνάρτηση λογαρίθμου είναι αύξουσα, log p(y i ) log p(x j,i ) για κάθε j. Επομένως, p(x j ) log p(x j ) p(x j ) log p(y i ) x j :y i =g(x j ) x j :y i =g(x j ) = log p(y i ) i= x j :y i =g(x j ) p(x j ) = p(y i ) log p(y i ). Εναλλακτικά, δεδομένου ότι οι p(x j,i )/p(y i ) για δεδομένο j αποτελούν κατανομή ( p(x j,i) p(y i 0 και p(x j,i ) ) p(y i = ), από την ανισότητα Jensen, ) p(x j ) p(y i ) log p(x j) log p(x j ) p(y i ) p(x j) x j :y i =g(x j ) x j :y i =g(x j ) (i) p(x j,i) p(y i ). Συνεπώς, μπορούμε να γράψουμε (i) log x j :y i =g(x j ) x j :y i =g(x j ) p(x j ) log p(x j ) p(y i ) log p(y i ). H(X) = x = y y p(x) log p(x) x:y=g(x) p(x) log p(x) p(y) log p(y) = H(Y ). p(x j ) = log p(y i ) 3

Άρα, στη γενική περίπτωση, H(Y ) H(X). Το αποτέλεσμα είναι διαισθητικά λογικό. Εάν μια συνάρτηση δεν είναι -προς-, μέρος της πληροφορίας χάνεται κατά την απεικόνιση από τη X στην Y. Ακόμα πιο απλά, μπορούμε να γράψουμε την H(X, g(x)) με δύο τρόπους: H(X, g(x)) = H(X) + H(g(X) X) = H(g(X)) + H(X g(x)). Αλλά H(g(X) X) = 0, επειδή η g(x) είναι ντετερμινιστική συνάρτηση και H(X g(x)) 0. Συνεπώς, H(X) H(Y ) = H(g(X)). Όταν η g(x) είναι -προς- ισχύει, επίσης, H(X g(x)) = 0, οπότε H(X) = H(Y ). (β) Βρείτε τη σχέση μεταξύ H(X) και H(Y ) για τις συναρτήσεις y = x 3 και y = x/2, x ακέραιος. H g(x) = x 3 είναι -προς-. Επομένως, H(Y ) = H(X). H g(x) = x/2 δεν είναι -προς-, στη γενική περίπτωση. Ωστόσο, μπορεί να είναι -προς- για ορισμένα αλφάβητα. Για παράδειγμα, εάν X {2, 4, 6}, η x/2 είναι -προς-. Συνεπώς, στη γενική περίπτωση, H(Y ) H(X). 2. Εντροπία αθροίσματος τυχαίων μεταβλητών Cover & Thomas 2.4 (α) Έστω X και Y τυχαίες μεταβλητές και Z = X + Y. Να αποδειχτεί ότι H(Z X) = H(Y X). Από τον ορισμό της Δεσμευμένης Εντροπίας, H(Z X) = x p(x)h(z X = x) = x p(x) z p(z = z X = x) log p(z = z X = x). Εάν γνωρίζουμε ότι X = x, Z = Y + x. Eπομένως, p Z X (Z = z X = x) = p Y X (Y + x = z X = x) = p Y X (Y = z x X = x). Άρα, H(Z X) = x ( ) = x = x p(x) p(z = z X = x) log p(z = z X = x) z p(x) y z x p(y = z x X = x) log p(y = z x X = x) p(x)h(y X = x) = H(Y X), όπου στο ( ) χρησιμοποιήσαμε την παρατήρηση ότι, εάν θεωρήσουμε όλες τις πιθανές τιμές της Z για δεδομένη X = x, τότε θεωρούμε, ισοδύναμα, όλες τις πιθανές τιμές της Y για X = x. 4

Έχοντας δείξει με βάση τον ορισμό ότι H(Z X) = H(Y X), στο μέλλον μπορούμε να γράφουμε σύντομα H(Z X) = H(Y + X X) = H(Y X). Παρατηρήστε, τέλος, ότι το αποτέλεσμα ισχύει ανεξαρτήτως της ανεξαρτησίας (ή μη) των X και Y. (*β) Εάν οι X και Y είναι ανεξάρτητες, να αποδειχτεί ότι H(Y ) H(Z) και H(X) H(Z). Επομένως, όταν σε μια τ.μ. προστίθεται μια ανεξάρτητή της τ.μ., η αβεβαιότητα αυξάνει. Εάν οι X και Y είναι ανεξάρτητες, H(Y X) = H(Y ). Γνωρίζουμε ότι, για οποιεσδήποτε X και Y, I(X; Y ) 0. Επομένως, I(Z; X) = H(Z) H(Z X) 0 H(Z) H(Z X) (a) = H(Y X) = H(Y ) H(Z) H(Y ). Mε τον ίδιο τρόπο, αποδεικνύεται ότι H(Z) H(X). Το αποτέλεσμα είναι διαισθητικά λογικό. Δεδομένου ότι οι X και Y είναι ανεξάρτητες, η Z περιέχει περισσότερη πληροφορία από την καθεμία από τις X και Y. Προσοχή: Δεν ισχύει, κατ ανάγκη, H(Z) = H(X) + H(Y ) (ισχύει, όμως, H(X, Y ) = H(X) + H(Y ), δεδομένου ότι οι X και Y είναι ανεξάρτητες). Ένας τρόπος να το αποδείξουμε είναι με χρήση του αποτελέσματος της ης άσκησης, θεωρώντας τη ντετερμινιστική συνάρτηση g(x, Y ) = X + Y. H g(x, Y ) είναι, στη γενική περίπτωση, μη αντιστρέψιμη. Επομένως, όπως δείξαμε στην Άσκηση, H(Z) = H(g(X, Y )) H(X, Y ) = H(X)+H(Y ). Διαισθητικά, εάν μας αποκαλυφθεί η Z δε μας αποκαλύπτονται, στη γενική περίπτωση, οι ακριβείς τιμές των X και Y. Υπάρχουν, όμως, περιπτώσεις, όπου η X + Y είναι αντιστρέψιμη και H(Z) = H(X) + H(Y ) (βρείτε ένα παράδειγμα ως άσκηση). (*γ) Δώστε ένα παράδειγμα (μη ανεξάρτητων) τ.μ. X και Y για τις οποίες H(Y ) H(Z) και H(X) H(Z). Θέλουμε το άθροισμα των X και Y να είναι λιγότερο τυχαίο από τις X και Y. Μία ακραία περίπτωση είναι η X + Y να είναι ντετερμινιστική ποσότητα. Έστω ότι { + με πιθανότητα /2 X = Y = με πιθανότητα /2 H(X) = H(Y ) = H(/2) =. Ωστόσο, Z = X + Y = Y + Y = 0 και, επομένως, H(Z) = 0. 3. Μια εναλλακτική απόδειξη της ανισότητας D(p q) 0 Cover & Thomas 2.26 (α) Δείξτε ότι, για 0 < x <, ln x x. Η f(x) = ln x είναι κοίλη για x > 0. Συνεπώς, η εφαπτομένη στο x = βρίσκεται πάντοτε επάνω από την f(x). H εφαπτομένη δίνεται από την εξίσωση y f() = f ()(x ) y = x x=(x ) = x. Επομένως, ln x x. Εναλλακτικά, το αποτέλεσμα προκύπτει με μεγιστοποίηση της g(x) = ln x x + (ή με ελαχιστοποίηση της g(x)) και από το γεγονός ότι η g(x) είναι κοίλη στο (0, + ) και, επομένως, το τοπικό μέγιστο στο x = είναι και ολικό. 5

(β) Δικαιολογήστε τα παρακάτω βήματα D(p q) = x (i) x (ii) 0. p(x) ln q(x) p(x) ( ) q(x) p(x) p(x) (i) Ερώτημα (α) (ii) H q(x) ενδέχεται να έχει μη μηδενική μάζα για x όπου p(x) = 0, οπότε x q(x). (γ) Πότε ισχύει η ισότητα; Για να ισχύει η (i) με ισότητα πρέπει q(x)/p(x) = για όλα τα x όπου p(x) > 0. Προφανώς, στην περίπτωση αυτή ισχύει και η (ii). Συνεπώς, η ισότητα ισχύει εάν και μόνο εάν p q. 4. Ανισότητα Fano Cover & Τhomas 2.32 Έστω η εξής από κοινού κατανομή μάζας πιθανότητας για τις τ.μ. (X, Y ) 6 X 2 2 3 2 Y a b c Έστω, επίσης, ˆX(Y ) εκτιμητής για τη X με βάση την Y και Pe = Pr{ ˆX(Y ) X}. (α) Βρείτε το βέλτιστο εκτιμητή ˆX(Y ), καθώς και την P e που αντιστοιχεί στο βέλτιστο εκτιμητή. Από τον πίνακα, παρατηρούμε ότι ο βέλτιστος κανόνας απόφασης είναι ο για y = a ˆX(y) = 2 για y = b 3 για y = c Πιο αυστηρά, ο βέλτιστος κανόνας απόφασης (Maximum a Posteriori MAP detector) προκύπτει από τη μετιστοποίηση της εκ των υστέρων πιθανότητας 2 6 2 max p(x y). x Το βέλτιστο x για κάθε τιμή y της Y προκύπτει απευθείας από τον πίνακα. 2 2 6 6

Η ελάχιστη πιθανότητα σφάλματος για τον εκτιμητή ισούται με { } P e = Pr ˆX(Y ) X = { } p(x) Pr ˆX(Y ) X X = x x = 3 {Pr {Y a X = } + Pr {Y b X = 2} + Pr {Y c X = 3}} = 2. (β) Βρείτε το φράγμα για την P e που προκύπτει από την ανισότητα Fano και συγκρίνετε. Από την ανισότητα Fano, P e H(X Y ). log X Η H(X Y ) μπορεί να υπολογιστεί ως εξής H(X Y ) = p(y)h(x Y = y) = ( 3 3H 2, 4, ) =.5 bits. 4 y Συνεπώς, P e 0.5 log 2 3 0.36. 5. Σχετική Εντροπία Cover & Thomas 2.37 Έστω 3 τ.μ. X, Y, Z με από κοινού συνάρτηση μάζας πιθανότητας p(x, y, z). Η σχετική εντροπία μεταξύ της από κοινού κατανομής και του γινομένου των περιθώριων κατανομών ορίζεται ως D(p(x, y, z) p(x)p(y)p(z)) = E [ log ] p(x, y, z). p(x)p(y)p(z) (α) Εκφράστε την D(p(x, y, z) p(x)p(y)p(z)) συναρτήσει εντροπιών. D(p(x, y, z) p(x)p(y)p(z)) ] p(x, y, z) = E pxy Z [log p(x)p(y)p(z) ] [ ] = E pxy Z [log E pxy p(x)p(y)p(z) Z log p(x, y, z) [ = E pxy Z log ] [ + E pxy p(x) Z log p(y) = H(X) + H(Y ) + H(Z) H(X, Y, Z). ] + E pxy Z [ log p(z) ] E pxy Z [ log Παρατηρήστε ότι, δεδομένου ότι H(X,..., X N ) n H(X n), D(p(x, y, z) p(x)p(y)p(z)) 0, όπως έχουμε αποδείξει για οποιαδήποτε D( ). (β) Πότε η D(p(x, y, z) p(x)p(y)p(z)) ισούται με 0; Η D(p(x, y, z) p(x)p(y)p(z)) ισούται με 0 όταν H(X, Y, Z) = H(X) + H(Y ) + H(Z), δηλαδή εάν και μόνο εάν οι X, Y και Z είναι ανεξάρτητες. 7 ] p(x, y, z)

6. Κέρμα και ζάρι Cover & Thomas 2.43 (α) Θεωρήστε το αποτέλεσμα της ρίψης αμερόληπτου κέρματος. Με τι ισούται η αμοιβαία πληροφορία μεταξύ της επάνω και κάτω πλευράς του κέρματος; Συμφωνεί το αποτέλεσμα με αυτό που περιμένατε διαισθητικά; Έστω ότι αντιστοιχίζουμε την κορώνα στο + και τα γράμματα στο. Εάν X είναι η τιμή της επάνω πλευράς του κέρματος και Y η τιμή της κάτω πλευράς, Y = X. Επομένως, I(X; Y ) = H(X) H(X Y ) = H(X) H(X X) = H(X) = H(/2) = bit. To αποτέλεσμα συμφωνεί με αυτό που περιμέναμε διαισθητικά: Εάν γνωρίζουμε την επάνω πλευρά του κέρματος, γνωρίζουμε επακριβώς και την κάτω. Επομένως, η αποκάλυψη της επάνω πλευράς μας παρέχει όλη την πληροφορία σχετικά με την κάτω πλευρά. (β) Αλλάζει η απάντησή σας εάν το κέρμα είναι μεροληπτικό; Όχι, εκτός από το ότι I(X; Y ) = H(X) = H(p). Το ζητούμενο εδώ δεν είναι η πληροφορία που φέρνει η ρίψη του κέρματος, αλλά η πληροφορία που μας δίνει η μια όψη του κέρματος για την άλλη. Εάν ρίξουμε το κέρμα και δούμε την επάνω του όψη, τότε γνωρίζουμε με ακρίβεια την κάτω ακόμα και όταν το κέρμα είναι μεροληπτικό. Η μόνη περίπτωση να αλλάξει η αμοιβαία πληροφορία είναι με κάποια πιθανότητα το κέρμα να είναι ελαττωματικό και να έχει κορώνα (ή γράμματα) και στις δύο του πλευρές. (γ) Θεωρήστε τη ρίψη αμερόληπτου ζαριού με 6 πλευρές. Ποια είναι η αμοιβαία πληροφορία μεταξύ της επάνω και της μπροστινής πλευράς; Υπενθυμίζεται ότι σε ένα ζάρι το άθροισμα των αντίθετων πλευρών ισούται με 7. Έστω X η μπροστινή πλευρά και Y η επάνω πλευρά. I(X; Y ) = H(X) H(X Y ). Όταν μας αποκαλύπτεται η μπροστινή πλευρά μαθαίνουμε μόνο την πίσω πλευρά. Επομένως, υπάρχουν 4 εξίσου πιθανά ενδεχόμενα για την επάνω πλευρά. Άρα, I(X; Y ) = log 6 log 4 = log 3 bits. Ωστόσο, αν θέλουμε να είμαστε ακόμα πιο σχολαστικοί, πρέπει να παρατηρήσουμε ότι μπορούμε να εκμεταλλευτούμε ακόμα και τον τρόπο με τον οποίο απεικονίζονται οι αριθμοί στο ζάρι. Συγκεκριμένα, το 2, το 3 και το 6 είναι τυπωμένα με τέτοιο τρόπο ώστε να μπορούμε να αποκλείσουμε 2 από τις 4 πλευρές. Επομένως, H(X Y ) = 2 H(X Y {2, 3, 6}) + 2 H(X Y {, 4, 5}) = 2 2 + 2 = 3 2, και I(X; Y ) = log 6 3 2 = + log 3 3 2 = log 3 2 bits. 7. Μήκος Ακολουθίας Cover & Thomas 2.48 Θεωρούμε τυχαία διαδικασία Bernoulli ( 2) {Xi }. Σταματάμε τη διαδικασία όταν εμφανίζεται το πρώτο. Έστω N το μήκος της ακολουθίας όταν σταματάμε. Επομένως, η ακολουθία X N είναι ένα στοιχείο του συνόλου όλων των δυαδικών ακολουθιών πεπερασμένου μήκους: {0, } = {0,, 00, 0, 0,, 000,...}. 8

(α) Βρείτε την I(N; X N ). (β) Βρείτε την H(X N N). (γ) Βρείτε την H(X N ). (δ) Βρείτε την H(N X N ). (ε) Βρείτε την H(N). Υπόδειξη: Ενδέχεται να σας φανεί χρήσιμη η Άσκηση 2. του βιβλίου των Cover & Thomas. H κατανομή που ακολουθεί ο αριθμός προσπαθειών είναι η Γεωμετρική. Γενικά, η γεωμετρική κατανομή ορίζεται ως ο αριθμός πειραμάτων Bernoulli έως ότου εμφανιστεί το πρώτο (ή, εναλλακτικά, ως ο αριθμός των αποτυχιών έως ότου εμφανιστεί το και στις δύο περιπτώσεις η εντροπία είναι η ίδια, όχι, όμως, η μέση τιμή). I(N; X N ) = H(N) H(N X N ). Δεδομένου ότι υπάρχει μόνο μια ακολουθία μήκους N (με N 0 και ένα στο τέλος), H(N X N ) = 0. Από τον ορισμό της εντροπίας, εάν p = Pr{X = }, H(N) = = ( p) n p log( p) n p n= ( p) n p log( p) n n= n=0 ( p) n p log p n= = p ( p) n log( p) n p log p ( p) n n=0 n=0 = p log( p) n( p) n p log p ( p) n n=0 (a) = p log( p) p p log p p 2 p ( p) log( p) p log p = = H(p)/p. p Στο (α) χρησιμοποιήσαμε τους τύπους της Άσκησης 2. των Cover & Thomas. Θέτοντας p = 2, H(N) = 2 bits. Συνεπώς, I(N; X N ) = 2 bits. H(X N N) = 0 δεδομένου ότι υπάρχει μόνο μια επιτρεπτή ακολουθία μήκους N. Τέλος, H(X N ) = H(N) γιατί η κατανομή της X N είναι ίδια με της (σε κάθε N αντιστοιχεί μόνο μια ακολουθία X N ). Αλλάζουμε, τώρα, τον τρόπο με τον οποίο σταματάμε την παραγωγή της ακολουθίας. Θεωρήστε και πάλι ότι X i Bernoulli ( ) 2. Με πιθανότητα σταματάμε όταν N = 6, 3 αλλιώς σταματάμε όταν N = 2. Επίσης, θεωρούμε ότι η επιλογή της τιμής του N είναι ανεξάρτητη της ακολουθίας X X 2... X 2. (στ) Βρείτε την I(N; X N ). (ζ) Βρείτε την H(X N N). 9

(η) Βρείτε την H(X N ). (θ) Βρείτε την H(N X N ). (ι) Βρείτε την H(N). I(N; X N ) = H(N) H(N X N ). Αν γνωρίζουμε τη X N γνωρίζουμε και το μήκος της, οπότε H(N X N ) = 0. H(N) = H(/3) 0.98 bits. Επομένως, I(N; X N ) 0.98 bits. H(X N N) = Pr{N = 6}H(X N N = 6) + Pr{N = 2}H(X N N = 2) (b) Οι X i είναι i.i.d. = 3 H(X6 ) + 2 3 H(X2 ) (b) = 3 6H(X) + 2 3 2H(X) = 0 bits. H(X N ) = I(X N ; N) + H(X N N) 0.98 bits. Εναλλακτικά, από την αρχή διαχωρισιμότητας της εντροπίας, H(X N ) = H(X N ) + H(N X N ) = H(X N, N) = H(N) + H(X N N) = 0.98 bits. Τέλος, η H(X N ) μπορεί να βρεθεί θεωρώντας όλες τις επιτρεπτές ακολουθίες. Υπάρχουν 2 6 ακολουθίες μήκους 6, η κάθε μία με πιθανότητα εμφάνισης 3 2 6 και 2 2 ακολουθίες μήκους 2, η κάθε μία με πιθανότητα εμφάνισης 2 3 2 2. 8. Εντροπία και Aμοιβαία Πληροφορία (Πρόοδος Θ. Π., Νοέμβριος 2007) Έστω οι ανεξάρτητες τ.μ. X και Y. H X ακολουθεί ομοιόμορφη κατανομή με τιμές {, } (δηλαδή X = ή X = με την ίδια πιθανότητα), ενώ η Y ακολουθεί ομοιόμορφη κατανομή με γνωστές τιμές { a, a}, a R (δηλαδή Y = a ή Y = a με την ίδια πιθανότητα). Η τ.μ. Z δίνεται από τη σχέση Z = X + Y. Για όλες τις πιθανές τιμές του a R να βρεθούν (α) Η H(Y ). Εάν a 0, H(Y ) = log 2 = bit (δεδομένου ότι η κατανομή της είναι ομοιόμορφη), αλλιώς, εάν a = 0, H(Y ) = 0 bits. (β) Η H(Z). Εάν a = 0, Z = X. Επομένως, H(Z) = H(X) = bit. Εάν a = ±, η κατανομή της Z είναι ( 2, 0, 2) με πιθανότητες (,, 4 2 4), αντιστοίχως. Επομένως, H(Z) = 2 log 4 + log 2 =.5 bits. 4 2 Για όλα τα άλλα a, η Z ακολουθεί ομοιόμορφη κατανομή στο σύνολο { + a, a, + a, a}. Συνεπώς, H(Z) = log 4 = 2 bits. 20

(γ) H I(X; Z). I(X; Z) = H(Z) H(Z X). Εάν a = 0, Z = X. Επομένως, H(Z X) = H(X X) = 0 και I(X; Z) = H(Z) = bit. Εάν a = ±: Εάν γνωρίζουμε τη X η Z μπορεί να πάρει 2 τιμές με την ίδια πιθανότητα. Επομένως, H(Z X) = bit και I(X; Z) =.5 = 0.5 bits. Για όλα τα άλλα a, εάν γνωρίζουμε τη X η Z μπορεί να πάρει 2 τιμές με την ίδια πιθανότητα. Επομένως, H(Z X) = bit και I(X; Z) = 2 = bit. Εναλλακτικά, I(X; Z) = H(X) H(X Z). Εάν γνωρίζουμε τη Z, μπορούμε να βρούμε και τη X εκτός από την περίπτωση όπου a = ±. Συνεπώς, για a ±, H(X Z) = 0 και I(X; Z) = H(X) = bit. Εάν a = ± και Z = 2 ή 2, τότε και πάλι μπορούμε να βρούμε τη X με βεβαιότητα και, επομένως, H(X Z = ±2) = 0. Εάν Z = 0 τότε X = ή με την ίδια πιθανότητα. Άρα, H(X Z = 0) = bit. Επομένως, H(X Z) = Pr{Z = ±2}H(X Z = ±2) + Pr{Z = 0}H(X Z = 0) = 0 + = 0.5 bits, και 2 2 I(X; Z) = H(X) H(X Z) = 0.5 = 0.5 bits. Παρατηρήσεις: Ο βασικός σκοπός της άσκησης ήταν να παρατηρήσετε ότι εάν το a ισούται με ± η Z παίρνει 3 αντί για 4 διακριτές τιμές, με αποτέλεσμα η εντροπία της να μην ισούται με το άνω φράγμα (2 bits). Ένα λάθος που έκαναν αρκετοί ήταν να προσθέσουν την εντροπία της X και της Y για να βρουν την εντροπία της Z. Στο μάθημα δείξαμε ότι, εάν οι X και Y είναι ανεξάρτητες, τότε H(X, Y ) = H(X) + H(Y ) (η από κοινού εντροπία) και όχι, κατ ανάγκη, H(X + Y ) = H(X)+H(Y ) (βλ. Άσκηση 2.4 των Cover & Thomas). Συνεπώς, ενώ H(X, Y ) = H(X) + H(Y ) ανεξαρτήτως του a, η ισότητα H(X + Y ) = H(X) + H(Y ) ισχύει μόνο όταν η g(x, Y ) = X + Y είναι -προς- συνάρτηση της (X, Y ), δηλαδή όταν σε κάθε τιμή X + Y αντιστοιχεί μοναδικό ζεύγος (X, Y ). Στο συγκεκριμένο πρόβλημα η X + Y είναι -προς- μόνο όταν a ±. Εάν a = ±, τα ζεύγη (X, Y ) = (+, ) και (X, Y ) = (, +) απεικονίζονται στην ίδια τιμή X + Y = 0, με αποτέλεσμα η απεικόνιση να μην είναι -προς-. 9. Εντροπία, Aμοιβαία Πληροφορία και συμπίεση (Τελικό διαγώνισμα Θ. Π., Φεβρουάριος 2008) Έστω οι ανεξάρτητες τ.μ. X και Y, η καθεμία με ομοιόμορφη κατανομή στο σύνολο {0,, 2, 3}. Η τ.μ. Z δίνεται από τη σχέση Z = X Y (γινόμενο). Να βρεθούν (α) Η H(X). Δεδομένου ότι η X ακολουθεί ομοιόμορφη κατανομή με 4 τιμές, H(X) = log 4 = 2 bits. 2

(β) Η H(Z). log 2 7 2.8074. Η Z ισούται με 0 όταν (X, Y ) = (0, ) ή όταν (X, Y ) = (, 0) (συνολικά 7 από 6 ισοπίθανα ενδεχόμενα). Με παρόμοιο τρόπο μπορούμε να υπολογίσουμε την κατανομή της Z: Z = (0,, 2, 3, 4, 6, 9) με πιθανότητα ( 7,,,,,, 6 6 8 8 6 8 6). H(Z) = pi log p i 2.397 bits. (γ) H I(X; Z). I(X; Z) = H(Z) H(Z X). Εάν X = 0, τότε και Z = 0. Επομένως, H(Z 0) = 0. Εάν X =, 2 ή 3 μπορούμε να γράψουμε p(z X 0) = p(x Y X 0) = p(y X 0) = p(y ). Συνεπώς για X 0, H(Z X) = H(Y ) = 2 bits. Άρα, H(Z X) = (H(Z 0) + 3H(Z X 0)) =.5 bits και I(X; Z) 2.397.5 = 4 0.897 bits. (δ) Κατασκευάστε ένα δυαδικό κώδικα Huffman για την τ.μ. Z. Συγκρίνετε το μέσο μήκος κώδικα με την εντροπία της Z και σχολιάστε. Aκολουθούμε την τυπική διαδικασία για να κατασκευάσουμε ένα κώδικα Huffman. Σημειώνεται ότι υπάρχουν περισσότεροι από ένας κώδικες Huffman (όλοι, όμως, με το ίδιο μέσο μήκος). 0 7 6 2 8 3 8 6 8 6 4 6 9 6 7 6 4 3 6 8 7 6 4 5 6 7 6 9 6 Ο κώδικας που προκύπτει είναι ο 0 0 0 2 00 3 0 4 0 6 00 9 To μέσο μήκος του κώδικα ισούται με E[l] = 7 + 2 3 + ( + 3 6 8 8 6) 4 2.4375 bits. Παρατηρούμε ότι ο κώδικας Huffman επιτυγχάνει συμπίεση με απόσταση μόλις 0.04 bits μακριά από την εντροπία. 22

Παρατηρήσεις: Στην άσκηση αυτή οι επιδόσεις ήταν, γενικά, καλές. Στο Ερώτημα (γ), κάποιοι προτίμησαν να υπολογίσουν την I(X; Z) με χρήση της H(X) H(X Z). Η προσέγγιση αυτή, αν και σωστή, ήταν πιο χρονοβόρα. Επίσης, κάποιοι έκαναν λάθος στην εξής λεπτομέρεια: Εάν Z = 0, η X δεν είναι ομοιόμορφα κατανεμημένη. Από τα 6 ισοπίθανα ενδεχόμενα της μορφής (X, Y ), 7 οδηγούν σε Z = 0. Από αυτά, τα 4 είναι της μορφής (0, Y ). Επομένως, είναι πιο πιθανό η έξοδος Z = 0 να οφείλεται σε X = 0, παρά σε X =, p(x)p(z = 0 X). Αντικαθιστώντας, p(x Z = 0) = 4/7 για X = 0 και /7 για τις άλλες τιμές του X. Eπομένως, H(X Z = 0) =.6645 bits και όχι 2 bits. 2 ή 3. Μαθηματικά, p(x Z = 0) = p(x,z=0) p(z=0) = 6 7 p(x, Z = 0) = 6 7 Ένα άλλο λάθος που έκαναν κάποιοι ήταν να γράψουν το εξής: H(Z X) = H(X Y X) = H(Y X) = H(Y ) = 2 bits. Το λάθος εδώ είναι ότι, στην περίπτωση που X = 0, η X Y δεν είναι αντιστρέψιμη, επομένως, Y Z/X. 0. Σύντομες Ερωτήσεις (Τελικό Διαγώνισμα Θ. Π., Φεβρουάριος 2008) (α) Αποδείξτε ότι H(X, Y, Z) H(X, Y ) H(X, Z) H(X). Πότε ισχύει η ισότητα; Από τον κανόνα αλυσίδας για την εντροπία, H(X, Y, Z) = H(X, Y )+H(Z X, Y ) H(X, Y, Z) H(X, Y ) = H(Z X, Y ). Ομοίως, H(X, Z) H(X) = H(Z X). Δεδομένου ότι (όπως έχουμε δείξει στο μάθημα) η υπό συνθήκη εντροπία δεν υπερβαίνει την εντροπία, H(Z X, Y ) H(Z X) H(X, Y, Z) H(X, Y ) H(X, Z) H(X). H ισότητα ισχύει όταν H(Z X, Y ) H(Z X), όταν, δηλαδή, οι Y και Z είναι υπό συνθήκη ανεξάρτητες δεδομένης της X. Για όσους προτιμούν μεγαλύτερη μαθηματική αυστηρότητα, H(Z X) H(Z X, Y ) = I(X; Y Z) 0, με = όταν I(Y ; Z X) = 0. (β) Σωστό ή λάθος; I(X; Y Z) = 0 I(X; Y ) = 0. Αποδείξτε ή δώστε αντιπαράδειγμα. Λάθος. Υπό συνθήκη ανεξαρτησία δε συνεπάγεται και ανεξαρτησία. Έστω, για παράδειγμα, Z = X και Y = X + N. I(X; Y Z) = H(X Z) H(X Y, Z) = H(X X) H(X X, X + N) = 0. Ωστόσο, I(X; Y ) = H(X) H(X Y ) = H(X) H(X X +N) = H(X) H(N) 0, στη γενική περίπτωση. Εναλλακτικά, το αναληθές της πρότασης μπορεί να δειχτεί και με χρήση διαγραμμάτων Venn (βλ. Σχήμα 6).. Εντροπία (Τελικό Διαγώνισμα Π. Θ. Θ. Π., Ιούνιος 2008) Θεωρούμε μια διακριτή τυχαία τ.μ. που παίρνει τιμές από ένα πεπερασμένο σύνολο στοιχείων X = {,..., X }. Έστω ότι δίνεται η p() = Pr{X = } η οποία δεν είναι δυνατόν να μεταβληθεί. (α) Ποιες είναι οι τιμές p(i), i = 2,..., X, της κατανομής που μεγιστοποιεί την εντροπία H(X) (για δεδομένη p()); 23

Σχήμα 6: Eναλλακτική απάντηση στο Ερώτημα (γ) Από τον ορισμό της εντροπίας, X X H(X) = p(i) log p(i) = p() log p() p(i) log p(i). i= O δεύτερος όρος μεγιστοποιείται επιλέγοντας ομοιόμορφη κατανομή p(i) = ( p())/( X ), i = 2,..., X. (β) Με τι ισούται η μέγιστη H(X) για δεδομένη p(); Δώστε μια ερμηνεία της έκφρασης για την H(X) με χρήση της αρχής διαχωρισιμότητας. Υπόδειξη: Χωρίστε το X σε δύο κατάλληλα υποσύνολα. Αντικαθιστώντας, H(X) = p() log p() X i=2 p() X log p() X = p() log p() ( p()) log p() X = p() log p() ( p()) log( p()) + ( p()) log( X ) = H(p()) + ( p()) log( X ). Το αποτέλεσμα θα μπορούσε να προκύψει και με χρήση του κανόνα αλυσίδας (διαχωρισιμότητα της εντροπίας). Έστω η τ.μ. : { 0 εάν X = Z = εάν X. 24 i=2

Εάν χωρίσουμε το σύνολο X σε δύο υποσύνολα {} και {2, 3,..., X }, η Z περιγράφει σε ποιο σύνολο ανήκει η X. Θεωρούμε, δηλαδή, ότι, αντί να αποκαλύπτεται απευθείας η τιμή X, αποκαλύπτεται πρώτα το υποσύνολο Z στο οποίο ανήκει η X και, στη συνέχεια, η τιμή της. Μπορούμε να γράψουμε H(X) (i) = H(X, Z) (ii) = H(Z) + H(X Z) = H(p()) + p()h(x Z = 0) + ( p())h(x Z = ) (iii) = H(p()) + ( p()) log( X ). (i) H(X, Z) = H(X) + H(Z X) = H(X), (ii) κανόνας αλυσίδας για την εντροπία, (iii) η εντροπία τ.μ. X δεδομένου ότι Z = μεγιστοποιείται από την ομοιόμορφη κατανομή p(x Z = ) = /(log X ). (γ) Εάν ένας παίκτης Α μπορεί να μεταβάλλει την p() με σκοπό να μειώνει την εντροπία H(X) όσο περισσότερο μπορεί, ενώ ένας παίκτης Β μπορεί να μεταβάλλει οποιοδήποτε υποσύνολο των υπόλοιπων p(i) (αλλά όχι την p()) με σκοπό να αυξάνει την εντροπία όσο μπορεί, ποια τιμή πρέπει να επιλέξει ο Α για την p() αν παίζει πρώτος; Πώς πρέπει να απαντήσει ο Β; Αλλάζει η απάντησή σας εάν πρώτος παίζει ο Β; Θεωρούμε ότι οι παίκτες παίζουν έτσι ώστε να μην παραβιάζεται η συνθήκη X i= p(x i) = για το p. Όταν ο A παίζει πρώτος, μπορεί να επιλέξει p() =. Επομένως, ο Β είναι αναγκασμένος να επιλέξει p(i) = 0, i = 2,..., X και H(X) = 0. Εάν ο Β παίζει πρώτος, πρέπει να επιλέξει p(i) = / X, i = 2,..., X, αναγκάζοντας τον Α να θέσει p() = / X. Με τον τρόπο αυτό επιτυγχάνεται μέγιστη εντροπία H(X) = log X. Επομένως, η επιλογή του παίκτη που ξεκινά έχει καθοριστική σημασία για την έκβαση του παιχνιδιού. 2. Εντροπία (Επαναληπτική εξέταση Θ. Π., Σεπτέμβριος 2008) Επιστήμονες που μελετούν ένα σπάνιο ερπετό έχουν προσδιορίσει ότι η επώαση του κάθε αβγού του ερπετού διαρκεί τουλάχιστον 4 ημέρες και δεν υπερβαίνει τις 04 ημέρες. Κατά τα άλλα, τίποτα δεν είναι γνωστό για την κατανομή της διάρκειας επώασης των αβγών. (α) Έστω διακριτή τ.μ. που αναπαριστά τη διάρκεια επώασης ενός αβγού του ερπετού. Δώστε ένα άνω φράγμα και ένα κάτω φράγμα για την εντροπία της, καθώς και τις κατανομές που αντιστοιχούν στο άνω και στο κάτω φράγμα. Υποθέτουμε ότι η επώαση μετράται σε ακέραιο αριθμό ημερών (X N [4, 04], δηλαδή δεν μπορεί, για παράδειγμα, να διαρκέσει 65.3 ημέρες). Η ελάχιστη εντροπία της X ισούται με 0 και αντιστοιχεί στην περίπτωση που ο χρόνος επώασης είναι ίδιος για όλα τα αβγά, δηλαδή p(i) = για κάποιο i, 40 < i 04 και p(j) = 0 για όλα τα j i. Η H(X) μεγιστοποιείται όταν όλα τα ενδεχόμενα είναι ισοπίθανα, όταν, δηλαδή, p(i) =, 40 < i 04 και H(X) = 64 log 2 64 = 6 bits. Επομένως, 0 H(X) 6 bits. 25

(β) Μετά από νέες παρατηρήσεις, επιβεβαιώθηκε ότι 4 X 04, και προέκυψε, επίσης, ότι η πιθανότητα η επώαση του αβγού να διαρκεί περισσότερο από 56 ημέρες δεν μπορεί να υπερβεί την πιθανότητα η επώαση να διαρκεί 56 ημέρες ή λιγότερο. Επαναλάβετε το Ερώτημα (α) και συγκρίνετε τα νέα φράγματα που υπολογίσατε. Δίνεται ότι log 2 3.585. Όπως και στην προηγούμενη περίπτωση, η ελάχιστη τιμή της H(X) ισούται με 0 και επιτυγχάνεται με p(i) = για κάποιο i, τέτοιο ώστε 40 < i 56. H κατανομή ικανοποιεί τη συνθήκη Pr{X > 56} Pr{X 56}, δεδομένου ότι Pr{X 56} =. Προκειμένου να υπολογίσουμε ένα άνω φράγμα για την H(X), υποθέτουμε κατ αρχάς, ότι Pr{X 56} = p. Από τον περιορισμό, p /2. Έστω τ.μ. που ορίζεται ως { 0 εάν 40 < X 56 Y = εάν 56 < 04. H(X, Y ) = H(X) + H(Y X) = H(X). Επίσης, H(X, Y ) = H(Y ) + H(X Y ). Συνεπώς, H(X) = H(Y ) + H(X Y ) (αρχή διαχωρισιμότητας εντροπίας). Αντικαθιστώντας, H(X) = H(p) + ph(x Y = 0) + ( p)h(x Y = ), όπου H(p) p log p ( p) log( p). Η H(X Y = 0) μεγιστοποιείται για ομοιόμορφη κατανομή p(i i 56) = 6 ανεξαρτήτως της τιμής της p, και H(X Y = 0) = log 2 6 = 4 bits. Η H(X Y = ) μεγιστοποιείται για ομοιόμορφη κατανομή p(i i > 56) =, και H(X Y = ) = 48 log 2 48 = log 2 (3 6) = 4 + log 3 5.585 bits. Συνεπώς, H(X) = p log p ( p) log( p) + 4p + (4 + log 3)( p) = p log p ( p) log( p) p log 3 + log 48. H H(X) είναι κοίλη ( ) συνάρτηση δεδομένου ότι είναι άθροισμα μιας κοίλης συνάρτησης H(p) και μιας συνάρτησης που είναι γραμμική ως προς p ( p log 3 + log 48). Εναλλακτικά, μπορείτε να το επιβεβαιώσετε υπολογίζοντας τη δεύτερη παράγωγο της H(X) (η δεύτερη παράγωγος του όρου p log 3+log 48 ισούται με 0). Επομένως, μπορούμε να βρούμε την τιμή του p [, ] που μεγιστοποιεί την H(X) παραγωγίζοντας ως προς p. 2 H(X) p = log 2 p log 2 e + log 2 ( p) + log 2 e log 2 3 = log 2 p 3p. H H(X) μηδενίζεται όταν p = 3p p =. Για p >, H(X) < 0. Επομένως, η 4 4 p τιμή του p [, ] για την οποία μεγιστοποιείται η H(X) είναι p = και H(X) = 2 2 log 3 + log 48 5.7925 bits. Συνεπώς, 0 H(X) 5.7925 bits. 2 Εναλλακτική λύση: Δεδομένου ότι η είναι ομοιόμορφη στα διαστήματα [4, 56] και [57, 04], { p, 40 < i 56 p(i) = 6 ( p), 56 < i 04 48 26

Επoμένως, H(X) = 6 p log 6 2 p p 48 log 6 48 2 p = H(p)+4p+( p) log 48 2 48. Η έκφραση είναι η ίδια με αυτήν που προκύπτει από την αρχή διαχωρισιμότητας. Συνεπώς, συνεχίζουμε όπως προηγουμένως. Παρατηρήστε ότι το άνω φράγμα για την εντροπία είναι μικρότερο σε αυτήν την περίπτωση. Ο λόγος είναι ότι τώρα γνωρίζουμε κάτι περισσότερο, ότι, δηλαδή, Pr{X > 56} Pr{X 56}. Επομένως, η αβεβαιότητά μας για την κατανομή της X (και άρα την εντοπία της X) ελαττώνεται. Eπίσης, παρατηρήστε ότι, για p = /4, H(X) = 6 bits, που αντιστοιχεί στην περίπτωση του Ερωτήματος (α). Παρατηρήσεις: Όσοι απάντησαν στο Ερώτημα (β) υπέθεσαν ότι Pr{X > 56} = Pr{X 56} =. 2 Η τιμή αυτή μεγιστοποιεί, πράγματι, την εντροπία, αλλά αυτό πρέπει να αποδειχτεί. Επίσης, παρατηρήστε ότι, εάν Pr{X > 56} = Pr{X 56} =, το κάτω φράγμα για 2 την H(X) δεν είναι 0, αλλά bit. 3. Εντροπία και Aμοιβαία Πληροφορία (Πρόοδος Θ. Π., Νοέμβριος 2008) Στο Σχήμα 7, οι τ.μ. X, N και N 2 είναι διακριτές, δυαδικές και ομοιόμορφα κατανεμημένες. Επίσης, είναι όλες ανεξάρτητες μεταξύ τους. Στην περίπτωση που σας χρειαστεί, δίνεται ότι log 2 3.585. Σχήμα 7: Σύστημα με δύο πηγές θορύβου (α) Με τι ισούται η εντροπία της X; Η ακολουθεί ομοιόμορφη κατανομή με 2 τιμές. Επομένως, η εντροπία της ισούται με bit. Το ίδιο αποτέλεσμα προκύπτει και με απευθείας υπολογισμό της H(X). (β) Βρείτε την εντροπία της Y. Η κατανομή της Y είναι η εξής: 2 με πιθανότητα 4 Y = 0 με πιθανότητα 2 +2 με πιθανότητα 4 27

Επομένως, H(Y ) = y Y p(y) log p(y) = 2 4 log 4 + log 2 =.5 bits. 2 (γ) Για οποιαδήποτε κατανομή της N 2 (όχι, κατ ανάγκη ομοιόμορφη όπως στο σχήμα), υποθέτοντας, πάντοτε, ότι η N 2 είναι τυχαία και ανεξάρτητη των X και N, δώστε το καλύτερο κάτω φράγμα που μπορείτε για την H(Z). Θεωρούμε ότι η κατανομή της N 2 (και, επομένως, και η εντροπία της) είναι γνωστή. Προσοχή: Σε αυτό το ερώτημα (αντίθετα με όλα τα άλλα) δε θεωρούμε ότι η N 2 είναι, κατ ανάγκη, δυαδική. H N 2 είναι ανεξάρτητη της Y δεδομένου ότι είναι ανεξάρτητη από τις X και N και η Y είναι ντετερμινιστική συνάρτηση των και N. Στην η σειρά ασκήσεων είδαμε ότι όταν δύο ανεξάρτητες τ.μ. αθροίζονται, η εντροπία του αθροίσματος είναι τουλάχιστον ίση με την εντροπία κάθε μίας από τις μεταβλητές που αθροίζονται. Συνεπώς, H(Z) H(Y ) και H(Z) H(N 2 ). Συνδυάζοντας τις δύο σχέσεις, H(Z) max{.5, H(N 2 )}. (δ) Υπολογίστε, τώρα, την H(Z) για N 2 Unif{, +} και επαληθεύστε ότι υπερβαίνει το κάτω φράγμα που βρήκατε στο προηγούμενο ερώτημα. Η ακολουθεί την κατανομή 3 με πιθανότητα 8 με πιθανότητα 3 Z = 8 + με πιθανότητα 3 8 +3 με πιθανότητα 8 Επομένως, H(Z) = z Z p(z) log p(z) = 2 8 log 8 + 2 3 8 log 8 3 = 3 3 log 3.83 bits. 4 Εναλλακτικά, από την αρχή διαχωρισιμότητας της εντροπίας, και παρατηρώντας ότι η πιθανότητα η Z να είναι αρνητική είναι ίση με την πιθανότητα να είναι θετική, H(Z) = H(S) + H(Z S) = + H(/4) = + 4 log 4 + 3 4 log 4 3 = 3 3 log 3.83 bits, 4 όπου S τ.μ. που δηλώνει το πρόσημο της Z. Τέλος, μπορούμε να εφαρμόσουμε την αρχή διαχωρισιμότητας της εντροπίας και με διαφορετικό τρόπο, παρατηρώντας ότι, για δεδομένη απόλυτη τιμή της Z, η αρνητική και η θετική τιμή είναι ισοπίθανες (επιβεβαιώστε ως άσκηση). 28