Θεωρία Πληροφορίας. Διάλεξη 5: Διακριτή πηγή πληροφορίας με μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Σχετικά έγγραφα
Τηλεπικοινωνιακά Συστήματα ΙΙ

Θεωρία Πληροφορίας. Διάλεξη 4: Διακριτή πηγή πληροφορίας χωρίς μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

Σεραφείµ Καραµπογιάς. Πηγές Πληροφορίας και Κωδικοποίηση Πηγής 6.3-1

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 3 : Πηγές Πληροφορίας Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 2 : Πληροφορία και Εντροπία Διάλεξη: Κώστας Μαλιάτσος Χρήστος Ξενάκης, Κώστας Μαλιάτσος

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Θεωρία πληροφοριών. Τεχνολογία Πολυµέσων 07-1

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Δομές Δεδομένων και Αλγόριθμοι

Τεχνολογία Πολυμέσων. Ενότητα # 7: Θεωρία πληροφορίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Θέματα Συστημάτων Πολυμέσων

( ) log 2 = E. Σεραφείµ Καραµπογιάς

ΕΑΠ / ΘΕ ΠΛΗ22 ΒΑΣΙΚΑ ΖΗΤΗΜΑΤΑ ΙΚΤΥΩΝ Η/Υ. Εναλλακτικό ιδακτικό Υλικό DRAFT ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ ΚΑΙ ΚΩ ΙΚΟΠΟΙΗΣΗΣ

Συμπίεση Δεδομένων

ΕΠΑΝΑΛΗΠΤΙΚΕΣ ΑΣΚΗΣΕΙΣ ΑΛΓΕΒΡΑΣ Α ΛΥΚΕΙΟΥ

ΣΥΝΘΕΤΑ ΕΠΑΝΑΛΗΠΤΙΚΑ ΘΕΜΑΤΑ

Εισαγωγή στη θεωρία πληροφορίας

ΕΑΠ/ΠΛΗ22/ΑΘΗ-4. 3 η ΟΣΣ

Δίαυλος Πληροφορίας. Η λειτουργία του περιγράφεται από:

Τυχαία μεταβλητή (τ.μ.)

Η πιθανότητα επομένως που ζητείται να υπολογίσουμε, είναι η P(A 1 M 2 ). Η πιθανότητα αυτή μπορεί να γραφεί ως εξής:

x y z xy yz zx, να αποδείξετε ότι x=y=z.

Συμπίεση Δεδομένων

Απαντήσεις σε απορίες

ΑΛΓΕΒΡΑ Α ΛΥΚΕΙΟΥ. 118 ερωτήσεις θεωρίας με απάντηση ασκήσεις για λύση. 20 συνδυαστικά θέματα εξετάσεων

Θέματα Συστημάτων Πολυμέσων

Τμήμα Λογιστικής και Χρηματοοικονομικής. Θεωρία Πιθανοτήτων. Δρ. Αγγελίδης Π. Βασίλειος

Ψηφιακές Τηλεπικοινωνίες. Θεωρία Ρυθμού Παραμόρφωσης

1 Βασικές Έννοιες Θεωρίας Πληροφορίας

ΔΕΟ13 - Επαναληπτικές Εξετάσεις 2010 Λύσεις

Άσκηση 1: Λύση: Για το άθροισμα ισχύει: κι επειδή οι μέσες τιμές των Χ και Υ είναι 0: Έτσι η διασπορά της Ζ=Χ+Υ είναι:

ΘΕΜΑ 2. βρείτε. (Μονάδες 15) με διαφορά ω.

ΓΥΜΝΑΣΙΟ ΚΑΘΟΛΙΚΗΣ ΣΧΟΛΙΚΗ ΧΡΟΝΙΑ ΓΡΑΠΤΕΣ ΠΡΟΑΓΩΓΙΚΕΣ ΕΞΕΤΑΣΕΙΣ ΜΑΪΟΥ - ΙΟΥΝΙΟΥ 2017 ΜΑΘΗΜΑ: ΜΑΘΗΜΑΤΙΚΑ. Ονοματεπώνυμο:.. Τμήμα:.Αρ..

Θεωρία Πιθανοτήτων, εαρινό εξάμηνο Λύσεις του φυλλαδίου ασκήσεων επανάληψης. P (B) P (A B) = 3/4.

ΕΑΠ/ΠΛΗ22/ΑΘΗ-3. 3 η ΟΣΣ

Μέρος ΙΙ. Τυχαίες Μεταβλητές

Φεργαδιώτης Αθανάσιος ΤΡΑΠΕΖΑ ΘΕΜΑΤΩΝ ΣΤΗΝ ΑΛΓΕΒΡΑ Α ΛΥΚΕΙΟΥ. Θέμα 2 ο (150)

ΕΝΟΤΗΤΑ 1: ΟΡΙΣΜΟΣ ΠΕΔΙΟ ΟΡΙΣΜΟΥ ΠΡΑΞΕΙΣ ΣΥΝΑΡΤΗΣΕΩΝ ΓΡΑΦΙΚΕΣ ΠΑΡΑΣΤΑΣΕΙΣ ΒΑΣΙΚΩΝ ΣΥΝΑΡΤΗΣΕΩΝ ΛΥΜΕΝΑ ΘΕΜΑΤΑ ΘΕΜΑ Α

ΕΑΠ/ΠΛΗ22/ΑΘΗ-4. 3 η ΟΣΣ

Ψηφιακά Συστήματα. 6. Σχεδίαση Συνδυαστικών Κυκλωμάτων

ΕΠΙΤΡΟΠΗ ΔΙΑΓΩΝΙΣΜΩΝ 78 ος ΠΑΝΕΛΛΗΝΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΣΤΑ ΜΑΘΗΜΑΤΙΚΑ Ο ΕΥΚΛΕΙΔΗΣ 20 Ιανουαρίου 2018 Β ΓΥΜΝΑΣΙΟΥ

Στατιστική Ι. Ενότητα 3: Πιθανότητες. Δρ. Γεώργιος Κοντέος Τμήμα Διοίκησης Επιχειρήσεων Γρεβενών

ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΛΟΠΟΝΝΗΣΟΥ, ΤΜΗΜΑ ΤΕΧΝΟΛΟΓΙΑΣ ΤΗΛΕΠΙΚΟΙΝΩΝΙΩΝ

Συμπίεση χωρίς Απώλειες

Α Λυκείου Άλγεβρα Τράπεζα Θεμάτων Το Δεύτερο Θέμα

ΘΕΜΑ 2. Θεωρούμε την ακολουθία (α ν ) των θετικών περιττών αριθμών: 1, 3, 5, 7,

ΣΥΝΟΠΤΙΚΗ ΘΕΩΡΙΑ ΜΑΘΗΜΑΤΙΚΩΝ ΘΕΤΙΚΗΣ ΤΕΧΝΟΛΟΓΙΚΗΣ ΚΑΤΕΥΘΥΝΣΗΣ. 1 ο ΚΕΦΑΛΑΙΟ

ΚΕΦΑΛΑΙΟ ΠΕΜΠΤΟ ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ

Ψηφιακές Τηλεπικοινωνίες

Για να παραστήσουμε ένα σύνολο χρησιμοποιούμε συνήθως έναν από τους παρακάτω τρόπους :

Ανισώσεις. Κώστας Γλυκός. Τράπεζα θεμάτων ΜΑΘΗΜΑΤΙΚΟΣ. εκδόσεις / 1 0 /

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΣΤΑΤΙΣΤΙΚΗ ΤΩΝ ΕΠΙΧΕΙΡΗΣΕΩΝ. Κεφάλαιο 6. Πιθανότητες

Δίαυλος Πληροφορίας. Δρ. Α. Πολίτης

ΜΑΘΗΜΑΤΙΚΑ ΑΛΓΕΒΡΑ. 3 2 x. β)

Μαθηματικά προσανατολισμού Β Λυκείου

Ψηφιακές Τηλεπικοινωνίες

2. Η πιθανότητα της αριθμήσιμης ένωσης ξένων μεταξύ τους ενδεχομένων είναι το άθροισμα των πιθανοτήτων των ενδεχομένων.

ΚΕΦΑΛΑΙΟ 4 ο : ΑΝΙΣΩΣΕΙΣ ΤΟ 2 Ο ΘΕΜΑ

ΘΕΩΡΙΑ ΜΑΘΗΜΑΤΙΚΑ ΠΡΟΣΑΝΑΤΟΛΙΣΜΟΥ Β ΛΥΚΕΙΟΥ

Πίνακες Γραμμικά Συστήματα

Στατιστική Περιγραφή Φυσικού Μεγέθους - Πιθανότητες

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

ΘΕΩΡΙΑ Β ΓΥΜΝΑΣΙΟΥ. Μια παράσταση που περιέχει πράξεις με μεταβλητές (γράμματα) και αριθμούς καλείται αλγεβρική, όπως για παράδειγμα η : 2x+3y-8

ρ πε α εμ των α ματ ών 2014 Ο Η ΡΗ Ο Ο Γ Ρ Θ μα 2ο

Λύσεις 2ης Ομάδας Ασκήσεων

EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας 3η σειρά ασκήσεων Διακριτά και Συνεχή Κανάλια. Παράδοση: Έως 22/6/2015

Κλίση ενός στρώματος είναι η διεύθυνση κλίσης και η γωνία κλίσης με το οριζόντιο επίπεδο.

2. Η πιθανότητα της αριθμήσιμης ένωσης ξένων μεταξύ τους ενδεχομένων είναι το άθροισμα των πιθανοτήτων των ενδεχομένων.

1 O ΛΥΚΕΙΟ ΡΟ ΟΥ ) ( ) = ) ( ) = 2 3, ) ( ) = 4, i f x x x x ii f x x iii f x x. x 4x. iv f x x v f x x vi f x vii f x

ΜΑΘΗΜΑΤΙΚΑ & ΣΤΟΙΧΕΙΑ ΣΤΑΤΙΣΤΙΚΗΣ ΓΕΝΙΚΗΣ ΠΑΙ ΕΙΑΣ 2015 ΕΚΦΩΝΗΣΕΙΣ

τα βιβλία των επιτυχιών

ΕΝΔΕΙΚΤΙΚΑ ΘΕΜΑΤΑ ΣΤΑ ΔΙΑΝΥΣΜΑΤΑ ΚΑΙ ΤΗΝ ΕΥΘΕΙΑ ΓΡΑΜΜΗ ΜΑΘΗΜΑΤΙΚΑ ΠΡΟΣΑΝΑΤΟΛΙΣΜΟΥ Β ΛΥΚΕΙΟΥ

ΜΑΘΗΜΑΤΙΚΑ ΘΕΤΙΚΟΥ ΠΡΟΣΑΝΑΤΟΛΙΣΜΟΥ

ιαφορική εντροπία Σεραφείµ Καραµπογιάς

Οικονομικό Πανεπιστήμιο Αθηνών Τμήμα Πληροφορικής ΠΜΣ Κρυπτογραφία και Εφαρμογές

Μάθημα Εισαγωγή στις Τηλεπικοινωνίες Κωδικοποίηση πηγής- καναλιού Μάθημα 9o

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #11: Ασαφής Αριθμητική. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

ΘΕΜΑΤΑ ΘΕΜΑ 1. α) Να λύσετε την εξίσωση : 2 2 2x. β) Αν α είναι η ϑετική εξίσωσης του ερωτήµατος (α), να λύσετε την ανίσωση : 1 x < α.

Στατιστική. Ενότητα 3 η : Χαρακτηριστικά Τυχαίων Μεταβλητών Θεωρητικές Κατανομές Πιθανότητας για Διακριτή Τυχαία Μεταβλητή

ii) Να ποια τιμή του ώστε η εξίσωση (1) έχει μία διπλή πραγματική ρίζα; Έπειτα να βρεθεί η ρίζα αυτή. Ασκήσεις Άλγεβρας

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

ds ds ds = τ b k t (3)

n B ' n B = n n ΥΠΟ ΣΥΝΘΗΚΗ ('Η ΔΕΣΜΕΥΜΕΝΗ ΠΙΘΑΝΟΤΗΤΑ )

Ψηφιακή Επεξεργασία Σημάτων

2ογελ ΣΥΚΕΩΝ 2ογελ ΣΥΚΕΩΝ ΠΟΛΥΩΝΥΜΙΚΕΣ ΣΥΝΑΡΤΗΣΕΙΣ Β Λυκει(ου ΠΟΛΥΩΝΥΜΙΚΕΣ ΣΥΝΑΡΤΗΣΕΙΣ

3. α) Να λύσετε την εξίσωση x 2 = 3. β) Να σχηματίσετε εξίσωση δευτέρου βαθμού με ρίζες, τις ρίζες της εξίσωσης του α) ερωτήματος.

Να εξετάσετε αν είναι συναρτήσεις πυκνότητας πιθανότητας, κι αν είναι να υπολογίσετε τη συνάρτηση κατανομής πιθανότητας F x (x).

22Α004 - Προχωρημένα Θέματα Θεωρίας Πληροφορίας Τελική Εξέταση

Επίλυση εξισώσεων δευτέρου βαθμού με ανάλυση σε γινόμενο παραγόντων

(Μονάδες 8) γ) Για την τιμή του λ που βρήκατε στο ερώτημα β), να υπολογίσετε το εμβαδόν του τριγώνου ΑΒΓ (Μονάδες 10)

Θεώρημα κωδικοποίησης πηγής

ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΛΟΠΟΝΝΗΣΟΥ

ΘΕΩΡΙΑ ΑΛΓΕΒΡΑΣ της Α ΛΥΚΕΙΟΥ

Στοχαστικές Στρατηγικές

Μαθηματικά Γ Γυμνασίου

ΟΜΟΣΠΟΝΔΙΑ ΕΚΠΑΙΔΕΥΤΙΚΩΝ ΦΡΟΝΤΙΣΤΩΝ ΕΛΛΑΔΟΣ (Ο.Ε.Φ.Ε.) ΕΠΑΝΑΛΗΠΤΙΚΑ ΘΕΜΑΤΑ ΕΠΑΝΑΛΗΠΤΙΚΑ ΘΕΜΑΤΑ 2019 Β ΦΑΣΗ

12. ΑΝΙΣΩΣΕΙΣ Α ΒΑΘΜΟΥ. είναι δύο παραστάσεις μιας μεταβλητής x πού παίρνει τιμές στο

Transcript:

Θεωρία Πληροφορίας Διάλεξη 5: Διακριτή πηγή πληροφορίας με μνήμη Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής 1

Ατζέντα 1. Διακριτές πηγές πληροφορίας με μνήμη Μαρκοβιανές αλυσίδες Τάξη μακροβιανών αλυσίδων Εντροπία των πηγών Markoff 2. Συνεχείς πηγές πληροφορίας με μνήμη 2

Διακριτές πηγές πληροφορίας με μνήμη Στην πραγματικότητα, όλες οι πηγές πληροφορίας παράγουν ακολουθίες συμβόλων που είναι στατιστικά εξαρτημένες. Για παράδειγμα, στην ελληνική γλώσσα το «α» εμφανίζεται με πιθανότητα 11,7%, ενώ το «ψ» με πιθανότητα 0,1%. Επίσης, ο συνδυασμός γραμμάτων «τα» είναι πολύ πιθανός, ενώ ο συνδυασμός «τπ» είναι απίθανος. Στην περίπτωση των «διακριτών πηγών με μνήμη» υφίσταται εξάρτηση μεταξύ των διαδοχικών συμβόλων. Η εξάρτηση αυτή μπορεί να υφίσταται για μακρές ακολουθίες συμβόλων, συνηθέστερα όμως υφίσταται για έναν περιορισμένο αριθμό συμβόλων. Οι Μαρκοβιανές αλυσίδες μπορούν να χρησιμοποιηθούν ως στατιστικά υποδείγματα διακριτών πηγών πληροφορίας με μνήμη (π.χ. τηλέτυπο). Οι πηγές αυτές ονομάζονται πηγές Markoff. 3

Μαρκοβιανές αλυσίδες (1/3) Μια τυχαία διαδικασία είναι μια ακολουθία τυχαίων μεταβλητών Y1, Y2,, Yn. Γενικά, μπορεί να υφίσταται οποιαδήποτε εξάρτηση μεταξύ των τυχαίων μεταβλητών της ακολουθίας. Μια τυχαία διαδικασία Υ1, Υ2,, Υn χαρακτηρίζεται ως διαδικασία Markoff (Μαρκοβιανή αλυσίδα), αν για n = 1,2, ισχύει: P Y n+1 = y n+1 Y n = y n, Y n 1 = y n 1,, Y 1 = y 1 ) = P Y n+1 = y n+1 Y n = y n ) Στην περίπτωση της διαδικασίας Markoff η συνάρτηση πιθανότητας μάζας μπορεί να γραφεί: p y 1, y 2,, y n = p y 1 p y 2 y 1 p y 3 y 2 p y n y n 1 Η διαδικασία Markoff χαρακτηρίζεται ως χρονικά αμετάβλητη αν η υπό συνθήκη πιθανότητα P Y n+1 = b Y n = a) δεν εξαρτάται από το n. Δηλαδή για n = 1,2, ισχύει: P Y n+1 = b Y n = a) = P Y 2 = b Y 1 = α) 4

Μαρκοβιανές αλυσίδες (2/3) Μια αμετάβλητη στο χρόνο Μαρκοβιανή αλυσίδα περιγράφεται πλήρως από την αρχική της κατάσταση και τον πίνακα των πιθανοτήτων μετάβασης P = P ij, όπου P ij = P Y n+1 = j Y n = i} και i, j είναι οι τιμές των τυχαίων μεταβλητών οι οποίες ανήκουν στο σύνολο των δυνατών καταστάσεων {1,2,, m}. Ο πίνακας των πιθανοτήτων μετάβασης καλείται και πίνακας μετάβασης. Η πιθανότητα της Μαρκοβιανής αλυσίδας να βρίσκεται τη χρονική στιγμή n στην κατάσταση i συμβολίζεται με p i (n), δηλαδή p i n = P i Y n = i. Αν ισχύει p i n = p i n + 1 = π i για κάθε κατάσταση, τότε η Μαρκοβιανή αλυσίδα χαρακτηρίζεται ως στατική. 5

Μαρκοβιανές αλυσίδες (3/3) Αν η πιθανότητα να βρίσκεται το σύστημα στην κατάσταση j κατά την αρχή του k-στου διαστήματος συμβόλου είναι p j (k), τότε οι μεταπτώσεις του συστήματος περιγράφονται από τη σχέση: m p j (k + 1) = p i k i=1 P ij Όπου m είναι το πλήθος των δυνατών καταστάσεων της πηγής. Για μια στατική Μαρκοβιανή αλυσίδα, μεταξύ του διανύσματος των πιθανοτήτων των καταστάσεων π και του πίνακα μετάπτωσης Ρ, ισχύει η σχέση: πρ = π 6

Τάξη Μαρκοβιανής αλυσίδας Η τάξη της Mαρκοβιανής αλυσίδας καθορίζεται από το πλήθος (l) των προηγούμενων συμβόλων που επηρεάζουν το επόμενο σύμβολο που θα παραχθεί από την πηγή. Η πηγή είναι στην κατάσταση i, όταν η τελευταία εκπομπή είναι αυτή του συμβόλου s i. Μετάβαση της πηγής από την κατάσταση i στην κατάσταση j, σημαίνει ότι μετά την εκπομπή του συμβόλου s i εκπέμπεται το σύμβολο s j. Σε μία Μαρκοβιανή αλυσίδα: πρώτης τάξης (l = 1), το πλήθος των καταστάσεων της πηγής είναι ίσο με το πλήθος των συμβόλων του αλφαβήτου της πηγής (m = q). δεύτερης τάξης (l = 2), το πλήθος των καταστάσεων της πηγής είναι ίσο με το τετράγωνο του πλήθους των συμβόλων (m = q 2 ). 7

Άσκηση 1 Θεωρούμε μία Μαρκοβιανή αλυσίδα με δύο καταστάσεις και πίνακα μετάβασης: P = P 11 P 12 P 21 P 22 = 1 a α b 1 b Nα υπολογιστούν οι πιθανότητες π 1 και π 2, δηλαδή οι πιθανότητες να βρίσκεται η Μαρκοβιανή αλυσίδα στην κατάσταση 1 και 2, αντίστοιχα. Απάντηση: Ο γράφος της Μαρκοβιανής αλυσίδας δίνεται στο σχήμα: Οι καταστάσεις παριστάνονται με κόμβους του γράφου και οι μεταβάσεις με ακμές που συνδέουν την αρχική με την τελική κατάσταση. 8

Άσκηση 1 (συνέχεια) Εφόσον είναι γνωστός ο πίνακας μετάβασης, τότε οι πιθανότητες των δύο καταστάσεων μπορούν να υπολογιστούν με τη βοήθεια της σχέσης πρ = π. Δηλαδή: π 1 π 2 P 11 P 12 P 21 P 22 = π 1 1 α + π 2 b π 1 α + π 2 1 b = π 1 π 2 Λαμβάνοντας υπόψη ότι π 1 + π 2 = 1, υπολογίζουμε τις ζητούμενες πιθανότητες: π 1 1 α + π 2 b = π 1 π2 =1 π 1 π 1 α + b π 1 b = 0 π 1 = b a + b π 1 a + π 2 (1 b) = π 2 π2 =1 π 1 π 2 α + a π 2 b = 0 π 2 = a a + b 9

Εντροπία πηγών Markoff Η εντροπία των συμβόλων που εκπέμπονται από την κατάσταση i είναι: H K i m = P ij log P ij j=1 bits/symbol Η εντροπία πηγής είναι ο μέσος όρος της εντροπίας των καταστάσεων: H S m = p i H K i i=1 m = p i P ij log P ij i=1 m j=1 bits/symbol Η μέση ποσότητα πληροφορίας μηνυμάτων της πηγής συμβολίζει την πιθανότητα εκπομπής του μηνύματος m i : H M = p(m i ) log p m i Η μέση ποσότητα πληροφορίας συμβόλων της πηγής (Ν=μήκος μηνυμάτων) είναι: i H N = 1 N H(M) 10

Εντροπία πηγών Markoff Το μέτρο του πλεονασμού εξάρτησης μίας πηγής με μνήμη, είναι: red εξ = 1 H με μνήμη(s) H χωρίς μνήμη (S) Το μέτρο του ολικού πλεονασμού είναι: red ολ = 1 H με μνήμη S maxh χωρίς μνήμη S = 1 H με μνήμη(s) log q και αναφέρεται στην εντροπία της πηγής σε σύγκριση με τη μέγιστη δυνατή εντροπία της πηγής χωρίς μνήμη, που επιτυγχάνεται για ίσες πιθανότητες εκπομπής όλων των συμβόλων. 11

Άσκηση 2 Μια διακριτή πηγή με μνήμη παράγει μια Μαρκοβιανή αλυσίδα πρώτης τάξης. Το αλφάβητο της πηγής αποτελείται από τα σύμβολα φ, χ και ψ. Ο πίνακας μετάβασης είναι: P = P(φ/φ) P(φ/χ) P(φ/ψ) P(χ/φ) P(χ/χ) P(χ/ψ) P(ψ/φ) P(ψ/χ) P(ψ/ψ) = 1 1 2 2 0 1 4 0 3 4 1 1 1 3 3 3 Να υπολογιστούν: 1) Οι πιθανότητες εκπομπής των συμβόλων της πηγής φ, χ και ψ. 2) Οι συνδυασμένες πιθανότητες εκπομπής μηνυμάτων αποτελούμενων από δύο σύμβολα. 3) Να σχηματιστούν κωδικές λέξεις με το δυαδικό κωδικό αλφάβητο για τα δυνατά μηνύματα δύο συμβόλων σύμφωνα με τον αλγόριθμο του Fano. 12

Άσκηση 2 (συνέχεια) Απάντηση: (1) Επειδή η Μαρκοβιανή αλυσίδα είναι πρώτης τάξης, το πλήθος των καταστάσεων της πηγής είναι ίσο με το πλήθος των συμβόλων. Επομένως, η κατάσταση της πηγής περιγράφει το τελευταίο σύμβολο που παρήγαγε η πηγή και έτσι η πιθανότητα παραγωγής ενός συμβόλου ισούται με την πιθανότητα κατάστασης της πηγής. Από τον πίνακα μετάβασης υπολογίζουμε τις πιθανότητες εκπομπής των συμβόλων της πηγής, οι οποίες ταυτίζονται με τις πιθανότητες κατάστασης της πηγής Markoff. Επιλύοντας το ακόλουθο σύστημα εξισώσεων: p(φ) = p(φ)p(φ/φ) + p(x)p(φ/χ) + p(ψ)p(φ/ψ) p(χ) = p(φ)p(χ/φ) + p(x)p(χ/χ) + p(ψ)p(χ/ψ) p(ψ) = p(φ)p(ψ/φ) + p(x)p(ψ/χ) + p(ψ)p(ψ/ψ) p(φ) + p(χ) + p(ψ) = 1 βρίσκουμε: p(φ) = 10/27, p(χ) = 8/27 και p(ψ) = 9/27. 13

Άσκηση 2 (συνέχεια) (2) Το μέσο πληροφοριακό περιεχόμενο μηνυμάτων αποτελούμενων από δύο σύμβολα υπολογίζεται από τη σχέση: H M = p(m i ) log p m i i Το πλήθος των διαφορετικών μηνυμάτων που αποτελούνται από δύο σύμβολα είναι ίσο με το τετράγωνο του πλήθους των συμβόλων της πηγής, δηλαδή ίσο με 3 2 = 9. Οι συνδυασμένες πιθανότητες εκπομπής των μηνυμάτων αυτών μπορούν να υπολογιστούν από τον πίνακα μετάβασης και τις πιθανότητες εκπομπής των συμβόλων p(φ), p(χ) και p ψ. Έτσι, η πιθανότητα εκπομπής του μηνύματος m k που σχηματίζεται από τα σύμβολα s i και s j δίνεται από τη σχέση: P m k = s i s j = p s i, s j = p s i P(s j s i ) 14

Άσκηση 2 (συνέχεια) Επομένως οι πιθανότητες όλων των δυνατών μηνυμάτων είναι: p φφ = p φ P φ/φ = 10 27. 1 2 = 5 27 = 0,185 p φχ = p φ P(χ/φ) = 10 27. 1 4 = 5 54 =0,093 p(φψ) = p(φ)p(ψ/φ) = 10 27. 1 3 = 10 81 =0,124 p(χφ) = p(χ)p(φ/χ) = 8 27. 1 2 = 4 27 =0,148 p(χχ) = p(χ)p(χ/χ) = 8 27. 0 = 0 p(χψ) = p(χ)p(ψ/χ) = 8 27. 1 3 = 8 81 =0,099 p(ψφ) = p(ψ)p(φ/ψ) = 9 27. 0 = 0 p(ψχ) = p(ψ)p(χ/ψ) = 9 27. 3 4 = 1 4 =0,250 p(ψψ) = p(ψ)p(ψ/ψ) = 9 27. 1 3 = 1 9 =0,111 15

Άσκηση 2 (συνέχεια) (3) Οι κωδικές λέξεις που προκύπτουν από τον αλγόριθμο Fano είναι: Μήνυμα Πιθανότητα Κωδική Λέξη ψχ 0,250 00 φφ 0,185 01 χφ 0,148 100 φψ 0,124 101 ψψ 0,111 110 χψ 0,099 1110 φχ 0,093 1111 χχ 0 - ψφ 0-16

Άσκηση 3 Θεωρούμε διακριτή πηγή με μνήμη, τεσσάρων καταστάσεων Α, Β, Γ και Δ, η οποία παριστάνεται με στατική αλυσίδα Μarkoff πρώτης τάξης. Ο πίνακας μετάβασης της πηγής είναι ο ακόλουθος: P = 1 a a 0 0 0 1 a a 0 0 0 1 a a a 0 0 1 a Nα βρεθούν τα εξής: 1) Οι πιθανότητες των καταστάσεων π(a), π(b), π(γ) και π(δ). 2) Η τιμή του α για την οποία προκύπτει η μέγιστη εντροπία της πηγής. 3) Να προτείνετε βέλτιστο τρόπο κωδικοποίησης της πηγής, χωρίς να λάβετε υπόψη τη μνήμη της πηγής. 4) Λαμβάνοντας υπόψη τη μνήμη της πηγής και για α = 1/2, να προτείνετε αποτελεσματικό τρόπο κωδικοποίησης. 17

Άσκηση 3 (συνέχεια) Απάντηση: 1) Λαμβάνοντας υπόψη ότι η πηγή είναι στατική, καταστρώνουμε το σύστημα που απορρέει από τη σχέση πρ = π. Είναι: π π Α π Β π Γ π Δ και εξ αυτής: 1 a a 0 0 0 1 a a 0 0 0 1 a a a 0 0 1 a = π Α π Β π Γ π Δ 1 α π Α + απ Δ = π Α π Α = π(δ) 1 α π Β + απ Α = π Β π Β = π(α) 1 α π Γ + απ Β = π Γ π Γ = π(β) 1 α π Δ + απ Α = π Δ π Δ = π(α) Λαμβάνοντας υπόψη ότι το άθροισμα των πιθανοτήτων κατάστασης της πηγής είναι 1, βρίσκουμε ότι: π(a) = π(b) = π(γ) = π(δ) = 1/4 18

Άσκηση 3 (συνέχεια) 2) Η εντροπία των συμβόλων που εκπέμπεται από όλες τις καταστάσεις της πηγής δίνεται από τη σχέση: H S = 1 α log 1 a a log a Η εντροπία λαμβάνει τη μέγιστη τιμή για ισοπίθανα ενδεχόμενα, δηλαδή στην περίπτωσή μας για 1 a = a = 1/2. Επομένως, η μέγιστη εντροπία Markoff προκύπτει για a = 1/2. Στην περίπτωση αυτή, η εντροπία της πηγής Markoff είναι ίση με 1 bit / symbol. 3) Εφαρμόζοντας τον αλγόριθμο Huffman, λαμβάνουμε για τα 4 ισοπίθανα σύμβολα, Α, Β, Γ και Δ, τον κώδικα (00, 01, 10, 11). 19

Άσκηση 3 (συνέχεια) 4) Αφού η πηγή είναι Μαρκοβιανή αλυσίδα πρώτης τάξης, η μνήμη της πηγής έχει βάθος l = 1. Επομένως για την αποτελεσματική κωδικοποίησή της, αρκεί να λάβουμε υπόψη το σύμβολο που εκπέμφθηκε τελευταίο. Αυτό γίνεται και με την κωδικοποίηση μηνυμάτων της πηγής αποτελούμενων από δύο σύμβολα. Προκύπτει ο ακόλουθος κώδικας (000, 001, 010, 011, 100, 101, 110, 111) για τα μηνύματα (m 1 = ΑΑ, m 2 = ΑΒ, m 3 = ΒΒ, m 4 = ΒΓ, m 5 = ΓΓ, m 6 = ΓΔ, m 7 = ΔΔ, m 8 = ΔΑ ), με αντίστοιχες πιθανότητες (1/8, 1/8, 1/8, 1/8, 1/8, 1/8, 1/8, 1/8). Πιο αποτελεσματικός κώδικας μπορεί να προκύψει αν ορίσουμε διαφορετικό κώδικα για κάθε κατάσταση της πηγής. Επειδή από κάθε κατάσταση μπορούν να παραχθούν μόνο δύο σύμβολα, αρκεί η κωδικοποίηση καθενός από τα δύο αυτά σύμβολα με 1 bit, το 0 ή το 1, το οποίο οδηγεί σε μέσο μήκος κώδικα ίσο με 1 bit. Παρατηρούμε ότι η κωδικοποίηση αυτή οδηγεί σε αποδοτικότερο κώδικα, σε σύγκριση με τον προηγούμενο κώδικα μηνυμάτων της πηγής μήκους δύο συμβόλων. 20

Άσκηση 4 Μια διακριτή πηγή πληροφορίας εκπέμπει ένα από τα τρία σύμβολα Α, Β, και C και έχει για υπόδειγμα μια διακριτή διαδικασία Markoff της οποίας το γράφημα δίνεται στο σχήμα. Να βρείτε: 1) Την εντροπία Η της πηγής 2) Το μέσο πληροφορικό περιεχόμενό κατά σύμβολο σε ένα μήνυμα που περιέχει ένα, δύο και τρία σύμβολα Απάντηση: Το διάγραμμα δένδρου της εξόδου της πηγής φαίνεται στο επόμενο σχήμα: 21

Άσκηση 4 (συνέχεια) Το διάγραμμα δένδρου της εξόδου της πηγής 22

Άσκηση 4 (συνέχεια) Για να διευκρινίσουμε πώς γεννιούνται τα μηνύματα αυτά και οι πιθανότητές τους, ας θεωρήσουμε την ακολουθία CCC. Υπάρχουν δύο διαδρομές στο γράφημα που δίνουν την CCC και αντιστοιχούν στις ακολουθίες μεταπτώσεων καταστάσεων 1 2 1 2 και 2 1 2 1. Η πιθανότητα της πρώτης δίνεται από το γινόμενο της πιθανότητας να βρίσκεται το σύστημα αρχικά στην κατάσταση 1 και των πιθανοτήτων των μεταπτώσεων 1 2, 2 1 και 1 2. Οι πιθανότητες αυτές είναι αντίστοιχα 1/2, 1/4, 1/4 και 1/4 και έτσι η πιθανότητα της διαδρομής αυτής είναι 1/128. Ομοίως, υπολογίζεται ότι η πιθανότητα της δεύτερης διαδρομής είναι 1/128. Έτσι η πιθανότητα της ακολουθίας CCC δίνεται από το άθροισμά τους, δηλαδή είναι 2/128. Με βάση το παραπάνω σκεπτικό υπολογίζουμε τον επόμενο πίνακα πιθανοτήτων των συμβόλων της πηγής για μηνύματα μήκους 1, 2 και 3 συμβόλων. 23

Άσκηση 4 (συνέχεια) Μηνύματα μήκους 1 Μηνύματα μήκους 2 Μηνύματα μήκους 3 A (3/8) AA (9/32) AAA (27/128) B (3/8) AC (3/32) AAC (9/128) C (1/4) CB (3/32) ACC (3/128) CC (2/32) ACB (9/128) BB (9/32) BBB (27/128) BC (3/32) BBC (9/128) CA (3/32) BCC (3/128) BCA (9/128) CCA (3/128) CCB (3/128) CCC (2/128) CCB (3/128) CAC (3/128) CBB (9/128) CAA (9/128) Μηνύματα μήκους 1, 2 και 3 συμβόλων και οι πιθανότητές τους 24

Άσκηση 4 (συνέχεια) Η εντροπία των συμβόλων που εκπέμπονται από την κατάσταση i είναι: m H K i = P ij log P ij = 1 4 log 1 4 + 3 4 log 3 = 0,8113 bits/symbol 4 j=1 Η εντροπία της πηγής είναι ο μέσος όρος της εντροπίας των καταστάσεων, δηλ: m H S = p i H K i = 1 2 0,8113 + 1 0,8113 = 0,8113 bits/symbol 2 i=1 25

Άσκηση 4 (συνέχεια) 2) Ας υπολογίσουμε τώρα το μέσο πληροφορικό περιεχόμενο κατά σύμβολο σε μηνύματα που περιέχουν δύο σύμβολα. Υπάρχουν επτά τέτοια δυνατά μηνύματα. Τα πληροφορικά τους περιεχόμενα είναι Ι(ΑΑ) = Ι(ΒΒ) = 1.83, Ι(BC) = I(AC) = I(CB) = I(CA) = 3,4150 και I(CC) = 4.0 bits. Το μέσο πληροφορικό περιεχόμενο των μηνυμάτων αυτών δίνεται από το άθροισμα των γινομένων του πληροφοριακού περιεχομένου το καθενός μηνύματος επί την αντίστοιχη πιθανότητα. Βρίσκουμε το μέσο πληροφοριακό περιεχόμενο κατά σύμβολο, διαιρώντας με το πλήθος των συμβόλων που συγκροτούν το μήνυμα: G 2 = 2,55598/2 = 1,2799 G 1 = 1,5612 G 2 = 3,2910/3 = 1,0970 bits/symbol bits/symbol bits/symbol 26

Συνεχείς πηγές πληροφορίας Η μέση ποσότητα πληροφορίας Η(Χ), μιας συνεχούς τυχαίας μεταβλητής Χ με συνάρτηση πυκνότητας πιθανότητας f(x) δίνεται από τη σχέση: H X = න f(x) log f(x) dx Η συνδυασμένη ποσότητα πληροφορίας Η(Χ, Y), των τυχαίων μεταβλητών Χ και Υ ορίζεται από τον τύπο: H X, Y = න න f x, y log f x, y dx dy Η υπό συνθήκη ποσότητα πληροφορίας Η(Χ Y), των τυχαίων μεταβλητών Χ και Υ ορίζεται από τον τύπο: H X Y = න න f x, y log f x y dx dy Η αμοιβαία ποσότητα πληροφορίας Ι(Χ; Y), των τυχαίων μεταβλητών Χ και Υ ορίζεται από τον τύπο: Ι Χ; Y = H X + H Y H(X, Y) 27