Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Σχετικά έγγραφα
ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 3 : Πηγές Πληροφορίας Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Ψηφιακές Τηλεπικοινωνίες

Τηλεπικοινωνιακά Συστήματα ΙΙ

Θεωρία Πληροφορίας. Διάλεξη 4: Διακριτή πηγή πληροφορίας χωρίς μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Σημείωμα Αδειοδότησης

Συμπίεση Δεδομένων

Κωδικοποίηση Πηγής. Η λειτουργία ενός συστήματος επικοινωνίας (γενικό διάγραμμα):

Συμπίεση Πολυμεσικών Δεδομένων

Ψηφιακές Τηλεπικοινωνίες. Θεωρία Ρυθμού Παραμόρφωσης

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Θεωρία Πληροφορίας. Διάλεξη 5: Διακριτή πηγή πληροφορίας με μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Ψηφιακές Τηλεπικοινωνίες

( ) log 2 = E. Σεραφείµ Καραµπογιάς

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Εισαγωγή στη θεωρία πληροφορίας

Μάθημα Εισαγωγή στις Τηλεπικοινωνίες Κωδικοποίηση πηγής- καναλιού Μάθημα 9o

Κωδικοποίηση Πηγής. Δρ. Α. Πολίτης

Θεώρημα κωδικοποίησης πηγής

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 2 : Πληροφορία και Εντροπία Διάλεξη: Κώστας Μαλιάτσος Χρήστος Ξενάκης, Κώστας Μαλιάτσος

Συμπίεση χωρίς Απώλειες

Δομές Δεδομένων και Αλγόριθμοι

Συμπίεση Δεδομένων

Θέματα Συστημάτων Πολυμέσων

Επεξεργασία Πολυµέσων. Δρ. Μαρία Κοζύρη Π.Μ.Σ. «Εφαρµοσµένη Πληροφορική» Τµήµα Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών Πανεπιστήµιο Θεσσαλίας

ΚΕΦΑΛΑΙΟ ΠΕΜΠΤΟ ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ

Μάθημα Επισκόπηση των Τηλεπικοινωνιών

Σεραφείµ Καραµπογιάς. Πηγές Πληροφορίας και Κωδικοποίηση Πηγής 6.3-1

Θέματα Συστημάτων Πολυμέσων

ΕΑΠ/ΠΛΗ22/ΑΘΗ-3. 3 η ΟΣΣ

ΕΑΠ/ΠΛΗ22/ΑΘΗ-4. 3 η ΟΣΣ

Θεωρία τησ Πληροφορίασ (Θ) ΔΙΔΑΚΩΝ: Δρ. Αναςτάςιοσ Πολίτησ

ΕΑΠ/ΠΛΗ22/ΑΘΗ-4. 3 η ΟΣΣ

Ψηφιακές Τηλεπικοινωνίες

Κεφάλαιο 2 Πληροφορία και εντροπία

Αριθμητική Κωδικοποίηση

ιαφορική εντροπία Σεραφείµ Καραµπογιάς

Συμπίεση Δεδομένων

Αναλογικά & Ψηφιακά Κυκλώματα ιαφάνειες Μαθήματος ρ. Μηχ. Μαραβελάκης Εμ.

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

ΗΜΥ 100 Εισαγωγή στην Τεχνολογία

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Τεχνολογία Πολυμέσων. Ενότητα # 9: Κωδικοποίηση εντροπίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Τμήμα Μηχανικών Η/Υ και Πληροφορικής

Ψηφιακή Μετάδοση Αναλογικών Σηµάτων

Τεχνολογία Πολυμέσων. Ενότητα # 7: Θεωρία πληροφορίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Θεωρία πληροφοριών. Τεχνολογία Πολυµέσων 07-1

EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας 3η σειρά ασκήσεων Διακριτά και Συνεχή Κανάλια. Παράδοση: Έως 22/6/2015

Ψηφιακή Επεξεργασία Εικόνας

ΠΛΗ21 Κεφάλαιο 2. ΠΛΗ21 Ψηφιακά Συστήματα: Τόμος Α Κεφάλαιο: 2 Δυαδική Κωδικοποίηση

Διακριτά Μαθηματικά ΙΙ Χρήστος Νομικός Τμήμα Μηχανικών Η/Υ και Πληροφορικής Πανεπιστήμιο Ιωαννίνων 2018 Χρήστος Νομικός ( Τμήμα Μηχανικών Η/Υ Διακριτά

Τηλεπικοινωνιακά Συστήματα ΙΙ

Τεράστιες ανάγκες σε αποθηκευτικό χώρο

Μελετάμε την περίπτωση όπου αποθηκεύουμε ένα (δυναμικό) σύνολο στοιχειών. Ένα στοιχείο γράφεται ως, όπου κάθε.

Συμπίεση Δεδομένων Δοκιμής (Test Data Compression) Νικολός Δημήτριος, Τμήμα Μηχ. Ηλεκτρονικών Υπολογιστών & Πληροφορικής, Παν Πατρών

Θεωρία τησ Πληροφορίασ (Θ) ΔΙΔΑΚΩΝ: Δρ. Αναςτάςιοσ Πολίτησ

Δομές Δεδομένων & Αλγόριθμοι

Δίαυλος Πληροφορίας. Η λειτουργία του περιγράφεται από:

Εισαγωγή στις Τηλεπικοινωνίες

a n + 6a n a n 2 + 8a n 3 = 0, a 0 = 1, a 1 = 2, a 2 = 8

Περιεχόμενα 1 Κωδικοποίησ η Πηγής 2 Χωρητικότητα Διακριτών Καναλιών 2 / 21

Εξομοίωση Τηλεπικοινωνιακού Συστήματος Βασικής Ζώνης

Μοντέλο Επικοινωνίας Δεδομένων. Επικοινωνίες Δεδομένων Μάθημα 6 ο

ΣΗΜΑΤΑ ΚΑΙ ΣΥΣΤΗΜΑΤΑ. Εισαγωγή στα Σήµατα Εισαγωγή στα Συστήµατα Ανάπτυγµα - Μετασχηµατισµός Fourier Μετασχηµατισµός Z

ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΥΠΡΟΥ, ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

7ο ΕΡΓΑΣΤΗΡΙΟ AAAABBBBAAAAABBBBBBCCCCCCCCCCCCCCBBABAAAABBBBBBCCCCD

Κατηγορίες Συμπίεσης. Συμπίεση με απώλειες δεδομένων (lossy compression) π.χ. συμπίεση εικόνας και ήχου

Ασκήσεις στο µάθηµα «Επισκόπηση των Τηλεπικοινωνιών»

Συστήµατα Πολυµέσων Ενδιάµεση Εξέταση: Οκτώβριος 2004

Δίαυλος Πληροφορίας. Δρ. Α. Πολίτης

Δεύτερη Σειρά Ασκήσεων

ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΥΠΡΟΥ, ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

ΕΠΙΚΟΙΝΩΝΙΕΣ, ΔΙΚΤΥΑ & ΤΕΧΝΟΛΟΓΙΑ ΥΠΟΛΟΓΙΣΤΩΝ

Αρχές Τηλεπικοινωνιών

Παλμοκωδική Διαμόρφωση. Pulse Code Modulation (PCM)

Πανεπιστήμιο Πειραιά Τμήμα Ψηφιακών Συστημάτων. Κρυπτογραφία. Κρυπτοαλγόριθμοι. Χρήστος Ξενάκης

Θεωρία της Πληροφορίας 3 ο Εξάμηνο

Διακριτά Μαθηματικά ΙΙ Χρήστος Νομικός Τμήμα Μηχανικών Η/Υ και Πληροφορικής Πανεπιστήμιο Ιωαννίνων 2018 Χρήστος Νομικός ( Τμήμα Μηχανικών Η/Υ Διακριτά

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 4η διάλεξη (4η έκδοση, 11/3/2013)

Αρχές κωδικοποίησης. Τεχνολογία Πολυμέσων και Πολυμεσικές Επικοινωνίες 08-1

Παλμοκωδική Διαμόρφωση. Pulse Code Modulation (PCM)

Συμπίεση Πολυμεσικών Δεδομένων

Τεχνολογία Πολυμέσων. Ενότητα # 8: Αρχές κωδικοποίησης Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Τηλεπικοινωνιακά Συστήματα Ι

Γραφική αναπαράσταση ενός ψηφιακού σήµατος

Απαντήσεις σε απορίες

5. Απλή Ταξινόμηση. ομές εδομένων. Χρήστος ουλκερίδης. Πανεπιστήμιο Πειραιώς Σχολή Τεχνολογιών Πληροφορικής και Επικοινωνιών Τμήμα Ψηφιακών Συστημάτων

ΕΡΓΑΣΤΗΡΙΑΚΗ ΑΣΚΗΣΗ: ΑΝΙΧΝΕΥΣΗ ΣΦΑΛΜΑΤΩΝ ΣΕ ΤΗΛΕΠΙΚΟΙΝΩΝΙΑΚΑ ΔΙΚΤΥΑ

Μάθημα 7 ο. Συμπίεση Εικόνας ΤΜΗΥΠ / ΕΕΣΤ 1

Πρόλογος 1. 1 Μαθηµατικό υπόβαθρο 9

ΕΡΓΑΣΤΗΡΙΟ ΑΝΑΛΟΓΙΚΩΝ & ΨΗΦΙΑΚΩΝ ΕΠΙΚΟΙΝΩΝΙΩΝ

Ψηφιακή Επεξεργασία Σημάτων

Ψηφιακή Επεξεργασία και Ανάλυση Εικόνας Ενότητα 6 η : Συμπίεση Εικόνας. Καθ. Κωνσταντίνος Μπερμπερίδης Πολυτεχνική Σχολή Μηχανικών Η/Υ & Πληροφορικής

Αναγνώριση Προτύπων Ι

ΕΡΓΑΣΤΗΡΙΟ ΑΝΑΛΟΓΙΚΩΝ & ΨΗΦΙΑΚΩΝ ΕΠΙΚΟΙΝΩΝΙΩΝ

II. Τυχαίες Μεταβλητές

Αθανάσιος Χρ. Τζέμος Τομέας Θεωρητικής Φυσικής. Εντροπία Shannon

Αριθμητική Κωδικοποίηση

1 Αριθμητική κινητής υποδιαστολής και σφάλματα στρογγύλευσης

Transcript:

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ Κεφάλαιο 3 : Πηγές Πληροφορίας Χρήστος Ξενάκης Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Περιεχόμενα Διακριτές Πηγές Πληροφορίας χωρίς μνήμη Ποσότητα πληροφορίας της πηγής Κωδικοποίηση πηγής Αλγόριθμοι κωδικοποίησης Διακριτές Πηγές Πληροφορίας με μνήμη Πηγές Markoff Εντροπία των πηγών Markoff Ζητήματα κωδικοποίησης των πηγών Markoff Σελίδα-2

Πηγές Πληροφορίας ρ Η έξοδος της πηγής είναι κάτι τυχαίο και άγνωστο μια τυχαία διαδικασία Αν είναι κάτι σταθερό, δεν υπάρχει λόγος να το μεταδώσουμε... Παραδείγματα πηγών πληροφορίας: Ήχος, ομιλία, εικόνα, video Bits, χαρακτήρες ASCII Διάκριση ως προς το χρόνο: συνεχούς χρόνου (π.χ. αναλογικό ηχητικό σήμα) διακριτού χρόνου (δειγματοληπτημένο σήμα, bits) Διάκριση ως προς τις δυνατές τιμές (αλφάβητο): συνεχείς τιμές (π.χ. αναλογικό σήμα) διακριτές τιμές (π.χ. ASCII) Σελίδα-3

Πηγές Πληροφορίας ρ Μετατροπή πηγής από συνεχή σε διακριτού χρόνου δειγματοληψία το σήμα πρέπει να έχει πεπερασμένο εύρος ζώνης αν είναι κατωπερατό με μέγιστη συχνότητα f max, τότε η συνθήκη Nyquist μας λέει ότι αρκεί να το δειγματοληπτήσω με f s 2 f max τότε μπορώ να ανακατασκευάσω το αναλογικό σήμα από τα δείγματα χωρίς απώλειες Οι πηγές που μας ενδιαφέρουν, έχουν περιορισμένο εύρος ζώνης ή μπορούμε να το περιορίσουμε εμείς με φιλτράρισμα Συμπέρασμα: αρκεί να μελετήσω τις πηγές διακριτού χρόνου Σελίδα-4

Διακριτή Πηγή Χωρίς ρςμνήμη Discrete Memoryless Source (DMS): διακριτού χρόνου διακριτού αλφαβήτου τα σύμβολα στην έξοδό της είναι ανεξάρτητα ακολουθούν την ίδια κατανομή πιθανότητας Περιγράφεται πλήρως από: s,, 1 s N το αλφάβητο και τις πιθανότητες εμφάνισης p, 1, p N Ειδικές Περιπτώσεις: Δυαδική Πηγή Χωρίς Μνήμη: 01 0,1 p,1 p Για p=0.5, Δυαδική Συμμετρική Πηγή Χωρίς Μή Μνήμη Σελίδα-5

Εντροπία Η εντροπία μιας DMS ορίζεται ρζ ως Φυσική Σημασία: N log 2 H pi s p p i i i i i1 i1 N εκφράζει τη μέση αβεβαιότητα που έχω για την πηγή είναι ο μέσος όρος της πληροφορίας των συμβόλων Όσο μεγαλύτερη εντροπία έχει μια πηγή, τόσο περισσότερη πληροφορία φέρει, και τόσο περισσότερα bits χρειάζονται για την κωδικοποίησή της Σελίδα-6

Συνάρτηση ρηηδυαδικής εντροπίας Αν έχω δυαδική DMS Φ={0,1}, με πιθανότητες εμφάνισης {p,1-p}, τότε ορίζεται η συνάρτηση δυαδικής εντροπίας H p plog p 1 p log 1 p b 2 2 Παρατηρήσεις: 1. ελαχιστοποιείται όταν p=0 ή 1, Η(0)=Η(1)=0 Η(1) 0 2. μεγιστοποιείται όταν τα σύμβολα είναι ισοπίθανα, Η(0.5)=1 1 Σελίδα-7

Πλεονασμός μιας πηγής πληροφορίας max H( S) H( S) H( S) H( S) ό 1 1 max H ( S ) max H ( S ) log n Ο πλεονασμός μιας πηγής πληροφορίας οφείλεται στους παρακάτω λόγους: Στο γεγονός ότι τα σύμβολα της πηγής είναι μη ισοπίθανα Στη πιθανότητα η πηγή πληροφορίας να παρουσιάζει μνήμη. Σελίδα-8

Ρυθμός Παροχής Εντροπίας Αν μια πηγή πληροφορίας εκπέμπει σύμβολα με ρυθμό συμβόλων (σε σύμβολα /sec) και η πηγή παρουσιάζει εντροπία (σε bits / σύμβολο) τότε ο ρυθμός παροχής πληροφορίας από την πηγή (σε bits / sec) βρίσκεται άμεσα από τη σχέση: R r Hbits s / sec Σελίδα-9

Κωδικοποίηση Πηγής Στόχος: η αποδοτική αναπαράσταση / κωδικοποίηση / συμπίεση της πληροφορίας/σήματος/εξόδου μιας πηγής Η διαδικασία μετατροπής των ακολουθιών συμβόλων που παράγει η πηγή σε ακολουθίες συμβόλων κάποιου κώδικα (συνήθως δυαδικές ακολουθίες) ) έτσι ώστε να αφαιρείται ο πλεονασμός και να προκύπτει συμπιεσμένη αναπαράσταση των μηνυμάτων ονομάζεται κωδικοποίηση πηγής ή συμπίεση Σελίδα-10

Κωδικοποίηση Πηγής Βασικό χαρακτηριστικό κάθε κώδικα είναι ο αριθμός των bits που χρησιμοποιεί για να παραστήσει το κάθε σύμβολο. Αν ένας κώδικας χρησιμοποιεί μαριθμόbits, oαριθμός των δυνατών συνδυασμών των συμβόλων που μπορεί να περιγράψει με αυτά θα είναι ίσος με 2 μ. Αν ένας κώδικας έχει ως στόχο την κωδικοποίηση N διαφορετικών συμβόλων τότε ο αριθμός μ των bits που θα πρέπει να χρησιμοποιήσει δίνεται από τη σχέση: 2 μ-1 Ν 2 μ Σελίδα-11

Κωδικοποίηση πηγής Στόχος: Η αποδοτική αναπαράσταση μιας Μιαδικής πηγής Κώδικα σταθερού μήκους: το μήκος των κωδικών λέξεων είναι σταθερό για κάθε σύμβολο πηγής. Παράδειγμα τέτοιου κώδικα είναι ο κώδικας ASCII Κώδικα μεταβλητού μήκους: Τα σύμβολα της πηγής που έχουν μεγαλύτερη πιθανότητα εμφάνισης αντιστοιχίζονται χζ σε μικρότερες ρ κωδικές λέξεις και αντιστρόφως. Έτσι το συνολικό μήκος του κωδικού μηνύματος μπορεί να προκύψει μικρότερο από το αρχικό μήνυμα. Παράδειγμα τέτοιου κώδικα είναι ο κώδικας Morse Σελίδα-12

Κωδικοποίηση πηγής Ανάλογα με το πόσο είναι δυνατή και εύκολη η αποκωδικοποίηση ενός κωδικού μηνύματος από το δέκτη οι κώδικες χωρίζονται σε: Ευκρινείς κώδικες (non-singular): χρησιμοποιεί διαφορετική κωδική λέξη για κάθε σύμβολο ή λέξη πληροφορίας. Η ευκρίνεια του κώδικα είναι η πρώτη προϋπόθεση για να υπάρχει δυνατότητα αποκωδικοποίησης. Μονοσήμαντοι κώδικες (uniquely decodable): χαρακτηρίζεται αν κάθε κωδική λέξη αναγνωρίζεται μέσα σε μακρά διαδοχή κωδικών συμβόλων. Δύο οποιαδήποτε μηνύματα πληροφορίας αντιστοιχίζονται με μονοσήμαντο κώδικα σε δύο διαφορετικά κωδικά μηνύματα. Στιγμιαία αποκωδικοποιήσιμοι κώδικες (instantaneous t code): είναι κάθε μονοσήμαντος κώδικας (uniquely decodable), ο οποίος επιτρέπει αποκωδικοποίηση των μηνυμάτων λέξη προς λέξη χωρίς να απαιτείται εξέταση επόμενων κωδικών συμβόλων. Σελίδα-13

Ταξινόμηση κωδίκων με βάση την αποκωδικοποίηση Σελίδα-14

Κωδικοποίηση πηγής Μέσο μήκος κώδικα: εκφράζει το μέσο πλήθος δυαδικών ψηφίων ανά σύμβολο πηγής τα οποία χρησιμοποιούνται στη διαδικασία της κωδικοποίησης. N L p si l s i11 Αποδοτικότητα κώδικα: Αν L min η ελάχιστη δυνατή τιμή του τότε μπορούμε να ορίσουμε την αποδοτικότητα του κώδικα ως: i n L min L Σελίδα-15

Θεώρημα Κωδικοποίησης Πηγής ή «Το Πρώτο Θεώρημα του Shannon» (1948) Χρησιμότητα: πόσο μπορούμε να συμπιέσουμε μια πηγή χωρίς να εισάγουμε σφάλματα; Θεώρημα: Έστω πηγή με εντροπία H που κωδικοποιείται ώστε να παρέχει ρχ ρυθμό R(bits/ (bits/έξοδο πηγής). Αν R>H, η πηγή μπορεί να κωδικοποιηθεί με οσοδήποτε μικρή πιθανότητα σφάλματος Αν R<H, όσο πολύπλοκος κι αν είναι ο κωδικοποιητής πηγής, η πιθανότητα σφάλματος θα είναι μακριά από το 0 Σχόλια: Όπου R μπορείτε να θεωρήσετε το μέσο μήκος κώδικα (\bar{l}) ο Shannon δίνει την ικανή και αναγκαία συνθήκη όμως δεν προτείνει κάποιον αλγόριθμο/μεθοδολογία λό / θ λ για να φτιάξουμε έναν κωδικοποιητή όταν R>H R<H : Data compression, Rate-Distortion Theory Σελίδα-16

Προθεματικοί κώδικες Αλγόριθμοι κωδικοποίησης (συμπίεσης) πηγής Επιτυγχάνουν ρυθμούς κωδικοποίησης κοντά στην εντροπία (στο όριο συμπίεσης χωρίς απώλειες) Κωδικοποίηση από σταθερό σε μεταβλητό μήκος: είσοδος: μπλοκ συμβόλων σταθερού μήκους (μήκος μπλοκ 1) έξοδος: μπλοκ bits μεταβλητού μήκους (κωδική λέξη) Πρόβλημα: Συγχρονισμός πώς μπορώ να βρω τα όρια των μπλοκ στην έξοδο για να γίνει η αποκωδικοποίηση Λύση: Προθεματικός Καμία κωδική λέξη δεν αποτελεί πρόθεμα κάποιας άλλης μοναδικά αποκωδικοποιήσιμος (κάθε έξοδος αντιστοιχεί σε μοναδική είσοδο) άμεσος (επιτρέπει απευθείας αποκωδικοποίηση) Σελίδα-17

Παραδείγματα Κωδίκων Source Symbol Probability Code 1 Code 2 Code 3 s 0 0.5 0 0 0 s 1 0.25 1 10 01 s 2 0.125 10 110 011 s 3 0.125 11 111 0111 Uniquely decodable NO YES YES Prefix NO YES NO Σελίδα-18

Μέσο μήκος κώδικα Έστω DMS με πιθανότητες εμφάνισης p(s i ) και ένας κωδικοποιητής πηγής που αναθέτει l(s i ) bits στο σύμβολο s i Εάν είναι προθεματικός κώδικας έχει τις εξής ιδιότητες: Kraft-McMillan inequality (αναγκαία και ικανή) N i1 l( si ) 2 1 Φράγματα στο μέσο μήκος. Μπορεί να κατασκευαστεί προθεματικός για τον οποίο: H X L H X 1 Σελίδα-19

Αποδοτικότητα Κώδικα Η αποδοτικότητα ενός κώδικα ορίζεται ως H X 1 L και δείχνει πόσο κοντά βρίσκεται ο κωδικοποιητής στο όριο συμπίεσης της πηγής (εντροπία) Ένας κώδικας είναι αποδοτικός, όσο το η πλησιάζει στο 1 Σελίδα-20

Ν-οστής Τάξης Επέκτασης Πηγής Ο προθεματικός κώδικας (π.χ. ο αλγόριθμος Huffman) θεωρεί ένα μπλοκ από σύμβολα ως επεκτεταμένη είσοδο και τα κωδικοποιεί ως ένα σύνθετο σύμβολο, δηλαδή έστω s i και s j θέτει σ κ =(s i,s j ) με πιθανότητα εμφάνισης p(σ κ )=p(s i )p(s j ) για πηγή χωρίς μνήμη Γενικεύεται σε n-οστή επέκταση της πηγής και ισχύει n n n 1 H X L H X Για επεκταμένη πηγή χωρίς μνήμη αποδεικνύεται ότι: n nh X H X Σελίδα-21

Ν-οστής Τάξης Επέκτασης Πηγής Προκύπτει H X L H X n 1 n Συμπέρασμα: Η n-οστής τάξης επέκταση μιας πηγής αποφέρει κώδικες που είναι ολοένα και πιο κοντά στο όριο συμπίεσης (εντροπία) ρ της πηγής 1 n lim L H X n Σελίδα-22

Αλγόριθμος Shannon 1. Τα σύμβολα της πηγής πληροφορίας συντάσσονται στη σειρά με κριτήριο την πιθανότητα τους (από την μέγιστη στην ελάχιστη πιθανότητα). 2. Σε κάθε σύμβολο πληροφορίας αντιστοιχίζεται ένας αριθμός με την λογική που περιγράφεται στο παρακάτω σχήμα: Σελίδα-23

Αλγόριθμος Shannon 3. Το μήκος της κωδικής λέξης που αντιστοιχεί στο σύμβολο πληροφορίας είναι ο ελάχιστος ακέραιος που ικανοποιεί την ταυτοανισότητα l i 1 l log 2 i p( xi) 1 px ( i ) 4. Οι δεκαδικοί αριθμοί, όπου μετατρέπονται σε δυαδικούς αριθμούς και από τους τελευταίους διατηρούνται μόνο σημαντικά ψηφία τα οποία θα αποτελέσουν τις αντίστοιχες κωδικές λέξεις για τα σύμβολα πληροφορίας Σελίδα-24

Παράδειγμα κωδικοποίησης ης Shannon Έστω πηγή πληροφορίας X { x1, x2,..., x M } με κατανομή πιθανότητας px ( ) {0.5,0.3,0.1,0.1} Βήμα 1 είναι έτοιμο (σωστά διατεταγμένα σύμβολα). 1 0 0.0 0.00000... Βήμα 2 0.5 0.5 010000 0.10000... 2 1 0.3 0.8 0.11001... 3 2 0.1 0.9 0.11100... 4 3 Σελίδα-25

Παράδειγμα κωδικοποίησης ης Shannon Βήμα 3 l1 2 (0.5) 1 l 1 l2 2 (0.3) 1l 2 l3 2 (0.1) 1 l 4 3 2 1 l 4 2 (0.1) 1 l l 4 4 Οι λέξεις κώδικα για τα X { x, x, x, x } θα είναι (0,10,1100,1110) 1 2 3 4 Σελίδα-26

Κωδικοποίηση η Shannon - Fano 1. Τα σύμβολα της πηγής πληροφορίας συντάσσονται στη σειρά με κριτήριο την πιθανότητα τους (από την μέγιστη στην ελάχιστη πιθανότητα). Για παράδειγμα: 2. Επιλέγεται συγκεκριμένη διάταξη για τα κωδικά σύμβολα ηοποία δεν αλλάζει σε καμία φάση της κωδικοποίησης αλλά και κατά την αποκωδικοποίηση η Σελίδα-27

Κωδικοποίηση η Shannon - Fano 3. Σχηματίζονται D ομάδες συμβόλων πηγής πληροφορίας με συγχώνευση γειτονικών συμβόλων. Οιπιθανότητες των συμβόλων που συμμετέχουν σε κάθε ομάδα αθροίζονται και το αποτέλεσμα επιδιώκεται να είναι όσο το δυνατόν πλησιέστερα στον αριθμό 1/D δηλαδή όλες οι ομάδες συμβόλων είναι κατά το δυνατόν ισοπίθανες. 4. Στα σύμβολα της πρώτης ομάδας αντιστοιχούμε σαν πρώτο κωδικό σύμβολο το γ1, της δεύτερης το γ2 κ.ο.κ. κ 5. Κάθε ομάδα συμβόλων την διαιρούμε σε D υποομάδες πάλι με το ίδιο κριτήριο (κατά το δυνατόν ισοπίθανες). Στα σύμβολα της κάθε υποομάδας αντιστοιχίζεται ως δεύτερο κωδικό σύμβολο ένα κωδικό σύμβολο με την προκαθορισμένη διάταξη. 6. Η συγκεκριμένη αναδρομική διαδικασία συνεχίζεται μέχρι να προκύψουν υποομάδες με ένα μόνο σύμβολο. Σελίδα-28

Παράδειγμα Κωδικοποίηση Shannon - Fano Έστω πηγή πληροφορίας X { x με κατανομή 1, x2, x3, x4, x5, x6, x7, x8} πιθανότητας Βήμα 1 px ( ) {0.25,0.25,0.125,0.125,0.0625,0.0625,0.0625,0.0625} Με βάση την κατανομή πιθανότητας βλέπουμε ότι τα σύμβολα πληροφορίας είναι διατεταγμένα σωστά (το βήμα (1) έχει πραγματοποιηθεί. Βήμα 2 Στο βήμα (2) επιλέγεται για τα σύμβολα του δυαδικού κώδικα Shannon-Fano ηδιάταξη(0,1). Ο παρακάτω πίνακας περιγράφει την σταδιακή κατασκευή του κώδικα: Σελίδα-29

Παράδειγμα κωδικοποίησης ης Shannon - Fano Σύμβολο Πιθανότητα 1ο βήμα 2ο Βήμα 3ο Βήμα 4ο Βήμα x 1 0.25 0 00 00 00 x 2 0.25 0 01 01 01 x 3 0.125 1 10 100 100 x 4 0.125 1 10 101 101 x 5 0.0625 1 11 110 1100 x 6 0.0625 1 11 110 1101 x 7 0.0625 1 11 111 1110 x 8 0.0625 1 11 111 1111 8 Σελίδα-30

Κωδικοποίηση πηγής Huffman Δημιουργία Δυαδικού Δέντρου: 1. Διάταξε τις εισόδους κατά φθίνουσα σειρά πιθανοτήτων 2. Συγχώνευσε τα δύο σύμβολα με τις μικρότερες πιθανότητες και δημιούργησε νέο «σύμβολο» 3. Αάθ Ανάθεσε στα δύοσύμβολα «0» και «1» 4. Ταξινόμησε εκ νέου τη λίστα των συμβόλων 5. Επανέλαβε ταπαραπάνω μέχρι όλατασύμβολα συγχωνευτούν σε ένα τελικό σύμβολο Δημιουργήθηκε η ένα δυαδικό δέντρο: ρίζα: το τελικό σύνθετο σύμβολο φύλλα: τα αρχικά σύμβολα ενδιάμεσοι κόμβοι: σύνθετα σύμβολα Σελίδα-31

Κωδικοποίηση η Πηγής Huffman Ανάθεση Bits σε Σύμβολα Εισόδου 1. Ξεκίνα από τη ρίζα και κινήσου προς ένα φύλλο 2. Η ακολουθία των bits που συναντώνται είναι η ακολουθία κωδικοποίησης 3. Επανέλαβε για όλα τα σύμβολα (φύλλα) Σελίδα-32

Παράδειγμα Κωδικοποίηση η Πηγής Huffman Προθεματική αντιστοίχηση: s 0 : 1 s 1 : 00 s 2 : 01 Μονοσήμαντη και άμεση αποκωδικοποίηση 1010001100 s s s s s s 0 2 1 2 0 1 Σελίδα-33

ΚΩΔΙΚΑΣ HUFFMAN S α 1 1 P i 0,4 0,4 0,4 0,4 0 0,6 α 2 00 0,3 0,3 0,3 00 0,3 1 0,4 α 3 011 01 0,1 01 0,1 010 02 0,2 01 03 0,3 α 4 0100 0,1 0100 0,1 011 0,1 α 5 01010 0,06 + 0101 0,1 α 6 01011 004 0,04 Σ. 1.0

Χαρακτηριστικά Huffman Μειονέκτημα: απαιτεί να γνωρίζει εκ των προτέρων τις πιθανότητες εμφάνισης των συμβόλων της πηγής δε μπορεί να χρησιμοποιηθεί θίσε εφαρμογές πραγματικού χρόνου Βέλτιστος: ανάμεσα σε όλους τους προθεματικούς κώδικες (άρα μονοσήμαντα αποκωδικοποιήσιμους και άμεσους) πετυχαίνει το ελάχιστο μέσο μήκος κώδικα Συμβάσεις: Ο τρόπος ανάθεσης 0 και 1 Η τοποθέτηση στην ταξινομημένη λίστα σε περίπτωση «ισοβαθμίας» σύνθετου συμβόλου με άλλο σύμβολο (σχετίζεται με τη διασπορά του κώδικα) Σελίδα-35

Εντροπία Πηγής με μήμη μνήμη Πηγή πληροφορίας ρ με μνήμη μήμη 1 ης τάξης (πηγή στην οποία η εκπομπή ενός συμβόλου εξαρτάται από το προηγούμενο σύμβολο που εκπέμφθηκε): m m m H( S) ph( K ) p P logp i i i ij ij i1 i1 j1 Ο ρυθμός εκπομπής πληροφορίας στο κανάλι για μία πηγή με μνήμη: R rh ( S ) s Σελίδα-36

Εντροπία Πηγής με μήμη μνήμη Οι μεταπτώσεις της μπορούν να περιγραφούν με τη μήτρα πιθανοτήτων μετάπτωσης δηλαδή τη μήτρα των P ij : Μία πηγή με μνήμη q συμβόλων μπορεί να περιγραφτεί με μήτρα P τα στοιχεία της οποίας είναι τιμές πιθανοτήτων μετάπτωσης: Σελίδα-37

Εντροπία πηγής με μήμη μνήμη π.χ. Ηπιθανότητα¾ της πρώτης γραμμής και πρώτης στήλης είναι η πιθανότητα να σταλεί το σύμβολο Α δεδομένου ότι έχει ήδη σταλεί το σύμβολο Α, ηπιθανότητα 1/3 της τρίτης γραμμής και δεύτερης στήλης ερμηνεύεται ως η πιθανότητα να σταλεί λί το σύμβολο Γ δεδομένου δ ότι έχει σταλεί το σύμβολο Β Σελίδα-38

Εντροπία πηγής με μήμη μνήμη Η προηγούμενη μήτρα μεταπτώσεων ισοδυναμεί με το επόμενο διάγραμμα καταστάσεων της πηγής: P A +P B +P Γ = 1 Έχουμε ένα σύστημα 4 εξισώσεων με 3 αγνώστους (P A, P Β, και P Γ ) το οποίο μπορεί να λυθεί Σελίδα-39