ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 3 : Πηγές Πληροφορίας Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Σχετικά έγγραφα
Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Ψηφιακές Τηλεπικοινωνίες

Τηλεπικοινωνιακά Συστήματα ΙΙ

Θεωρία Πληροφορίας. Διάλεξη 4: Διακριτή πηγή πληροφορίας χωρίς μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Συμπίεση Δεδομένων

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

Κωδικοποίηση Πηγής. Η λειτουργία ενός συστήματος επικοινωνίας (γενικό διάγραμμα):

Θεωρία Πληροφορίας. Διάλεξη 5: Διακριτή πηγή πληροφορίας με μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Σημείωμα Αδειοδότησης

Ψηφιακές Τηλεπικοινωνίες. Θεωρία Ρυθμού Παραμόρφωσης

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Ψηφιακές Τηλεπικοινωνίες

Συμπίεση χωρίς Απώλειες

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 2 : Πληροφορία και Εντροπία Διάλεξη: Κώστας Μαλιάτσος Χρήστος Ξενάκης, Κώστας Μαλιάτσος

Μάθημα Εισαγωγή στις Τηλεπικοινωνίες Κωδικοποίηση πηγής- καναλιού Μάθημα 9o

( ) log 2 = E. Σεραφείµ Καραµπογιάς

Δομές Δεδομένων και Αλγόριθμοι

Επεξεργασία Πολυµέσων. Δρ. Μαρία Κοζύρη Π.Μ.Σ. «Εφαρµοσµένη Πληροφορική» Τµήµα Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών Πανεπιστήµιο Θεσσαλίας

Εισαγωγή στη θεωρία πληροφορίας

Κωδικοποίηση Πηγής. Δρ. Α. Πολίτης

Θεώρημα κωδικοποίησης πηγής

Θέματα Συστημάτων Πολυμέσων

Θέματα Συστημάτων Πολυμέσων

Συμπίεση Πολυμεσικών Δεδομένων

ΚΕΦΑΛΑΙΟ ΠΕΜΠΤΟ ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ

Συμπίεση Δεδομένων

ΕΑΠ/ΠΛΗ22/ΑΘΗ-3. 3 η ΟΣΣ

ΕΑΠ/ΠΛΗ22/ΑΘΗ-4. 3 η ΟΣΣ

Μάθημα Επισκόπηση των Τηλεπικοινωνιών

ΕΑΠ/ΠΛΗ22/ΑΘΗ-4. 3 η ΟΣΣ

Αριθμητική Κωδικοποίηση

Ψηφιακές Τηλεπικοινωνίες

Τεχνολογία Πολυμέσων. Ενότητα # 9: Κωδικοποίηση εντροπίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Θεωρία τησ Πληροφορίασ (Θ) ΔΙΔΑΚΩΝ: Δρ. Αναςτάςιοσ Πολίτησ

ΗΜΥ 100 Εισαγωγή στην Τεχνολογία

Αναλογικά & Ψηφιακά Κυκλώματα ιαφάνειες Μαθήματος ρ. Μηχ. Μαραβελάκης Εμ.

Θεωρία πληροφοριών. Τεχνολογία Πολυµέσων 07-1

Τεχνολογία Πολυμέσων. Ενότητα # 7: Θεωρία πληροφορίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Κεφάλαιο 2 Πληροφορία και εντροπία

ιαφορική εντροπία Σεραφείµ Καραµπογιάς

Ψηφιακή Επεξεργασία Εικόνας

Σεραφείµ Καραµπογιάς. Πηγές Πληροφορίας και Κωδικοποίηση Πηγής 6.3-1

Τμήμα Μηχανικών Η/Υ και Πληροφορικής

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Ψηφιακή Μετάδοση Αναλογικών Σηµάτων

EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας 3η σειρά ασκήσεων Διακριτά και Συνεχή Κανάλια. Παράδοση: Έως 22/6/2015

Εξομοίωση Τηλεπικοινωνιακού Συστήματος Βασικής Ζώνης

Συμπίεση Δεδομένων

Θεωρία τησ Πληροφορίασ (Θ) ΔΙΔΑΚΩΝ: Δρ. Αναςτάςιοσ Πολίτησ

Δίαυλος Πληροφορίας. Η λειτουργία του περιγράφεται από:

Αρχές κωδικοποίησης. Τεχνολογία Πολυμέσων και Πολυμεσικές Επικοινωνίες 08-1

Απαντήσεις σε απορίες

Ασκήσεις στο µάθηµα «Επισκόπηση των Τηλεπικοινωνιών»

Αριθμητική Κωδικοποίηση

Δίαυλος Πληροφορίας. Δρ. Α. Πολίτης

Διακριτά Μαθηματικά ΙΙ Χρήστος Νομικός Τμήμα Μηχανικών Η/Υ και Πληροφορικής Πανεπιστήμιο Ιωαννίνων 2018 Χρήστος Νομικός ( Τμήμα Μηχανικών Η/Υ Διακριτά

Τεχνολογία Πολυμέσων. Ενότητα # 8: Αρχές κωδικοποίησης Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Θεωρία της Πληροφορίας 3 ο Εξάμηνο

Τηλεπικοινωνιακά Συστήματα ΙΙ

Αρχές κωδικοποίησης. Τεχνολογία Πολυµέσων 08-1

Κατηγορίες Συμπίεσης. Συμπίεση με απώλειες δεδομένων (lossy compression) π.χ. συμπίεση εικόνας και ήχου

Αρχές Τηλεπικοινωνιών

Μοντέλο Επικοινωνίας Δεδομένων. Επικοινωνίες Δεδομένων Μάθημα 6 ο

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 7-8 : Συστήματα Δειγματοληψία Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Δομές Δεδομένων & Αλγόριθμοι

7ο ΕΡΓΑΣΤΗΡΙΟ AAAABBBBAAAAABBBBBBCCCCCCCCCCCCCCBBABAAAABBBBBBCCCCD

Πληροφορική Ι. Μάθημα 9 ο Συμπίεση δεδομένων. Τμήμα Χρηματοοικονομικής & Ελεγκτικής ΤΕΙ Ηπείρου Παράρτημα Πρέβεζας. Δρ.

ΠΛΗ21 Κεφάλαιο 2. ΠΛΗ21 Ψηφιακά Συστήματα: Τόμος Α Κεφάλαιο: 2 Δυαδική Κωδικοποίηση

Ψηφιακές Τηλεπικοινωνίες. Βέλτιστος Δέκτης

Τεράστιες ανάγκες σε αποθηκευτικό χώρο

Συμπίεση Δεδομένων Δοκιμής (Test Data Compression) Νικολός Δημήτριος, Τμήμα Μηχ. Ηλεκτρονικών Υπολογιστών & Πληροφορικής, Παν Πατρών

ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΥΠΡΟΥ, ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

Δεύτερη Σειρά Ασκήσεων

Τετάρτη 5-12/11/2014. ΣΗΜΕΙΩΣΕΙΣ 3 ου και 4 ου ΜΑΘΗΜΑΤΟΣ ΕΙΔΙΚΟΤΗΤΑ: ΤΕΧΝΙΚΟΣ ΕΦΑΡΜΟΓΩΝ ΠΛΗΡΟΦΟΡΙΚΗΣ ΜΑΘΗΜΑ: ΑΡΧΙΤΕΚΤΟΝΙΚΗ Η/Υ Α ΕΞΑΜΗΝΟ

Συμπίεση Πολυμεσικών Δεδομένων

Εισαγωγή στις Τηλεπικοινωνίες

a n + 6a n a n 2 + 8a n 3 = 0, a 0 = 1, a 1 = 2, a 2 = 8

Παλμοκωδική Διαμόρφωση. Pulse Code Modulation (PCM)

Παλμοκωδική Διαμόρφωση. Pulse Code Modulation (PCM)

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 4η διάλεξη (4η έκδοση, 11/3/2013)

Ψηφιακή Επεξεργασία Σημάτων

27-Ιαν-2009 ΗΜΥ (ι) Βασική στατιστική (ιι) Μετατροπές: αναλογικό-σεψηφιακό και ψηφιακό-σε-αναλογικό

ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΥΠΡΟΥ,

ΤΕΛΟΣ 1ΗΣ ΑΠΟ 5 ΣΕΛΙ ΕΣ

Συστήµατα Πολυµέσων Ενδιάµεση Εξέταση: Οκτώβριος 2004

Μάθημα 7 ο. Συμπίεση Εικόνας ΤΜΗΥΠ / ΕΕΣΤ 1

Ψηφιακή Επεξεργασία και Ανάλυση Εικόνας Ενότητα 6 η : Συμπίεση Εικόνας. Καθ. Κωνσταντίνος Μπερμπερίδης Πολυτεχνική Σχολή Μηχανικών Η/Υ & Πληροφορικής

Ένα αναλογικό σήμα περιέχει άπειρες πιθανές τιμές. Για παράδειγμα ένας απλός ήχος αν τον βλέπαμε σε ένα παλμογράφο θα έμοιαζε με το παρακάτω:

ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΛΟΠΟΝΝΗΣΟΥ, ΤΜΗΜΑ ΤΕΧΝΟΛΟΓΙΑΣ ΤΗΛΕΠΙΚΟΙΝΩΝΙΩΝ

Πρόλογος 1. 1 Μαθηµατικό υπόβαθρο 9

ΕΠΙΚΟΙΝΩΝΙΕΣ, ΔΙΚΤΥΑ & ΤΕΧΝΟΛΟΓΙΑ ΥΠΟΛΟΓΙΣΤΩΝ

Τηλεπικοινωνιακά Συστήματα ΙΙ

Μελετάμε την περίπτωση όπου αποθηκεύουμε ένα (δυναμικό) σύνολο στοιχειών. Ένα στοιχείο γράφεται ως, όπου κάθε.

ΑΣΚΗΣΕΙΣ ΠΙΘΑΝΟΤΗΤΩΝ του Παν. Λ. Θεοδωρόπουλου 0

ΕΡΓΑΣΤΗΡΙΑΚΗ ΑΣΚΗΣΗ 4 ΠΑΛΜΟΚΩΔΙΚΗ ΔΙΑΜΟΡΦΩΣΗ - PCM (ΜΕΡΟΣ Α)

Συστήματα Πολυμέσων. Ενότητα 3: Εισαγωγικά θέματα Συμπίεσης. Θρασύβουλος Γ. Τσιάτσος Τμήμα Πληροφορικής ΑΡΙΣΤΟΤΕΛΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΟΝΙΚΗΣ

Περιεχόμενα 1 Κωδικοποίησ η Πηγής 2 Χωρητικότητα Διακριτών Καναλιών 2 / 21

Transcript:

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ Κεφάλαιο 3 : Πηγές Πληροφορίας Χρήστος Ξενάκης Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Περιεχόμενα Διακριτές Πηγές Πληροφορίας χωρίς μνήμη Ποσότητα πληροφορίας της πηγής Κωδικοποίηση πηγής Αλγόριθμοι κωδικοποίησης Διακριτές Πηγές Πληροφορίας με μνήμη Πηγές Markov Εντροπία των πηγών Markov Ζητήματα κωδικοποίησης των πηγών Markov Σελίδα-2

Πηγές Πληροφορίας Παραδείγματα πηγών πληροφορίας: Ήχος, ομιλία, εικόνα, video Bits, χαρακτήρες ASCII Η έξοδος της πηγής είναι κάτι τυχαίο και άγνωστο μια τυχαία διαδικασία Αν είναι κάτι σταθερό, δεν υπάρχει λόγος να το μεταδώσουμε... Διάκριση πηγών ως προς το χρόνο: συνεχούς χρόνου (π.χ. αναλογικό ηχητικό σήμα) διακριτού χρόνου (δειγματοληπτημένο σήμα, bits) Διάκριση πηγών ως προς τις δυνατές τιμές (αλφάβητο): συνεχείς τιμές (π.χ. αναλογικό σήμα) διακριτές τιμές (π.χ. ASCII) Σελίδα-3

Πηγές Πληροφορίας Μετατροπή πηγής από συνεχούς σε διακριτού χρόνου δειγματοληψία το σήμα πρέπει να έχει πεπερασμένο εύρος ζώνης αν είναι κατωπερατό με μέγιστη συχνότητα f max, τότε η συνθήκη Nyquist μας λέει ότι αρκεί να το δειγματοληπτήσω με τότε μπορώ να ανακατασκευάσω το αναλογικό σήμα από τα δείγματα χωρίς απώλειες Οι πηγές που μας ενδιαφέρουν, έχουν περιορισμένο εύρος ζώνης max ή μπορούμε να το περιορίσουμε εμείς με φιλτράρισμα Συμπέρασμα: αρκεί να μελετήσω τις πηγές διακριτού χρόνου fs 2 f Σελίδα-4

Διακριτή Πηγή Χωρίς Μνήμη Discrete Memoryless Source (DMS): διακριτού χρόνου διακριτού αλφαβήτου τα σύμβολα στην έξοδό της είναι ανεξάρτητα ακολουθούν την ίδια κατανομή πιθανότητας Περιγράφεται πλήρως από: το αλφάβητο s,, 1 sn και τις πιθανότητες εμφάνισης κάθε συμβόλου p,, 1 pn Ειδικές Περιπτώσεις: Δυαδική Πηγή Χωρίς Μνήμη: 0,1 p,1 p Για p=0.5, Δυαδική Συμμετρική Πηγή Χωρίς Μνήμη Σελίδα-5

Εντροπία Η εντροπία μιας DMS ορίζεται ως Φυσική Σημασία: N log 2 H p I s p p i i i i i1 i1 εκφράζει τη μέση αβεβαιότητα που έχω για την πηγή είναι ο μέσος όρος της πληροφορίας των συμβόλων Όσο μεγαλύτερη εντροπία έχει μια πηγή, τόσο περισσότερη πληροφορία φέρει, και τόσο περισσότερα bits χρειάζονται για την κωδικοποίησή της N Σελίδα-6

Συνάρτηση δυαδικής εντροπίας Αν έχω δυαδική DMS Φ={0,1}, με πιθανότητες εμφάνισης {p,1-p}, τότε ορίζεται η συνάρτηση δυαδικής εντροπίας H p plog p 1 p log 1 p b 2 2 Παρατηρήσεις: 1. ελαχιστοποιείται όταν p=0 ή 1, Η(0)=Η(1)=0 2. μεγιστοποιείται όταν τα σύμβολα είναι ισοπίθανα, Η(0.5)=1 Σελίδα-7

Πλεονασμός μιας πηγής πληροφορίας max H( S) H( S) H( S) H( S) ό 1 1 max H( S) max H( S) log n Ο πλεονασμός μιας πηγής πληροφορίας οφείλεται στους παρακάτω λόγους: Στο γεγονός ότι τα σύμβολα της πηγής είναι μη ισοπίθανα Στη πιθανότητα η πηγή πληροφορίας να παρουσιάζει μνήμη. Σελίδα-8

Ρυθμός Παροχής Εντροπίας Αν μια πηγή πληροφορίας εκπέμπει σύμβολα με ρυθμό συμβόλων r s (σε σύμβολα / sec) και η πηγή παρουσιάζει εντροπία H (σε bits / σύμβολο) τότε ο ρυθμός παροχής πληροφορίας R από την πηγή (σε bits / sec) βρίσκεται άμεσα από τη σχέση: R r Hbits s / sec Σελίδα-9

Κωδικοποίηση Πηγής Στόχος: η αποδοτική αναπαράσταση / κωδικοποίηση / συμπίεση της πληροφορίας/σήματος/εξόδου μιας πηγής Η διαδικασία μετατροπής των ακολουθιών συμβόλων που παράγει η πηγή σε ακολουθίες συμβόλων κάποιου κώδικα (συνήθως δυαδικές ακολουθίες) έτσι ώστε να αφαιρείται ο πλεονασμός και να προκύπτει συμπιεσμένη αναπαράσταση των μηνυμάτων ονομάζεται κωδικοποίηση πηγής ή συμπίεση Σελίδα-10

Κωδικοποίηση Πηγής Βασικό χαρακτηριστικό κάθε κώδικα είναι ο αριθμός των bits που χρησιμοποιεί για να παραστήσει το κάθε σύμβολο. Αν ένας κώδικας χρησιμοποιεί μ αριθμό bits, o αριθμός των δυνατών συνδυασμών των συμβόλων που μπορεί να περιγράψει με αυτά θα είναι ίσος με 2 μ. Αν ένας κώδικας έχει ως στόχο την κωδικοποίηση N διαφορετικών συμβόλων τότε ο αριθμός μ των bits που θα πρέπει να χρησιμοποιήσει δίνεται από τη σχέση: 2 μ-1 Ν 2 μ Σελίδα-11

Κωδικοποίηση πηγής Στόχος: Η αποδοτική αναπαράσταση μιας Μιαδικής πηγής Κώδικας σταθερού μήκους: το μήκος των κωδικών λέξεων είναι σταθερό για κάθε σύμβολο πηγής. Παράδειγμα τέτοιου κώδικα είναι ο κώδικας ASCII Κώδικας μεταβλητού μήκους: Τα σύμβολα της πηγής που έχουν μεγαλύτερη πιθανότητα εμφάνισης αντιστοιχίζονται σε μικρότερες κωδικές λέξεις και αντιστρόφως. Έτσι το συνολικό μήκος του κωδικού μηνύματος μπορεί να προκύψει μικρότερο από το αρχικό μήνυμα. Παράδειγμα τέτοιου κώδικα είναι ο κώδικας Morse Σελίδα-12

Κωδικοποίηση πηγής Ανάλογα με το πόσο είναι δυνατή και εύκολη η αποκωδικοποίηση ενός κωδικού μηνύματος από το δέκτη οι κώδικες χωρίζονται σε: Ευκρινείς κώδικες (non-singular): χρησιμοποιούν διαφορετική κωδική λέξη για κάθε σύμβολο ή λέξη πληροφορίας. Η ευκρίνεια του κώδικα είναι η πρώτη προϋπόθεση για να υπάρχει δυνατότητα αποκωδικοποίησης. Μονοσήμαντους κώδικες (uniquely decodable): εκείνους για τους οποίους κάθε κωδική λέξη αναγνωρίζεται μέσα σε μακρά διαδοχή κωδικών συμβόλων. Δύο οποιαδήποτε μηνύματα πληροφορίας αντιστοιχίζονται με μονοσήμαντο κώδικα σε δύο διαφορετικά κωδικά μηνύματα. Στιγμιαία αποκωδικοποιήσιμους κώδικες (instantaneous): εκείνους που είναι μονοσήμαντοι κώδικες (uniquely decodable) και επιτρέπουν αποκωδικοποίηση των μηνυμάτων λέξη προς λέξη χωρίς να απαιτείται εξέταση επόμενων κωδικών συμβόλων. Σελίδα-13

Ταξινόμηση κωδίκων με βάση την αποκωδικοποίηση Σελίδα-14

Κωδικοποίηση πηγής Θεωρούμε τους ακόλουθους κώδικες I, II, III, και IV I II III IV φ 0 00 1 1 χ 10 01 10 01 ψ 01 10 100 001 ω 1 11 1000 0001 Ζητείται να εξετάσετε αν οι κώδικες I, II, III και IV είναι: 1. Ευκρινείς 2. Μονοσήμαντοι 3. Στιγμιαία αποκωδικοποιήσιμοι Σελίδα-15

Κωδικοποίηση πηγής Λύση Όλοι οι κώδικες είναι ευκρινείς, αφού ο καθένας αποτελείται από διαφορετικές κωδικές λέξεις Όλοι οι κώδικες είναι μονοσήμαντοι (μοναδικά αποκωδικοποιήσιμοι) εκτός του I. Σε σχέση με τον κώδικα I, παρατηρούμε ότι η ακολουθία κωδικών λέξεων 1001 θα μπορούσε να προκύψει από διάφορες ακολουθίες συμβόλων όπως χψ ή χφω κ.λ.π Μόνο οι κώδικες II και IV είναι άμεσοι/στιγμιαία αποκωδικοποιήσιμοι. Στην περίπτωση του κώδικα I, αν ο δέκτης λάβει το 0 δεν θα ξέρει αν είναι η πρώτη κωδική λέξη ή το 1 ο κωδικό σύμβολο της 3 ης κωδικής λέξης Σχετικά με τον κώδικα III, όταν ο δέκτης λάβει τα 10 δεν μπορεί να ξέρει αν είναι η 2 η κωδική λέξη ή τα 2 πρώτα σύμβολα της 3 ης λέξης. Σελίδα-16

Κωδικοποίηση πηγής Μέσο μήκος κώδικα: εκφράζει το μέσο πλήθος, ανά σύμβολο πηγής, δυαδικών ψηφίων που χρησιμοποιούνται στη διαδικασία της κωδικοποίησης. L N i1 p s l s i i Αποδοτικότητα κώδικα: Αν L min η ελάχιστη δυνατή τιμή του μήκους κώδικα, τότε μπορούμε να ορίσουμε την αποδοτικότητα του κώδικα ως: n L min L Σελίδα-17

Θεώρημα Κωδικοποίησης Πηγής ή «Το Πρώτο Θεώρημα του Shannon» (1948) Χρησιμότητα: πόσο μπορούμε να συμπιέσουμε μια πηγή χωρίς να εισάγουμε σφάλματα; Θεώρημα: Έστω πηγή με εντροπία H που κωδικοποιείται ώστε να παρέχει ρυθμό L (bits/έξοδο πηγής). Αν L>H, η πηγή μπορεί να κωδικοποιηθεί με οσοδήποτε μικρή πιθανότητα σφάλματος Αν L<H, όσο πολύπλοκος κι αν είναι ο κωδικοποιητής πηγής, η πιθανότητα σφάλματος θα είναι μακριά από το 0 Σχόλια: Όπου L μπορείτε να θεωρήσετε το μέσο μήκος κώδικα ο Shannon δίνει την ικανή και αναγκαία συνθήκη όμως δεν προτείνει κάποιον αλγόριθμο/μεθοδολογία για να φτιάξουμε έναν κωδικοποιητή όταν L>H L<H : Data compression, Rate-Distortion Theory (lossy data compression) Σελίδα-18

Lossy data compression Low compression (high quality) JPEG High compression (low quality) JPEG Σελίδα-19

Lossy data compression Σελίδα-20

Lossy data compression Σελίδα-21

Lossy data compression Σελίδα-22

Προθεματικοί κώδικες Αλγόριθμοι κωδικοποίησης (συμπίεσης) πηγής Επιτυγχάνουν ρυθμούς κωδικοποίησης κοντά στην εντροπία (στο όριο συμπίεσης χωρίς απώλειες) Κωδικοποίηση από σταθερό σε μεταβλητό μήκος: είσοδος: μπλοκ συμβόλων σταθερού μήκους (μήκος μπλοκ 0 1 ) έξοδος: μπλοκ bits μεταβλητού μήκους (κωδική λέξη) Πρόβλημα: Συγχρονισμός πώς μπορώ να βρω τα όρια των μπλοκ στην έξοδο για να γίνει η αποκωδικοποίηση Λύση: Προθεματικός κώδικας Καμία κωδική λέξη δεν αποτελεί πρόθεμα κάποιας άλλης μοναδικά αποκωδικοποιήσιμος (κάθε έξοδος αντιστοιχεί σε μοναδική είσοδο) άμεσος (επιτρέπει απευθείας αποκωδικοποίηση) Σελίδα-23

Παραδείγματα Κωδίκων Source Symbol Probability Code 1 Code 2 Code 3 s 0 0.5 0 0 0 s 1 0.25 1 10 01 s 2 0.125 00 110 011 s 3 0.125 11 111 0111 Uniquely decodable Prefix Σελίδα-24

Αποδοτικότητα Κώδικα Η αποδοτικότητα ενός κώδικα ορίζεται ως και δείχνει πόσο κοντά βρίσκεται ο κωδικοποιητής στο όριο συμπίεσης της πηγής (εντροπία) H X 1 L Ένας κώδικας είναι περισσότερο αποδοτικός, όσο το η πλησιάζει περισσότερο στο 1 Σελίδα-25

Να βρείτε την αποδοτικότητα κάθε κώδικα Source Symbol Probability Code 1 Code 2 Code 3 s 0 0.5 0 0 0 s 1 0.25 1 10 01 s 2 0.125 10 110 011 s 3 0.125 11 111 0111 H(X) L η Σελίδα-26

Αλγόριθμος Shannon 1. Τα σύμβολα της πηγής πληροφορίας διατάσσονται με κριτήριο την πιθανότητα εμφάνισής τους (από την μέγιστη στην ελάχιστη πιθανότητα). 2. Σε κάθε σύμβολο πληροφορίας αντιστοιχίζεται ένας αριθμός με τη λογική που περιγράφεται στο παρακάτω σχήμα: Σελίδα-27

Αλγόριθμος Shannon 3. Το μήκος της κωδικής λέξης που αντιστοιχεί στο σύμβολο πληροφορίας είναι ο ελάχιστος ακέραιος που ικανοποιεί την ταυτοανισότητα l i 1 l log 2 i p( xi) 1 px ( i ) 4. Οι δεκαδικοί αριθμοί μετατρέπονται σε δυαδικούς αριθμούς και από τους τελευταίους διατηρούνται μόνο l i σημαντικά ψηφία τα οποία θα αποτελέσουν τις αντίστοιχες κωδικές λέξεις για τα σύμβολα πληροφορίας Σελίδα-28

Σελίδα-29

Σελίδα-30

Παράδειγμα κωδικοποίησης Shannon Έστω πηγή πληροφορίας με κατανομή πιθανότητας X { x, x, x, x } 1 2 3 4 Βήμα 1 px ( ) {0.5,0.3,0.1,0.1} είναι έτοιμο (σωστά διατεταγμένα σύμβολα). Βήμα 2 1 0 0.0 0.00000... 0.5 0.5 0.10000... 2 1 0.3 0.8 0.11001... 3 2 0.1 0.9 0.11100... 4 3 Σελίδα-31

Παράδειγμα κωδικοποίησης Shannon Βήμα 3 l1 2 (0.5) 1 l 1 l2 2 (0.3) 1 l 2 l3 2 (0.1) 1 l 4 3 2 1 l4 2 (0.1) 1 l 4 4 Οι λέξεις κώδικα για τα θα είναι X { x, x, x, x } 1 2 3 4 (0,10,1100,1110) Σελίδα-32

Κωδικοποίηση Shannon - Fano 1. Τα σύμβολα της πηγής πληροφορίας διατάσσονται με κριτήριο την πιθανότητα εμφάνισής τους (από τη μέγιστη στην ελάχιστη πιθανότητα). Για παράδειγμα: 2. Επιλέγεται συγκεκριμένη διάταξη για τα κωδικά σύμβολα, η οποία δεν αλλάζει σε καμία φάση της κωδικοποίησης αλλά και κατά την αποκωδικοποίηση Σελίδα-33

Κωδικοποίηση Shannon - Fano 3. Σχηματίζονται D ομάδες συμβόλων πηγής πληροφορίας με συγχώνευση γειτονικών συμβόλων. Οι πιθανότητες των συμβόλων που συμμετέχουν σε κάθε ομάδα αθροίζονται και το αποτέλεσμα επιδιώκεται να είναι όσο το δυνατόν πλησιέστερα στον αριθμό 1/D δηλαδή όλες οι ομάδες συμβόλων είναι κατά το δυνατόν ισοπίθανες. 4. Στα σύμβολα της πρώτης ομάδας αντιστοιχούμε σαν πρώτο κωδικό σύμβολο το γ1, της δεύτερης το γ2 κ.ο.κ. 5. Κάθε ομάδα συμβόλων τη διαιρούμε σε D υποομάδες πάλι με το ίδιο κριτήριο (κατά το δυνατόν ισοπίθανες). Στα σύμβολα της κάθε υποομάδας αντιστοιχίζεται ως δεύτερο κωδικό σύμβολο ένα κωδικό σύμβολο με την προκαθορισμένη διάταξη. 6. Η συγκεκριμένη επαναληπτική διαδικασία συνεχίζεται μέχρι να προκύψουν υποομάδες με ένα μόνο σύμβολο. Σελίδα-34

Παράδειγμα Κωδικοποίηση Shannon - Fano Έστω πηγή πληροφορίας με κατανομή πιθανότητας X { x, x, x, x, x, x, x, x } 1 2 3 4 5 6 7 8 Βήμα 1 Με βάση την κατανομή πιθανότητας βλέπουμε ότι τα σύμβολα πληροφορίας είναι διατεταγμένα σωστά (το βήμα (1) έχει πραγματοποιηθεί. Βήμα 2 px ( ) {0.25,0.25,0.125,0.125,0.0625,0.0625,0.0625,0.0625} Στο βήμα (2) επιλέγεται για τα σύμβολα του δυαδικού κώδικα Shannon-Fano η διάταξη (0,1). Ο παρακάτω πίνακας περιγράφει τη σταδιακή κατασκευή του κώδικα: Σελίδα-35

Παράδειγμα κωδικοποίησης Shannon - Fano Σύμβολο Πιθανότητα 1ο βήμα 2ο Βήμα 3ο Βήμα 4ο Βήμα x 1 0.25 0 00 00 00 x 2 0.25 0 01 01 01 x 3 0.125 1 10 100 100 x 4 0.125 1 10 101 101 x 5 0.0625 1 11 110 1100 x 6 0.0625 1 11 110 1101 x 7 0.0625 1 11 111 1110 x 8 0.0625 1 11 111 1111 Σελίδα-36

Κωδικοποίηση πηγής Huffman Δημιουργία Δυαδικού Δέντρου: 1. Διάταξε τις εισόδους κατά φθίνουσα σειρά πιθανοτήτων 2. Συγχώνευσε τα δύο σύμβολα με τις μικρότερες πιθανότητες και δημιούργησε νέο «σύμβολο» 3. Ανάθεσε στα δύο σύμβολα τις τιμές «0» και «1» 4. Ταξινόμησε εκ νέου τη λίστα των συμβόλων 5. Επανάλαβε τα παραπάνω μέχρι όλα τα σύμβολα να συγχωνευτούν σε ένα τελικό σύμβολο Δημιουργήθηκε ένα δυαδικό δέντρο: ρίζα: το τελικό σύνθετο σύμβολο φύλλα: τα αρχικά σύμβολα ενδιάμεσοι κόμβοι: σύνθετα σύμβολα Σελίδα-37

Κωδικοποίηση Πηγής Huffman Ανάθεση Bits σε Σύμβολα Εισόδου 1. Ξεκίνα από τη ρίζα και κινήσου προς ένα φύλλο 2. Η ακολουθία των bits που συναντώνται είναι η ακολουθία κωδικοποίησης 3. Επανάλαβε για όλα τα σύμβολα (φύλλα) Σελίδα-38

Παράδειγμα Κωδικοποίησης Πηγής Huffman Προθεματική αντιστοίχιση: s 0 : 1 s 1 : 00 s 2 : 01 Μονοσήμαντη και άμεση αποκωδικοποίηση 1010001100 s s s s s s 0 2 1 2 0 1 Σελίδα-39

ΚΩΔΙΚΑΣ HUFFMAN S P i α 1 1 0,4 0,4 0,4 0,4 0 0,6 α 2 00 0,3 0,3 0,3 00 0,3 1 0,4 α 3 011 0,1 0,1 010 0,2 01 0,3 α 4 0100 0,1 0100 0,1 011 0,1 α 5 01010 0,06 + α 6 01011 0,04 Σ. 1.0 0101 0,1

Χαρακτηριστικά κωδίκων Huffman Μειονέκτημα: απαιτεί να γνωρίζει εκ των προτέρων τις πιθανότητες εμφάνισης των συμβόλων της πηγής δε μπορεί να χρησιμοποιηθεί σε εφαρμογές πραγματικού χρόνου Βέλτιστος: ανάμεσα σε όλους τους προθεματικούς κώδικες (άρα μονοσήμαντα αποκωδικοποιήσιμους και άμεσους) πετυχαίνει το ελάχιστο μέσο μήκος κώδικα Συμβάσεις: Ο τρόπος ανάθεσης 0 και 1 Η τοποθέτηση στην ταξινομημένη λίστα σε περίπτωση «ισοβαθμίας» σύνθετου συμβόλου με άλλο σύμβολο (σχετίζεται με τη διασπορά του κώδικα) Σελίδα-41

Άσκηση Για κάθε πηγή που έχουμε μελετήσει στο παρόν κεφάλαιο να εκτελέσετε τα ακόλουθα: Να υπολογίσετε την Εντροπία κάθε πηγής Να υπολογίσετε τον Πλεονασμό κάθε πηγής Να σχεδιάσετε ένα σταθερού μήκους δυαδικό κώδικα, ένα κώδικα Shannon, ένα κώδικα Shannon-Fano, και ένα κώδικα Huffman. Να υπολογίσετε την απόδοση κάθε κώδικα και να επιλέξετε τον περισσότερο και τον λιγότερο αποδοτικό κώδικα Να εξετάσετε κάθε κώδικα που δημιουργήσατε για το εάν είναι μονοσήμαντος και στιγμιαία απόκωδικοποιήσιμος. Να εξετάσετε ποιοι είναι προθεματικοί κώδικες Έστω πηγή πληροφορίας X { x, x, x, x, x, x, x, x } 1 2 3 4 5 6 7 8 με κατανομή πιθανότητας px ( ) {0.25,0.25,0.125,0.125,0.0625,0.0625,0.0625,0.0625} Σελίδα-42

Εντροπία Πηγής με μνήμη Πηγή πληροφορίας με μνήμη 1 ης τάξης (πηγή στην οποία η εκπομπή ενός συμβόλου εξαρτάται από το προηγούμενο σύμβολο που εκπέμφθηκε): m m m H( S) p H( K ) p P log P i i i ij ij i1 i1 j1 Ο ρυθμός εκπομπής πληροφορίας στο κανάλι για μία πηγή με μνήμη: R r H( S) s Σελίδα-43

Εντροπία Πηγής με μνήμη Μία πηγή με μνήμη q συμβόλων μπορεί να περιγραφεί με τη μήτρα πιθανοτήτων μετάπτωσης δηλαδή τη μήτρα των P ij : Σελίδα-44

Εντροπία πηγής με μνήμη π.χ. Η πιθανότητα ¾ της πρώτης γραμμής και πρώτης στήλης είναι η πιθανότητα να σταλεί το σύμβολο Α δεδομένου ότι έχει ήδη σταλεί το σύμβολο Α, η πιθανότητα 1/3 της τρίτης γραμμής και δεύτερης στήλης ερμηνεύεται ως η πιθανότητα να σταλεί το σύμβολο Γ δεδομένου ότι έχει σταλεί το σύμβολο Β Σελίδα-45

Εντροπία πηγής με μνήμη Η προηγούμενη μήτρα μεταπτώσεων ισοδυναμεί με το επόμενο διάγραμμα καταστάσεων της πηγής: P A +P B +P Γ = 1 Έχουμε ένα σύστημα 4 εξισώσεων με 3 αγνώστους (P A, P Β, και P Γ ) το οποίο μπορεί να λυθεί. Σελίδα-46

Παράδειγμα πηγής Markov 1 ης τάξης 0,2 SB Δ 0,5 0,8 S Α Β A 0,5 Γ 0,5 Α S 0,5 Β 0,2 Γ S Δ Γ Να υπολογίσετε τη μήτρα μεταπτώσεων, και τις πιθανότητες P A, P B, P Γ, Ρ Δ Να υπολογίσετε την Εντροπία της εν λόγω πηγής με μνήμη και χωρίς μνήμη 0,8 Υπό συνθήκη πιθανότητες P P A Δ 0,8 A Δ P Β Ρ Γ 0,2 Α Δ Ρ Ρ Ρ Ρ 0,5 Γ Β Β Γ Α Γ Δ Β Υπόλοιπες πιθανότητες = 0

Παράδειγμα πηγής Markov 1 ης τάξης P P B P Γ Ρ Ρ A Δ Α 0,8 Ρ 0,2 0,5 0,5 Β P Ρ P P P Γ A A Β Β 0,5 0,5 0,2 0,8 Ρ Δ P Γ P P Γ Δ P Δ 1 Λύση του συστήματος 5 1 PA PΔ, PΒ PΓ 14 7 Ποια η εντροπία της Μαρκοβιανής πηγής ; 1 1 ης τάξης : H P j Pi log HΧ.Μ. P Στο παράδειγμα : H M 0,8 bits symbol i j i H ML j i 1,86 bits symbol

Παράδειγμα πηγής Markov 1 ης τάξης 1,0 Β 0,5 Α 0,5 0,5 Δ 1,0 0,5 Γ

Παράδειγμα Μαρκοβιανής πηγής 1 ης τάξης Δημιουργήστε το διάγραμμα της Μαρκοβιανής Πηγής 0,25 0,375 0,25 0,125 0,00 0,50 0,00 0,25 0,00 0,25 0,75 0,00 0,00 0,25 0,00 0,50 0,50 0,00 0,00 0,00 0,00 0,00 0,50 0,00 0,50