Θέματα Συστημάτων Πολυμέσων

Σχετικά έγγραφα
Τεχνολογία Πολυμέσων. Ενότητα # 7: Θεωρία πληροφορίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Τεχνολογία Πολυμέσων. Ενότητα # 8: Αρχές κωδικοποίησης Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Θεωρία πληροφοριών. Τεχνολογία Πολυµέσων 07-1

Θέματα Συστημάτων Πολυμέσων

Ψηφιακή Επεξεργασία Εικόνας

Θέματα Συστημάτων Πολυμέσων. Ενότητα # 7: JPEG Διδάσκων: Γεώργιος Πολύζος Τμήμα: Μεταπτυχιακό Πρόγραμμα Σπουδών Επιστήμη των Υπολογιστών

Θέματα Συστημάτων Πολυμέσων. Ενότητα # 8: MPEG Διδάσκων: Γεώργιος Πολύζος Τμήμα: Μεταπτυχιακό Πρόγραμμα Σπουδών Επιστήμη των Υπολογιστών

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Τεχνολογία Πολυμέσων. Ενότητα # 11: Κωδικοποίηση εικόνων: JPEG Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 2 : Πληροφορία και Εντροπία Διάλεξη: Κώστας Μαλιάτσος Χρήστος Ξενάκης, Κώστας Μαλιάτσος

Τηλεπικοινωνιακά Συστήματα ΙΙ

Θεωρία Πιθανοτήτων & Στατιστική

Δίαυλος Πληροφορίας. Η λειτουργία του περιγράφεται από:

Τεχνολογία Πολυμέσων. Ενότητα # 12: Κωδικοποίηση βίντεο: H.26x Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Ψηφιακές Τηλεπικοινωνίες

Εισαγωγή στους Ηλεκτρονικούς Υπολογιστές. 6 ο Μάθημα. Λεωνίδας Αλεξόπουλος Λέκτορας ΕΜΠ. url:

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 3 : Πηγές Πληροφορίας Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Συστήματα Πολυμέσων. Ενότητα 7: Συμπίεση Εικόνας κατά JPEG. Θρασύβουλος Γ. Τσιάτσος Τμήμα Πληροφορικής ΑΡΙΣΤΟΤΕΛΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΟΝΙΚΗΣ

Ψηφιακές Τηλεπικοινωνίες

Συμπίεση Δεδομένων

Εισαγωγή στη θεωρία πληροφορίας

Αρχές κωδικοποίησης. Τεχνολογία Πολυμέσων και Πολυμεσικές Επικοινωνίες 08-1

Πανεπιστήμιο Δυτικής Μακεδονίας. Τμήμα Μηχανικών Πληροφορικής & Τηλεπικοινωνιών. Ψηφιακή Σχεδίαση

Ψηφιακή Επεξεργασία Εικόνας

Τεχνολογία Πολυμέσων. Ενότητα # 14: Κωδικοποίηση βίντεο: Η.264 Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Τεχνολογία Πολυμέσων. Ενότητα # 4: Ήχος Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΑΝΑΛΥΣΗ ΑΛΓΟΡΙΘΜΩΝ

ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ Ανώτατο Εκπαιδευτικό Ίδρυμα Πειραιά Τεχνολογικού Τομέα ΕΠΕΞΕΡΓΑΣΙΑ ΕΙΚΟΝΑΣ. Ενότητα 6: Κωδικοποίηση & Συμπίεση Εικόνας

Αρχές κωδικοποίησης. Τεχνολογία Πολυµέσων 08-1

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

Ψηφιακές Τηλεπικοινωνίες. Θεωρία Ρυθμού Παραμόρφωσης

Υπολογιστικά & Διακριτά Μαθηματικά

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Πρόλογος 1. 1 Μαθηµατικό υπόβαθρο 9

Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος

Θεωρία Πιθανοτήτων & Στατιστική

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΑΝΑΛΥΣΗ ΑΛΓΟΡΙΘΜΩΝ

Συστήματα Πολυμέσων. Ενότητα 6: Συμπίεση Ψηφιακής Εικόνας. Θρασύβουλος Γ. Τσιάτσος Τμήμα Πληροφορικής ΑΡΙΣΤΟΤΕΛΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΟΝΙΚΗΣ

Ανάκτηση Πληροφορίας

Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται σε άλλου τύ

Υπολογιστικά & Διακριτά Μαθηματικά

Ψηφιακή Επεξεργασία Εικόνας

Τεχνολογία Πολυμέσων. Ενότητα # 10: Κωδικοποίηση ήχου Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Ανάκτηση Πληροφορίας

Στατιστική Επιχειρήσεων Ι

Θεωρία Πιθανοτήτων & Στατιστική

Θεωρία Πληροφορίας. Διάλεξη 4: Διακριτή πηγή πληροφορίας χωρίς μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Εισαγωγή στους Ηλεκτρονικούς Υπολογιστές. 5 ο Μάθημα. Λεωνίδας Αλεξόπουλος Λέκτορας ΕΜΠ. url:

Θεωρία τησ Πληροφορίασ (Θ) ΔΙΔΑΚΩΝ: Δρ. Αναςτάςιοσ Πολίτησ

Τεχνολογία Πολυμέσων. Ενότητα # 9: Κωδικοποίηση εντροπίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Υπολογιστικά & Διακριτά Μαθηματικά

Λογισμός 3. Ενότητα 19: Θεώρημα Πεπλεγμένων (γενική μορφή) Μιχ. Γ. Μαριάς Τμήμα Μαθηματικών ΑΝΟΙΚΤΑ ΑΚΑ ΗΜΑΪΚΑ ΜΑΘΗΜΑΤΑ

ΣΤΑΤΙΣΤΙΚΗ ΑΝΑΛΥΣΗ ΜΕ ΧΡΗΣΗ Η/Υ

Εισαγωγή στις Τηλεπικοινωνίες

Θεωρία Πιθανοτήτων & Στατιστική

Εισαγωγή στην Επιστήμη των Υπολογιστών

Προγραμματισμός Ηλεκτρονικών Υπολογιστών 1

ΓΡΑΜΜΙΚΟΣ & ΔΙΚΤΥΑΚΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ

ΓΡΑΜΜΙΚΟΣ & ΔΙΚΤΥΑΚΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ

Γενικά Μαθηματικά Ι. Ενότητα 17: Αριθμητική Ολοκλήρωση, Υπολογισμός Μήκους Καμπύλης Λουκάς Βλάχος Τμήμα Φυσικής ΑΡΙΣΤΟΤΕΛΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΟΝΙΚΗΣ

Λογισμός 3. Ενότητα 18: Θεώρημα Πεπλεγμένων (Ειδική περίπτωση) Μιχ. Γ. Μαριάς Τμήμα Μαθηματικών ΑΝΟΙΚΤΑ ΑΚΑ ΗΜΑΪΚΑ ΜΑΘΗΜΑΤΑ

ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ Ανώτατο Εκπαιδευτικό Ίδρυμα Πειραιά Τεχνολογικού Τομέα ΣΗΜΑΤΑ & ΣΥΣΤΗΜΑΤΑ. Ενότητα : ΔΙΑΚΡΙΤΟΣ ΜΕΤΑΣΧΗΜΑΤΙΣΜΟΣ FOURIER

Πληροφορική. Ενότητα 4 η : Κωδικοποίηση & Παράσταση Δεδομένων. Ι. Ψαρομήλιγκος Τμήμα Λογιστικής & Χρηματοοικονομικής

Συστήματα Πολυμέσων. Ενότητα 2: Εισαγωγικά θέματα Ψηφιοποίησης. Θρασύβουλος Γ. Τσιάτσος Τμήμα Πληροφορικής ΑΡΙΣΤΟΤΕΛΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΟΝΙΚΗΣ

Συστήματα Πολυμέσων Ενότητα 4: Συμπίεση. Επικ. Καθηγητής Συνδουκάς Δημήτριος Τμήμα Διοίκησης Επιχειρήσεων (Γρεβενά)

Θεωρία Πιθανοτήτων & Στατιστική

Οικονομετρία. Απλή Παλινδρόμηση Βασικές έννοιες και τυχαίο σφάλμα. Τμήμα: Αγροτικής Οικονομίας & Ανάπτυξης. Διδάσκων: Λαζαρίδης Παναγιώτης

Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται σε άλλου τύ

Επεξεργασία Πολυµέσων. Δρ. Μαρία Κοζύρη Π.Μ.Σ. «Εφαρµοσµένη Πληροφορική» Τµήµα Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών Πανεπιστήµιο Θεσσαλίας

Θεώρημα κωδικοποίησης πηγής

Σεραφείµ Καραµπογιάς. Πηγές Πληροφορίας και Κωδικοποίηση Πηγής 6.3-1

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης. ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

Εισαγωγή στις Τηλεπικοινωνίες

ΤΕΧΝΟΛΟΓΙΑ, ΚΑΙΝΟΤΟΜΙΑ ΚΑΙ ΕΠΙΧΕΙΡΗΜΑΤΙΚΟΤΗΤΑ 9 Ο εξάμηνο Χημικών Μηχανικών

Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται σε άλλου τύ

ΣΤΑΤΙΣΤΙΚΗ ΕΠΙΧΕΙΡΗΣΕΩΝ

11 ο ΕΡΓΑΣΤΗΡΙΟ ΣΗΜΑΤΑ & ΣΥΣΤΗΜΑΤΑ

Περιεχόμενα Ορισμός και λειτουργία των μηχανών Turing Θεωρία Υπολογισμού Ενότητα 20: Μηχανές Turing: Σύνθεση και Υπολογισμοί Επ. Καθ. Π. Κατσαρός Τμήμ

Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται σε άλλου τύ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΙΩΑΝΝΙΝΩΝ ΑΝΟΙΚΤΑ ΑΚΑΔΗΜΑΪΚΑ ΜΑΘΗΜΑΤΑ. Πιθανότητες. Συνάρτηση κατανομής πιθανότητας Διδάσκων: Επίκουρος Καθηγητής Κωνσταντίνος Μπλέκας

Θεωρία της Πληροφορίας 3 ο Εξάμηνο

Στατιστική Ι. Ενότητα 9: Κατανομή t-έλεγχος Υποθέσεων. Δρ. Γεώργιος Κοντέος Τμήμα Διοίκησης Επιχειρήσεων Γρεβενών

Εισαγωγή στην Πληροφορική & τον Προγραμματισμό

( ) log 2 = E. Σεραφείµ Καραµπογιάς

Θεωρία Πληροφορίας. Διάλεξη 5: Διακριτή πηγή πληροφορίας με μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Οργάνωση Υπολογιστών

Εισαγωγή στους Αλγορίθμους Φροντιστήριο 1

Ψηφιακή Σχεδίαση. Ενότητα: ΕΡΓΑΣΤΗΡΙΑΚΗ ΑΣΚΗΣΗ No:01. Δρ. Μηνάς Δασυγένης. Τμήμα Μηχανικών Πληροφορικής και Τηλεπικοινωνιών

ΒΟΗΘΗΤΙΚΕΣ ΣΗΜΕΙΩΣΕΙΣ

Βιομηχανικοί Ελεγκτές

7 ο ΕΡΓΑΣΤΗΡΙΟ ΣΗΜΑΤΑ & ΣΥΣΤΗΜΑΤΑ

Αυτοματοποιημένη χαρτογραφία

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Θέματα Συστημάτων Πολυμέσων. Ενότητα #3: Ιδιότητες μέσων Διδάσκων: Γεώργιος K. Πολύζος Τμήμα: Μεταπτυχιακό Πρόγραμμα Σπουδών Επιστήμη των Υπολογιστών

Συμπίεση Δεδομένων

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #11: Ασαφής Αριθμητική. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

Κεφάλαιο 2 Πληροφορία και εντροπία

Μαθηματικά. Ενότητα 6: Ασκήσεις Ορίων Συνάρτησης. Σαριαννίδης Νικόλαος Τμήμα Λογιστικής και Χρηματοοικονομικής

ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΥΠΡΟΥ, ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

Συστήματα Πολυμέσων. Ενότητα 3: Εισαγωγικά θέματα Συμπίεσης. Θρασύβουλος Γ. Τσιάτσος Τμήμα Πληροφορικής ΑΡΙΣΤΟΤΕΛΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΟΝΙΚΗΣ

Transcript:

Θέματα Συστημάτων Πολυμέσων Ενότητα # 6: Στοιχεία Θεωρίας Πληροφορίας Διδάσκων: Γεώργιος K. Πολύζος Τμήμα: Μεταπτυχιακό Πρόγραμμα Σπουδών Επιστήμη των Υπολογιστών

Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται σε άλλου τύπου άδειας χρήσης, η άδεια χρήσης αναφέρεται ρητώς. 2

Χρηματοδότηση Το παρόν εκπαιδευτικό υλικό έχει αναπτυχθεί στα πλαίσια του εκπαιδευτικού έργου του διδάσκοντα. Το έργο «Ανοικτά Ακαδημαϊκά Μαθήματα στο Πανεπιστήμιο Αθηνών» έχει χρηματοδοτήσει μόνο τη αναδιαμόρφωση του εκπαιδευτικού υλικού. Το έργο υλοποιείται στο πλαίσιο του Επιχειρησιακού Προγράμματος «Εκπαίδευση και Δια Βίου Μάθηση» και συγχρηματοδοτείται από την Ευρωπαϊκή Ένωση (Ευρωπαϊκό Κοινωνικό Ταμείο) και από εθνικούς πόρους. 3

Σκοποί ενότητας Εισαγωγή στην θεωρία πληροφορίας Παρουσίαση των διακριτών τύπων κωδικοποίησης Κατανόηση των ιδιοτήτων και των σκοπών των τύπων κωδικοποίησης 4

Περιεχόμενα ενότητας (1 από 2) Θεωρία Πληροφορίας Μοντέλο συστήματος ψηφιακών επικοινωνιών Λογαριθμική αποτίμηση της πληροφορίας Αμοιβαία πληροφορία Εσωτερική πληροφορία Η εσωτερική πληροφορία είναι συμμετρική Υπό συνθήκη Εσωτερική πληροφορία Μέση αμοιβαία πληροφορία Μέση εσωτερική πληροφορία - Εντροπία Συνάρτηση δυαδικής εντροπίας Υπό συνθήκη εντροπία 5

Περιεχόμενα ενότητας (2 από 2) Κωδικοποίηση πηγής Κωδικοποίηση πηγής διακριτών γεγονότων χωρίς μνήμη Κωδικές λέξεις σταθερού μήκους (fixed length) Κωδικές λέξεις μεταβλητού μήκους (variable length) Θεώρημα κωδικοποίησης πηγής Κωδικοποίηση Huffman Κωδικοποίηση Huffman για ζεύγη γραμμάτων Κωδικοποίηση μήκους σειρών (Run Length Coding) Κατηγοριοποίηση τεχνικών κωδικοποίησης 6

Θεωρία Πληροφορίας Μάθημα: Θέματα Συστημάτων Πολυμέσων Ενότητα # 6: Στοιχεία Θεωρίας Πληροφορίας Διδάσκων: Γεώργιος Κ. Πολύζος Τμήμα: Μεταπτυχιακό Πρόγραμμα Σπουδών Επιστήμη των Υπολογιστών

Μοντέλο συστήματος ψηφιακών επικοινωνιών Digital Channel ( modem ) Αναπαράσταση του αρχικού σήματος με μεγάλη πιστότητα Ψηφιακό κανάλι με βελτιωμένη αντιμετώπιση σφαλμάτων (συνήθως αναλογικό) 8

Λογαριθμική αποτίμηση της πληροφορίας Έστω Χ και Υ διακριτές τυχαίες μεταβλητές με πιθανές τιμές x i, i=1,2,..,n και y i, i=1,2,..,m αντίστοιχα. Παρατηρούμε το γεγονός Y = y i και θέλουμε να ποσοτικοποιήσουμε την πληροφορία που μας δίνει η εμφάνιση του γεγονότος για το γεγονός Χ = x i, i=1,2,..,n. Το πρόβλημα είναι η επιλογή της κατάλληλης μετρικής για την πληροφορία. 9

Αμοιβαία Πληροφορία (1 από 2) Αν Χ και Υ είναι στατιστικά ανεξάρτητες, η εμφάνιση του Υ=y i δε μας δίνει πληροφορία για την εμφάνιση του Χ=x i. Αν Χ και Υ είναι πλήρως εξαρτημένες, ώστε η εμφάνιση του Υ = y i να καθορίζει την εμφάνιση του Χ = x i, τότε το περιεχόμενο της πληροφορίας είναι αυτό που παρέχεται από το γεγονός Χ = x i. Κατάλληλη μετρική είναι ο αλγόριθμος αναλογίας της υπό συνθήκη πιθανότητας. δια την πιθανότητα P (X = x i Y = y i ) = P(x i y i ) P (X = x i ) = P(x i ) 10

Αμοιβαία Πληροφορία (2 από 2) Έτσι, η ποσότητα πληροφορίας που παρέχει το γεγονός Υ = y i για το γεγονός Χ = x i ορίζεται ως I (x i ;y i ) = log P (x i y i ) P(x i ) (2.2.1) To I(x i ;y i ) ονομάζεται αμοιβαία πληροφορία μεταξύ των x i και y i. 11

Μονάδες Πληροφορίας Οι μονάδες του I(x i ;y i ) ορίζονται από την βάση του αλγόριθμου, που συνήθως είναι 2 ή e. Όταν η βάση του αλγόριθμου είναι 2 τότε οι μονάδες του I(x i ;y i ) είναι δυφία. Όταν η βάση του αλγόριθμου είναι e τότε οι μονάδες του I(x i ;y i ) είναι νατς (Natural Unit of Information - nats). 12

Εσωτερική Πληροφορία Όταν οι τυχαίες μεταβλητές Χ και Υ είναι στατιστικά ανεξάρτητες τότε P(x i y i ) = P(x i ) και συνεπώς I(x i ;y i )=0 Όταν οι τυχαίες μεταβλητές Χ και Υ είναι πλήρως εξαρτημένες, η υπό συνθήκη πιθανότητα στον αριθμητή της εξίσωσης 2.2.1 είναι η ένωση και έτσι: I (x i ;y i ) = log 1 P(x i ) = -logp(x i ) Αυτό είναι η πληροφορία του γεγονότος Χ = x i, που ονομάζουμε εσωτερική πληροφορία του γεγονότος Χ = x i και ορίζεται ως: I (x i ) = log 1 (2.2.3) (2.2.2) P(x i ) = -logp(x i ) 13

Νέα.. Θεωρούμε πως ένα πολύ πιθανό γεγονός παρέχει λιγότερη πιθανότητα από ένα λιγότερο πιθανό γεγονός. Αν έχω μόνο ένα πιθανό γεγονός x (συμβαίνει πάντα) με πιθανότητα P(x) = 1, τότε I(x i ) = 0. 14

Παράδειγμα υπολογισμού πληροφορίας Έστω ότι υπάρχει διακριτή πηγή πληροφορίας που εκπέμπει δυαδικό ψηφίο (0 ή 1), με ίση πιθανότητα κάθε r s δεύτερα. Η παρεχόμενη πληροφορία από κάθε γεγονός είναι: I (x i ) = - log 2 P(x i ) = -log 2 1 2 =1bit Έστω αλλεπάλληλα και στατιστικά ανεξάρτητα γεγονότα. Θεωρούμε ομάδα από k παραγόμενα δυφία στο χρονικό πλαίσιο kr s. Υπάρχουν συνολικά Μ = 2 k ισοπίθανες ομάδες δυφίων με πιθανότητα 1/Μ = 2 -k. Η εσωτερική πληροφορία μίας ομάδας σε χρόνο kr s είναι: I (x i ') =- log 2 2 -k = kbits 15

Η αμοιβαία πληροφορία είναι συμμετρική Γυρνώντας στον ορισμό της αμοιβαίας πληροφορίας (2.2.1), πολλαπλασιάζουμε τον αριθμητή και παρανομαστή με την πιθανότητα P(y i ). P(x i y j ) P(x i ) = P(x i y j )P(y j ) P(x i )P(y j ) = P(x i, y j ) P(x i )P(y j ) = P(y j x i ) P(y j ) Άρα: I (x i ;y j ) = I (y j ;x i ) H πληροφορία που μας δίνει το Υ = y i για το Χ = x i είναι ίση με την πληροφορία που μας δίνει το Χ = x i για το Υ = y i. 16

Παράδειγμα: Κανάλι δυαδικής εισόδου-εξόδου (1 από 3) Θεωρούμε Χ και Υ δυαδικές τυχαίες μεταβλητές που αναπαριστούν την είσοδο και έξοδο ενός καναλιού. Τα σύμβολα εισόδου είναι ισοπίθανα ενώ τα σύμβολα εξόδου εξαρτώνται από την είσοδο με βάση τις υπό συνθήκη πιθανότητες: 0 1-p 0 0 p 1 P(Y = 0 X = 0) =1- p 0 P(Y =1 X = 0) = p 0 1 1-p 1 p 0 1 P(Y =1 X =1) =1- p 1 P(Y = 0 X =1) = p 1 Ορίζουμε την αμοιβαία πληροφορία για την εμφάνιση του Χ = 0 και Χ = 1 δεδομένου ότι Υ = 0. 17

Παράδειγμα: Κανάλι δυαδικής εισόδου-εξόδου (2 από 3) Από τις πιθανότητες παίρνουμε ότι: P(Y = 0) = P(Y = 0 X = 0)P(X = 0)+ P(Y = 0 X =1)P(X =1) = 1 2 (1- p 0 + p 1 ) P(Y =1) = P(Y =1 X = 0)P(X = 0)+ P(Y =1 X =1)P(X =1) = 1 2 (1- p 1 + p 0 ) Η αμοιβαία πληροφορία για το Χ = 0 δεδομένου του Υ = 0 είναι I (x i ; y j ) = I (0;0)=log 2 P(Y = 0 X = 0) P(Y = 0) = log 2 2(1- p 0 ) 1- p 0 + p 1 Ομοίως δεδομένου του Υ = 0, η αμοιβαία πληροφορία για την εμφάνιση του Χ = 1 είναι: I (x i ; y j ) = I (1;0) = log 2 2p 1 1- p 0 + p 1 18

Παράδειγμα: Κανάλι δυαδικής εισόδου-εξόδου (3 από 3) Έστω ότι p 0 = p 1 = 0 (κανάλι χωρίς θόρυβο) Η έξοδος χαρακτηρίζει την είσοδο με απόλυτη σιγουριά I (0;0) = log 2 2 =1bit Έστω ότι p 0 = p 1 = ½ Το κανάλι δε μπορεί να χρησιμοποιηθεί I (0;0) = log 2 1= 0bit Έστω ότι p 0 = p 1 = ¼ τότε I (0;0) = log 2 3 2 = 0.587 I (0;1) = log 2 1 2 = -1bit Παρατηρούμε ότι η αμοιβαία πληροφορία μεταξύ ενός ζεύγους γεγονότων μπορεί να είναι και αρνητική! 19

Υπό συνθήκη εσωτερική πληροφορία Ορίζουμε την υπό συνθήκη εσωτερική πληροφορία ως εξής I (x i ;y j ) = log 2 1 P(xi y j ) = -logp(x i y j ) (2.2.5) Συνδυάζοντας τις 2.2.1, 2.2.3 και 2.2.5 καταλήγουμε στην (2.2.6) I (x i ;y j ) = I(x i )- I (x i y j ) Ερμηνεύουμε το I(x i ;y i ) ως την εσωτερική πληροφορία του Χ = x i δεδομένου ότι Υ = y j. Εφόσον I(x i )>=0 και I(x i y i )>=0 συνεπάγεται ότι I(x i ;y i ) 0 όταν I(x i y i )>I(x i ) I(x i ;y i )>0 όταν I(x i y i )<I(x i ) 20

Μέση αμοιβαία πληροφορία Υπολογίζουμε την μέση αμοιβαία πληροφορία ενός ζεύγους γεγονότων (x i, y j ) ζυγίζοντας (weighting) το I(x i ;y i ) με την πιθανότητα εμφάνισης του κοινού γεγονότος και αθροίζοντας όλους τους πιθανούς συνδυασμούς. Έτσι: I (X;Y) = n å i=1 n å P(x i, y j )I (x i ;y j )= i=1 n å i=1 n P(x å P(x i, y j )log i, y j ) 2 P(x i )P(y j ) i=1 (2.2.7) Παρατηρούμε ότι I(Χ;Υ) = 0 όταν Χ, Υ είναι στατιστικά ανεξάρτητες Επίσης γενικότερα ισχύει ότι I(Χ;Υ) 0 21

Μέση εσωτερική πληροφορία - Εντροπία Υπολογίζουμε την εντροπία πηγής, Η(Χ) n H(X) = åp(x i )I (x i ) = åp(x i )logp(x i ) i=1 n i=1 (2.2.8) όπου Χ είναι το αλφάβητο της πηγής και Η(Χ) η μέση εσωτερική πληροφορία κάθε γράμματος. Αν όλα τα γράμματα είναι ισοπίθανα τότε P(x i ) = 1/n για κάθε i και επομένως n 1 H(X) = (2.2.9) å i=1 n log 1 n = logn Γενικότερα Η(Χ)<=logn για κάθε σετ από πιθανότητες εμφάνισης γραμμάτων. Δηλαδή, η εντροπία μεγιστοποιείται όταν τα γεγονότα είναι ισοπίθανα. 22

Συνάρτηση δυαδικής εντροπίας Η πηγή εκπέμπει ακολουθία ανεξάρτητων γραμμάτων με έξοδο 0 και 1 με πιθανότητα q και 1-q αντίστοιχα. Η εντροπία είναι H(X) = H(q) = -q- logq-(1-q)log(1-q) (2.2.10) H συνάρτηση δυαδικής εντροπίας Η(q) παρουσιάζεται στο διπλανό σχήμα στο οποίο παρατηρούμε ότι μεγιστοποιείται όταν q=1/2 όπου Η(1/2)=1 23

Υπό συνθήκη εντροπία Η μέση υπό συνθήκη εσωτερική πληροφορία ονομάζεται υπό συνθήκη εντροπία και ορίζεται ως εξής n m H(X Y) = å å P(x i, y j )log 1 (2.2.11) P(xi y j ) i=1 j=1 Η(Χ Υ) είναι η πληροφορία στο Χ αφότου συμβεί το Υ. Συνδυάζοντας τα 2.2.7, 2.2.8 και 2.2.11 καταλήγουμε στο (2.2.12) I(X;Y) = H(X)- H(X Y) Δεδομένου του Ι(Χ;Υ)>=0, συνεπάγεται ότι Η(Χ)>=Η(Χ Υ) αν και μόνο αν Χ, Υ είναι στατιστικά ανεξάρτητες. Αν Η(Χ) είναι το μέσο ποσό άγνοιας πριν συμβεί το Υ, τότε Ι(Χ;Υ) είναι το μέσο ποσό άγνοιας που πήραμε για το σετ Χ όταν παρατηρούσαμε το σετ Υ. Δεδομένου ότι Η(Χ)>=Η(Χ Υ), είναι ξεκάθαρο ότι η συνθήκη στο σετ Υ δεν αυξάνει την εντροπία. 24

Παράδειγμα 2: Κανάλι δυαδικής εισόδου-εξόδου Υπολογίζουμε τα Η(X Y) και I(X;Y) για το ίδιο κανάλι δυαδικής εισόδου-εξόδου όταν p 0 =p 1 =p, P(X=0)=q, P(X=1)=1-q και το κανάλι είναι συμμετρικό. Η εντροπία είναι H(X) = H(q) = -q- logq-(1- q)log(1- q) Η(Χ Υ) είναι η υπό συνθήκη εντροπία όπως ορίζεται από την 2.2.11 Η Η(Χ Υ) περιγράφεται συναρτήσει του q με παράμετρο το p στο διάγραμμα της σελίδας Η Ι(Χ;Υ) περιγράφεται στο διάγραμμα της σελίδας 25

Δυαδικό κανάλι εισόδου εξόδου (1 από 2) 26

Δυαδικό κανάλι εισόδου εξόδου (2 από 2) 27

Περίληψη Εσωτερική Πληροφορία (ενός γεγονότος x i ) I(x i ) = - log 2 P(x i ) (σε δυφία) Εντροπία (πηγές με αλφάβητο Χ) μέση εσωτερική πληροφορία H(X) = - i P(x i ) log 2 P(x i ) (σε δυφία) 28

Κωδικοποίηση πηγής Μάθημα: Θέματα Συστημάτων Πολυμέσων, Ενότητα # 6: Στοιχεία Θεωρίας Πληροφορίας Διδάσκων: Γεώργιος Κ. Πολύζος, Τμήμα: Μεταπτυχιακό Πρόγραμμα Σπουδών Επιστήμη των Υπολογιστών

Κωδικοποίηση πηγής διακριτών γεγονότων χωρίς μνήμη (1 από 2) Χωρίς μνήμη: τα σύμβολα/γεγονότα είναι στατιστικά ανεξάρτητα Ρεαλιστικά σπάνια περίπτωση Πεπερασμένο αλφάβητο συμβόλων x i, i = 1, 2,..., L Με πιθανότητα P(x i ), i = 1, 2,..., L Εντροπία: H(X) = - i P(x i ) log 2 P(x i ) log 2 L 04-30

Κωδικοποίηση πηγής διακριτών γεγονότων χωρίς μνήμη (2 από 2) (Μέσο) κόστος αναπαράστασης : R (δυφία/σύμβολο) Αποδοτικότητα κωδικοποίησης = H(X) / R Κωδικοποιημένες λέξεις σταθερού μήκους R = log 2 L 04-31

Κωδικές λέξεις σταθερού μήκους R = log 2 L Αν L είναι δύναμη του 2 R = log 2 L αν τα σύμβολα είναι ισοπίθανα αποδοτικότητα= 1 Αλλιώς η αποδοτικότητα βελτιώνεται κωδικοποιώντας ομάδες συμβόλων 04-32

Κωδικές λέξεις μεταβλητού μήκους (1 από 2) Κωδικοποίηση εντροπίας: βρες την κωδικοποίηση που αναθέτει μικρές κωδικοποιημένες λέξεις στα πιο πιθανά σύμβολα και μεγαλύτερες λέξεις στα πιο σπάνια Τότε συνήθως η κωδικοποιημένη έξοδος είναι μικρότερη παράδειγμα: κωδικοποίηση Morse(1800s): (Επιθυμητές) Ιδιότητες κωδικοποίησης Μοναδική αποκωδικοποίηση Ακαριαία αποκωδικοποιήσιμη 33

Κωδικές λέξεις μεταβλητού μήκους Συνθήκη προθέματος (2 από 2) Δεν υπάρχει κωδικοποιημένη λέξη με μήκος l < k που να είναι όμοια στα πρώτα l δυφία με μια άλλη λέξη μήκους k > l. Αν η κωδικοποίηση τηρεί την συνθήκη προθέματος, είναι ακαριαία αποκωδικοποιήσιμη 34

Θεώρημα κωδικοποίησης πηγής Έστω X σύνολο από σύμβολα από την πηγή διακριτών γεγονότων χωρίς μνήμη με πεπερασμένη εντροπία H(X). Είναι πιθανό να βρεθεί κωδικοποίηση που τηρεί την συνθήκη προθέματος και έχει μέσο μήκος R που ικανοποιεί το: H(X) < R < H(X) + 1 35

Παράδειγμα: Κωδικοποίηση πηγής μεταβλητού μήκους (1 από 2) 36

Παράδειγμα: Κωδικοποίηση πηγής μεταβλητού μήκους (2 από 2) 37

Κωδικοποίηση Huffman x 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 Βέλτιστη κωδικοποίηση Παρόμοια κωδικοποίηση εντροπίας είναι η αριθμητική κωδικοποίηση 38

Κωδικοποίηση Huffman για ζεύγη γραμμάτων Encoding Pairs of Letters (99%) Encoding Single Letters (97.9%) 39

Κωδικοποίηση μήκους σειρών (1 από 2) Κωδικοποιεί ακολουθίες ίδιων συμβόλων (αντί να επαναλαμβάνει τα σύμβολα) σημειώνοντας το σύμβολο και τις εμφανίσεις του Χρησιμοποιεί χαρακτήρες διαφυγής (escape characters) Παράδειγμα: byte-stuffing! = χαρακτήρας διαφυγής!! =! 40

Κωδικοποίηση μήκους σειρών (2 από 2) Παράδειγμα κωδικοποίησης μήκους σειρών Κείμενο: ABCCCCCCCCDEFGGG Κωδικοποιημένο κείμενο:abc!8defggg Κέρδη κωδικοποίησης του C : 3/8 Όριο «ελάχιστου αριθμού εμφανίσεων» προς αντικατάσταση e.g., 4 συνεχόμενα ίδια σύμβολα σε αυτό το παράδειγμα μιας και η αντικατάσταση από μόνη της κοστίζει 3 σύμβολα (σύμβολο, χαρακτήρας διαφυγήςκαι αριθμός επαναλήψεων) 41

Κατηγοριοποίηση τεχνικών κωδικοποίησης (1 από 2) Κωδικοποίηση εντροπίας Κωδικοποίηση πηγής Κωδικοποίηση μήκους γραμμές (RLE) Κωδικοποίηση Huffman Αριθμητική κωδικοποίηση Πρόβλεψη Μετασχηματισμός Κωδικοποίηση πολλών επιπέδων (layered coding) DPMC DM FFT DCT Θέση δυφίου Yποδειγματοληψία Υποπεδίων Κβαντοποίηση διανυσμάτων 42

Κατηγοριοποίηση τεχνικών κωδικοποίησης (2 από 2) Υβριδική κωδικοποίηση JPEG MPEG H.261 DVI RTV, DVI PLV 43

Τέλος Ενότητας # 6 Μάθημα: Θέματα Συστημάτων Πολυμέσων Ενότητα # 6: Στοιχεία Θεωρίας Πληροφορίας Διδάσκων: Γεώργιος Κ. Πολύζος Τμήμα: Μεταπτυχιακό Πρόγραμμα Σπουδών Επιστήμη των Υπολογιστών