Θέματα Συστημάτων Πολυμέσων

Σχετικά έγγραφα
Θέματα Συστημάτων Πολυμέσων

Τεχνολογία Πολυμέσων. Ενότητα # 7: Θεωρία πληροφορίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Τηλεπικοινωνιακά Συστήματα ΙΙ

Ψηφιακές Τηλεπικοινωνίες

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

2 n N: 0, 1,..., n A n + 1 A

Τεχνολογία Πολυμέσων. Ενότητα # 8: Αρχές κωδικοποίησης Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 3 : Πηγές Πληροφορίας Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Ψηφιακή Επεξεργασία Εικόνας

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 2 : Πληροφορία και Εντροπία Διάλεξη: Κώστας Μαλιάτσος Χρήστος Ξενάκης, Κώστας Μαλιάτσος

Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται σε άλλου τύ

Θέματα Συστημάτων Πολυμέσων. Ενότητα # 8: MPEG Διδάσκων: Γεώργιος Πολύζος Τμήμα: Μεταπτυχιακό Πρόγραμμα Σπουδών Επιστήμη των Υπολογιστών

Ανάκτηση Πληροφορίας

Θεωρία Πληροφορίας. Διάλεξη 4: Διακριτή πηγή πληροφορίας χωρίς μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Εισαγωγή στους Ηλεκτρονικούς Υπολογιστές. 6 ο Μάθημα. Λεωνίδας Αλεξόπουλος Λέκτορας ΕΜΠ. url:

Υπολογιστικά & Διακριτά Μαθηματικά

Μαθηματική Ανάλυση Ι

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΑΝΑΛΥΣΗ ΑΛΓΟΡΙΘΜΩΝ

Ψηφιακές Τηλεπικοινωνίες

Εισαγωγή στους Ηλεκτρονικούς Υπολογιστές. 5 ο Μάθημα. Λεωνίδας Αλεξόπουλος Λέκτορας ΕΜΠ. url:

Πληροφορική. Ενότητα 4 η : Κωδικοποίηση & Παράσταση Δεδομένων. Ι. Ψαρομήλιγκος Τμήμα Λογιστικής & Χρηματοοικονομικής

Εισαγωγή στις Τηλεπικοινωνίες

ΣΤΑΤΙΣΤΙΚΗ ΕΠΙΧΕΙΡΗΣΕΩΝ

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη (3η έκδοση, 11/3)

Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται σε άλλου τύ

Τεχνολογία Πολυμέσων. Ενότητα # 12: Κωδικοποίηση βίντεο: H.26x Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΑΝΑΛΥΣΗ ΑΛΓΟΡΙΘΜΩΝ

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Εισαγωγή στην Πληροφορική & τον Προγραμματισμό

Ανάκτηση Πληροφορίας

Θεωρία Πιθανοτήτων & Στατιστική

Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται σε άλλου τύ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΙΩΑΝΝΙΝΩΝ ΑΝΟΙΚΤΑ ΑΚΑΔΗΜΑΪΚΑ ΜΑΘΗΜΑΤΑ. Πιθανότητες. Εισαγωγή Διδάσκων: Επίκουρος Καθηγητής Κωνσταντίνος Μπλέκας

ΒΟΗΘΗΤΙΚΕΣ ΣΗΜΕΙΩΣΕΙΣ

Εισαγωγή στην Επιστήμη των Υπολογιστών

ΤΕΧΝΟΛΟΓΙΑ, ΚΑΙΝΟΤΟΜΙΑ ΚΑΙ ΕΠΙΧΕΙΡΗΜΑΤΙΚΟΤΗΤΑ 9 Ο εξάμηνο Χημικών Μηχανικών

Λογισμός 3. Ενότητα 19: Θεώρημα Πεπλεγμένων (γενική μορφή) Μιχ. Γ. Μαριάς Τμήμα Μαθηματικών ΑΝΟΙΚΤΑ ΑΚΑ ΗΜΑΪΚΑ ΜΑΘΗΜΑΤΑ

Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται σε άλλου τύ

Τεχνολογία Πολυμέσων. Ενότητα # 4: Ήχος Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Διαδικασίες Markov Υπενθύμιση

Θεώρημα κωδικοποίησης πηγής

( ) log 2 = E. Σεραφείµ Καραµπογιάς

Εισαγωγή στην Επιστήμη των Υπολογιστών

ΣΥΣΤΗΜΑΤΑ ΑΝΑΜΟΝΗΣ Queuing Systems

Εισαγωγή στους Ηλεκτρονικούς Υπολογιστές. 4 ο Μάθημα. Λεωνίδας Αλεξόπουλος Λέκτορας ΕΜΠ. url:

Θέματα Συστημάτων Πολυμέσων. Ενότητα #3: Ιδιότητες μέσων Διδάσκων: Γεώργιος K. Πολύζος Τμήμα: Μεταπτυχιακό Πρόγραμμα Σπουδών Επιστήμη των Υπολογιστών

Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται σε άλλου τύ

Θεωρία Πιθανοτήτων & Στατιστική

Ψηφιακή Σχεδίαση. Ενότητα: ΕΡΓΑΣΤΗΡΙΑΚΗ ΑΣΚΗΣΗ No:01. Δρ. Μηνάς Δασυγένης. Τμήμα Μηχανικών Πληροφορικής και Τηλεπικοινωνιών

Θέματα Συστημάτων Πολυμέσων. Ενότητα # 7: JPEG Διδάσκων: Γεώργιος Πολύζος Τμήμα: Μεταπτυχιακό Πρόγραμμα Σπουδών Επιστήμη των Υπολογιστών

ΠΛΗ21 Κεφάλαιο 2. ΠΛΗ21 Ψηφιακά Συστήματα: Τόμος Α Κεφάλαιο: 2 Δυαδική Κωδικοποίηση

Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται σε άλλου τύ

Εισαγωγή στις Τηλεπικοινωνίες / Εργαστήριο

Θεωρία Πιθανοτήτων & Στατιστική

Συστήματα Πολυμέσων. Ενότητα 6: Συμπίεση Ψηφιακής Εικόνας. Θρασύβουλος Γ. Τσιάτσος Τμήμα Πληροφορικής ΑΡΙΣΤΟΤΕΛΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΟΝΙΚΗΣ

Θεωρία Πιθανοτήτων & Στατιστική

Συστήματα Αναμονής. Ενότητα 5: Ανέλιξη Poisson. Αγγελική Σγώρα Τμήμα Μηχανικών Πληροφορικής ΤΕ

Οικονομικό Πανεπιστήμιο Αθηνών Τμήμα Πληροφορικής ΠΜΣ Κρυπτογραφία και Εφαρμογές

ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ Ανώτατο Εκπαιδευτικό Ίδρυμα Πειραιά Τεχνολογικού Τομέα. Συστήματα Αυτομάτου Ελέγχου. Ενότητα Α: Γραμμικά Συστήματα

Θεωρία Πιθανοτήτων & Στατιστική

Τεχνολογία Πολυμέσων. Ενότητα # 11: Κωδικοποίηση εικόνων: JPEG Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Εισαγωγή στην Επιστήμη των Υπολογιστών

ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ Ανώτατο Εκπαιδευτικό Ίδρυμα Πειραιά Τεχνολογικού Τομέα ΕΠΕΞΕΡΓΑΣΙΑ ΕΙΚΟΝΑΣ. Ενότητα 6: Κωδικοποίηση & Συμπίεση Εικόνας

Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Cretive Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται σε άλλου τύπ

ΤΕΧΝΟΛΟΓΙΑ ΛΟΓΙΣΜΙΚΟΥ Ι

Υπολογιστικά & Διακριτά Μαθηματικά

Πανεπιστήμιο Δυτικής Μακεδονίας. Τμήμα Μηχανικών Πληροφορικής & Τηλεπικοινωνιών. Ψηφιακή Σχεδίαση

Θεωρία πληροφοριών. Τεχνολογία Πολυµέσων 07-1

Εισαγωγή στους Ηλεκτρονικούς Υπολογιστές. 3 ο Μάθημα. Λεωνίδας Αλεξόπουλος Λέκτορας ΕΜΠ. url:

Εισαγωγή στη θεωρία πληροφορίας

Μαθηματικά. Ενότητα 2: Διαφορικός Λογισμός. Σαριαννίδης Νικόλαος Τμήμα Διοίκησης Επιχειρήσεων (Κοζάνη)

Πανεπιστήμιο Δυτικής Μακεδονίας. Τμήμα Μηχανικών Πληροφορικής & Τηλεπικοινωνιών. Ψηφιακή Σχεδίαση

Ψηφιακή Επεξεργασία Εικόνας

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Μοντελοποίηση Λογικών Κυκλωμάτων

Μαθηματικά. Ενότητα 6: Ασκήσεις Ορίων Συνάρτησης. Σαριαννίδης Νικόλαος Τμήμα Λογιστικής και Χρηματοοικονομικής

Ανάλυση ευαισθησίας Ανάλυση ρίσκου. Μαυρωτά Γιώργου Αναπλ. Καθηγητή ΕΜΠ

Εισαγωγή στους Αλγορίθμους

Τεχνολογία Πολυμέσων. Ενότητα # 9: Κωδικοποίηση εντροπίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Θεωρία της Πληροφορίας 3 ο Εξάμηνο

Σεραφείµ Καραµπογιάς. Πηγές Πληροφορίας και Κωδικοποίηση Πηγής 6.3-1

Θερμοδυναμική - Εργαστήριο

Οργάνωση Υπολογιστών

Προγραμματισμός Ηλεκτρονικών Υπολογιστών 1

ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ. Ενότητα 5: Παραδείγματα. Ρεφανίδης Ιωάννης Τμήμα Εφαρμοσμένης Πληροφορικής

ΠΑΝΕΠΙΣΤΗΜΙΟ ΙΩΑΝΝΙΝΩΝ ΑΝΟΙΚΤΑ ΑΚΑΔΗΜΑΪΚΑ ΜΑΘΗΜΑΤΑ. Πιθανότητες. Συνάρτηση κατανομής πιθανότητας Διδάσκων: Επίκουρος Καθηγητής Κωνσταντίνος Μπλέκας

ΠΛΗΡΟΦΟΡΙΚΗ Ι Ενότητα 8: Συστήματα αρίθμησης

Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος

Μέρος ΙΙ. Τυχαίες Μεταβλητές

Μαθηματικά Και Στατιστική Στη Βιολογία

Ανάκτηση Πληροφορίας

ΣΥΣΤΗΜΑΤΑ ΑΝΑΜΟΝΗΣ Queuing Systems

Διαχείριση Χρόνου & Δίκτυα στη Διοίκηση Έργων. Κηρυττόπουλος Κωνσταντίνος Επ. Καθηγητής ΕΜΠ

Αρχιτεκτονική Υπολογιστών Ασκήσεις Εργαστηρίου

ΣΤΑΤΙΣΤΙΚΗ ΕΠΙΧΕΙΡΗΣΕΩΝ

Ψηφιακή Επεξεργασία Εικόνων

ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ Ανώτατο Εκπαιδευτικό Ίδρυμα Πειραιά Τεχνολογικού Τομέα ΕΠΕΞΕΡΓΑΣΙΑ ΕΙΚΟΝΑΣ. Ενότητα 4: Δειγματοληψία και Κβάντιση Εικόνας

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΑΝΑΛΥΣΗ ΑΛΓΟΡΙΘΜΩΝ

Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται σε άλλου τύ

Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται σε άλλου τύ

Transcript:

Θέματα Συστημάτων Πολυμέσων Ενότητα # 5: Βασική Θεωρία Πληροφορίας Διδάσκων: Γεώργιος Πολύζος Τμήμα: Μεταπτυχιακό Πρόγραμμα Σπουδών Επιστήμη των Υπολογιστών

Άδειες χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται σε άλλου τύπου άδειας χρήσης, η άδεια χρήσης αναφέρεται ρητώς. 2

Χρηματοδότηση Το παρόν εκπαιδευτικό υλικό έχει αναπτυχθεί στα πλαίσια του εκπαιδευτικού έργου του διδάσκοντα. Το έργο «Ανοικτά Ακαδημαϊκά Μαθήματα στο Πανεπιστήμιο Αθηνών» έχει χρηματοδοτήσει μόνο τη αναδιαμόρφωση του εκπαιδευτικού υλικού. Το έργο υλοποιείται στο πλαίσιο του Επιχειρησιακού Προγράμματος «Εκπαίδευση και Δια Βίου Μάθηση» και συγχρηματοδοτείται από την Ευρωπαϊκή Ένωση (Ευρωπαϊκό Κοινωνικό Ταμείο) και από εθνικούς πόρους. 3

Σκοποί ενότητας Παρουσίαση του θεωρήματος Shannon Κατανόηση της εντροπίας μιας πηγής και τους σκοπούς που εξυπηρετεί 4

Περιεχόμενα ενότητας Τι είναι θεωρία πληροφορίας Στοχαστικές πηγές πληροφορίας Εντροπία πληροφορίας Εντροπία στοχαστικών πηγών Θεώρημα κωδικοποίησης πηγής 5

Θεωρία Πληροφορίας Μάθημα: Θέματα Συστημάτων Πολυμέσων Ενότητα # 5: Βασική Θεωρία Πληροφορίας Διδάσκων: Γεώργιος K. Πολύζος Τμήμα: Μεταπτυχιακό Πρόγραμμα Σπουδών Επιστήμη των Υπολογιστών

Θεωρία πληροφορίας κατά Shannon Claude Shannon: Η μαθηματική θεωρία της επικοινωνίας Α mathematical theory of communication, Bell System Technical Journal, 1948 Αναφέρεται και ως Shannon-Waver, μιας και την ειδική δημοσίευση προλογίζει ο Weaver. 7

Ρητά για τον Shannon Τι είναι πληροφορία; Αποφεύγοντας ερωτήματα σχετικά με το νόημα, ο Shannon έδειξε πως είναι μετρήσιμη ποσότητα. Σήμερα η διορατικότητα του Shannon βοήθησε στον εικονικό σχηματισμό όλων των συστημάτων που αποθηκεύουν, επεξεργάζονται ή ανταλλάσουν ψηφιακή πληροφορία, από τα CDs σε υπολογιστές έως αναμεταδότες σε διαστημικούς σταθμούς. Η θεωρία πληροφορίας έχει ξεπεράσει τα όρια των επικοινωνιών, διεισδύοντας στα πεδία της ψυχολογίας, των οικονομικών, της βιολογίας ακόμα και των τεχνών. 8

Στάδια μετάδοσης πληροφορίας Κάθε πηγή πληροφορίας Τρoποποίηση αναπαράστασης πχ. κωδικοποίηση Τροποποίηση αναπαράστασης για αποστολή Πηγή Κωδ/της Πηγής Κωδ/της Καναλιού Κανάλι Κανάλι Αποκωδ/της καναλιού Αποκωδ/της Πηγής Παραλήπ της Αντιμετόπιση θόρυβου καναλιού Αποσυμπίεση Κανάλι θεωρήται οτιδήποτε μεταφέρει ή αποθηκεύει πληροφορία, πχ κεραία ράδιο, καλώδιο, CD, ένα κομμάτι χαρτί 9

Βασικές οντότητες Πηγή H Κωδ/της πηγής R Κωδ/της καναλιού Κανάλι C C Κανάλι Απκωδ/της καναλιού Αποκωδ/της πηγής Παραλήπ της H: Η πληροφορία της πηγής R: Ρυθμός από των κωδικοποιητή πηγής. C: Χωριτικότητα καναλιού 10

Βασικά Θεωρήματα Πηγή H Κωδ/της πηγής R Κωδ/της καναλιού Κανάλι C C Κανάλι Απκωδ/της καναλιού Αποκωδ/της πηγής Παραλήπ της Shannon 1: Αποστολή χωρίς σφάλματα μόνο αν R H και C R. Shannon 2: Η κωδικοποίηση πηγής και καναλιού βελτιστοποιήται ανεξάρτητα, και δυαδικά σύμβολα μπορούν να είναι ο ενδιάμεσος τύπος. Υπόθεση: Assumption: Αυθαίρετα μεγάλες καθυστερήσης. 11

Στοχαστικές Πηγές Μάθημα: Θέματα Συστημάτων Πολυμέσων Ενότητα # 5: Βασική Θεωρία Πληροφορίας Διδάσκων: Γεώργιος K. Πολύζος Τμήμα: Μεταπτυχιακό Πρόγραμμα Σπουδών Επιστήμη των Υπολογιστών

Στοχαστικές Πηγές (1 από 2) Παραγώμενα σύμβολα πηγής X 1, X 2,... Κάθε σύμβολο παίρνει τιμή από το σύνολο A = (a 1, a 2, ). Πχ. Το κείμενο είναι ακολουθία συμβόλων με τιμές στο αλφάβητο A = (a,, z, A,, Z, 1, 2, 9,!,?, ). Πχ. Μια ψηφιακή ασπρόμαυρη εικόνα είναι ακολουθία συμβόλων στο αλφάβητο A = (0,1) ή A = (0,..,255) 13

Στοχαστικές Πηγές (2 από 2) Μοντέλο: P(X 1, X 2,, X n ) θεωρούνται γνωστά για όλους τους συνδυασμούς. Πηγή X 1, X 2, 14

Δύο ειδικές περιπτώσεις 1. Πηγή χωρίς μνήμη Κάθε σύμβολο είναι ανεξάρτητο του προηγούμενου. P(X 1, X 2,, X n ) = P(X 1 ) Ȼ P(X 2 ) Ȼ Ȼ P(X n ) 2. Μαρκοβιανή Πηγή ή Πηγή Markov Κάθε σύμβολο εξαρτάται από το προηγούμενο. P(X 1, X 2,, X n ) = P(X 1 ) P(X 2 X 1 ) Ȼ P(X 3 X 2 ) Ȼ Ȼ P(X n X n-1 ) 15

Πηγή Markov (1 από 4) Ένα σύμβολο εξαρτάται από το προηγούμενο σύμβολο, και η πηγή μοντελοποιείται με διάγραμμα καταστάσεων. 0.7 b a 0.5 1.0 Τριαδική πηγή με αφάβητο A = (a, b, c). 0.3 0.2 c 0.3 16

Πηγή Markov (2 από 4) Έστω ότι βρισκόμαστε στην κατάσταση a, i.e., X k = a. Οι πιθανότητες για το επόμενο σύμβολο είναι: 0.7 b P(X k+1 = a X k = a) = 0.3 a 0.5 1.0 P(X k+1 = b X k = a) = 0.7 0.3 0.2 c 0.3 P(X k+1 = c X k = a) = 0 17

Πηγή Markov (3 από 4) Αν X k+1 = b, ξέρουμε ότι X k+2 θα ισούται με c. 0.7 b P(X k+2 = a X k+1 = b) = 0 a 0.5 1.0 P(X k+2 = b X k+1 = b) = 0 0.3 0.2 c 0.3 P(X k+2 = c X k+1 = b) = 1 18

Πηγή Markov (4 από 4) Aν κάθε κατάσταση είναι πιθανή, οι στατικές πιθανότητες (stationary probabilities) των καταστάσεων υπολογίζονται από τις πιθανότητες μετάβασης. Στατικές πιθανότητες: i = P(X k = a i ) για κάθε k όταν X k-1, X k-2, δεν δίνονται Τα μοντέλα Markov αναπαριστούν πηγές με εξαρτήσεις πάνω από ένα βήματα πίσω. Χρήση διαγράμματος καταστάσεων με πολλά σύμβολα σε κάθε κατάσταση 19

Ανάλυση και σύνθεση Τα στοχαστικά μοντέλα χρησιμεύουν στην ανάλυση μιας πηγής. Κατασκευή μοντέλου που αναπαριστά τον κόσμο και ανάλυση του μοντέλου αντί του πραγματικού κόσμου Τα στοχαστικά μοντέλα χρησιμεύουν στην σύνθεση μιας πηγής. Προσομοίωση πηγής: Χρήση μήτρας τυχαίων αριθμών σε κάθε βήμα του μαρκοβιανού μοντέλου για την παραγωγή ακολουθίας συμβόλων 20

Πληροφορία και εντροπία Μάθημα: Θέματα Συστημάτων Πολυμέσων Ενότητα # 5: Βασική Θεωρία Πληροφορίας Διδάσκων: Γεώργιος K. Πολύζος Τμήμα: Μεταπτυχιακό Πρόγραμμα Σπουδών Επιστήμη των Υπολογιστών

Πληροφορία και εντροπία Έστω δυαδική πηγή χωρίς μνήμη, πχ κέρμα. Πόση πληροφορία παίρνουμε όταν μαθαίνουμε ότι ήρθε γράμματα ; Αν είναι δίκαιο κέρμα, δηλ. P(heads) = P (tails) = 0.5, η ποσότητα της πληροφορίας είναι 1 bit. Αν γνωρίζαμε πως θα ερχόταν γράμματα, δηλ. P(heads) = 1, η ποσότητα της πληροφορίας είναι μηδέν! Αν δεν είναι δίκαιο κέρμα, δηλ. P(heads) = 0.9, η ποσότητα της πληροφορίας είναι πάνω από μηδέν αλλά λιγότερη από 1bit. Διαισθητικά, η ποσότητα πληροφορίας είναι ίδια αν P(heads) = 0.9 ή P (heads) = 0.1. 22

Εσωτερική πληροφορία (1 από 4) Μελετώντας το όπως ο Shannon. Θεωρούμε πηγή χωρίς μνήμη Αλφάβητο A = (a 1,, a n ) Πιθανότητες συμβόλων (p 1,, p n ). Πόση πιθανότητα παίρνουμε βρίσκοντας το επόμενο σύμβολο ίσο με a i? Σύμφωνα με τον Shannon η εσωτερική πληροφορία του a i είναι I(a i ) = log(1/p i ) 23

Εσωτερική πληροφορία (2 από 4) Έστω δύο ανεξάρτητα γεγονότα Α και Β, με πιθανότητες P(A) = p A and P(B) = p B. Η πιθανότητα να συμβούν και τα δύο γεγονότα είναι p A p B. Ωστόσο η ποσότητα της πληροφορίας πρέπει να προσταιθεί όχι να πολλαπλασιαστεί. I(p A p B) = I(p A ) + I(p B) Οι λογάριθμοι ικανοποιούν I(Α) = log(p A )? Θέλουμε η πιθανότητα να αυξάνεται για φθήνουσες πιθανότητες και χρησιμοποιούμε τον αρνητικό λογάριθμο. I(Α) = -log(p A ) = log 1/p A 24

Εσωτερική πληροφορία (3 από 4) Παράδειγμα 1ο: p i = 1 => I(1) = log 1/1 = 0 Παράδειγμα 2ο: p i = 0.5 => I(0.5) = log 2 1/0.5 = 1 [bit] Ποιος αλγόριθμος; Επιλέξτε έναν. Στον φυσικό λογάριθμο η μονάδα μέτρησης είναι τα nats. Στον δεκαδικό τα Harleys Στον δυαδικό τα bits 25

Εσωτερική πληροφορία (4 από 4) Στον μέσο όρο όλων των συμβόλων, παίρνουμε Ν Ν Η = 1 p i I a i = 1 p i log1/p i Το H(X) ονομάζεται εντροπία πηγής πρώτου βαθμού Εκφράζει τον βαθμό αβεβαιότητας για το επόμενο σύμβολο 26

Εντροπία Παράδειγμα δυαδικής πηγής χωρίς μνήμη BMS 0 1 1 0 1 0 0 0 1 Έστω: p = P(X k = 1) 1 q = P(X k = 0) = 1 plog 1 p Tότε: H = plog 1 p + 1 p log 1 1 p 0 0.5 1 Η αβεβαιότητα μεγιστοποιείται για p=q=1/2 27

3 ιδιότητες της εντροπίας 1. Aποδεικνύεται ότι 0 H log N. 2. Μέγιστη εντροπία (H = log N) έχουμε όταν τα γεγονότα είναι ισοπίθανα, δηλ p i = 1/N. 3. Η διαφορά log N H ονομάζεται πλεονασμός πηγής. 28

Εντροπία πηγής χωρίς μνήμη Μάθημα: Θέματα Συστημάτων Πολυμέσων Ενότητα # 5: Βασική Θεωρία Πληροφορίας Διδάσκων: Γεώργιος K. Πολύζος Τμήμα: Μεταπτυχιακό Πρόγραμμα Σπουδών Επιστήμη των Υπολογιστών

Εντροπία πηγής χωρίς μνήμη Θεωρούμε ομάδα παραγόμενων συμβόλων (X 1,, X n ) και ορίζουμε την ομαδική εντροπία: Ν n 1 Η X 1,..,Χn = P X 1,..,Χn log P(X 1,..,Χn) 1 H γενίκευση γίνεται σε κάθε πιθανό συνδυασμό των n συμβόλων. Η εντροπία πηγής με μνήμη δίνεται από τον τύπο: H = lim n H(X 1,.., Xn) Όταν το μήκος της ομάδας απειρίζεται, διαιρούμε με n για να βρούμε τον αριθμό των bits ανά σύμβολο. n 1 30

Εντροπία μαρκοβιανής πηγής Η εντροπία για την κατάσταση Sk εκφράζεται ως Η S k = P kl log 1 l=1 Με P kl την πιθανότητα μετάβασης από την κατάσταση k στην κατάσταση l. Η εντροπία μαρκοβιανής πηγής δίδεται από τον μέσο όρο όλων των καταστάσεων. r r P kl H Μ = P S k H S k k=1 31

Πηγή μήκους σειρών Κάποιες πηγές παράγουν ακολουθίες ίδιων χαρακτήρων Πχ: 1- A B 1- Probability for a burst of length r: P(r) = (1- ) r-1 Entropy: H R = - r=1 1 P(r) log P(r) If the average run length is, then H R / = H M. 32

Πηγή μήκους σειρών Κάποιες πηγές παράγουν σειρέςς ίδιων χαρακτήρων Πχ: 1- A B 1- Πιθανότητα παραγωγής σειράς μήκους r: P(r) = (1- ) r-1 Εντροπία: H R = - r=1 1 P(r) log P(r) Αν το μέσο μήκος σειρά είναι, τότε H R / = H M. 33

Θεώρημα κωδικοποίησης πηγής Μάθημα: Θέματα Συστημάτων Πολυμέσων Ενότητα # 5: Βασική Θεωρία Πληροφορίας Διδάσκων: Γεώργιος K. Πολύζος Τμήμα: Μεταπτυχιακό Πρόγραμμα Σπουδών Επιστήμη των Υπολογιστών

Τυπικές Ακολουθίες (1 από 3) Έστω η μακρά ακολουθία της χωρίς μνήμης πηγής με P(1) = p. Σε n bits, θα υπάρχουν περίπου w = n p ένα. Άρα, υπάρχουν M = (n over w) τέτοιες τυπικές ακολουθίες! Μας ενδιαφέρουν μόνο αυτές οι ακολουθίες. Οι υπόλοιπες εμφανίζονται με μικρότερη πιθανότητα. 35

Τυπικές Ακολουθίες (2 από 3) Πόσες τυπικές ακολουθίες υπάρχουν; M = n w = n! w! n w! (Stirling n! nn M = n w = n! w! n w! e n 2πn) n n * const w w (n w) n w n H απαρίθμηση χρειάζεται log M bits, δηλ. 1 n logm bits ανά σύμβολο. 36

Τυπικές Ακολουθίες (3 από 3) Πόσα bits χρειαζόμαστε; 37

Το θεώρημα κωδικοποίησης πηγής Μας λέει Μπορούμε να αναπαραστήσουμε τα παραγόμενα σύμβολα μιας πηγής X χρησιμοποιώντας H(X) bits/σύμβολο. Δε μπορεί να γίνει κάτι καλύτερο Δε μας λέει Πως να το κάνουμε 38

Τέλος Ενότητας # 5 Μάθημα: Θέματα Συστημάτων Πολυμέσων Ενότητα # 5: Βασική Θεωρία Πληροφορίας Διδάσκων: Γεώργιος K. Πολύζος Τμήμα: Μεταπτυχιακό Πρόγραμμα Σπουδών Επιστήμη των Υπολογιστών