Εισαγωγή στη θεωρία πληροφορίας

Σχετικά έγγραφα
Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 2 : Πληροφορία και Εντροπία Διάλεξη: Κώστας Μαλιάτσος Χρήστος Ξενάκης, Κώστας Μαλιάτσος

Ψηφιακές Τηλεπικοινωνίες

Ψηφιακές Τηλεπικοινωνίες

Θεώρημα κωδικοποίησης πηγής

Θεωρία της Πληροφορίας 3 ο Εξάμηνο

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 3 : Πηγές Πληροφορίας Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Ψηφιακές Τηλεπικοινωνίες. Θεωρία Ρυθμού Παραμόρφωσης

Θεωρία πληροφοριών. Τεχνολογία Πολυµέσων 07-1

Τηλεπικοινωνιακά Συστήματα ΙΙ

Σεραφείµ Καραµπογιάς. Πηγές Πληροφορίας και Κωδικοποίηση Πηγής 6.3-1

Θέματα Συστημάτων Πολυμέσων

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Τεχνολογία Πολυμέσων. Ενότητα # 7: Θεωρία πληροφορίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας 3η σειρά ασκήσεων Διακριτά και Συνεχή Κανάλια. Παράδοση: Έως 22/6/2015

1 Βασικές Έννοιες Θεωρίας Πληροφορίας

ΣΤΟΧΑΣΤΙΚΑ ΣΥΣΤΗΜΑΤΑ & ΕΠΙΚΟΙΝΩΝΙΕΣ 1o Τμήμα (Α - Κ): Αμφιθέατρο 3, Νέα Κτίρια ΣΗΜΜΥ Θεωρία Πιθανοτήτων & Στοχαστικές Ανελίξεις - 1

Δίαυλος Πληροφορίας. Η λειτουργία του περιγράφεται από:

Κεφάλαιο 2 Πληροφορία και εντροπία

Συμπίεση Δεδομένων

ΚΕΦΑΛΑΙΟ ΠΕΜΠΤΟ ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ

Θεωρία Πιθανοτήτων & Στατιστική

Αθανάσιος Χρ. Τζέμος Τομέας Θεωρητικής Φυσικής. Εντροπία Shannon

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη (3η έκδοση, 11/3)

ιαφορική εντροπία Σεραφείµ Καραµπογιάς

Θέματα Συστημάτων Πολυμέσων

Θεωρία Πιθανοτήτων & Στατιστική

( ) log 2 = E. Σεραφείµ Καραµπογιάς

Δίαυλος Πληροφορίας. Δρ. Α. Πολίτης

Θεωρία Πληροφορίας. Διάλεξη 5: Διακριτή πηγή πληροφορίας με μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Θεωρία της Πληροφορίας 3 ο Εξάμηνο

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Θόρυβος και λάθη στη μετάδοση PCM

II. Τυχαίες Μεταβλητές

Θεωρία Πληροφορίας. Διάλεξη 4: Διακριτή πηγή πληροφορίας χωρίς μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΙΡΑΙΩΣ ΤΜΗΜΑ ΨΗΦΙΑΚΩΝ ΣΥΣΤΗΜΑΤΩΝ ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ

Στο Κεφάλαιο 9 παρουσιάζεται μια εισαγωγή στις ψηφιακές ζωνοπερατές επικοινωνίες.

Αναλογικές και Ψηφιακές Επικοινωνίες

Εθνικό και Καποδιστριακό Πανεπιστήμιο Αθηνών Τμήμα Φυσικής Εισαγωγή στα Συστήματα Τηλεπικοινωνιών Συστήματα Παλμοκωδικής Διαμόρφωσης

HMY 799 1: Αναγνώριση Συστημάτων

17/10/2016. Στατιστική Ι. 3 η Διάλεξη

Πηγές Πληροφορίας και Κωδικοποίηση Πηγής

ΔΙΠΛΩΜΑΤΙΚΗ ΕΡΓΑΣΙΑ. ` Εφαρμογές της Θεωρίας Πληροφορίας στην ασφάλεια δικτύων ` ΦΟΙΤΗΤΡΙΑ: Καμπανά Νεκταρία ΜΕ/08051

ΠΟΛΥΔΙΑΣΤΑΤΕΣ ΤΥΧΑΙΕΣ ΜΕΤΑΒΛΗΤΕΣ

EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας Λυμένες ασκήσεις σε Κανάλια

h(x, y) = card ({ 1 i n : x i y i

Λυμένες Ασκήσεις σε Εντροπία, Αμοιβαία Πληροφορία, Κωδικοποίηση Πηγής και AEP

22Α004 - Προχωρημένα Θέματα Θεωρίας Πληροφορίας Τελική Εξέταση

HMY 429: Εισαγωγή στην Επεξεργασία Ψηφιακών. Χρόνου (Ι)

Στοχαστικές Στρατηγικές

Παλμοκωδική Διαμόρφωση. Pulse Code Modulation (PCM)

Διαφορικές Εξισώσεις.

ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ

Συμπίεση Πολυμεσικών Δεδομένων

Ασκήσεις στο µάθηµα «Επισκόπηση των Τηλεπικοινωνιών»

ΕΙΣΑΓΩΓΗ ΚΑΙ ΠΡΟΕΠΙΣΚΟΠΗΣΗ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΙΩΑΝΝΙΝΩΝ ΑΝΟΙΚΤΑ ΑΚΑΔΗΜΑΪΚΑ ΜΑΘΗΜΑΤΑ. Πιθανότητες. Συνεχείς τυχαίες μεταβλητές Διδάσκων: Επίκουρος Καθηγητής Κωνσταντίνος Μπλέκας

Μετάδοση σήματος PCM

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

Ένα αναλογικό σήμα περιέχει άπειρες πιθανές τιμές. Για παράδειγμα ένας απλός ήχος αν τον βλέπαμε σε ένα παλμογράφο θα έμοιαζε με το παρακάτω:

ΣΤΟΧΑΣΤΙΚΑ ΣΥΣΤΗΜΑΤΑ & ΕΠΙΚΟΙΝΩΝΙΕΣ 1o Τμήμα (Α - Κ): Αμφιθέατρο 4, Νέα Κτίρια ΣΗΜΜΥ Θεωρία Πιθανοτήτων & Στοχαστικές Ανελίξεις

Μέρος IV. Πολυδιάστατες τυχαίες μεταβλητές. Πιθανότητες & Στατιστική 2017 Τμήμα Μηχανικών Η/Υ & Πληροφορικής, Παν. Ιωαννίνων Δ15 ( 1 )

Πρόλογος 1. 1 Μαθηµατικό υπόβαθρο 9

Οικονομικό Πανεπιστήμιο Αθηνών Τμήμα Πληροφορικής ΠΜΣ Κρυπτογραφία και Εφαρμογές

ΕΠΙΚΟΙΝΩΝΙΕΣ, ΔΙΚΤΥΑ & ΤΕΧΝΟΛΟΓΙΑ ΥΠΟΛΟΓΙΣΤΩΝ

Παλμοκωδική Διαμόρφωση. Pulse Code Modulation (PCM)

Πιθανότητες & Τυχαία Σήματα. Διγαλάκης Βασίλης

Ψηφιακές Τηλεπικοινωνίες

ΟΙΚΟΝΟΜΕΤΡΙΑ. Παπάνα Αγγελική

Τηλεπικοινωνιακά Συστήματα Ι

Στοχαστικές Ανελίξεις (2) Αγγελική Αλεξίου

Ψηφιακές Τηλεπικοινωνίες

Σήματα και Συστήματα. Διάλεξη 1: Σήματα Συνεχούς Χρόνου. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Συστήματα Επικοινωνιών ΙI

Μέρος ΙΙ. Τυχαίες Μεταβλητές

ΠΑΝΕΠΙΣΤΗΜΙΟ ΙΩΑΝΝΙΝΩΝ ΑΝΟΙΚΤΑ ΑΚΑΔΗΜΑΪΚΑ ΜΑΘΗΜΑΤΑ. Πιθανότητες. Συνάρτηση κατανομής πιθανότητας Διδάσκων: Επίκουρος Καθηγητής Κωνσταντίνος Μπλέκας

P (A B) = P (AB) P (B) P (A B) = P (A) P (A B) = P (A) P (B)

EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας 3η σειρά ασκήσεων Ενδεικτικές Λύσεις

Τυχαίες Μεταβλητές. Ορισμός

Ψηφιακές Τηλεπικοινωνίες. Βέλτιστος Δέκτης

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 4η διάλεξη (4η έκδοση, 11/3/2013)

3 ο Μέρος Χαρακτηριστικά τυχαίων μεταβλητών

Απαντήσεις σε απορίες

Πραγματικοί Αριθμοί 2

ΣΤΟΧΑΣΤΙΚΑ ΣΥΣΤΗΜΑΤΑ & ΕΠΙΚΟΙΝΩΝΙΕΣ 1o Τμήμα (Α - Κ): Αμφιθέατρο 4, Νέα Κτίρια ΣΗΜΜΥ Θεωρία Πιθανοτήτων & Στοχαστικές Ανελίξεις - 2

ΠΑΡΑΔΕΙΓΜΑΤΑ ΘΕΜΑ Β. 2x 1. είναι Τότε έχουμε: » τον χρησιμοποιούμε κυρίως σε θεωρητικές ασκήσεις.

Μετάδοση σήματος PCM

ΣΗΜΑΤΑ ΚΑΙ ΣΥΣΤΗΜΑΤΑ. Εισαγωγή στα Σήµατα Εισαγωγή στα Συστήµατα Ανάπτυγµα - Μετασχηµατισµός Fourier Μετασχηµατισµός Z

Ορισμός : Η συνάρτηση X : Ω είναι μετρήσιμη εάν 1. της τυχαίας μεταβλητής X : Ω, είναι το πεδίο τιμών της X. Δηλαδή είναι το υποσύνολο του { }

ΤΥΧΑΙΑ ΔΙΑΝΥΣΜΑΤΑ F(x) 1, x n. 2. Η F είναι μη φθίνουσα και δεξιά συνεχής ως προς κάθε μεταβλητή. 3.

Ψηφιακές Τηλεπικοινωνίες. Πιθανότητα Σφάλματος για Δυαδική Διαμόρφωση

Θεωρία Πιθανοτήτων & Στατιστική

ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΛΟΠΟΝΝΗΣΟΥ

Θεωρία Πιθανοτήτων & Στατιστική

ΓΙΩΡΓΟΣ ΚΟΡΩΝΑΚΗΣ. ΑΛΛΑΓΗ ΜΕΤΑΒΛΗΤΗΣ ΣΤΟ ΟΡΙΣΜΕΝΟ ΟΛΟΚΛΗΡΩΜΑ Διδακτική προσέγγιση

Ορισμός : Η συνάρτηση X : Ω είναι μετρήσιμη εάν 1. της τυχαίας μεταβλητής X : Ω, είναι το πεδίο τιμών της X. Δηλαδή είναι το υποσύνολο του { }

Στοχαστικές Ανελίξεις (1) Αγγελική Αλεξίου

Πιθανότητες & Τυχαία Σήματα. Διγαλάκης Βασίλης

Περιεχόμενα της Ενότητας. Συνεχείς Τυχαίες Μεταβλητές. Συνεχείς Κατανομές Πιθανότητας. Συνεχείς Κατανομές Πιθανότητας.

Transcript:

Θεωρία πληροφορίας

Εισαγωγή στη θεωρία πληροφορίας

Τηλεπικοινωνιακά συστήματα Όλα τα τηλεπικοινωνιακά συστήματα σχεδιάζονται για να μεταφέρουν πληροφορία Σε κάθε τηλεπικοινωνιακό σύστημα υπάρχει μια πηγή που παράγει πληροφορία Σκοπός του τηλεπικοινωνιακού συστήματος είναι να μεταφέρει την πληροφορία στον παραλήπτη Π.χ. στην τηλεοπτική εκπομπή Η πηγή πληροφορίας είναι η βιντεοκάμερα Η έξοδος της είναι η εικόνα Σε επικοινωνία υπολογιστών Η πηγή πληροφορίας είναι κάποια εφαρμογή π.χ. email ΗέξοδοςείναιχαρακτήρεςASCII

Πληροφορία κοινή αντίληψη Κατά την κοινή αντίληψη πληροφορία = νέα γνώση Αποκτάται μέσω ακοής, όρασης, κλπ Η πηγή πληροφορίας παράγει εξόδους που δεν είναι γνωστές στον δέκτη εκ των προτέρων Εάν μπορούσαμε να τις προβλέψουμε δεν θα υπήρχε λόγος μετάδοσης Τι είναι πληροφορία; Η ποιοτική περιγραφή (γνώση για κάποιο θέμα) δεν είναι αρκετή Απαιτείται ποσοτική περιγραφή

Πληροφορία διαισθητική προσέγγιση Υποθέστε ότι στις σημερινές εφημερίδες έχουμε τα ακόλουθα πρωτοσέλιδα Αύριο ο ήλιος θα ανατείλει Καίγεται η Ελλάδα Καίγεται η Ελβετία Εισβολή της Κούβας στις ΗΠΑ Πληροφορία Έκπληξη 1/Πιθανότητα Πρωτοσέλιδο Έκπληξη Πιθανότητα Πληροφορία 1 Καμία Πάντα Όχι 2 Μικρή Μεγάλη Αρκετή 3 Μεγάλη Μικρή Μεγάλη 4 Τεράστια Ελάχιστη Τεράστια

Πληροφορία προσέγγιση μηχανικού Η πληροφορία σε ένα μήνυμα είναι ο χρόνος που απαιτείται για τη μετάδοσή του Μηνύματα με μεγαλύτερη πιθανότητα εμφάνισης μπορούν να μεταδοθούν σε συντομότερο χρόνο από ότι πιο σπάνια μηνύματα Κώδικας Morse Μικρότερες κωδικές λέξεις για χαρακτήρες που εμφανίζονται πιο συχνά (α, ε, ο) Μεγαλύτερες κωδικές λέξεις για χαρακτήρες που εμφανίζονται πιο σπάνια (ξ, ψ, ζ) Ο χρόνος μετάδοσης ενός χαρακτήρα με πιθανότητα εμφάνισης p είναι ανάλογος του log(1/p)

Μοντέλα πηγών πληροφορίας Οι πηγές πληροφορίας μπορούν να μοντελοποιηθούν με τυχαίες διαδικασίες Η έξοδος μιας πηγής είναι χρονικά μεταβαλλόμενη συνάρτηση (χωρίς δυνατότητα πρόβλεψης) Οι ιδιότητες εξαρτώνται από τη φύση της πηγής Κοινός τόπος είναι ότι όλες οι πηγές έχουν πεπερασμένο εύρος ζώνης, άρα μπορούν να δειγματοληπτηθούν με τον ρυθμό Nyquist Περιοριζόμαστε σε διακριτές ως προς το χρόνο διαδικασίες { } i i X = Το αλφάβητο των X i μπορεί να είναι διακριτό (π.χ. χαρακτήρες) ή συνεχές (π.χ. δείγματα φωνής)

Διακριτή πηγή χωρίς μνήμη (Discrete Memoryless Source) Τοπιοαπλόμοντέλοπηγής Η DMS είναι στοχαστική ανέλιξη διακριτού χρόνου και διακριτού πλάτους Τα x i δημιουργούνται ανεξάρτητα, το καθένα με τη δική του πιθανότητα p i Εάν χρησιμοποιείται κβάντιση, τα συνεχή σήματα μπορούν να θεωρηθούν και αυτά ως διακριτά Πιο πολύπλοκα μοντέλα έχουν μνήμη, δηλ. η δημιουργία κάποιου συμβόλου εξαρτάται από τα προηγούμενα. x -2, x -1, x 0, x 1, x 2,.. p -2, p -1, p 0, p 1, p 2,.

Μέτρο πληροφορίας Ορίζεται με τέτοιο τρόπο ώστε να ικανοποιούνται οι διαισθητικές ιδιότητες Για κάθε έξοδο της πηγής υπάρχει μια συνδεδεμένη πιθανότητα εμφάνισής της Ποια έξοδος μεταφέρει περισσότερη πληροφορία; Το μέτρο πληροφορίας πρέπει να είναι φθίνουσα συνάρτηση της πιθανότητας Όσο πιο απίθανο το γεγονός, τόσο πιο μεγάλη πληροφορία μεταφέρει

Μέτρο πληροφορίας Το μέτρο πληροφορίας πρέπει να είναι συνεχής συνάρτηση Μικρές αλλαγές της πιθανότητας εμφάνισης της εξόδου δεν πρέπει να μεταβάλλουν πολύ την ποσότητα της πληροφορίας Αθροιστική ιδιότητα Η συνολική ποσότητα πληροφορίας δύο ανεξάρτητων γεγονότων είναι το άθροισμα των επί μέρους μέτρων πληροφορίας των γεγονότων

Ιδία-πληροφορία Το περιεχόμενο πληροφορίας εξαρτάται μόνο από την πιθανότητα p j εμφάνισης και όχι από το μέγεθος του συμβόλου x j Self-information I(p j ) Ηιδία-πληροφορία I(p j ) είναι συνεχής συνάρτηση της p j Ηιδία-πληροφορία I( ) είναι φθίνουσα συνάρτηση του ορίσματος Εάν p= p 1 p 2, τότε I(p) = I(p 1 ) + I(p 2 )

Μέτρο πληροφορίας Η μόνη συνάρτηση που ικανοποιεί τις προηγούμενες ιδιότητες είναι I(x) = -log(p(x)) Η βάση του λογαρίθμου δεν είναι σημαντική, αλλά ορίζει τη μονάδα μέτρησης της πληροφορίας Εάν η βάση είναι 2, τότε η πληροφορία μετριέται σε bit Εάν χρησιμοποιηθούν φυσικοί λογάριθμοι, τότε η πληροφορία μετριέται σε nap Στησυνέχειαόλοιοιλογάριθμοιθαείναιμεβάσητο2

Σημαντικές ιδιότητες Προφανώς ισχύει I( x ) = 0 εάν p( x ) = 1 i I( x ) 0 i I( x ) > I( x ) εάν p( x ) < p( x ) i j i j I( x x ) = I( x ) + I( x )εάν x, x ανεξάρτητα i j i j i j Τι συμβαίνει όταν p i =0; i

Εντροπία

Μέση πληροφορία Τηλεπικοινωνιακό σύστημα Μεταδίδονται μακριές σειρές συμβόλων Η ποσότητα πληροφορίας πηγής είναι η μέση τιμή της ιδίας-πληροφορίας όλων των εξόδων της N pi( x) = plog( p) i i i i i= 1 i= 1 N

Εντροπία Εντροπία H(X) είναι η μέση τιμή πληροφορίας της πηγής ανά σύμβολο N N 1 H( X) = E{ [ I( X)] } = pilog( pi) = pilog( ) i= 1 i= 1 pi Η εντροπία αποτελεί ένα μέτρο της αβεβαιότητας για την x (κατά μέσο όρο) Όσο πιο πολλά είναι γνωστά για την x, τόσο μικρότερη είναι η εντροπία

Εντροπία ομοιόμορφης κατανομής Εάν οι έξοδοι της πηγής είναι ισοπίθανες, τότε xi, = 1,2,, N p= 1/ n i N 1 H( X) = log( N) = log( N) N i= 1 i

Απλά όρια Για μια τυχαία μεταβλητή με Ν πιθανές τιμές 0 HX ( ) log( N) Πότε επιτυγχάνονται τα όρια; H(X) = 0 εάν και μόνο εάν p(x i )=1για κάποιο i H(X) = log(ν) εάν και μόνο εάν p(x i )= 1/Ν για όλα τα i

Δυαδική πηγή χωρίς μνήμη Εμφανίζονται δύο πιθανές έξοδοι με πιθανότητες p και 1-p, αντίστοιχα Ηεντροπίαείναι HX ( ) = plog( p) (1 p)log(1 p) = H ( b p ) Μεγιστοποιείται όταν p=1/2, δηλαδή, H b (1/2)=1 Όπως αναμένεται το αποτέλεσμα μπορεί να μεταφερθεί με 1 bit

Συνάρτηση δυαδικής εντροπίας

Από κοινού εντροπία Η από κοινού εντροπία δύο τυχαίων μεταβλητών X, Y είναι HXY (, ) = pxy (, )log pxy (, ) xy, Στηγενικήπερίπτωσηn τυχαίων μεταβλητών H( X) = p( x1, x2,..., xn)log p( x1, x2,..., xn) x, x,..., x 1 2 n

Υπό συνθήκη εντροπία Εάν η τιμή της τυχαίας μεταβλητής Y=y είναι γνωστή, η συνάρτηση μάζας πιθανότητας της X θα είναι p(x y) καιηαντίστοιχηεντροπίαείναι H( X Y = y) = px ( y)log px ( y) xy, Η ποσότητα αυτή αντιστοιχεί στην αβεβαιότητα της Χ όταν γνωρίζουμε ότι Υ=y

Υπό συνθήκη εντροπία Η υπό συνθήκη εντροπία είναι μέτρο για την αβεβαιότητα της Χ δοθείσης της Υ H( X Y) = p( x y) p( y)log p( x y) = xy, xy, pxy (, )log px ( y) δηλαδή, είναιημέσητιμήγιαόλαταy για της αβεβαιότητας για τη X όταν η Υ είναι γνωστή Επειδή η Y μπορεί να παρέχει κάποια πληροφορία για την X, ισχύει H ( X Y) H( X)

Υπό συνθήκη εντροπία Στη γενική περίπτωση έχουμε H( X X, X,..., X ) n 1 2 n 1 x, x,..., x 1 2 n = px (, x,..., x)log px ( x, x,..., x ) 1 2 n n 1 2 n 1

Ρυθμός εντροπίας Εάν X n είναι η έξοδος μιας διακριτής (όχι απαραίτητα χωρίς μνήμη) πηγής HX ( n X1, X2,..., Xn 1) είναι η καινούργια πληροφορία για τη X n όταν κάποιος έχει παρακολουθήσει την ακολουθία X 1, X 2,, X n-1 Το όριο H στο άπειρο είναι ο ρυθμός εντροπίας

Ρυθμός εντροπίας Η στατικότητα εξασφαλίζει την ύπαρξη του ορίου H= lim H( Xn X1, X2,..., Xn 1) n και ισχύει εναλλακτικά 1 H = lim HX (, X,..., X) n n 1 2 ακόμη και για πηγές με μνήμη n

Χρήσιμες ιδιότητες Αλυσίδα HX (, X,..., X) = HX ( ) + 1 2 n 1 HX ( X) 2 1 + + HX ( X, X,..., X ) n 1 2 n 1 Για δύο τυχαίες μεταβλητές H( X, Y) = HY ( ) + H( X Y) = H( X) + H( Y X)

Χρήσιμες ιδιότητες Εάν οι τυχαίες μεταβλητές είναι ανεξάρτητες H( X) H( X ) i= 1 και εάν έχουν την ίδια κατανομή H( X) = nh( X ) n = 1 i Ισχύει η ανισότητα (ισότητα όταν οι τυχαίες μεταβλητές είναι ανεξάρτητες) H( X) H( Xi ) n i= 1

Αμοιβαία πληροφορία

Μοντέλο τηλεπικοινωνιακού διαύλου Μοντέλο διακριτού διαύλου πιθανότητες μετάβασης είσοδος έξοδος

Παραδείγματα διαύλων Ιδανικός δίαυλος χωρίς θόρυβο Δυαδικός συμμετρικός δίαυλος

Αμοιβαία πληροφορία Η αμοιβαία πληροφορία Ι(Χ;Υ ) μεταξύ δύο τυχαίωνμεταβλητώνείναι IXY ( ; ) = HX ( ) HXY ( ) Μπορούμε να θεωρήσουμε την X ως την είσοδο και την Y ως την έξοδο του διαύλου H(X ) είναι η αβεβαιότητα για την X H(X Y ) είναι η αβεβαιότητα για την Χ δοθέντος ότι γνωρίζουμε την Υ H(X ) -H(X Y ) είναι η αβεβαιότητα για την Χ που εξαλείφεται με την εμφάνιση της Υ

Εντροπία, υπό συνθήκη εντροπία και αμοιβαία πληροφορία

Ιδιότητες Ισχύει ότι IXY ( ; ) = HX ( ) HXY ( ) = H( X) H( X, Y) H( Y) ( ) = HX ( ) + HY ( ) HXY (, ) I( XY ; ) = IY ( ; X) H( Y) H( Y X) άρα I( X; Y) 0επειδή με την ισότητα να ισχύει εάν οι τυχαίες μεταβλητές είναι ανεξάρτητες I( X; Y) min{ H( X), H( Y)}

Διαφορική εντροπία Για τυχαία μεταβλητή Χ με συνεχείς τιμές, η εντροπία είναι άπειρη Στην περίπτωση αυτή ορίζεται η διαφορική εντροπία h( X) = fx( x)log fx( x) dx Η διαφορική εντροπία δεν έχει τη διαισθητική ερμηνεία της διακριτής εντροπίας, όμως είναι χρήσιμη για τη σύγκριση της πληροφορίας συνεχών πηγών

Απόλυτη εντροπία Η απόλυτη εντροπία είναι όπου H ( ) log0 0 X = = ( ) H ( X) = lim f ( x ) Δxlog f ( x ) Δx abs X i X i Δ x 0 i = lim f X( xi)log f X( xi) f X( xi)log x x Δ x 0 + Δ Δ i = f ( x)log f ( xdx ) + H( X) = hx ( ) + H( X) X X 0 0

Αμοιβαία πληροφορία συνεχών τυχαίων μεταβλητών Για δύο τυχαίες μεταβλητές hxy (, ) = f( xy, )log f( xydxdy, ) hxy ( ) = hxy (, ) hy ( ) IXY ( ; ) = hy ( ) hxy ( ) = hx ( ) hy ( X) όπου η αμοιβαία πληροφορία των συνεχών τυχαίων μεταβλητών έχει τη γνωστή ερμηνεία της πληροφορίας που η μία παρέχει για την άλλη

Διαφορική εντροπία Γκαουσιανής τυχαίας μεταβλητής Η συνάρτηση πυκνότητας πιθανότητας είναι 2 1 x f() x = exp 2 2 2πσ 2σ άρα 2 1 x h( X) = f( x)log dx f( x)logexp dx 2 2 2πσ 2σ 1 1 2 log log e ( ) 2 2 2πσ 2σ = + x f x dx 1 2 1 2 1 2 = log(2 πσ ) + σ log e= log(2 πeσ ) 2 2 2σ 2