Θεωρία της Πληροφορίας 3 ο Εξάμηνο

Σχετικά έγγραφα
Θεωρία της Πληροφορίας 3 ο Εξάμηνο

Θεωρία της Πληροφορίας (Θ) ΔΙΔΑΚΩΝ: Δρ. Αναςτάςιοσ Πολίτησ

Δίαυλος Πληροφορίας. Η λειτουργία του περιγράφεται από:

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 2 : Πληροφορία και Εντροπία Διάλεξη: Κώστας Μαλιάτσος Χρήστος Ξενάκης, Κώστας Μαλιάτσος

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Δίαυλος Πληροφορίας. Δρ. Α. Πολίτης

Στοχαστικές Στρατηγικές

Εισαγωγή στη θεωρία πληροφορίας

P (A B) = P (AB) P (B) P (A B) = P (A) P (A B) = P (A) P (B)

Τηλεπικοινωνιακά Συστήματα ΙΙ

Τεχνολογία Πολυμέσων. Ενότητα # 7: Θεωρία πληροφορίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Θεωρία Πληροφορίας. Διάλεξη 4: Διακριτή πηγή πληροφορίας χωρίς μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Θέματα Συστημάτων Πολυμέσων

Ψηφιακές Τηλεπικοινωνίες

Ψηφιακές Τηλεπικοινωνίες

Γιατί πιθανότητες; Γιατί πιθανότητες; Θεωρία πιθανοτήτων. Θεωρία Πιθανοτήτων. ΗΥ118, Διακριτά Μαθηματικά Άνοιξη 2017.

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Θεωρία πληροφοριών. Τεχνολογία Πολυµέσων 07-1

1.1 ΔΕΙΓΜΑΤΙΚΟΙ ΧΩΡΟΙ ΕΝΔΕΧΟΜΕΝΑ

Θέματα Συστημάτων Πολυμέσων

Τμήμα Λογιστικής και Χρηματοοικονομικής. Θεωρία Πιθανοτήτων. Δρ. Αγγελίδης Π. Βασίλειος

ΣΤΑΤΙΣΤΙΚΗ ΕΠΙΧΕΙΡΗΣΕΩΝ

Ψηφιακές Τηλεπικοινωνίες. Θεωρία Ρυθμού Παραμόρφωσης

pdf: X = 0, 1 - p = q E(X) = 1 p + 0 (1 p) = p V ar(x) = E[(X µ) 2 ] = (1 p) 2 p + (0 p) 2 (1 p) = p (1 p) [1 p + p] = p (1 p) = p q

pdf: X = 0, 1 - p = q E(X) = 1 p + 0 (1 p) = p V ar(x) = E[(X µ) 2 ] = (1 p) 2 p + (0 p) 2 (1 p) = p (1 p) [1 p + p] = p (1 p) = p q

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 3 : Πηγές Πληροφορίας Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Θεωρία Πιθανοτήτων & Στατιστική

3.1 ΔΕΙΓΜΑΤΙΚΟΙ ΧΩΡΟΙ ΕΝΔΕΧΟΜΕΝΑ

Υπολογιστικά & Διακριτά Μαθηματικά

5η Δραστηριότητα. Λύσε το γρίφο Η Θεωρία της Πληροφορίας. Περίληψη. Λπν τ φνντ π τν πρτσ. Ικανότητες. Ηλικία. Υλικά

Κεφάλαιο 2 Πληροφορία και εντροπία

3 ΠΙΘΑΝΟΤΗΤΕΣ. ο δειγματικός χώρος του πειράματος θα είναι το σύνολο: Ω = ω, ω,..., ω }.

ΘΕΜΑ 3 Το ύψος κύματος (σε μέτρα) σε μία συγκεκριμένη θαλάσσια περιοχή είναι τυχαία μεταβλητή X με συνάρτηση πυκνότητας πιθανότητας

ΣΤΑΤΙΣΤΙΚΗ ΠΙΘΑΝΟΤΗΤΕΣ

Τμήμα Λογιστικής και Χρηματοοικονομικής. Πιθανότητες. Δρ. Αγγελίδης Π. Βασίλειος

ΠΟΣΟΤΙΚΕΣ ΜΕΘΟΔΟΙ στη Ναυτιλία και τις Μεταφορές

Στατιστική είναι το σύνολο των μεθόδων και θεωριών που εφαρμόζονται σε αριθμητικά δεδομένα προκειμένου να ληφθεί κάποια απόφαση σε συνθήκες

ΔΕΣΜΕΥΜΕΝΕΣ Ή ΥΠΟ ΣΥΝΘΗΚΗ ΠΙΘΑΝΟΤΗΤΕΣ

ΤΜΗΜΑ ΣΤΑΤΙΣΤΙΚΗΣ ΚΑΙ ΑΣΦΑΛΙΣΤΙΚΗΣ ΕΠΙΣΤΗΜΗΣ Σ

Η Διωνυμική Κατανομή. μαθηματικών. 2 Ο γονότυπος μπορεί να είναι ΑΑ, Αα ή αα.

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΣΤΑΤΙΣΤΙΚΗ ΤΩΝ ΕΠΙΧΕΙΡΗΣΕΩΝ. Κεφάλαιο 7. Τυχαίες Μεταβλητές και Διακριτές Κατανομές Πιθανοτήτων

Μέρος ΙΙ. Τυχαίες Μεταβλητές

ΕΠΑΝΑΛΗΠΤΙΚΑ ΘΕΜΑΤΑ ΚΕΦΑΛΑΙΟ 3ο: ΠΙΘΑΝΟΤΗΤΕΣ ΘΕΜΑ Α. α) Τι λέγεται δειγματικός χώρος και τι ενδεχόμενο ενός πειράματος τύχης;

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

ΜΑΘΗΜΑΤΙΚΑ. 1 ο ΔΙΑΓΩΝΙΣΜΑ. ΘΕΜΑ 1 ο Δίνεται η συνάρτηση f x. Ι. Το πεδίο ορισμού της f είναι:., 1 υ -1, B. 1, Γ. -1,., 1.

Εισαγωγή Η Θεωρία Πιθανοτήτων παίζει μεγάλο ρόλο στη μοντελοποίηση και μελέτη συστημάτων των οποίων δεν μπορούμε να προβλέψουμε ή να παρατηρήσουμε την

Περιεχόμενα 5ης Διάλεξης 1 Ανισότητα Markov 2 Διασπορά 3 Συνδιασπορά 4 Ανισότητα Chebyshev 5 Παραδείγματα Σωτήρης Νικολετσέας, αναπληρωτής καθηγητής 5

ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΛΟΠΟΝΝΗΣΟΥ

ΓΕΝΙΚΗΣ ΠΑΙΔΕΙΑΣ ΜΑΘΗΜΑΤΙΚΑ- 1 o ΔΙΑΓΩΝΙΣΜΑ

Πιθανότητες και Αρχές Στατιστικής (5η Διάλεξη) Σωτήρης Νικολετσέας, καθηγητής Τμήμα Μηχανικών Η/Υ & Πληροφορικής, Πανεπιστήμιο Πατρών Ακαδημαϊκό Ετος

Περιεχόμενα 2ης Διάλεξης 1 Σύνοψη προηγούμενου μαθήματος 2 Αξιωματικός ορισμός και απαρίθμηση 3 Διατάξεις - Συνδυασμοί 4 Παραδείγματα υπολογισμού πιθα

Μέσα, Πολυµέσα & µέτρηση Πληροφορίας

Ορισμός της Πιθανότητας (Ι)

Γνωστό: P (M) = 2 M = τρόποι επιλογής υποσυνόλου του M. Π.χ. M = {A, B, C} π. 1. Π.χ.

Περιεχόμενα 3ης Διάλεξης 1 Σύνοψη Προηγούμενου Μαθήματος 2 Δεσμευμένη Πιθανότητα 3 Bayes Theorem 4 Στοχαστική Ανεξαρτησία 5 Αμοιβαία (ή πλήρης) Ανεξαρ

Μέρος IV. Πολυδιάστατες τυχαίες μεταβλητές. Πιθανότητες & Στατιστική 2017 Τμήμα Μηχανικών Η/Υ & Πληροφορικής, Παν. Ιωαννίνων Δ15 ( 1 )

ΔΙΠΛΩΜΑΤΙΚΗ ΕΡΓΑΣΙΑ. ` Εφαρμογές της Θεωρίας Πληροφορίας στην ασφάλεια δικτύων ` ΦΟΙΤΗΤΡΙΑ: Καμπανά Νεκταρία ΜΕ/08051

Στατιστική Ι. Ενότητα 3: Πιθανότητες. Δρ. Γεώργιος Κοντέος Τμήμα Διοίκησης Επιχειρήσεων Γρεβενών

Περιεχόμενα 3ης Διάλεξης 1 Σύνοψη Προηγούμενου Μαθήματος 2 Δεσμευμένη Πιθανότητα 3 Bayes Theorem 4 Στοχαστική Ανεξαρτησία 5 Αμοιβαία (ή πλήρης) Ανεξαρ

ΠΡΟΓΡΑΜΜΑ ΣΠΟΥΔΩΝ ΣΤΗΝ ΠΛΗΡΟΦΟΡΙΚΗ ΜΑΘΗΜΑΤΙΚΑ Ι (ΘΕ ΠΛΗ 12) ΕΡΓΑΣΙΑ 6 η Ημερομηνία Αποστολής στο Φοιτητή: 23 Απριλίου 2012

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΣΤΑΤΙΣΤΙΚΗ ΤΩΝ ΕΠΙΧΕΙΡΗΣΕΩΝ. Κεφάλαιο 6. Πιθανότητες

ΣΤΑΤΙΣΤΙΚΗ ΠΙΘΑΝΟΤΗΤΕΣ

Τυχαία μεταβλητή είναι μία συνάρτηση ή ένας κανόνας που αντιστοιχίζει ένα αριθμό σε κάθε αποτέλεσμα ενός πειράματος.

Θεωρία Πληροφορίας. Διάλεξη 5: Διακριτή πηγή πληροφορίας με μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Εισαγωγή στο μάθημα Πιθανότητες - Στατιστική. Τμήμα Πολιτικών Μηχανικών Πανεπιστήμιο Θεσσαλίας

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

ΑΛΓΕΒΡΑ ΚΑΙ ΣΤΟΙΧΕΙΑ ΠΙΘΑΝΟΤΗΤΩΝ

Θέμα 1 ο (ΜΑΪΟΣ 2004, ΜΑΪΟΣ 2008) Να δείξετε ότι η παράγωγος της σταθερής συνάρτησης f (x) = c είναι (c) = 0. Απόδειξη

Θεωρία Πιθανοτήτων και Στατιστική

Τυχαία μεταβλητή (τ.μ.)

ΜΑΘΗΜΑΤΙΚΑ ΚΑΙ ΣΤΟΙΧΕΙΑ ΣΤΑΤΙΣΤΙΚΗΣ

Αθανάσιος Χρ. Τζέμος Τομέας Θεωρητικής Φυσικής. Εντροπία Shannon

ΠΑΝΕΠΙΣΤΗΜΙΑΚΑ ΦΡΟΝΤΙΣΤΗΡΙΑ ΚΟΛΛΙΝΤΖΑ. Ερωτήσεις πολλαπλής επιλογής. Συντάκτης: Δημήτριος Κρέτσης

ιαφορική εντροπία Σεραφείµ Καραµπογιάς

ΕΦΑΡΜΟΣΜΕΝΗ ΣΤΑΤΙΣΤΙΚΗ I Παντελής Δημήτριος Τμήμα Μηχανολόγων Μηχανικών

Τυχαία Μεταβλητή (Random variable-variable aléatoire)

Ασκήσεις μελέτης της 16 ης διάλεξης

1. Πείραμα τύχης. 2. Δειγματικός Χώρος ΣΤΟΙΧΕΙΑ ΑΠΟ ΤΗ ΘΕΩΡΙΑ ΠΙΘΑΝΟΤΗΤΩΝ

Υπολογιστικά & Διακριτά Μαθηματικά

ΤΥΧΑΙΕΣ ΜΕΤΑΒΛΗΤΕΣ. Έννοια Ορισμοί Τρόπος υπολογισμού Kατανομή πιθανότητας Ασκήσεις

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΙΡΑΙΩΣ ΤΜΗΜΑ ΣΤΑΤΙΣΤΙΚΗΣ ΚΑΙ ΑΣΦΑΛΙΣΤΙΚΗΣ ΕΠΙΣΤΗΜΗΣ Εξετάσεις στο μάθημα ΠΙΘΑΝΟΤΗΤΕΣ Ι

Κωδικοποίηση Πηγής. Η λειτουργία ενός συστήματος επικοινωνίας (γενικό διάγραμμα):

Λύσεις των θεμάτων ΔΕΥΤΕΡΑ 19 ΙΟΥΝΙΟΥ 2017 ΜΑΘΗΜΑΤΙΚΑ ΚΑΙ ΣΤΟΙΧΕΙΑ ΣΤΑΤΙΣΤΙΚΗΣ ΓΕΝΙΚΗΣ ΠΑΙΔΕΙΑΣ

ΟΙΚΟΝΟΜΕΤΡΙΑ. Παπάνα Αγγελική

ΣΥΝΔΥΑΣΤΙΚΑ ΕΠΑΝΑΛΗΠΤΙΚΑ ΘΕΜΑΤΑ ΜΑΘΗΜΑΤΙΚΩΝ ΓΕΝΙΚΗΣ ΠΑΙΔΕΙΑΣ

Σήματα και Συστήματα. Διάλεξη 1: Σήματα Συνεχούς Χρόνου. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Κεφάλαιο 3 Κατανομές. Πέτρος Ε. Μαραβελάκης, Επίκουρος Καθηγητής, Πανεπιστήμιο Πειραιώς

ΧΑΡΑΛΑΜΠΟΣ.ΣΠ. ΛΥΚΟΥΔΗΣ - ΠΙΘΑΝΟΤΗΤΕΣ Α ΛΥΚΕΙΟΥ

Θεωρία Πιθανοτήτων & Στατιστική

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΣΤΑΤΙΣΤΙΚΗ ΤΩΝ ΕΠΙΧΕΙΡΗΣΕΩΝ. Κεφάλαιο 7. Τυχαίες Μεταβλητές και Διακριτές Κατανομές Πιθανοτήτων

Άλγεβρα 1 ο Κεφάλαιο ... ν παράγοντες

X:S X(S) Έστω ότι στρίβουµε ένα αµερόληπτο νόµισµα δύο φορές και ενδιαφερόµαστε για τον αριθµό των Κ που θα εµφανιστούν.

Τυχαίες Μεταβλητές. Ορισμός

Θεώρημα κωδικοποίησης πηγής

ιδιαιτεραμαθηματα.gr ΑΛΓΕΒΡΑ Α ΛΥΚΕΙΟΥ ΘΕΩΡΙΑ & ΑΣΚΗΣΕΙΣ

ΕΦΑΡΜΟΣΜΕΝΗ ΣΤΑΤΙΣΤΙΚΗ I Παντελής Δημήτριος Τμήμα Μηχανολόγων Μηχανικών

1.1 Πείραμα Τύχης - δειγματικός χώρος

Ειδικά θέματα Αλγορίθμων και Δομών Δεδομένων (ΠΛΕ073) Απαντήσεις 1 ου Σετ Ασκήσεων

Τ Ε Ι Ιονίων Νήσων Τμήμα Εφαρμογών Πληροφορικής στη Διοίκηση και την Οικονομία. Υπεύθυνος: Δρ. Κολιός Σταύρος

Transcript:

Τμήμα Πληροφορικής & Επικοινωνιών Θεωρία της Πληροφορίας 3 ο Εξάμηνο Τομέας Τηλεπικοινωνιών και Δικτύων Δρ. Αναστάσιος Πολίτης Καθηγητής Εφαρμογών 1

Διεξαγωγή και Εξέταση του Μαθήματος Μάθημα Κάθε πότε? Βλέπε πρόγραμμα εξαμήνου. Πού? ΑΜΦ Τμήματος Πληροφορικής & Επικοινωνιών. Πώς? 13 Διαλέξεις (περιλαμβάνουν και τις Ασκήσεις Πράξης Εξέταση Στο τέλος του εξαμήνου. Γραπτή. Κλειστές σημειώσεις (δίνεται τυπολόγιο. Επικοινωνία και ενημέρωση ιστοσελίδα (http://www.teiser.gr/icd/staff/politis/mathimata.htm anpol@teiser.gr (αποστολές μηνυμάτων που είναι ανώνυμα δεν θα απαντώνται Ώρες γραφείου: βλέπε ιστοσελίδα. 2

Βιβλιογραφία Μαθήματος Βασική βιβλιογραφία μαθήματος Εγχειρίδιο Δρ. Ι. Ρέκανου «Θεωρία της Πληροφορίας», Οκτώβριος 2003 (βρίσκεται στη σελίδα του μαθήματος και στο εκπαιδευτικό υλικό. Ότι ειπωθεί κατά την διάρκεια των διαλέξεων (παραδείγματα, ασκήσεις κλπ. Οι διαφάνειες του μαθήματος (μόνο ως βοήθημα. Συμπληρωματική βιβλιογραφία «Εισαγωγή στη θεωρία της πληροφορίας», Αφράτη Φώτω. «Θεωρία πληροφοριών Κώδικες», Βούκαλης Δημήτρης. 3

Εισαγωγή 20 ος Αιώνας Αιώνας Πληροφορικής και Επικοινωνιών. Ανάπτυξη μέσων καταγραφής αποθήκευσης επεξεργασίας μετάδοσης (επικοινωνία της πληροφορίας. Έναυσμα για την εξέλιξη τεχνολογικών επιτευγμάτων Τηλέφωνο Τηλεόραση Ραδιόφωνο Δίκτυα Υπολογιστών 4

Εισαγωγή Τί είναι όμως η Πληροφορία Γνώση Ενημέρωση Συμβουλή Δεδομένα Παράδειγμα Χρηματιστή-Επενδυτή Ο επενδυτής χρειάζεται πληροφορίες από τον χρηματιστή (Συμβουλή. Ο χρηματιστής τις δίνει βασιζόμενος σε πληροφορίες που κατέχει (Γνώση. Ο χρηματιστής πληροφορεί τον επενδυτή για τις μετοχές μιας εταιρίας (Ενημέρωση. Ο επενδυτής αξιολογεί τις πληροφορίες για να πουλήσει/αγοράσει (Δεδομένα. Η πληροφορία είναι Μέτρο της Αβεβαιότητας (ή της βεβαιότητας Ο επενδυτής μειώνει την αβεβαιότητα του συμβουλευόμενος τον επενδυτή. Ο χρηματιστής γνωρίζει τα χρηματηστιριακά θέματα με βεβαιότητα. 5

Εισαγωγή Στις αρχές με μέσα του 20 ου αιώνα, η πληροφορία είναι: Έννοια αφηρημένη και ποιοτική (τι αξίζει να πληροφορηθώ? Άρα, δεν μπορώ να βγάλω νόμους που να περιγράφουν με αυστηρότητα την πληροφορία και επικοινωνία (δύσκολος σχεδιασμός υπολογιστικών και επικοινωνιακών συστημάτων. Ενδιαφέρον για ποσοτικοποίηση της πληροφορίας 1948 Πόση πληροφορία περιέχεται σε ένα γεγονός. Shannon, A Mathematical Theory of Communication Θεμελίωσε έννοιες/θεωρήματα για την μαθηματική περιγραφή της επικοινωνίας. Ακριβής ανάλυση με μαθηματική αυστηρότητα της μετάδοσης πληροφοριών. Μπορώ να σχεδιάσω καλύτερα επικοινωνιακά συστήματα (ξέρω πόση πληροφορία χρειάζεται να μεταδωθεί για ένα γεγονός!. 6

Εισαγωγή Η ΘτΠ βασίζεται πιθανοθεωρία στατιστική άλγεβρα Απαντά σε ερωτήματα που αφορούν: περιγραφή διαύλου επικοινωνίας επικοινωνία σε περιβάλλοντα θορύβου συμπίεση δεδομένων κρυπτογράφηση Αρχικά: η ΘτΠ αποτέλεσε τμήμα της επιστήμης επικοινωνιών Σήμερα: χωριστός κλάδος των μαθηματικών. 7

Βασικές Έννοιες Στη ΘτΠ κεντρικό ρόλο έχει η έννοια της πληροφορίας. Έχει ποσοτικό χαρακτήρα ( εννοιολογικού περιεχομένου. Η πληροφορία ενός γεγονότος σχετίζεται με την πιθανότητα πραγματοποίησης του γεγονότος και μόνον αυτή. Δηλαδή: ( f ( p Στην πράξη μικρότερη p A, περισσότερη Ι(Α. Συμφωνεί με κοινή αντίληψη? Μερικές φορές ναι, μερικές όχι! Παράδειγμα σε συμφωνία με την κοινή αντίληψη: Γεγονός Α: «Σήμερα έγινε ολική έκλειψη ηλίου». Γεγονός Β: «Σήμερα ο ήλιος ανέτειλε». σε ασυμφωνία με την κοινή αντίληψη: Γεγονός Α: «Στην εκλογική αναμέτρηση μεταξύ των κομμάτων Χ και Υ, κέρδισε το Χ». Γεγονός Β: «Έριξα τα ζάρια και έτυχα 6-5». Ι(Β>Ι(Α Ι(Α>Ι(Β 8

Μέτρο της Πληροφορίας Αν Α είναι ένα τυχαίο γεγονός, και p A είναι η πιθανότητα να συμβεί το γεγονός αυτό τότε, το μέτρο της πληροφορίας του Α, Ι(Α θα πρέπει να έχει τις παρακάτω ιδιότητες: 1. Το Ι(Α θα πρέπει να είναι συνάρτηση της p A. ( f ( p 2. To I(A θα πρέπει να είναι πραγματική θετική συνάρτηση. 3. Η συνάρτηση Ι(Α θα πρέπει να είναι γνησίως φθίνουσα: p A, pb : pa pb 4. Αν Α και Β είναι δύο ανεξάρτητα γεγονότα (δηλαδή p(a B=p A p B τότε το μέτρο της πληροφορίας εμφάνισης και των δύο γεγονότων θα πρέπει να είναι το άθροισμα των δύο επιμέρους μέτρων πληροφορίας: ( Αποδεικνύεται ότι η Πληροφορία (μέτρο της πληροφορίας δίνεται από τη σχέση: ( Από εδώ και πέρα Κ=2, και μονάδα μέτρησης της πληροφορίας είναι το bit. ( ( log K p A ( ( 9

Μέτρο της Πληροφορίας Γραφική παράσταση της συνάρτησης της πληροφορίας 10

Μέτρο της Πληροφορίας Εφαρμογή: Έστω ότι έχουμε τα παρακάτω σύνολα γεγονότων: Να βρεθούν τα μέτρα της πληροφορίας όλων των γεγονότων. Παρατηρήσεις: Στην Ι περίπτωση είναι εύκολο να μαντέψουμε ποιό γεγονός θα συμβεί. Στην ΙΙΙ περίπτωση αυτή η πρόβλεψη είναι δυσκολότερη. Στην ΙΙ περίπτωση είναι πολύ δύσκολο να προβλέψουμε το γεγονός που θα συμβεί. Σχόλιο:... [ [ [ 1 1 1,,, 2 2 2 ] ] ] P P P 1 255 [, 256 256 1 1 [, ] 2 2 7 9 [, ] 16 16 Μήπως υπάρχει ένα μέτρο για να περιγράψει αυτή την αβεβαιότητα μας για το σύνολο των γεγονότων και όχι για το καθένα ξεχωριστά; ] Απ.: Ι(Α 1 =8 bit, Ι(Α 2 =0.0056 bit Απ.: Ι(B 1 =1 bit, Ι(B 2 =1 bit Απ.: Ι(Γ 1 =1.19 bit, Ι(B 2 =0.830 bit 11

Εντροπία Η μέση αβεβαιότητα μας για το ποιό γεγονός θα συμβεί μέσα από ένα σύνολο γεγονότων ονομάζεται εντροπία και είναι ο σταθμισμένος μέσος όρος των μέτρων της πληροφορίας όλων των γεγονότων: Ονομάζεται και μέση πληροφορία. Εδώ η μονάδες μέτρησης της εντροπίας είναι το bit. Εφαρμογή: Έστω ότι έχουμε τα παρακάτω σύνολα γεγονότων:... Να βρεθεί η μέση πληροφορία που περιλαμβάνεται σε κάθε σύνολο. [ [ [ 1 1 1,,, 2 2 2 ] ] ] i N 1 P P P p i log p i 1 255 [, 256 256 1 1 [, ] 2 2 7 9 [, ] 16 16 ] Απ.: Η(Ε=0.0368 bit Απ.: Η(Ε=1 bit Απ.: Η(Ε=0.987 bit 12

Εφαρμογές Εφαρμογή Ι Ποιά είναι η πληροφορία που περιέχει το γεγονότος: «έριξα τα ζάρια και έτυχα έξη-πέντε»? Εφαρμογή ΙΙ Απ.: I=4.17 bits Πόση πληροφορία περιέχεται στον αριθμό κυκλοφορίας αυτοκινήτου μορφής ΓΓΓαααα, όπου Γ είναι κεφαλαίο γράμμα και α αριθμός. (Βοήθεια: για ελληνικές πινακίδες χρησιμοποιούνται 14 διεθνή γράμματα και ο τετραψήφιος αριθμός μπορεί να πάρει 9000 διαφορετικές τιμές Εφαρμογή ΙΙΙ Να βρεθεί η εντροπία ενός ζαριού. Εφαρμογή IV Απ.: Ι=24.56 bits Απ.: Η=2.58 bits Γνωρίζουμε από την ιστορία ότι ο τελευταίος αρχηγός της φυλής των Λιλιπούα είχε δύο παιδιά. Νεότερες έρευνες κατέληξαν σε δύο συμπεράσματα: Α. Ο αρχηγός είχε μια κόρη και έναν γιο. Β. Ο αρχηγός είχε μια κόρη και ένα μεγαλύτερο γιο. Πόση πληροφορία θα λάβουμε με την ανακοίνωση μόνο του πρώτου συμπεράσματος και πόση μόνο με την ανακοίνωση του δεύτερου; Πόση θα είναι η πληροφορία εάν ανκοινωθούν και τα δύο μαζί; 13

Γενικό Επικοινωνιακό Διάγραμμα Σύμφωνα με την ΘτΠ (Shannon γενικό σύστημα επικοινωνίας Noise Source Coder Channel Decoder Destination Πηγή: οποιοδήποτε άτομο ή μηχανή που παράγει πληροφορία. Κωδικοποιητής: μετατρέπει κάθε πληροφορία της πηγής σε μορφή κατάλληλη για μετάδοση. Κανάλι επικοινωνίας: το μέσο μέσω του οποίου μεταδίδεται η πληροφορία. Αποκωδικοποιητής: προσπαθεί να εξάγει την αρχική πληροφορία από την κωδικοποιημένη μορφή της. Προορισμός: οποιοδήποτε άτομο ή μηχανή που είναι ο αποδέκτης της πληροφορίας. 14

Ορισμοί 1 ος Ορισμός Πληροφορία είναι μία συλλογή δεδομένων, τα οποία καταγράφονται με τη χρήση συμβόλων. 2 ος Ορισμός Πηγή πληροφορίας είναι κάθε σύστημα που παράγει στην έξοδο του πληροφορία. 3 ος Ορισμός Επικοινωνία είναι κάθε διαδικασία μεταφοράς της πληροφορίας μεταξύ δύο σημείων του χωροχρόνου. 4 ος Ορισμός Αλφάβητο της Πηγής είναι το σύνολο των διακεκριμένων (διαφορετικών συμβόλων, x 1, x 2,, x N που χρησιμοποιούνται για την αναπαράσταση της πληροφορίας που παράγεται από μία πηγή. Το αλφάβητο της πηγής συμβολίζεται ως: Χ={x 1, x 2,, x N }. Το πλήθος Ν των συμβόλων δύναται να είναι πεπερασμένο ή άπειρο. 5 ος Ορισμός Ως λέξη ορίζουμε μια διατεταγμένη ακολουθία συμβόλων. 6 ος Ορισμός Ως μήνυμα ορίζουμε μια διατεταγμένη ακολουθία λέξεων. 15

Πηγή Πληροφορίας Η πηγή παράγει στην έξοδο της πληροφορία η οποία έχει την μορφή συμβόλων. Τα σύμβολα προέρχονται από ένα σύνολο συμβόλων Χ={x 1, x 2,, x N } (αλφάβητο. Το κάθε σύμβολο έχει μια πιθανότητα εμφάνισης στην έξοδο της πηγής. Συνολικά η πηγή έχει μια κατανομή πιθανοτήτων του συνόλου των συμβόλων που διαθέτει P Χ ={p x1, p x2,, p xn }. Η πηγή συμβολίζεται από την δυάδα που σχηματίζουν το αλφάβητο της και η κατανομή πιθανοτήτων των συμβόλων: (Χ,P X Ισχύουν: i N 1 I( x p i i 1 log p x i Πληροφορία συμβόλου 16

Εντροπία Πηγής Πληροφορίας Η εντροπία πηγής είναι ένα μέγεθος που σχετίζεται με την πηγή συνολικά. Εκφράζει την μέση αβεβαιότητα που έχουμε για το ποιό σύμβολο θα εμφανιστεί στην έξοδο της πηγής. X i N 1 p x i log Εντροπία πηγής Μετράται σε bits/symbol. Όταν αναφερόμαστε σε πηγή πληροφορίας οι μονάδες εντροπίας θα είναι bits/symbol. Ιδιότητες της εντροπίας: Είναι μη αρνητική: X 0 p x i Είναι συνεχής συνάρτηση των πιθανοτήτων p 1, p 2,, p N. Δηλαδή, μια μικρή μεταβολή στις πιθανότητες προκαλεί μικρή μόνο μεταβολή στην τιμή της εντροπίας. 17

Εφαρμογές Εφαρμογή Ι Θεωρούμε πηγή με αλφάβητο Χ={0,1}. Και p 1 =0.7. Να βρεθεί η πληροφορία του κάθε συμβόλου της πηγής. Επίσης, να βρεθεί η εντροπία της πηγής. Απ.: Ι(1=0.515 bits, Ι(0=1.737 bits, Η(Χ=0.8816 bits/symbol Εφαρμογή ΙΙ Μία πηγή έχει αλφάβητο Χ={Ο,Ε,Β,Δ} και κατανομή πιθανοτήτων P X ={1/2, 1/4, 1/8, 1/8}. Εάν το κάθε σύμβολο του αλφαβήτου είναι ανεξάρτητο, ποιά η πληροφορία της λέξης ΟΕΟ. Ποιά η εντροπία της πηγής; Απ.: Ι(OEO=4 bits, Η(Χ=1.75 bits/symbol 18

Εντροπία Πηγής Πληροφορίας Μερικές βασικές ιδιότητες της εντροπία πηγής: Μέγιστη εντροπία Η εντροπία μιας πηγής (Χ,P X διακριτών συμβόλων είναι μέγιστη όταν τα σύμβολα της πηγής είναι ισοπίθανα: 1 p1 p2... pn N Η αβεβαιότητα μας (εντροπία για την έξοδο της πηγής είναι μέγιστη όταν η πιθανότητες εμφάνισης των συμβόλων της πηγής είναι ίσες. Σχετική εντροπία Αν P X ={p 1,p 2,,p N } και Q X ={q 1,q 2,,q N } είναι δύο εναλλακτικές κατανομές πιθανοτήτων των συμβόλων Χ={x 1,x 2,,x N } μιας πηγής τότε: N pi X, PX / QX pi log i 1 qi Είναι η απόσταση Kullback-Leibler των κατανομών P X και Q X για το αλφάβητο Χ. 19

Ερμηνεία της Σχετικής Εντροπίας Σημασία της σχετικής εντροπίας: Εκφράζει την απόκλιση της κατανομής P X από την Q X. Πόση δηλαδή επιπλέον πληροφορία ανά σύμβολο θα παραχθεί από την πηγή εάν θεωρήσουμε ως κατανομή πιθανοτήτων των συμβόλων της πηγής την Q X, ενώ στην πραγματικότητα είναι η P X. Η απόσταση Kullback-Leibler «αποκαλύπτει» το ποσό της αναποδοτικότητας που θα υπάρξει εάν ο σχεδιασμός ενός επικοινωνιακού συστήματος βασιστεί στην λανθασμένη κατανομή. Η σχετική εντροπία είναι πάντα μεγαλύτερη ή ίση του μηδενός: H ( X, P X H ( X, P X / Q / Q X X Η σχετική εντροπία δεν είναι συμμετρική ως προς τις δύο κατανομές: X, PX / QX X, QX / PX 0 0 P P X X Q Q X X 20

Εφαρμογές Εφαρμογή Ι: Να υπολογιστεί η εντροπία ενός νομίσματος, όταν: α αυτό είναι τίμιο. Απ.: Η=1 bit β η ένδειξη «κεφαλή» έχει δύο φορές μεγαλύτερη πιθανότητα να εμφανιστεί από την ένδειξη «γράμματα». Απ.: Η=0.918 bits Εφαρμογή ΙΙ: Θεωρούμε την πηγή Χ={0, 1} με δύο ενναλακτικές κατανομές πιθανοτήτων, P X ={0.3,0.7} και Q X ={0.6,0.4}. Να υπολογιστούν οι αποστάσεις Kullback-Leibler, Η(Χ, P X /Q X } και Η(Χ, Q X /P X }. Απ.: Η(X,P X /Q X =0.2651 bits/symbol, Η(X,Q X /P X =0.277 bits/symbol Εφαρμογή ΙΙΙ: Να υπολογιστούν οι αποστάσεις Kullback-Leibler μεταξύ των εναλλακτικών κατανομών πιθανοτήτων P={0.2,0.3,0.5} και Q={0.4,0.5,0.1}. Ισχύει η αντιμεταθετική ιδιότητα; Απ.: Η(X,P X /Q X =0.741 bits/symbol, Η(X,Q X /P X =0.536 bits/symbol, Όχι δεν ισχύει 21

Εντροπία Δυαδικής Πηγής Εντροπία Δυαδικής Πηγής δίνεται από την Συνάρτηση Shannon: Η b (p p log p (1 plog(1 p 22

Θεωρούμε την σύνθετη πηγή (ΧΥ,P XY : Συνδετική Εντροπία (ΧΥ, P XY Αλφάβητο της νέας πηγής: XY {( x, y1,( x2, y1,...,( xn, y1,( x1, y2,( x2, y2,...,( xn, y2,...,( x1, ym,( x2, y,...,( x 1 M N M Εντροπία της σύνθετης πηγής: Ισχύει: N XY p( xi y j log p( xi, y i M 1 j 1, j XY X Y εάν οι πηγές είναι ανεξάρτητες XY X Y αλλιώς, y 23 }

Υπό Συνθήκη Εντροπία Σύνθετης Πηγής 24 Θεωρούμε την σύνθετη πηγή (ΧΥ,P XY : Θεωρούμε ότι γνωρίζουμε εκ των προτέρων την έξοδο της πηγής (Υ,P Y. Δηλαδή ισχύει: Η υπό συνθήκη εντροπία της σύνθετης πηγής (ΧΥ,P XY γνωρίζοντας την έξοδο της απλής πηγής (Υ,P Y δίνεται: Αντίστοιχα θα ισχύει: ( log ( ( 1 1, j i N i M j j i y x p y x p Y X H (, ( ( j j i j i y p y x p y x p ( log ( ( 1 1, i j N i M j j i x y p y x p X Y H (ΧΥ, P XY

Υπό Συνθήκη Εντροπία Σύνθετης Πηγής Σχέση υπο συνθήκη εντροπίας με την συνδετική εντροπία και τις εντροπίες πηγών: Η παραπάνω σχέση ερμηνεύεται και διαισθητικά: Η υπό συθνήκη εντροπία Η(Χ Υ γνωρίζοντας την έξοδο μιας απλής πηγής Η(Υ θα προκύπτει εάν από την συνδετική εντροπία της πηγής Η(ΧΥ αφαιρέσουμε την εντροπία της γνωστής πηγής Η(Υ. Προφανώς θα ισχύει: X Y XY Y Y X XY X 25

Διαπληροφορία Εκτελούμε το ακόλουθο πείραμα: 1. Διαθέτουμε 2 νομίσματα. Το ένα «τίμιο» και το άλλο «κάλπικο». Το «κάλπικο» διαθέτει δύο Κεφαλές. 2. Επιλέγουμε ένα από τα δύο νομίσματα τυχαία και το ρίχνουμε δύο φορές. 3. Καταγράφουμε τον αριθμό των κεφαλών που προκύπτουν. Κατόπιν κάνουμε την ερώτηση: «Πόση πληροφορία πήραμε για την ταυτότητα του νομίσματος (τίμιο ή κάλπικο μετρώντας πόσες Κεφαλές είδαμε στο τέλος του πειράματος;» Παρατηρήσεις Σίγουρα ο αριθμός των κεφαλών μπορεί να μας δώσει μια ιδέα για το ποιο νόμισμα επιλέχθηκε: Αριθμός Κεφαλών<2, σίγουρα το νόμισμα που επιλέχθηκε ήταν το τίμιο νόμισμα. Αριθμός Κεφαλών=2, τότε ενδεχομένως να επιλέχθηκε το κάλπικο νόμισμα. 26

Διαπληροφορία Έστω: Τυχαία μεταβλητή Χ=«επιλογή του νομίσματος» (0 για το τίμιο και 1 για το κάλπικο. Τυχαία μεταβλητή Υ=«ο αριθμός των κεφαλών» (0 για καμία 1 για μία και 2 για δύο. Γραφική αναπαράσταση του πειράματος: Χ 0 (Τίμιο 1 (Κάλπικο 1/4 2/4 1/4 1 Υ 0 (Καμία Κεφαλή 1 (Μία Κεφαλή 2 (Δύο Κεφαλές Δειγματοχώρος «Τίμιου» Ζαριού 1. ΚΓ 2. ΓΚ 3. ΚΚ 4. ΓΓ Δειγματοχώρος «Κάλπικου» Ζαριού 1. ΚΚ 27

Διαπληροφορία Θεωρούμε τον δίαυλο πληροφορίας που στην είσοδο και στην έξοδο του λειτουργούν δυο πηγές πληροφορίας (Χ,P X και (Y,P Y. Θεωρούμε παρατηρητή στην έξοδο (δηλαδή στην πηγή (Y,P Y. Κάποια στιγμή ο παρατηρητής βλέπει στην πηγή (Y,P Y το σύμβολο y j. Ερώτημα: «Βλέποντας το σύμβολο y j, πόση πληροφορία αποκόμισε ο παρατηρητής για το ποιό σύμβολο x i εκπέμθηκε αρχικά από την πηγή στην είσοδο του διαύλου;» Άρχικά (πριν την εμφάνιση του συμβόλου y j στην έξοδο του διαύλου η αβεβαιότητα του παρατηρητή για το ποιό σύμβολο θα εμφανιστεί στην είσοδο του διαύλου είναι X. Με την εμφάνιση του συμβόλου y j η αβεβαιότητα του μειώθηκε κατά X Y. 28

Διαπληροφορία Άρα: Η πληροφορία που αποκόμισα για την πηγή Χ γνωρίζοντας το αποτέλεσμα της πηγής Υ θα είναι: I( X Y X X Y Η Ι(Χ Υ ονομάζεται διαπληροφορία και προσδιορίζει: «πόσο μειώθηκε η αβεβαιότητα του παρατηρητή για την έξοδο της πηγής Χ γνωρίζοντας την έξοδο της πηγής Υ». Πρακτικά εκφράζει το ποσό της πληροφορίας που μεταφέρθηκε από την είσοδο του διαύλου στην έξοδο του (σε bits/symbol. Ιδιότητες H Ι(Χ Υ είναι συμμετρική συνάρτηση. Δηλαδή ισχύει: H Ι(Χ Υ είναι μη αρνητική: I( X Y I( Y X Y Y X I( X Y Πότε η διαπληροφορία είναι ίση με μηδέν; 0 29

Εφαρμογές Εφαρμογή Ι: Να δείξετε ότι για τις πηγές Χ (στην είσοδο ενός διαύλου και Υ (στην έξοδο του διαύλου ισχύει: Εφαρμογή ΙΙ: Να δείξετε ότι για τις πηγές Χ (στην είσοδο ενός διαύλου και Υ (στην έξοδο του διαύλου ισχύει: Εφαρμογή ΙΙ: Θεωρούμε δυο δυαδικές πηγές πληροφορίας με αλφάβητα Χ={x 1,x 2 } και Υ={y 1,y 2 }, αντίστοιχα. Γνωρίζουμε ότι ισχύουν οι εξής πιθανότητες: p(x 1 =0.2, p(y 1 =0.3 και p(x 1,y 2 =0.15. Να βρεθούν: Y X X Y Y X I( X Y X XY Y 1. Οι εντροπίες των πηγών. 2. Η συνδετική εντροπία της σύνθετης πηγής. 3. Οι υπό συνθήκη εντροπίες. 4. Η διαπληροφορία μεταξύ των πηγών Χ και Υ. Απ.: Η(Χ=0.722bits/symbol, Y=0.881bits/symbol Απ.: Η(ΧY=1.601bits/symbol Απ.: Η(Χ Y=0.720bits/symbol, Y X=0.879bits/symbol Απ.: I(Χ Y=0.002bits/symbol 30

Ασκήσεις Επανάληψης Εφαρμογή Ι (Εξεταστική 2009: Έστω δύο δυαδικές πηγές Α και Β. Υποθέτουμε ότι 0<p A (0<p Β (0<0.5. Ποιά δυαδική πηγή έχει την μεγαλύτερη εντροπία; Απ.: η Β. Εφαρμογή ΙΙ (Εξεταστική 2009: Έστω μια τριαδική πηγή Α={0,1,2}. Υπολογίστε τις πιθανότητες p(0, p(1 και p(2, έτσι ώστε να μεγιστοποιείται η εντροπία της πηγής Α. Εφαρμογή ΙΙΙ (Εξεταστική 2007: Θεωρούμε δυο δυαδικές πηγές πληροφορίας Χ={x 1,x 2 } και Υ={y 1,y 2 } για τις οποίες ισχύουν p(x 2 =0.2, p(y 1 =0.3 και p(y 2 x 2 =0.3. Να βρεθούν: 1. Οι εντροπίες X και Η(Υ. Απ.: Η(Χ=0.721bits/symbol, Y=0.881bits/symbol 2. Η συνδετική εντροπία Η(ΧΥ. Απ.: Η(ΧY=1.475bits/symbol 3. Η διαπληροφορία Ι(Χ;Υ των πηγών. Εφαρμογή ΙV Απ.: p(0=p(1=p(2=1/3 Απ.: I(Χ Y=0.127bits/symbol Ρίχνουμε ένα «τίμιο» ζάρι μια φορά. Εάν το αποτέλεσμα είναι 1, 2, 3, ή 4, τότε ρίχνουμε ένα «τίμιο» νόμισμα μια φορά. Εάν η ένδειξη του ζαριού είναι 5 ή 6, τότε ρίχνουμε το νόμισμα δύο φορές. Να βρεθεί η πληροφορία που αποκομίσαμε για την ένδειξη του ζαριού από την καταμέτρηση των «Κεφαλών» μετά την ρίψη/εις του νομίσματος. Απ.: X~0.918 bits, Y~1.324 bits, XY~2.083 bits I(Χ Y~0.16bits 31