ΕΙΣΑΓΩΓΗ ΚΑΙ ΠΡΟΕΠΙΣΚΟΠΗΣΗ

Μέγεθος: px
Εμφάνιση ξεκινά από τη σελίδα:

Download "ΕΙΣΑΓΩΓΗ ΚΑΙ ΠΡΟΕΠΙΣΚΟΠΗΣΗ"

Transcript

1 ΚΕΦΑΛΑΙΟ 1 ΕΙΣΑΓΩΓΗ ΚΑΙ ΠΡΟΕΠΙΣΚΟΠΗΣΗ Η θεωρία πληροϕορίας δίνει απαντήσεις σε δύο θεμελιώδη ερωτήματα της θεωρίας επικοινωνιών: Ποια είναι η «υπέρτατη» συμπίεση δεδομένων (απάντηση: η εντροπία H) και ποιος ο υπέρτατος ρυθμός μετάδοσης που μπορεί να επιτευχθεί σε μια επικοινωνία (απάντηση: η χωρητικότητα διαύλου C). Γι αυτό τον λόγο κάποιοι θεωρούν τη θεωρία πληροϕορίας υποσύνολο της θεωρίας επικοινωνιών. Υποστηρίζουμε ότι είναι κάτι πολύ περισσότερο. Πράγματι, οι συνεισϕορές της στη στατιστική ϕυσική (θερμοδυναμική), στην επιστήμη των υπολογιστών (πολυπλοκότητα Kolmogorov ή αλγοριθμική πολυπλοκότητα), στη στατιστική συμπερασματολογία (ξυράϕι του Όκκαμ: «η απλούστερη εξήγηση είναι η καλύτερη») και στις πιθανότητες και στη στατιστική (εκθέτες σϕάλματος για τον βέλτιστο έλεγχο υποθέσεων και εκτίμηση) είναι θεμελιώδεις. Σε αυτό το κεϕάλαιο, που αποτελεί ένα είδος «πρώτης διάλεξης», θα περιηγηθούμε στη θεωρία πληροϕορίας και τις εκ ϕύσεως σχετιζόμενες με αυτήν έννοιες. Η πλήρης παράθεση των ορισμών και η αναλυτική μελέτη του αντικειμένου ξεκινούν στο Κεϕάλαιο 2. Στο Σχήμα 1.1 παρουσιάζεται η σχέση της θεωρίας πληροϕορίας με άλλα γνωστικά αντικείμενα. Όπως ϕαίνεται στο σχήμα, η θεωρία πληροϕορίας έχει κοινές περιοχές με τη ϕυσική (στατιστική μηχανική), τα μαθηματικά (θεωρία πιθανοτήτων), την ηλεκτρομηχανική (θεωρία επικοινωνιών) και την επιστήμη των υπολογιστών (αλγοριθμική πολυπλοκότητα). Ακολούθως θα περιγράψουμε λεπτομερέστερα αυτές τις περιοχές. Ηλεκτρομηχανική (θεωρία επικοινωνιών). Στις αρχές της δεκαετίας του 1940 εθεωρείτο ότι είναι αδύνατο να σταλεί πληροϕορία με θετικό ρυθμό και αμελητέα πιθανότητα σϕάλματος. Ο Shannon εξέπληξε τους επιστήμονες που ασχολούνταν με τη θεωρία επικοινωνιών αποδεικνύοντας ότι η πιθανότητα σϕάλματος μπορούσε να γίνει σχεδόν μηδενική για κάθε ρυθμό επικοινωνίας μικρότερο από τη χωρητικότητα τουδιαύλου. Η χωρητικότητα μπορεί να υπολογιστεί με απλό τρόπο από τα χαρακτηριστικά τουδιαύλουπουαϕορούν τον θόρυβο. Ο Shannon υποστήριξε επιπλέον ότι τυχαίες διεργασίες όπως η μουσική και η ομιλία έχουν ένα επίπεδο πολυπλοκότητας ανεπίδεκτο περαιτέρω μείωσης και ότι το σήμα δεν μπορεί να συμπιεστεί περισσότερο από όσο επιτρέπει αυτό το επίπεδο. Σε αυτή την ποσότητα έδωσε το όνομα εντροπία,έχοντας υ πόψη του την παράλ- 1

2 2 ΕΙΣΑΓΩΓΗ ΚΑΙ ΠΡΟΕΠΙΣΚΟΠΗΣΗ Θεωρία επικοινωνιών Θεωρία πιθανοτήτων Όρια της θεωρίας επικοινωνιών Οριακά θεωρήματα Μεγάλες αποκλίσεις Στατιστική Φυσική ΙΑΙ Θερμοδυναμική Κβαντική θεωρία πληροφορίας Θεωρία πληροφορίας Έλεγχος υποθέσεων Πληροφορία Fisher Επιστήμη υπολογιστών Πολυπλοκότητα Kolmogorov Θεωρία χαρτοφυλακίου Τυχοπαιξία Kelly Ανισότητες Μαθηματικά Οικονομικά ΣΧΗΜΑ 1.1. Σχέση της θεωρίας πληροϕορίας με άλλα γνωστικά αντικείμενα. ληλη χρήση τουόρουστη θερμοδυναμική, και έδειξε ότι αν η εντροπία της πηγής είναι μικρότερη από τη χωρητικότητα τουδιαύλου, τότε ασυμπτωτικά μπορεί να επιτευχθεί επικοινωνία άνευ σϕαλμάτων. Όπως ϕαίνεται στο ιδιόρρυθμο Σχήμα 1.2, σήμερα η θεωρία πληροϕορίας αντιπροσωπεύει τα ακραία σημεία τουσυνόλουόλων των δυνατών τεχνικών επικοινωνίας. Στο ένα άκρο τουσυνόλουτων δυνατών τεχνικών επικοινωνίας βρίσκεται το ελάχιστο I(X; ˆX) τηςσυμπίεσηςδεδομένων.σεόλεςτιςτεχνικέςσυμπίεσης δεδομένων ο ρυθμός περιγραϕής πρέπει να είναι τουλάχιστον ίσος με αυτό το ελάχιστο. Στο άλλο άκρο βρίσκεται το μέγιστο I(X; Y ) της μετάδοσης δεδομένων, πουείναι γνωστό ως χωρητικότητα διαύλου. Συνεπώς, όλες οι τεχνικές διαμόρϕωσης και συμπίεσης δεδομένων βρίσκονται μεταξύ αυτών των ορίων. Η θεωρία πληροϕορίας προτείνει επίσης τρόπους για την επίτευξη αυτών των

3 ΕΙΣΑΓΩΓΗ ΚΑΙ ΠΡΟΕΠΙΣΚΟΠΗΣΗ 3 Όριο συμπίεσης δεδομένων Όριο μετάδοσης δεδομένων ^ min l(x; X ) max l(x; Y ) ΣΧΗΜΑ 1.2. Η θεωρία πληροϕορίας αντιπροσωπεύει τα δύο ακραία σημεία της θεωρίας επικοινωνιών. έσχατων ορίων που διέπουν την επικοινωνία. Ωστόσο, αυτές οι θεωρητικά βέλτιστες τεχνικές επικοινωνίας, όσο κομψές και αν είναι, πιθανόν να μην είναι καθόλου πρακτικές από υπολογιστικής πλευράς. Το γεγονός ότι χρησιμοποιούμε κάποιες απλές τεχνικές διαμόρϕωσης και αποδιαμόρϕωσης αντί της τυχαίας κωδικοποίησης και τουκανόνα αποκωδικοποίησης βάσει τουπλησιέστερουγείτονα πουπροτείνεται στην απόδειξη τουshannon για το θεώρημα χωρητικότητας διαύλουοϕείλεται απλώς και μόνο στην υπολογιστική εϕικτότητά τους. Η πρόοδος στα ολοκληρωμένα κυκλώματα και τον σχεδιασμό κωδίκων μάς έχει επιτρέψει να απολαύσουμε κάποια από τα οϕέλη πουπροβλέπει η θεωρία τουshannon. Η υπολογιστική πρακτικότητα τελικά επιτεύχθηκε με την έλευση των κωδίκων turbo. Ένα καλό παράδειγμα εϕαρμογής των ιδεών της θεωρίας πληροϕορίας είναι η χρήση των κωδίκων διόρθωσης σϕαλμάτων στους συμπαγείς δίσκους και στα DVD. Η πρόσϕατη ερευνητική δραστηριότητα πάνω στις πλευρές της θεωρίας πληροϕορίας πουαϕορούν τις επικοινωνίες έχει επικεντρωθεί στη δικτυακή θεωρία πληροϕορίας: τη θεωρία των ταυτόχρονων ρυθμών μετάδοσης από πολλούς πομπούς σε πολλούς δέκτες παρουσία παρεμβολής και θορύβου. Κάποιες από τις σχέσεις αλληλεξάρτησης των ρυθμών μεταξύ πομπών και δεκτών είναι μη αναμενόμενες, αλλά όλες τους έχουν μια μαθηματική απλότητα. Ωστόσο, δεν έχει βρεθεί ακόμα κάποια ενιαία θεωρία. Επιστήμη των υπολογιστών (πολυπλοκότητα Kolmogorov). Οι Kolmogorov, Chaitin και Solomonoff διατύπωσαν την ιδέα ότι η πολυπλοκότητα μιας συμβολοσειράς δεδομένων μπορεί να οριστεί μέσω τουμήκους τουμικρότερουδυνατού δυαδικού προγράμματος υπολογιστή που υπολογίζει τη συγκεκριμένη συμβολοσειρά. Δηλαδή η πολυπλοκότητα είναι το ελαχιστιαίο μήκος περιγραϕής. Όπως αποδεικνύεται, αυτός ο ορισμός της πολυπλοκότητας είναι καθολικός, δηλαδή ανεξάρτητος από τον εκάστοτε υπολογιστή, και θεμελιώδους σημασίας. Επομένως, η πολυπλοκότητα Kolmogorov θέτει τις βάσεις για τη θεωρία της περιγραϕικής πολυπλοκότητας. Είναι μάλιστα ιδιαίτερα ευχάριστο το γεγονός ότι η πολυπλοκότητα Kolmogorov K είναι προσεγγιστικά ίση με την εντροπία Shannon H

4 4 ΕΙΣΑΓΩΓΗ ΚΑΙ ΠΡΟΕΠΙΣΚΟΠΗΣΗ αν η ακολουθία λαμβάνεται τυχαία σύμϕωνα με μια κατανομή που έχει εντροπία H. Άρα η σχέση μεταξύ θεωρίας πληροϕορίας και πολυπλοκότητας Kolmogorov είναι τέλεια. Πράγματι, η πολυπλοκότητα Kolmogorov θεωρείται πιο θεμελιώδης από την εντροπία Shannon. Είναι η υπέρτατη συμπίεση δεδομένων και οδηγεί σε έναν λογικά συνεπή τρόπο εξαγωγής συμπερασμάτων. Υπάρχειμιαευχάριστησυμπληρωματικήσχέσημεταξύτηςαλγοριθμικήςκαι της υπολογιστικής πολυπλοκότητας. Μπορούμε να ϕανταστούμε την υπολογιστική πολυπλοκότητα (χρονική πολυπλοκότητα) και την πολυπλοκότητα Kolmogorov (μήκος προγράμματος ή περιγραϕική πολυπλοκότητα) σαν δύο άξονες πουαντιστοιχούν ο πρώτος στον χρόνο εκτέλεσης και ο δεύτερος στο μήκος ενός προγράμματος. Η πολυπλοκότητα Kolmogorov επικεντρώνεται στην ελαχιστοποίηση ως προς τον δεύτερο άξονα, ενώ η υπολογιστική πολυπλοκότητα στην ελαχιστοποίηση ως προς τον πρώτο άξονα. Η ταυτόχρονη ελαχιστοποίηση και των δύο δεν έχει μελετηθεί ακόμη αρκετά. Φυσική (θερμοδυναμική). Η εντροπία και ο δεύτερος νόμος της θερμοδυναμικής γεννήθηκαν στους κόλπους της στατιστικής μηχανικής. Η εντροπία αυξάνεται πάντα. Μεταξύ άλλων, ο δεύτερος νόμος μάς επιτρέπει να απορρίψουμε κάθε ισχυρισμό περί αεικίνητων μηχανών. Θα αναϕερθούμε εν συντομία στον δεύτερο νόμο στο Κεϕάλαιο 4. Μαθηματικά (θεωρία πιθανοτήτων και στατιστική). Οι θεμελιώδεις ποσότητεςτηςθεωρίαςπληροϕορίας ηεντροπία, η σχετική εντροπία και η αμοιβαία πληροϕορία ορίζονται ως συναρτησιοειδή κατανομών πιθανότητας. Χαρακτηρίζουν τη συμπεριϕορά μακρών ακολουθιών τυχαίων μεταβλητών και μας επιτρέπουν να εκτιμούμε τις πιθανότητες σπάνιων ενδεχομένων (θεωρία μεγάλων αποκλίσεων) και να βρίσκουμε τον καλύτερο εκθέτη σϕάλματος κατά τον έλεγχο υποθέσεων. Φιλοσοφία της επιστήμης (ξυράφι του Όκκαμ). Ο Γουλιέλμος του Όκκαμ είχε πει: «Τα αίτια δεν πρέπει να πολλαπλασιάζονται περισσότερο από όσο είναι απαραίτητο», με άλλα λόγια: «Η απλούστερη εξήγηση είναι η καλύτερη». Οι Solomonoff και Chaitin υποστήριξαν ότι αν πάρουμε έναν σταθμισμένο συνδυασμό όλων των προγραμμάτων πουεξηγούν κάποια δεδομένα και παρατηρήσουμε την επόμενη έξοδό τους, τότε έχουμε μια καθολικά καλή μέθοδο πρόβλεψης. Επιπλέον, αυτή η διαδικασία εξαγωγής συμπερασμάτων είναι αποτελεσματική σε πολλά προβλήματα πουδεν μπορούμε να χειριστούμε μέσω της στατιστικής. Για παράδειγμα, αυτή η μέθοδος θα προβλέψει τελικά τα επόμενα ψηϕία του π. Αντην εϕαρμόσουμε στις ρίψεις ενός κέρματος που ϕέρνει γράμματα με πιθανότητα 0,7, θα το συμπεράνουμε και αυτό. Αν την εϕαρμόσουμε στη χρηματιστηριακή αγορά,

5 1.1 ΠΡΟΕΠΙΣΚΟΠΗΣΗ ΤΩΝ ΠΕΡΙΕΧΟΜΕΝΩΝ ΤΟΥ ΒΙΒΛΙΟΥ 5 θα πρέπει ουσιαστικά να βρει όλους τους «νόμους» της χρηματιστηριακής αγοράς και να τους προεκβάλει κατά βέλτιστο τρόπο. Θεωρητικά, χρησιμοποιώντας μια τέτοια μέθοδο θα μπορούσαμε να ανακαλύψουμε και τους νόμους της ϕυσικήςτουνεύτωνα.ασϕαλώς,ησυγκεκριμένημέθοδοςεξαγωγήςσυμπερασμάτων δεν είναι καθόλουπρακτική, διότι για να απορριϕθούν όλα τα προγράμματα υπολογιστή που δεν καταϕέρνουν να παραγάγουν τα υπάρχοντα δεδομένα απαιτείται απαγορευτικά πολύς χρόνος. Θα προβλέπαμε τι πρόκειται να συμβεί αύριο ύστερα από εκατό χρόνια. Οικονομικά (επενδύσεις). Οι επαναλαμβανόμενες επενδύσεις σε μια στάσιμη χρηματιστηριακή αγορά έχουν ως αποτέλεσμα την εκθετική μεγέθυνση του πλούτου. Ο ρυθμός μεγέθυνσης τουπλούτουείναι μια δυϊκή ποσότητα τουρυθμού εντροπίας της χρηματιστηριακής αγοράς. Οι αντιστοιχίες μεταξύ της θεωρίας βέλτιστων επενδύσεων σε μια χρηματιστηριακή αγορά και της θεωρίας πληροϕορίας είναι εντυπωσιακές. Για να μελετήσουμε αυτή τη δυϊκότητα θα αναπτύξουμε τη θεωρία επενδύσεων. Υπολογισμός και επικοινωνία. Καθώς κατασκευάζουμε ολοένα και μεγαλύτερους υπολογιστές από ολοένα και μικρότερα μέρη, βρισκόμαστε αντιμέτωποι με ένα όριο πουαϕορά τόσο τις υπολογιστικές όσο και τις επικοινωνιακές δυνατότητες. Οι επικοινωνιακές δυνατότητες επιβάλλουν περιορισμούς στις υπολογιστικές δυνατότητες και οι υπολογιστικές δυνατότητες επιβάλλουν περιορισμούς στις επικοινωνιακές δυνατότητες. Αυτά τα δύο συνυϕαίνονται, και έτσι όλες οι ανακαλύψεις της θεωρίας επικοινωνιών μέσω της θεωρίας πληροϕορίας έχουν ά- μεση επίδραση στη θεωρία υπολογισμού. 1.1 ΠΡΟΕΠΙΣΚΟΠΗΣΗ ΤΩΝ ΠΕΡΙΕΧΟΜΕΝΩΝ ΤΟΥ ΒΙΒΛΙΟΥ Τα πρωταρχικά ερωτήματα πουπραγματεύεται η θεωρία πληροϕορίας εμπίπτουν στις περιοχές της συμπίεσης και της μετάδοσης δεδομένων. Οι απαντήσεις είναι ποσότητες όπως η εντροπία και η αμοιβαία πληροϕορία, οι οποίες είναι συναρτήσεις των κατανομών πιθανότητας πουδιέπουν την εκάστοτε επικοινωνιακή διεργασία. Μερικοί ορισμοί θα διευκολύνουν την αρχική μας ανάλυση. Οι ορισμοί αυτοί επαναλαμβάνονται στο Κεϕάλαιο 2. Η εντροπία μιας τυχαίας μεταβλητής X με συνάρτηση μάζας πιθανότητας p(x) ορίζεται ως εξής: H(X) = p(x)log 2 p(x). (1.1) x Χρησιμοποιούμε λογαρίθμους με βάση το 2, οπότε η εντροπία θα μετριέται σε δυϕία. Η εντροπία είναι μέτρο της μέσης αβεβαιότητας της τυχαίας μεταβλητής.

6 6 ΕΙΣΑΓΩΓΗ ΚΑΙ ΠΡΟΕΠΙΣΚΟΠΗΣΗ Είναι το πλήθος των δυϕίων που απαιτούνται κατά μέσο όρο για την περιγραϕή της τυχαίας μεταβλητής. Παράδειγμα Θεωρήστε μια τυχαία μεταβλητή που είναι ομοιόμορϕα κατανεμημένη με 32 δυνατές εκβάσεις. Για να ξεχωρίζουμε μεταξύ τους τις διάϕορες εκβάσεις, χρειαζόμαστε μιαεπιγραϕήπουμπορείναπάρει32 διαϕορετικές τιμές. Επομένως, οι5-δύϕιες συμβολοσειρές είναι κατάλληλες για επιγραϕές. Η εντροπία αυτής της τυχαίας μεταβλητής είναι H(X) = 32 p(i)logp(i) = log 1 = log 32 = 5 δυϕία, (1.2) 32 το οποίο συμπίπτει με το πλήθος των δυϕίων που απαιτούνται για την περιγραϕή της X. Σεαυτήτηνπερίπτωση,όλεςοιεκβάσειςέχουνισομήκειςαναπαραστάσεις. Ακολούθως εξετάζουμε ένα παράδειγμα όπου η κατανομή είναι μη ομοιόμορ- ϕη. Παράδειγμα Υποθέστε ότι έχουμε μια ιπποδρομία στην οποία συμμετέχουν οκτώ άλογα και θεωρήστε ότι οι πιθανότητες νίκης καθενός εξ αυτών είναι ( 1 2, 1 4, 1 8, 1 16, 1 64, 1 64, 1 64, 64) 1. Η εντροπία της ιπποδρομίας υπολογίζεται ως εξής: H(X) = 1 2 log log log log log 1 64 =2δυϕία. (1.3) Υποθέστε ότι θέλουμε να στείλουμε ένα μήνυμα που να αναϕέρει ποιο άλογο νίκησε στην ιπποδρομία. Μια δυνατή επιλογή είναι να στείλουμε τον αύξοντα αριθμό τουαλόγουπουνίκησε. Η περιγραϕή αυτή απαιτεί 3 δυϕία, όποιο και να είναι το άλογο. Δεδομένουόμως ότι οι πιθανότητες νίκης δεν είναι ομοιόμορϕες, θα είχε νόημα να χρησιμοποιήσουμε βραχύτερες περιγραϕές για τα άλογα που έχουν περισσότερες πιθανότητες να νικήσουν και μεγαλύτερου μήκους περιγραϕές για τα άλογα πουέχουν λιγότερες πιθανότητες, ώστε να πετύχουμε μικρότερο μέσο μήκος περιγραϕής. Για παράδειγμα, θα μπορούσαμε να χρησιμοποιήσουμε το ακόλουθο σύνολο δυϕιοσειρών για να αναπαραστήσουμε τα οκτώ άλογα: 0, 10, 110, 1110, , , , Σε αυτή την περίπτωση το μέσο μήκος περιγραϕής είναι 2 δυϕία, ενώ στην περίπτωση του ομοιόμορϕου κώδικα ήταν 3 δυϕία. Παρατηρήστε ότι σε αυτή την περίπτωση το μέσο μήκος περιγραϕής ισούται με την εντροπία. Στο Κεϕάλαιο 5 θα δείξουμε ότι η εντροπία μιας τυχαίας μεταβλητής είναι ένα κάτω ϕράγμα του μέσου πλήθους δυϕίων που απαιτούνται

7 1.1 ΠΡΟΕΠΙΣΚΟΠΗΣΗ ΤΩΝ ΠΕΡΙΕΧΟΜΕΝΩΝ ΤΟΥ ΒΙΒΛΙΟΥ 7 για την αναπαράσταση της τυχαίας μεταβλητής, καθώς και του μέσου πλήθους ερωτήσεων πουαπαιτούνται για τον προσδιορισμό της τιμής της μεταβλητής σε ένα παίγνιο «20 ερωτήσεων». Θα δείξουμε επίσης πώς μπορούμε να κατασκευάσουμε αναπαραστάσεις με μέσο μήκος που να διαϕέρει το πολύ κατά 1 δυϕίο από την εντροπία. Η έννοια της εντροπίας στη θεωρία πληροϕορίας σχετίζεται με την έννοια της εντροπίας στη στατιστική μηχανική. Αν έχουμε μια ακολουθία n ανεξάρτητων και ταυτόνομων 1 τυχαίων μεταβλητών, θα δείξουμε ότι η πιθανότητα μιας «τυπικής» ακολουθίας είναι περίπου 2 nh(x) και ότι υπάρχουν περίπου 2 nh(x) τέτοιες τυπικές ακολουθίες. Η ιδιότητα αυτή (που είναι γνωστή ως ιδιότητα της ασυμπτωτικής ισοκατανομής (ΙΑΙ)) αποτελεί τη βάση πολλών αποδείξεων στη θεωρία πληροϕορίας. Στην πορεία θα παρουσιάσουμε και άλλα προβλήματα στα οποία η εντροπία αναδεικνύεται ως ϕυσική απάντηση (π.χ. το πλήθος των ρίψεων ενός τίμιουκέρματος πουαπαιτούνται για την παραγωγή μιας τυχαίας μεταβλητής). Επεκτείνοντας την έννοια της περιγραϕικής πολυπλοκότητας μιας τυχαίας μεταβλητής μπορούμε να ορίσουμε την περιγραϕική πολυπλοκότητα μιας απλής συμβολοσειράς. Η πολυπλοκότητα Kolmogorov μιαςδυαδικήςσυμβολοσειράςορίζεται ως το μήκος τουμικρότερουδυνατού προγράμματος υπολογιστή πουτυπώνει τη συγκεκριμένη συμβολοσειρά. Όπως θα αποδειχθεί, αν η συμβολοσειρά είναι πράγματι τυχαία, τότε η πολυπλοκότητα Kolmogorov είναι κοντά στην εντροπία. Η πολυπλοκότητα Kolmogorov αποτελεί ένα ϕυσικό πλαίσιο για τη μελέτη των προβλημάτων της στατιστικής συμπερασματολογίας και μοντελοποίησης, και μας βοηθά να κατανοήσουμε καλύτερα το ξυράϕι του Όκκαμ: «Ηαπλούστερη εξήγηση είναι η καλύτερη». Στο Κεϕάλαιο 1 θα περιγράψουμε μερικές απλές ιδιότητες της πολυπλοκότητας Kolmogorov. Η εντροπία είναι η αβεβαιότητα μιας απλής τυχαίας μεταβλητής. Μπορούμε επίσης να ορίσουμε τη δεσμευμένη εντροπία H(X Y ), πουείναι η εντροπία μιας τυχαίας μεταβλητής με δεδομένο ότι γνωρίζουμε μια άλλη τυχαία μεταβλητή. Η μείωση πουυϕίσταται η αβεβαιότητα λόγω μιας άλλης τυχαίας μεταβλητής ονομάζεται αμοιβαία πληροϕορία. Για δύο τυ χαίες μεταβλητές X και Y,ημείωση αυτή είναι η αμοιβαία πληροϕορία I(X; Y )=H(X) H(X Y )= x,y p(x, y)log p(x, y) p(x)p(y). (1.4) ΗαμοιβαίαπληροϕορίαI(X; Y ) είναι ένα μέτρο της εξάρτησης μεταξύ των δύο τυχαίων μεταβλητών. Είναι συμμετρική ως προς τις X και Y, είναι πάνταμη αρνητικήκαιισούταιμεμηδένανκαιμόνοανοιx καιy είναι ανεξάρτητες. 1 ΣτΜ: Οι ταυτόνομες τυχαίες μεταβλητές έχουν αποδοθεί στα ελληνικά επίσης ως ισόνομες και ομοκατανεμημένες.

8 8 ΕΙΣΑΓΩΓΗ ΚΑΙ ΠΡΟΕΠΙΣΚΟΠΗΣΗ Ένας δίαυλος επικοινωνίας είναι ένα σύστημα τουοποίουη έξοδος εξαρτάται πιθανοκρατικά από την είσοδό του. Περιγράϕεται από μια μήτρα πιθανοτήτων μετάβασης p(y x) πουκαθορίζει τη δεσμευμένη κατανομή της εξόδουδεδομένης της εισόδου. Για έναν δίαυλο επικοινωνίας με είσοδο X και έξοδο Y μπορούμε να ορίσουμε τη χωρητικότητα C ως εξής: C =maxi(x; Y ). (1.5) p(x) Στην πορεία θα δείξουμε ότι η χωρητικότητα είναι ο μέγιστος ρυθμός με τον οποίο μπορούμε να στείλουμε πληροϕορία διαμέσουτουδιαύλουκαι να την ανακτήσουμε στην έξοδο με πιθανότητα σϕάλματος που τείνει στο μηδέν. Ακολουθούν μερικά παραδείγματα. Παράδειγμα (Αθόρυβοςδυαδικόςδίαυλος) Σε αυ τό τον δίαυ λο η δυ α- δική είσοδος αναπαράγεται επακριβώς στην έξοδο. Ο δίαυλος απεικονίζεται στο Σχήμα 1.3. Όλα τα μεταδιδόμενα δυϕία λαμβάνονται χωρίς σϕάλμα. Επομένως, σε κάθε μετάδοση μπορούμε να στείλουμε αξιόπιστα στον παραλήπτη 1 δυϕίο, οπότε η χωρητικότητα είναι 1 δυϕίο. Μπορούμε επίσης να υπολογίσουμε την πληροϕοριακή χωρητικότητα: C =maxi(x; Y )=1δυϕίο. Παράδειγμα (Θορυβώδης δίαυλος τεσσάρων συμβόλων) Θεωρήστετον δίαυλο του Σχήματος 1.4. Σε αυτό τον δίαυλο κάθε γράμμα εισόδου λαμβάνεται είτε ως το ίδιο γράμμα με πιθανότητα 1 2 είτε ως το επόμενο γράμμα με πιθανότητα 1 2. Αν χρησιμοποιούμε και τα τέσσερα σύμβολα εισόδου, η εξέταση της εξόδου δεν μας αποκαλύπτει με βεβαιότητα ποιο ήταν το σύμβολο εισόδουπουστάλθηκε. Αντιθέτως, αν χρησιμοποιήσουμε μόνο δύο από τα σύμβολα εισόδου (λ.χ. το 1 και το 3), μπορούμε αμέσως να καταλάβουμε από την έξοδο ποιο ήταν το σύμβολο εισόδου που στάλθηκε. Αυτός ο δίαυλος συμπεριϕέρεται όπως ο αθόρυβος δίαυλος του Παραδείγματος 1.1.3, οπότε διαμέσου αυτού του διαύλου μπορούμε να στείλουμε χωρίς σϕάλματα 1 δυϕίο ανά μετάδοση. Αν υπολογίσουμε τη χωρητικότητα C =maxi(x; Y ) αυτού του διαύλου, βρίσκουμε ότι ισούται με 1 δυϕίο ανά μετάδοση, πράγμα πουσυμϕωνεί με την ανάλυσή μας ΣΧΗΜΑ 1.3. Αθόρυβος δυαδικός δίαυλος. C =1δυϕίο.

9 1.1 ΠΡΟΕΠΙΣΚΟΠΗΣΗ ΤΩΝ ΠΕΡΙΕΧΟΜΕΝΩΝ ΤΟΥ ΒΙΒΛΙΟΥ ΣΧΗΜΑ 1.4. Θορυβώδης δίαυλος. Γενικά, οι δίαυλοι επικοινωνίας δεν έχουν την απλή δομή αυτού του παραδείγματος, με αποτέλεσμα να μην μπορούμε πάντα να καθορίσουμε ένα υποσύνολο των εισόδων πουνα μας επιτρέπει να στείλουμε πληροϕορία χωρίς σϕάλματα. Αν όμως θεωρήσουμε μια ακολουθία μεταδόσεων, όλοι οι δίαυλοι μοιάζουν με αυτό το παράδειγμα, και έτσι μπορούμε να καθορίσουμε ένα υποσύνολο των ακολουθιών εισόδου(τις κωδικολέξεις) πουμπορούμε να χρησιμοποιήσουμε για να μεταδώσουμε κάποια πληροϕορία διαμέσου του διαύλου με τέτοιο τρόπο ώστε τα σύνολα των δυνατών ακολουθιών εξόδουπουαντιστοιχούν σε κάθε κωδικολέξη να είναι κατά προσέγγιση ξένα μεταξύ τους. Κατόπιν, εξετάζοντας την ακολουθία εξόδου, μπορούμε να βρούμε την ακολουθία εισόδου με πιθανότητα σϕάλματος πουτείνει στο μηδέν. Παράδειγμα (Δυαδικός συμμετρικός δίαυλος) Αυτό είναι το βασικό παράδειγμα ενός συστήματος επικοινωνίας με θόρυβο. Ο δίαυλος απεικονίζεται στο Σχήμα 1.5. Η είσοδος τουδιαύλουείναι δυαδική και η έξοδός τουισούται με την 1 p 0 0 p p p ΣΧΗΜΑ 1.5. Δυαδικός συμμετρικός δίαυλος.

10 10 ΕΙΣΑΓΩΓΗ ΚΑΙ ΠΡΟΕΠΙΣΚΟΠΗΣΗ είσοδο με πιθανότητα 1 p. Από την άλλη, με πιθανότητα p το 0 λαμβάνεται ως 1 και αντιστρόϕως. Αν υπολογίσουμε τη χωρητικότητα αυτού του διαύλου βρίσκουμε ότι είναι C =1+p log p+(1 p)log(1 p) δυϕία ανά μετάδοση. Ωστόσο, δεν είναι πλέον προϕανές πώς μπορούμε να επιτύχουμε αυτή τη χωρητικότητα. Αν όμως χρησιμοποιήσουμε τον δίαυλο πολλές ϕορές, τότε αρχίζει να μοιάζει με τον θορυβώδη δίαυλο τεσσάρων συμβόλων του Παραδείγματος 1.1.4, οπότε μπορούμε να στείλουμε πληροϕορία με ρυθμό C δυϕία ανά μετάδοση με αυθαίρετα μικρή πιθανότητα σϕάλματος. Το ανώτατο όριο τουρυθμού μετάδοσης πληροϕορίας διαμέσουενός διαύλου δίνεται από τη χωρητικότητα τουδιαύλου. Σύμϕωνα με το θεώρημα κωδικοποίησης διαύλου, αυτό το όριο μπορεί να επιτευχθεί με τη χρήση κωδίκων μεγάλου μήκους μπλοκ. Στα συστήματα επικοινωνίας που χρησιμοποιούνται στην πράξη υπάρχουν περιορισμοί ως προς την πολυπλοκότητα των κωδίκων που μπορούμε να χρησιμοποιήσουμε, άρα μπορεί να μην είναι δυνατόν να επιτύχουμε τη χωρητικότητα. Όπως αποδεικνύεται, η αμοιβαία πληροϕορία αποτελεί ειδική περίπτωση μιας γενικότερης ποσότητας πουονομάζεται σχετική εντροπία D(p q), η οποία είναι ένα μέτρο της «απόστασης» μεταξύ δύο συναρτήσεων μάζας πιθανότητας p και q, και ορίζεται ως εξής: D(p q) = x p(x)log p(x) q(x). (1.6) Παρότι η σχετική εντροπία δεν είναι πραγματική μετρική, έχει μερικές από τις ιδιότητες μιας μετρικής. Ειδικότερα, είναι πάντα μη αρνητική και είναι μηδέν αν και μόνο αν p = q. Η σχετική εντροπία εμϕανίζεται ως ο εκθέτης της πιθανότητας σϕάλματος κατά τον έλεγχο μιας υπόθεσης μεταξύ των κατανομών p και q. Η σχετική εντροπία μπορεί να χρησιμοποιηθεί για να οριστεί μια γεωμετρία για τις κατανομές πιθανότητας πουμας επιτρέπει να ερμηνεύσουμε πολλά από τα αποτελέσματα της θεωρίας μεγάλων αποκλίσεων. Υπάρχουν αρκετές αντιστοιχίες μεταξύ της θεωρίας πληροϕορίας και της θεωρίας επενδύσεων σε μια χρηματιστηριακή αγορά. Μια χρηματιστηριακή αγορά ορίζεται μέσω ενός τυχαίου διανύσματος X τουοποίουτα στοιχεία είναι μη αρνητικοί αριθμοί πουισούνται με τον λόγο της τιμής μιας μετοχής στο τέλος της ημέρας προς την τιμή της μετοχής στην αρχή της ημέρας. Για μια χρηματιστηριακή αγορά με κατανομή F (x), μπορούμε να ορίσουμε τον ρυθμό διπλασιασμού W ως εξής: W = max b:b i 0, log b t x df (x). (1.7) b i =1 Ο ρυθμός διπλασιασμού είναι ο μέγιστος ασυμπτωτικός εκθέτης της μεγέθυνσης τουπλούτου. Ο ρυθμός διπλασιασμού έχει ορισμένες ιδιότητες πουείναι αντί-

11 1.1 ΠΡΟΕΠΙΣΚΟΠΗΣΗ ΤΩΝ ΠΕΡΙΕΧΟΜΕΝΩΝ ΤΟΥ ΒΙΒΛΙΟΥ 11 στοιχες με αυτές της εντροπίας. Θα εξετάσουμε μερικές από αυτές τις ιδιότητες στο Κεϕάλαιο 16. Οι ποσότητες H, I, C, D, K, W ανακύπτουν με ϕυσικό τρόπο στις ακόλουθες γνωστικές περιοχές: Συμπίεση δεδομένων. Η εντροπία H μιαςτυχαίαςμεταβλητήςείναιένακάτω ϕράγμα του μέσου μήκους της μικρότερης δυνατής περιγραϕής της τυχαίας μεταβλητής. Μπορούμε να κατασκευάσουμε περιγραϕές με μέσο μήκος που να διαϕέρει το πολύ κατά 1 δυϕίο από την εντροπία. Αν χαλαρώσουμε τον περιορισμό τέλειας ανάκτησης της πηγής, το ερώτημα πουτίθεται είναι ποιοι ρυθμοί επικοινωνίας απαιτούνται ώστε να μπορέσουμε να περιγράψουμε την πηγή με προσέγγιση κάποιας παραμόρϕωσης D. Και ποιες χωρητικότητες διαύλου αρκούν για να μπορέσουμε να μεταδώσουμε την πηγή διαμέσου του διαύλου και να την ανακατασκευάσουμε με παραμόρϕωση μικρότερη ή ίση της D; Αυτό είναι το αντικείμενο της θεωρίας ρυθμού-παραμόρϕωσης. Προσπαθώντας να διατυπώσουμε αυστηρά την έννοια της μικρότερης δυνατής περιγραϕής για μη τυχαία αντικείμενα, οδηγούμαστε στον ορισμό της πολυπλοκότητας Kolmogorov K. Στην πορεία θα δείξουμε ότι η πολυπλοκότητα Kolmogorov είναι καθολική και ικανοποιεί πολλές από τις απαιτήσεις πουθα ήταν διαισθητικά αναμενόμενες για τη θεωρία των μικρότερων δυνατών περιγραϕών. Μετάδοση δεδομένων. Το κεντρικό πρόβλημα στη συγκεκριμένη γνωστική περιοχή είναι η μετάδοση της πληροϕορίας με τρόπο ώστε ο δέκτης να μπορεί να αποκωδικοποιεί το μήνυμα με μικρή πιθανότητα σϕάλματος. Ουσιαστικά, θέλουμε να βρούμε κωδικολέξεις (ακολουθίες συμβόλων εισόδου ενός διαύλου) που να απέχουν πολύ μεταξύ τους, ώστε οι θορυβώδεις εκδοχές τους (που εμϕανίζονται στην έξοδο του διαύλου) να μπορούν να διακριθούν η μία από την άλλη. Αυτό είναι ισοδύναμο με το πρόβλημα της στοίβαξης σϕαιρών σε έναν πολυδιάστατο χώρο. Για οποιοδήποτε σύνολο κωδικολέξεων μπορούμε να υπολογίσουμε την πιθανότητα ο δέκτης να κάνει κάποιο σϕάλμα (δηλαδή να λάβει εσϕαλμένη απόϕαση αναϕορικά με το ποια κωδικολέξη στάλθηκε). Ωστόσο, στις περισσότερες περιπτώσεις ο υπολογισμός αυτός είναι κοπιώδης. Χρησιμοποιώντας έναν τυχαία παραχθέντα κώδικα, ο Shannon έδειξε ό- τι μπορούμε να στείλουμε πληροϕορία με οποιονδήποτε ρυθμό μικρότερο της χωρητικότητας C τουδιαύλουμε αυθαίρετα μικρή πιθανότητα σϕάλματος. Η έννοια του τυχαία παραγόμενου κώδικα είναι εξαιρετικά ασυνήθιστη. Μας παρέχει τη βάση για την απλή ανάλυση ενός πολύ δύσκολου προβλήματος. Μια από τις βασικές ιδέες της απόδειξης είναι η έννοια των τυπικών ακολουθιών. Η χωρητικότητα C είναι ο λογάριθμος τουπλήθους των δια-

12 12 ΕΙΣΑΓΩΓΗ ΚΑΙ ΠΡΟΕΠΙΣΚΟΠΗΣΗ κρίσιμων σημάτων εισόδου. Δικτυακή θεωρία πληροϕορίας. Όλα τα παραπάνω ζητήματα αϕορούν μια απλή πηγή ή έναν απλό δίαυλο. Τι συμβαίνει αν θέλουμε να συμπιέσουμε ξεχωριστά πολλές πηγές και στη συνέχεια να τοποθετήσουμε μαζί τις συμπιεσμένες περιγραϕές σε μια από κοινού αναπαράσταση των πηγών; Η λύση αυτού του προβλήματος δίνεται από το θεώρημα Slepian Wolf. Ή τι συμβαίνει αν έχουμε πολλούς πομπούς που στέλνουν ανεξάρτητα ο καθένας πληρο- ϕορίες σε έναν κοινό δέκτη; Ποια είναι η χωρητικότητα αυτού του διαύλου; Πρόκειται για το πρόβλημα τουδιαύλουπολλαπλής πρόσβασης πουλύθηκε από τους Liao και Ahlswede. Ή τι συμβαίνει αν έχουμε έναν πομπό και πολλούς δέκτες και θέλουμε να μεταδώσουμε ταυτόχρονα (πιθανόν διαϕορετικές) πληροϕορίες σε καθέναν από τους δέκτες; Στην περίπτωση αυτή έχουμε έναν δίαυλο εκπομπής. Τέλος, τι συμβαίνει αν έχουμε ένα αυθαίρετο πλήθος πομπών και δεκτών σε ένα περιβάλλον με παρεμβολές και θόρυβο; Ποια είναι η περιοχή χωρητικότητας των επιτεύξιμων ρυθμών από τους διάϕορους πομπούς προς τους δέκτες; Αυτό είναι το γενικό πρόβλημα της δικτυακής θεωρίας πληροϕορίας. Όλα τα παραπάνω προβλήματα εντάσσονται στη γενική περιοχή της δικτυακής θεωρίας πληροϕορίας ή θεωρίας πληροϕοριών πολλών χρηστών. Παρότι οι ελπίδες για μια συνολική θεωρία δικτύων μάλλον υπερβαίνουν τις δυνατότητες των σημερινών ερευνητικών μεθοδολογιών, εξακολουθεί να υπάρχει η ελπίδα πως σε όλες τις απαντήσεις υπεισέρχονται απλώς και μόνο πολύπλοκες μορϕές της αμοιβαίας πληρο- ϕορίας και της σχετικής εντροπίας. Εργοδική θεωρία. Σύμϕωνα με το θεώρημα της ασυμπτωτικής ισοκατανομής, οι περισσότερες δειγματικές n-ακολουθίες μιας εργοδικής διεργασίας έχουν πιθανότητα περίπου 2 nh και υπάρχουν περίπου 2 nh τέτοιες τυπικές ακολουθίες. Έλεγχος υποθέσεων. Η σχετική εντροπία D εμϕανίζεται ως ο εκθέτης της πιθανότητας σϕάλματος κατά τον έλεγχο μιας υπόθεσης μεταξύ δύο κατανομών. Είναι ένα ϕυσικό μέτρο της απόστασης μεταξύ των κατανομών. Στατιστική μηχανική. Η εντροπία H εμϕανίζεται στη στατιστική μηχανική ως μέτρο της αβεβαιότητας ή της έλλειψης οργάνωσης ενός ϕυσικού συστήματος. Χοντρικά, η εντροπία είναι ο λογάριθμος τουπλήθους των τρόπων με τους οποίους μπορεί να διαμορϕωθεί το ϕυσικό σύστημα. Ο δεύτερος νόμος της θερμοδυναμικής ορίζει ότι η εντροπία ενός κλειστού συστήματος δεν μπορεί να μειωθεί. Στην πορεία της μελέτης μας θα αναϕέρουμε μερικές ερμηνείες τουδεύτερουνόμου. Κβαντομηχανική. Στην κβαντομηχανική, η εντροπία von Neumann S = tr(ρ ln ρ) = i λ i log λ i παίζει τον ρόλο της κλασικής εντροπίας Shannon Boltzmann H = i p i log p i. Με βάση αυτήν μπορούν να βρεθούν οι

13 1.1 ΠΡΟΕΠΙΣΚΟΠΗΣΗ ΤΩΝ ΠΕΡΙΕΧΟΜΕΝΩΝ ΤΟΥ ΒΙΒΛΙΟΥ 13 κβαντομηχανικές εκδοχές της συμπίεσης δεδομένων και της χωρητικότητας διαύλου. Εξαγωγή συμπερασμάτων. Η έννοια της πολυπλοκότητας Kolmogorov K μπορεί να χρησιμοποιηθεί για την εύρεση της μικρότερης δυνατής περιγρα- ϕής των δεδομένων, η οποία με τη σειρά της μπορεί να χρησιμοποιηθεί ως μοντέλο για την πρόβλεψη όσων έπονται. Από ένα μοντέλο πουμεγιστοποιεί την αβεβαιότητα ή την εντροπία προκύπτει η προσέγγιση μέγιστης εντροπίας για το πρόβλημα της εξαγωγής συμπερασμάτων. Τυχοπαιξία και επενδύσεις. Ο βέλτιστος εκθέτης τουρυθμού μεγέθυνσης τουπλούτουδίνεται από τον ρυθμό διπλασιασμού W. Για μια ιπποδρομία με ομοιόμορϕες αποδόσεις, το άθροισμα τουρυθμού διπλασιασμού W και της εντροπίας H είναι σταθερό. Η αύξηση τουρυθμού διπλασιασμού λόγω παράπλευρης πληροϕορίας ισούται με την αμοιβαία πληροϕορία I μεταξύ της ιπποδρομίας και της παράπλευρης πληροϕορίας. Παρόμοια αποτελέσματα ισχύουν για τις επενδύσεις στη χρηματιστηριακή αγορά. Θεωρία πιθανοτήτων. Η ιδιότητα της ασυμπτωτικής ισοκατανομής (ΙΑΙ) δείχνει ότι οι περισσότερες ακολουθίες είναι τυπικές υπό την έννοια ότι έ- χουν δειγματική εντροπία κοντά στην H. Αυτό σημαίνει ότι μπορούμε να εστιάσουμετηνπροσοχήμαςσεαυτέςτιςκατάπροσέγγιση2 nh τυπικές ακολουθίες. Στη θεωρία μεγάλων αποκλίσεων, η πιθανότητα ενός συνόλου είναι κατά προσέγγιση 2 nd, όπου D είναι η απόσταση σχετικής εντροπίας τουπλησιέστερουστοιχείουτουσυνόλουαπό την πραγματική κατανομή. Θεωρία πολυπλοκότητας. Η πολυπλοκότητα Kolmogorov K είναι ένα μέτρο της περιγραϕικής πολυπλοκότητας ενός αντικειμένου. Σχετίζεται με, αλλά διαϕέρει από την υπολογιστική πολυπλοκότητα, η οποία μετρά τον χρόνο ή τον χώρο πουαπαιτείται για κάποιον υπολογισμό. Οι πληροϕοριοθεωρητικές ποσότητες, όπως η εντροπία και η σχετική εντροπία,εμϕανίζονταιξανάκαιξανάωςαπαντήσειςσεθεμελιώδηερωτήματατηςθεωρίας επικοινωνιών και της στατιστικής. Προτού μελετήσουμε αυτά τα ερωτήματα, θα μελετήσουμε μερικές από τις ιδιότητες των απαντήσεων. Θα ξεκινήσουμε το Κεϕάλαιο 2 με τους ορισμούς και τις βασικές ιδιότητες της εντροπίας, της σχετικής εντροπίας και της αμοιβαίας πληροϕορίας.

14

15 ΚΕΦΑΛΑΙΟ 2 ΕΝΤΡΟΠΙΑ, ΣΧΕΤΙΚΗ ΕΝΤΡΟΠΙΑ ΚΑΙ ΑΜΟΙΒΑΙΑ ΠΛΗΡΟΦΟΡΙΑ Σε αυτό το κεϕάλαιο εισάγουμε τους περισσότερους από τους βασικούς ορισμούς πουαπαιτούνται για την ανάπτυξη της θεωρίας στη συνέχεια τουβιβλίου. Είναι αδύνατο να αντισταθούμε στον πειρασμό και να μην παίξουμε με τις μεταξύ τους σχέσεις και ερμηνείες εν όψει της μετέπειτα χρησιμότητάς τους. Αϕού ορίσουμε την εντροπία και την αμοιβαία πληροϕορία, θα αποδείξουμε κάποιους κανόνες αλυσίδας, τη μη αρνητικότητα της αμοιβαίας πληροϕορίας, την ανισότητα επεξεργασίας δεδομένων, και ως παραδείγματα των ορισμών θα μελετήσουμε τις επαρκείς στατιστικές και την ανισότητα τουfano. Η έννοια της πληροϕορίας είναι πολύ ευρεία για να καλυϕθεί πλήρως από έ- ναν και μόνο ορισμό. Ωστόσο, για κάθε κατανομή πιθανότητας θα ορίσουμε μια ποσότητα πουονομάζεται εντροπία, η οποία έχει πολλές ιδιότητες πουσυμϕωνούν με όσα θα αναμέναμε διαισθητικά από ένα μέτρο πληροϕορίας. Επεκτείνοντας αυτή την έννοια, θα ορίσουμε την αμοιβαία πληροϕορία, η οποία είναι ένα μέτρο της ποσότητας πληροϕορίας πουπεριέχει μια τυχαία μεταβλητή σχετικά με κάποια άλλη. Υπό αυτό το πρίσμα, η εντροπία είναι η αυτοπληροϕορία μιας τυχαίας μεταβλητής. Η αμοιβαία πληροϕορία είναι ειδική περίπτωση μιας γενικότερης ποσότητας πουονομάζεται σχετική εντροπία, η οποία είναι ένα μέτρο της απόστασης μεταξύ δύο κατανομών πιθανότητας. Όλες αυτές οι ποσότητες σχετίζονται στενά μεταξύ τους και έχουν ορισμένες απλές κοινές ιδιότητες, μερικές από τις οποίες θα αποδείξουμε σε αυτό το κεϕάλαιο. Σε επόμενα κεϕάλαια θα δείξουμε πώς αυτές οι ποσότητες αποτελούν ϕυσικές απαντήσεις σε διάϕορα ερωτήματα πουαϕορούν τις επικοινωνίες, τη στατιστική, την πολυπλοκότητα και την τυχοπαιξία. Αυτό θα αποτελέσει και την τελική επιβεβαίωση της αξίας αυτών των ορισμών. 2.1 ΕΝΤΡΟΠΙΑ Θα ξεκινήσουμε εισάγοντας την έννοια της εντροπίας, η οποία είναι ένα μέτρο της αβεβαιότητας μιας τυχαίας μεταβλητής. Έστω X μια διακριτή τυχαία μεταβλητή με αλϕάβητο X και συνάρτηση μάζας πιθανότητας p(x) = Pr{X = x}, 15

16 16 ΕΝΤΡΟΠΙΑ, ΣΧΕΤΙΚΗ ΕΝΤΡΟΠΙΑ ΚΑΙ ΑΜΟΙΒΑΙΑ ΠΛΗΡΟΦΟΡΙΑ x X. Για λόγους ευκολίας, θα συμβολίζουμε τη συνάρτηση μάζας πιθανότητας με p(x) αντί με p X (x). Επομένως, οι p(x) και p(y) αναϕέρονται σε δύο διαϕορετικές τυχαίες μεταβλητές και στην πραγματικότητα είναι οι δύο διαϕορετικές συναρτήσεις μάζας πιθανότητας p X (x) και p Y (y),αντίστοιχα. Ορισμός εξής: Η εντροπία H(X) μιας διακριτής τυχαίας μεταβλητής X ορίζεται ως H(X) = x Xp(x)logp(x). (2.1) Θα συμβολίζουμε την παραπάνω ποσότητα και με H(p). Η βάση του λογαρίθμουείναι το 2, και η εντροπία μετριέται σε δυϕία. Για παράδειγμα, η εντροπία της ρίψης ενός τίμιουκέρματος είναι 1 δυϕίο. Θα χρησιμοποιήσουμε τη σύμβαση 0log0=0, η οποία δικαιολογείται εύκολα βάσει της συνέχειας, αϕού x log x 0 καθώς x 0. Η προσθήκη όρων μηδενικής πιθανότητας δεν μεταβάλλει την εντροπία. Ανηβάσητουλογαρίθμουείναιτοb, θα συμβολίζουμε την εντροπία με H b (X). Ανηβάσητουλογαρίθμουείναιτοe,η εντροπία μετριέται σε nat.εκτόςκαιανδηλώνουμε ρητά κάτι διαϕορετικό, θα θεωρούμε ότι η βάση όλων των λογαρίθμων είναι το 2 και συνεπώς όλες οι εντροπίες θα μετριούνται σε δυϕία. Σημειωτέον ότι η εντροπία είναι ένα συναρτησιοειδές της κατανομής της X. Δεν εξαρτάται από τις πραγματικές τιμές πουπαίρνει η τυχαία μεταβλητή X,αλλά μόνο από τις πιθανότητες. Θα συμβολίζουμε την αναμενόμενη τιμή με E. Επομένως, αν X p(x), η αναμενόμενη τιμή της τυχαίας μεταβλητής g(x) γράϕεται ως E p g(x) = x X g(x)p(x) (2.2) ή απλούστερα ως Eg(X), όταν η συνάρτηση μάζας πιθανότητας εννοείται από τα συμϕραζόμενα. Θα μας απασχολήσει ιδιαίτερα η μυστηριώδης αυτοαναϕορική αναμενόμενη τιμή της g(x) ως προς την p(x) όταν g(x) =log 1 p(x). Παρατήρηση Η εντροπία τηςx μπορεί επίσης να ερμηνευτεί ως η αναμενόμενη τιμή της τυχαίας μεταβλητής log 1 p(x), όπουη X λαμβάνεται σύμϕωνα με τη συνάρτηση μάζας πιθανότητας p(x). Συνεπώς, H(X) =E p log 1 p(x). (2.3) Αυτός ο ορισμός της εντροπίας συνδέεται με τον ορισμό της εντροπίας στη θερμοδυναμική. θα μελετήσουμε μερικές από τις σχέσεις των δύο ορισμών στην

17 2.1 ΕΝΤΡΟΠΙΑ 17 πορεία. Ο ορισμός της εντροπίας μπορεί να συναχθεί αξιωματικά μέσω του ορισμού κάποιων ιδιοτήτων πουπρέπει να ικανοποιεί η εντροπία μιας τυχαίας μεταβλητής. Η προσέγγιση αυτή παρουσιάζεται στο Πρόβλημα Σε αυτό το βιβλίο δεν ακολουθούμε την αξιωματική προσέγγιση για να αιτιολογήσουμε τον ορισμό της εντροπίας, αντιθέτως δείχνουμε ότι η εντροπία αποτελεί την απάντηση σε διάϕορα ϕυσικά ερωτήματα, όπως «Ποιο είναι το μέσο μήκος της μικρότερηςδυνατήςπεριγραϕήςμιαςτυχαίαςμεταβλητής;».κατ αρχάςθασυναγάγουμε μερικές άμεσες συνέπειες του ορισμού. Λήμμα H(X) 0. Απόδειξη: Από τη σχέση 0 p(x) 1 έπεται ότι log 1 p(x) 0. Λήμμα H b (X) =(log b a)h a (X). Απόδειξη: log b p =log b a log a p. Η δεύτερη ιδιότητα της εντροπίας μάς επιτρέπει να αλλάζουμε τη βάση του λογαρίθμουστον ορισμό. Μπορούμε να αλλάζουμε τη βάση της εντροπίας από τη μία στην άλλη πολλαπλασιάζοντας με τον κατάλληλο συντελεστή. Παράδειγμα Αν X = { 1 με πιθανότητα p, 0 με πιθανότητα 1 p, (2.4) τότε H(X) = p log p (1 p)log(1 p) ορ. == H(p). (2.5) Ειδικότερα, H(X) =1δυϕίο όταν p = 1 2. Η γραϕική παράσταση της συνάρτησης H(p) παρουσιάζεται στο Σχήμα 2.1, όπου απεικονίζονται μερικές από τις βασικές ιδιότητες της εντροπίας: Είναι κοίλη συνάρτηση της κατανομής και ισούται με 0 όταν p =0ή 1. Αυτό είναι εύλογο, διότι όταν p =0ή 1, η μεταβλητή δεν είναι τυχαία και δεν υπάρχει αβεβαιότητα. Αντίστοιχα, η αβεβαιότητα είναι μέγιστη όταν p = 1 2, οπότε έχουμε τη μέγιστη τιμή της εντροπίας. Παράδειγμα Έστω X = a με πιθανότητα 1 2, b με πιθανότητα 1 4, c με πιθανότητα 1 8, d με πιθανότητα 1 8. (2.6)

18 18 ΕΝΤΡΟΠΙΑ, ΣΧΕΤΙΚΗ ΕΝΤΡΟΠΙΑ ΚΑΙ ΑΜΟΙΒΑΙΑ ΠΛΗΡΟΦΟΡΙΑ 1 0,9 0,8 0,7 0,6 H(p) 0,5 0,4 0,3 0,2 0, ,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1 p ΣΧΗΜΑ 2.1. H(p) συναρτήσει της p. Η εντροπία της X είναι H(X) = 1 2 log log log log 1 8 = 7 δυϕία. (2.7) 4 Υποθέστε ότι θέλουμε να προσδιορίσουμε την τιμή της X με το ελάχιστο πλήθος δυαδικών ερωτήσεων. Μια καλή πρώτη ερώτηση είναι η εξής: «Είναι η X ίση με a;» Αυτό χωρίζει την πιθανότητα «στη μέση». Αν η απάντηση στην πρώτη ερώτηση είναι αρνητική, η δεύτερη ερώτηση μπορεί να είναι η εξής: «Είναι η X ίση με b;» Η τρίτη ερώτηση μπορεί να είναι η εξής: «Είναι η X ίση με c;» Το αναμενόμενο πλήθος δυαδικών ερωτήσεων που τελικά απαιτούνται είναι 1,75. Αυτόείναικαι το ελάχιστο αναμενόμενο πλήθος δυαδικών ερωτήσεων που απαιτούνται για να προσδιοριστεί η τιμή της X. Στο Κεϕάλαιο 5 θα δείξουμε ότι το ελάχιστο αναμενόμενο πλήθος δυαδικών ερωτήσεων που απαιτούνται για τον προσδιορισμό της X βρίσκεται μεταξύ H(X) και H(X) ΑΠΟ ΚΟΙΝΟΥ ΕΝΤΡΟΠΙΑ ΚΑΙ ΔΕΣΜΕΥΜΕΝΗ ΕΝΤΡΟΠΙΑ Στην Ενότητα 2.1 ορίσαμε την εντροπία μιας απλής τυχαίας μεταβλητής. Σε αυτή την ενότητα θα επεκτείνουμε τον ορισμό σε ζεύγη τυχαίων μεταβλητών. Ο ορισμός αυτός δεν περιέχει τίποτε ουσιαστικά καινούργιο, διότι το (X, Y ) μπορεί να θεωρηθεί ως μια απλή διανυσματική τυχαία μεταβλητή.

19 2.2 ΑΠΟ ΚΟΙΝΟΥ ΕΝΤΡΟΠΙΑ ΚΑΙ ΔΕΣΜΕΥΜΕΝΗ ΕΝΤΡΟΠΙΑ 19 Ορισμός Η απόκοινού εντροπία H(X, Y ) ενός ζεύγους διακριτών τυχαίων μεταβλητών (X, Y ) με από κοινού κατανομή p(x, y) ορίζεται ως εξής: H(X, Y )= x X το οποίο μπορεί να γραϕτεί και ως p(x, y)logp(x, y), (2.8) y Y H(X, Y )= E log p(x, Y ). (2.9) Ορίζουμε επίσης ως δεσμευμένη εντροπία μιας τυχαίας μεταβλητής με δεδομένη μια άλλη τυχαία μεταβλητή την αναμενόμενη τιμή των εντροπιών των δεσμευμένων κατανομών, όπου ο μέσος όρος υπολογίζεται ως προς τη δεσμεύουσα τυχαία μεταβλητή. Ορισμός Αν (X, Y ) p(x, y),ηδεσμευμένη εντροπία H(Y X) ορίζεται ως εξής: H(Y X) = x X p(x)h(y X = x) (2.10) = p(x) p(y x)logp(y x) x X y Y (2.11) = p(x, y)logp(y x) x X y Y (2.12) = E log p(y X). (2.13) Η ϕυσικότητα του ορισμού της από κοινού εντροπίας και της δεσμευμένης εντροπίας αποκαλύπτεται από το γεγονός ότι η εντροπία ενός ζεύγους τυχαίων μεταβλητών είναι η εντροπία της μιας συν τη δεσμευμένη εντροπία της άλλης. Αυτό αποδεικνύεται στο ακόλουθο θεώρημα. Θεώρημα (Κανόνας αλυσίδας) H(X, Y )=H(X)+H(Y X). (2.14) Απόδειξη H(X, Y )= p(x, y)logp(x, y) (2.15) x X y Y

20 20 ΕΝΤΡΟΠΙΑ, ΣΧΕΤΙΚΗ ΕΝΤΡΟΠΙΑ ΚΑΙ ΑΜΟΙΒΑΙΑ ΠΛΗΡΟΦΟΡΙΑ = p(x, y)logp(x)p(y x) (2.16) x X y Y = p(x, y)logp(x) p(x, y)logp(y x) x X y Y x X y Y (2.17) = p(x)logp(x) p(x, y)logp(y x) (2.18) x X x X y Y = H(X)+H(Y X). (2.19) Ισοδύναμα, μπορούμε να γράψουμε log p(x, Y )= log p(x)+ log p(y X) (2.20) και να πάρουμε την αναμενόμενη τιμή και των δύο μελών της εξίσωσης ώστε να προκύψει το θεώρημα. Πόρισμα H(X, Y Z) =H(X Z)+H(Y X, Z). (2.21) Απόδειξη: Αποδεικνύεται με τον ίδιο τρόπο όπως το θεώρημα. Παράδειγμα Έστω ότι το (X, Y ) έχει την εξής από κοινού κατανομή: ΗπεριθώριακατανομήτηςX είναι ( 1 2, 1 4, 1 8, 1 8 ) και η περιθώρια κατανομή της Y είναι ( 1 4, 1 4, 1 4, 1 4 ), επομένως H(X) = 7 4 δυϕία και H(Y )=2δυϕία. Επιπλέον, H(X Y )= 4 p(y = i)h(x Y = i) (2.22) = 1 ( 1 4 H 2, 1 4, 1 8, 1 ) + 1 ( H 4, 1 2, 1 8, 1 ) ( 1 4 H 4, 1 4, 1 4, 1 ) + 1 H(1, 0, 0, 0) (2.23) 4 4

21 2.3 ΣΧΕΤΙΚΗ ΕΝΤΡΟΠΙΑ ΚΑΙ ΑΜΟΙΒΑΙΑ ΠΛΗΡΟΦΟΡΙΑ 21 = (2.24) = 11 8 δυϕία. (2.25) Με αντίστοιχο τρόπο, H(Y X) = 13 8 δυϕία και H(X, Y )= 27 8 δυϕία. Παρατήρηση Σημειωτέον ότι H(Y X) H(X Y ).Ωστόσο,H(X) H(X Y ) = H(Y ) H(Y X), μια ιδιότητα πουθα εκμεταλλευτούμε στην πορεία. 2.3 ΣΧΕΤΙΚΗ ΕΝΤΡΟΠΙΑ ΚΑΙ ΑΜΟΙΒΑΙΑ ΠΛΗΡΟΦΟΡΙΑ Η εντροπία μιας τυχαίας μεταβλητής είναι ένα μέτρο της αβεβαιότητας της τυχαίας μεταβλητής. είναι ένα μέτρο της ποσότητας πληροϕορίας πουαπαιτείται κατά μέσο όρο για να περιγραϕεί η τυχαία μεταβλητή. Σε αυτή την ενότητα θα εισαγάγουμε δύο σχετιζόμενες έννοιες: τη σχετική εντροπία και την αμοιβαία πληρο- ϕορία. Η σχετική εντροπία είναι ένα μέτρο της απόστασης μεταξύ δύο κατανομών. Στη στατιστική, εμϕανίζεται ως αναμενόμενος λογάριθμος τουλόγουπιθανοϕανειών. Η σχετική εντροπία D(p q) είναι ένα μέτρο τουπόσο άστοχο είναι να θεωρήσουμε ότι η κατανομή είναι η q όταν η πραγματική κατανομή είναι η p.γιαπαράδειγμα, αν γνωρίζαμε την πραγματικήκατανομήp της τυχαίας μεταβλητής, θα μπορούσαμε να κατασκευάσουμε έναν κώδικα με μέσο μήκος περιγραϕής H(p). Αν αντ αυτού χρησιμοποιούσαμε τον κώδικα για μια κατανομή q, θαχρειαζόμασταν κατά μέσο όρο H(p) +D(p q) δυϕία για να περιγράψουμε την τυχαία μεταβλητή. Ορισμός Η σχετική εντροπία ή απόσταση Kullback Leibler μεταξύ δύο συναρτήσεων μάζας πιθανότητας p(x) και q(x) ορίζεται ως εξής: D(p q) = x X p(x)log p(x) q(x) (2.26) = E p log p(x) q(x). (2.27) Στον παραπάνω ορισμό χρησιμοποιούμε τη σύμβαση 0log 0 0 =0,καθώςκαιτη σύμβαση (πουστηρίζεται σε ένα σκεπτικό συνέχειας) 0log 0 q =0και p log p 0 =. Επομένως, αν υπάρχει κάποιο σύμβολο x Xτέτοιο ώστε p(x) > 0 και q(x) =0, τότε D(p q) =.

22 22 ΕΝΤΡΟΠΙΑ, ΣΧΕΤΙΚΗ ΕΝΤΡΟΠΙΑ ΚΑΙ ΑΜΟΙΒΑΙΑ ΠΛΗΡΟΦΟΡΙΑ Στη συνέχεια της ανάλυσής μας θα δείξουμε ότι η σχετική εντροπία είναι πάντα μη αρνητική και ισούται με μηδέν αν και μόνο αν p = q. Ωστόσο,δενείναι μια πραγματική απόσταση μεταξύ κατανομών, διότι δεν είναι συμμετρική και δεν ικανοποιεί την τριγωνική ανισότητα. Παρόλα αυτά, συχνά είναι χρήσιμο να ϕανταζόμαστε τη σχετική εντροπία ως «απόσταση» μεταξύ κατανομών. Θα προχωρήσουμε εισάγοντας την αμοιβαία πληροϕορία, η οποία είναι ένα μέτρο της ποσότητας πληροϕορίας πουπεριέχει μια τυχαία μεταβλητή για κάποια άλλη τυχαία μεταβλητή. Πρόκειται για τη μείωση που υϕίσταται η αβεβαιότητα μιας τυχαίας μεταβλητής λόγω της γνώσης της άλλης. Ορισμός Έστω δύο τυχαίες μεταβλητές X και Y με από κοινού συνάρτηση μάζας πιθανότητας p(x, y) και περιθώριες συναρτήσεις μάζας πιθανότητας p(x) και p(y). Ηαμοιβαία πληροϕορία I(X; Y ) είναι η σχετική εντροπία μεταξύ της από κοινού κατανομής και της γινόμενης κατανομής p(x)p(y): I(X; Y )= p(x, y) p(x, y)log (2.28) p(x)p(y) x X y Y = D(p(x, y) p(x)p(y)) (2.29) = E p(x,y) log p(x, Y ) p(x)p(y ). (2.30) Στο Κεϕάλαιο 8 θα γενικεύσουμε αυτόν τον ορισμό για συνεχείς τυχαίες μεταβλητές και στην (8.54) για γενικές τυχαίες μεταβλητές που μπορεί να είναι μείγμα διακριτών και συνεχών τυχαίων μεταβλητών. Παράδειγμα Έστω X = {0, 1}, καιθεωρήστεδύοκατανομέςp και q επί του X.Ανp(0) = 1 r, p(1) = r και q(0) = 1 s, q(1) = s,τότε D(p q) =(1 r)log 1 r 1 s + r log r (2.31) s και D(q p) =(1 s)log 1 s 1 r + s log s r. (2.32) Αν r = s,τότεd(p q) =D(q p) =0.Ανr = 1 2 και s = 1 4,τότε ενώ D(p q) = 1 2 log log =1 1 log 3 = 0,2075 δυϕία, (2.33) 2 D(q p) = log log 4 1 = 3 log 3 1=0,1887 δυϕία. (2.34) Σημειωτέον ότι εν γένει D(p q) D(q p).

23 2.4 ΣΧΕΣΗ ΜΕΤΑΞΥ ΕΝΤΡΟΠΙΑΣ ΚΑΙ ΑΜΟΙΒΑΙΑΣ ΠΛΗΡΟΦΟΡΙΑΣ ΣΧΕΣΗ ΜΕΤΑΞΥ ΕΝΤΡΟΠΙΑΣ ΚΑΙ ΑΜΟΙΒΑΙΑΣ ΠΛΗΡΟΦΟΡΙΑΣ Ο ορισμός της αμοιβαίας πληροϕορίας I(X; Y ) μπορεί να γραϕτεί και ως εξής: I(X; Y )= x,y = x,y p(x, y)log p(x, y) p(x)p(y) p(x, y)log p(x y) p(x) (2.35) (2.36) = x,y p(x, y)logp(x)+ x,y p(x, y)logp(x y) (2.37) ( ) = x p(x)logp(x) x,y p(x, y)logp(x y) (2.38) = H(X) H(X Y ). (2.39) Άρα η αμοιβαία πληροϕορία I(X; Y ) είναι η μείωση πουυϕίσταται η αβεβαιότητα της X λόγω της γνώσης της Y. Λόγω συμμετρίας έπεται επίσης ότι I(X; Y )=H(Y ) H(Y X). (2.40) Άρα η X λέει για την Y όσα λέει η Y για την X. Όπως δείξαμε στην Ενότητα 2.2, H(X, Y )=H(X)+H(Y X), επομένως Τέλος, παρατηρούμε ότι I(X; Y )=H(X)+H(Y ) H(X, Y ). (2.41) I(X; X) =H(X) H(X X) =H(X). (2.42) Άρα η αμοιβαία πληροϕορία μιας τυχαίας μεταβλητής με τον εαυτό της είναι η εντροπία της τυχαίας μεταβλητής. Αυτός είναι ο λόγος για τον οποίο μερικές ϕορές η εντροπία καλείται αυτοπληροϕορία. Συγκεντρώνοντας αυτά τα αποτελέσματα καταλήγουμε στο ακόλουθο θεώρημα. Θεώρημα (Αμοιβαία πληροϕορία και εντροπία) I(X; Y )=H(X) H(X Y ) (2.43) I(X; Y )=H(Y ) H(Y X) (2.44)

24 24 ΕΝΤΡΟΠΙΑ, ΣΧΕΤΙΚΗ ΕΝΤΡΟΠΙΑ ΚΑΙ ΑΜΟΙΒΑΙΑ ΠΛΗΡΟΦΟΡΙΑ H(X,Y) H(X Y ) I(X;Y ) H(Y X ) H(X ) H(Y ) ΣΧΗΜΑ 2.2. Σχέση μεταξύ εντροπίας και αμοιβαίας πληροϕορίας. I(X; Y )=H(X)+H(Y ) H(X, Y ) (2.45) I(X; Y )=I(Y ; X) (2.46) I(X; X) =H(X). (2.47) ΗσχέσημεταξύH(X), H(Y ), H(X, Y ), H(X Y ), H(Y X) και I(X; Y ) μπορεί να εκϕραστεί μέσω ενός διαγράμματος Venn (Σχήμα 2.2). Παρατηρήστε ότι η αμοιβαία πληροϕορία I(X; Y ) αντιστοιχεί στην τομή της πληροϕορίας πουπεριέχει η X με την πληροϕορία πουπεριέχει η Y. Παράδειγμα Για την από κοινού κατανομή τουπαραδείγματος μπορούμε εύκολα να υπολογίσουμε την αμοιβαία πληροϕορία: I(X; Y ) =H(X) H(X Y )=H(Y ) H(Y X) =0,375 δυϕία. 2.5 ΚΑΝΟΝΕΣ ΑΛΥΣΙΔΑΣ ΓΙΑ ΤΗΝ ΕΝΤΡΟΠΙΑ, ΤΗ ΣΧΕΤΙΚΗ ΕΝΤΡΟΠΙΑ ΚΑΙ ΤΗΝ ΑΜΟΙΒΑΙΑ ΠΛΗΡΟΦΟΡΙΑ Σε αυτό το σημείο θα δείξουμε ότι η εντροπία μιας συλλογής τυχαίων μεταβλητών είναι το άθροισμα των δεσμευμένων εντροπιών.

25 2.5 ΚΑΝΟΝΕΣ ΑΛΥΣΙΔΑΣ ΓΙΑ ΕΝΤΡΟΠΙΑ, ΣΧΕΤΙΚΗ ΕΝΤΡΟΠΙΑ, ΑΜΟΙΒΑΙΑ ΠΛΗΡΟΦΟΡΙΑ 25 Θεώρημα (Κανόναςαλυσίδαςγιατηνεντροπία) Αν οι X 1,X 2,...,X n λαμβάνονται σύμϕωνα με την p(x 1,x 2,...,x n ),τότε H(X 1,X 2,...,X n )= n H(X i X i 1,...,X 1 ). (2.48) Απόδειξη: Εϕαρμόζοντας κατ επανάληψη τον κανόνα για το ανάπτυγμα της εντροπίας για δύο μεταβλητές, έχουμε H(X 1,X 2 )=H(X 1 )+H(X 2 X 1 ), (2.49) H(X 1,X 2,X 3 )=H(X 1 )+H(X 2,X 3 X 1 ) (2.50) = H(X 1 )+H(X 2 X 1 )+H(X 3 X 2,X 1 ), (2.51). H(X 1,X 2,...,X n )=H(X 1 )+H(X 2 X 1 )+ + H(X n X n 1,...,X 1 ) (2.52) n = H(X i X i 1,...,X 1 ). (2.53) Εναλλακτική απόδειξη: οπότε έχουμε Γράϕουμε p(x 1,...,x n ) = n p(x i x i 1,...,x 1 ), H(X 1,X 2,...,X n ) = x 1,x 2,...,x n p(x 1,x 2,...,x n )logp(x 1,x 2,...,x n ) (2.54) = x 1,x 2,...,x n p(x 1,x 2,...,x n )log = = = x 1,x 2,...,x n n n n p(x i x i 1,...,x 1 ) (2.55) n p(x 1,x 2,...,x n )logp(x i x i 1,...,x 1 ) (2.56) x 1,x 2,...,x n p(x 1,x 2,...,x n )logp(x i x i 1,...,x 1 ) (2.57) x 1,x 2,...,x i p(x 1,x 2,...,x i )logp(x i x i 1,...,x 1 ) (2.58)

26 26 ΕΝΤΡΟΠΙΑ, ΣΧΕΤΙΚΗ ΕΝΤΡΟΠΙΑ ΚΑΙ ΑΜΟΙΒΑΙΑ ΠΛΗΡΟΦΟΡΙΑ = n H(X i X i 1,...,X 1 ). (2.59) Ακολούθως ορίζουμε τη δεσμευμένη αμοιβαία πληροϕορία ως τη μείωση που υϕίσταται η αβεβαιότητα της X λόγω της γνώσης της Y όταν δίνεται η Z. Ορισμός Η δεσμευμένη αμοιβαία πληροϕορία των τυχαίων μεταβλητών X και Y με δεδομένη τη Z ορίζεται ως εξής: I(X; Y Z) =H(X Z) H(X Y,Z) (2.60) = E p(x,y,z) log p(x, Y Z) p(x Z)p(Y Z). (2.61) Η αμοιβαία πληροϕορία ικανοποιεί και αυτή έναν κανόνα αλυσίδας. Θεώρημα (Κανόναςαλυσίδαςγιατηναμοιβαίαπληροϕορία) I(X 1,X 2,...,X n ; Y )= n I(X i ; Y X i 1,X i 2,...,X 1 ). (2.62) Απόδειξη I(X 1,X 2,...,X n ; Y ) = H(X 1,X 2,...,X n ) H(X 1,X 2,...,X n Y ) (2.63) = = n n H(X i X i 1,...,X 1 ) H(X i X i 1,...,X 1,Y) n I(X i ; Y X 1,X 2,...,X i 1 ). (2.64) Ακολούθως ορίζουμε μια δεσμευμένη εκδοχή της σχετικής εντροπίας.

27 2.5 ΚΑΝΟΝΕΣ ΑΛΥΣΙΔΑΣ ΓΙΑ ΕΝΤΡΟΠΙΑ, ΣΧΕΤΙΚΗ ΕΝΤΡΟΠΙΑ, ΑΜΟΙΒΑΙΑ ΠΛΗΡΟΦΟΡΙΑ 27 Ορισμός Αν οι p(x, y) και q(x, y) είναι από κοινού συναρτήσεις μάζας πιθανότητας, η δεσμευμένη σχετική εντροπία D(p(y x) q(y x)) είναι ο μέσος όρος των σχετικών εντροπιών μεταξύ των δεσμευμένων συναρτήσεων μάζας πιθανότητας p(y x) και q(y x) υπολογισμένος ως προς τη συνάρτηση μάζας πιθανότητας p(x). Συγκεκριμένα, D(p(y x) q(y x)) = x p(x) y p(y x)log p(y x) q(y x) (2.65) = E p(x,y) log p(y X) q(y X). (2.66) Ο παραπάνω συμβολισμός για τη δεσμευμένη σχετική εντροπία δεν είναι πλήρης, διότι δεν αναϕέρει την κατανομή p(x) της δεσμεύουσας τυχαίας μεταβλητής. Συνήθωςόμωςεννοείταιαπότασυμϕραζόμενα. Η σχετική εντροπία μεταξύ δύο από κοινού κατανομών ενός ζεύγους τυχαίων μεταβλητών μπορεί να εκϕραστεί ως άθροισμα μιας σχετικής εντροπίας και μιας δεσμευμένης σχετικής εντροπίας. Ο κανόνας αλυσίδας για τη σχετική εντροπία χρησιμοποιείται στην Ενότητα 4.4 για την απόδειξη μιας εκδοχής τουδεύτερου νόμουτης θερμοδυναμικής. Θεώρημα (Κανόναςαλυσίδαςγιατησχετικήεντροπία) D(p(x, y) q(x, y)) = D(p(x) q(x)) + D(p(y x) q(y x)). (2.67) Απόδειξη D(p(x, y) q(x, y)) = x = x = x p(x, y) p(x, y)log q(x, y) y y y p(x, y)log p(x)p(y x) q(x)q(y x) p(x, y)log p(x) q(x) + x y p(x, y)log p(y x) q(y x) (2.68) (2.69) (2.70) = D(p(x) q(x)) + D(p(y x) q(y x)). (2.71)

28 28 ΕΝΤΡΟΠΙΑ, ΣΧΕΤΙΚΗ ΕΝΤΡΟΠΙΑ ΚΑΙ ΑΜΟΙΒΑΙΑ ΠΛΗΡΟΦΟΡΙΑ 2.6 Η ΑΝΙΣΟΤΗΤΑ ΤΟΥ JENSEN ΚΑΙ ΟΙ ΣΥΝΕΠΕΙΕΣ ΤΗΣ Σε αυτή την ενότητα θα αποδείξουμε μερικές απλές ιδιότητες των ποσοτήτων που ορίσαμε παραπάνω. Θα ξεκινήσουμε με τις ιδιότητες των κυρτών συναρτήσεων. Ορισμός Λέμε ότι μια συνάρτηση f(x) είναι κυρτή σε ένα διάστημα (a, b) αν για κάθε x 1,x 2 (a, b) και 0 λ 1, f(λx 1 +(1 λ)x 2 ) λf(x 1 )+(1 λ)f(x 2 ). (2.72) Λέμε ότι μια συνάρτηση f είναι γνησίως κυρτή αν η ισότητα ισχύει μόνο αν λ =0 ή λ =1. Ορισμός Μια συνάρτηση f είναι κοίλη αν η f είναι κυρτή. Μια συνάρτηση είναι κυρτή αν κείται πάντα κάτω από οποιαδήποτε χορδή της. Μια συνάρτηση είναι κοίλη αν κείται πάντα πάνω από οποιαδήποτε χορδή της. Παραδείγματα κυρτών συναρτήσεων είναι οι x 2, x, e x, x log x (για x 0), κ.ο.κ. Παραδείγματα κοίλων συναρτήσεων είναι οι log x και x για x 0. Στο Σχήμα 2.3 παρουσιάζονται μερικά παραδείγματα κυρτών και κοίλων συναρτήσεων. Σημειωτέον ότι οι γραμμικές συναρτήσεις ax+b είναι και κυρτές και κοίλες. Η κυρτότητα βρίσκεται πίσω από πολλές βασικές ιδιότητες πληροϕοριοθεωρητικών ποσοτήτων όπως είναι η εντροπία και η αμοιβαία πληροϕορία. Προτού αποδείξουμε κάποιες από αυτές τις ιδιότητες, θα αποδείξουμε μερικές απλές προτάσεις πουαϕορούν τις κυρτές συναρτήσεις. Θεώρημα Αν η συνάρτηση f έχει μη αρνητική (θετική) δεύτερη παράγωγο σε κάποιο διάστημα, η συνάρτηση είναι κυρτή (γνησίως κυρτή) σε αυτότο διάστημα. Απόδειξη: Χρησιμοποιούμε το ανάπτυγμα της συνάρτησης σε σειρά Taylor γύρω από το x 0 : f(x) =f(x 0 )+f (x 0 )(x x 0 )+ f (x ) (x x 0 ) 2, (2.73) 2 όπουτο x βρίσκεται ανάμεσα στο x 0 και το x. Εξυποθέσεως,f (x ) 0,άραο τελευταίος όρος είναι μη αρνητικός για κάθε x. Αν θέσουμε x 0 = λx 1 +(1 λ)x 2 και πάρουμε x = x 1,προκύπτειότι f(x 1 ) f(x 0 )+f (x 0 )((1 λ)(x 1 x 2 )). (2.74) Με αντίστοιχο τρόπο, παίρνοντας x = x 2,έχουμε f(x 2 ) f(x 0 )+f (x 0 )(λ(x 2 x 1 )). (2.75)

29 2.6 Η ΑΝΙΣΟΤΗΤΑ ΤΟΥ JENSEN ΚΑΙ ΟΙ ΣΥΝΕΠΕΙΕΣ ΤΗΣ 29 (α) (β) ΣΧΗΜΑ 2.3. Παραδείγματα (α)κυ ρτώνκαι(β)κοίλωνσυ ναρτήσεων. Πολλαπλασιάζοντας την (2.74) με λ και την (2.75) με1 λ και προσθέτοντας κατά μέλη καταλήγουμε στην (2.72). Η απόδειξη της γνήσιας κυρτότητας γίνεται με αντίστοιχο τρόπο. Το Θεώρημα μας επιτρέπει να επιβεβαιώσουμε αμέσως ότι οι x 2, e x και x log x για x 0 είναι γνησίως κυρτές, και ότι οι log x και x για x 0 είναι γνησίως κοίλες. Έστω ότι με E συμβολίζουμε την αναμενόμενη τιμή. Άρα, EX = x X p(x)x στη διακριτή περίπτωση και EX = xf(x) dx στη συνεχή περίπτωση. Η ανισότητα πουακολουθεί χρησιμοποιείται ευρύτατα στα μαθηματικά και σε αυτήν βασίζονται πολλά θεμελιώδη θεωρήματα της θεωρίας πληροϕορίας. Θεώρημα (Ανισότητα του Jensen) Αν f είναι μια κυρτή συνάρτηση και X μια τυχαία μεταβλητή, Ef(X) f(ex). (2.76) Επιπλέον, αν η f είναι γνησίως κυρτή, απότην ισότητα στην (2.76) έπεται ότι X = EX με πιθανότητα 1 (δηλαδή η X είναι μια σταθερά). Απόδειξη: Θα αποδείξουμε το θεώρημα για διακριτές κατανομές με επαγωγή ως προς το πλήθος των σημείων μάζας. Η απόδειξη όσων ισχύουν όταν η f είναι γνησίως κυρτή αϕήνεται στον αναγνώστη.

30 30 ΕΝΤΡΟΠΙΑ, ΣΧΕΤΙΚΗ ΕΝΤΡΟΠΙΑ ΚΑΙ ΑΜΟΙΒΑΙΑ ΠΛΗΡΟΦΟΡΙΑ Για μια κατανομή με δύο σημεία μάζας, η ανισότητα γράϕεται p 1 f(x 1 )+p 2 f(x 2 ) f(p 1 x 1 + p 2 x 2 ), (2.77) η οποία έπεται άμεσα από τον ορισμό των κυρτών συναρτήσεων. Υποθέτουμε ότι το θεώρημα ισχύει για κατανομές με k 1 σημεία μάζας, οπότε γράϕοντας p i = p i/(1 p k ) για i =1, 2,...,k 1,έχουμε k k 1 p i f(x i )=p k f(x k )+(1 p k ) p if(x i ) (2.78) p k f(x k )+(1 p k )f ( k 1 ) p i x i ( ) k 1 f p k x k +(1 p k ) p i x i (2.79) (2.80) ( k ) = f p i x i, (2.81) όπουη πρώτη ανισότητα προκύπτει από την υπόθεση της επαγωγής και η δεύτερη από τον ορισμό της κυρτότητας. Στηριζόμενοι στη συνέχεια των συναρτήσεων μπορούμε να επεκτείνουμε την απόδειξη σε συνεχείς κατανομές. Ακολούθως θα χρησιμοποιήσουμε αυτά τα αποτελέσματα για να αποδείξουμε μερικές από τις ιδιότητες της εντροπίας και της σχετικής εντροπίας. Το ακόλουθο θεώρημα είναι θεμελιώδους σημασίας. Θεώρημα (Πληροϕοριακή ανισότητα) Αν p(x) και q(x), x X, είναι δύο συναρτήσεις μάζας πιθανότητας, τότε με ισότητα αν και μόνο αν p(x) =q(x) για κάθε x. D(p q) 0 (2.82) Απόδειξη: Αν A = {x : p(x) > 0} είναιτοσύνολουποστήριξηςτηςp(x),τότε D(p q) = x A = x A p(x)log p(x) q(x) p(x)log q(x) p(x) (2.83) (2.84)

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη (3η έκδοση, 11/3)

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη (3η έκδοση, 11/3) ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη (3η έκδοση, 11/3) ηµήτρης-αλέξανδρος Τουµπακάρης Τµήµα ΗΜ&ΤΥ, Πανεπιστήµιο Πατρών 19 Φεβρουαρίου 2013 ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα

Διαβάστε περισσότερα

EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας 3η σειρά ασκήσεων Διακριτά και Συνεχή Κανάλια. Παράδοση: Έως 22/6/2015

EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας 3η σειρά ασκήσεων Διακριτά και Συνεχή Κανάλια. Παράδοση: Έως 22/6/2015 EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας Φυλλάδιο 13 Δ. Τουμπακάρης 30 Μαΐου 2015 EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας 3η σειρά ασκήσεων Διακριτά και Συνεχή Κανάλια Παράδοση:

Διαβάστε περισσότερα

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 2 : Πληροφορία και Εντροπία Διάλεξη: Κώστας Μαλιάτσος Χρήστος Ξενάκης, Κώστας Μαλιάτσος

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 2 : Πληροφορία και Εντροπία Διάλεξη: Κώστας Μαλιάτσος Χρήστος Ξενάκης, Κώστας Μαλιάτσος ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ Κεφάλαιο 2 : Πληροφορία και Εντροπία Διάλεξη: Κώστας Μαλιάτσος Χρήστος Ξενάκης, Κώστας Μαλιάτσος Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων Περιεχόμενα Πιθανότητες Πληροφορία Μέτρο

Διαβάστε περισσότερα

Θεώρημα κωδικοποίησης πηγής

Θεώρημα κωδικοποίησης πηγής Κωδικοποίηση Kωδικοποίηση πηγής Θεώρημα κωδικοποίησης πηγής Καθορίζει ένα θεμελιώδες όριο στον ρυθμό με τον οποίο η έξοδος μιας πηγής πληροφορίας μπορεί να συμπιεσθεί χωρίς να προκληθεί μεγάλη πιθανότητα

Διαβάστε περισσότερα

Εισαγωγή στη θεωρία πληροφορίας

Εισαγωγή στη θεωρία πληροφορίας Θεωρία πληροφορίας Εισαγωγή στη θεωρία πληροφορίας Τηλεπικοινωνιακά συστήματα Όλα τα τηλεπικοινωνιακά συστήματα σχεδιάζονται για να μεταφέρουν πληροφορία Σε κάθε τηλεπικοινωνιακό σύστημα υπάρχει μια πηγή

Διαβάστε περισσότερα

Ψηφιακές Τηλεπικοινωνίες

Ψηφιακές Τηλεπικοινωνίες Ψηφιακές Τηλεπικοινωνίες Θεωρία Πληροφορίας: Χωρητικότητα Καναλιού Χωρητικότητα Καναλιού Η θεωρία πληροφορίας περιλαμβάνει μεταξύ άλλων: κωδικοποίηση πηγής κωδικοποίηση καναλιού Κωδικοποίηση πηγής: πόση

Διαβάστε περισσότερα

Τηλεπικοινωνιακά Συστήματα ΙΙ

Τηλεπικοινωνιακά Συστήματα ΙΙ Τηλεπικοινωνιακά Συστήματα ΙΙ Διάλεξη 11: Κωδικοποίηση Πηγής Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής 1 Ατζέντα 1. Αλγόριθμοι κωδικοποίησης πηγής Αλγόριθμος Fano Αλγόριθμος Shannon Αλγόριθμος Huffman

Διαβάστε περισσότερα

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ Κεφάλαιο 2 : Πληροφορία και Εντροπία Χρήστος Ξενάκης Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων Περιεχόμενα Πληροφορία Μέτρο πληροφορίας Μέση πληροφορία ή Εντροπία Από κοινού εντροπία

Διαβάστε περισσότερα

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ Κεφάλαιο 9 : Κανάλι-Σύστημα Χρήστος Ξενάκης Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων Περιεχόμενα Ομιλίας Χωρητικότητα Χ ό καναλιού Το Gaussian κανάλι επικοινωνίας Τα διακριτά

Διαβάστε περισσότερα

Ψηφιακές Τηλεπικοινωνίες. Θεωρία Ρυθμού Παραμόρφωσης

Ψηφιακές Τηλεπικοινωνίες. Θεωρία Ρυθμού Παραμόρφωσης Ψηφιακές Τηλεπικοινωνίες Θεωρία Ρυθμού Παραμόρφωσης Θεωρία Ρυθμού-Παραμόρφωσης Θεώρημα Κωδικοποίησης Πηγής: αν έχω αρκετά μεγάλο μπλοκ δεδομένων, μπορώ να φτάσω κοντά στην εντροπία Πιθανά Προβλήματα: >

Διαβάστε περισσότερα

1 Βασικές Έννοιες Θεωρίας Πληροφορίας

1 Βασικές Έννοιες Θεωρίας Πληροφορίας 1 Βασικές Έννοιες Θεωρίας Πληροφορίας Εντροπία τυχαίων μεταβλητών X, Y : H(X) = E [log Pr(x)] (1) H(X, Y ) = E [log Pr(x, y)] (2) H(X Y ) = E [log Pr(x y)] (3) Ιδιότητες Εντροπίας: Νόμος Bayes: Pr(y x)

Διαβάστε περισσότερα

Αριθμητική Ανάλυση και Εφαρμογές

Αριθμητική Ανάλυση και Εφαρμογές Αριθμητική Ανάλυση και Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 07-08 Αριθμητική Παραγώγιση Εισαγωγή Ορισμός 7. Αν y f x είναι μια συνάρτηση ορισμένη σε ένα διάστημα

Διαβάστε περισσότερα

Θεωρία Πληροφορίας. Διάλεξη 4: Διακριτή πηγή πληροφορίας χωρίς μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Θεωρία Πληροφορίας. Διάλεξη 4: Διακριτή πηγή πληροφορίας χωρίς μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής Θεωρία Πληροφορίας Διάλεξη 4: Διακριτή πηγή πληροφορίας χωρίς μνήμη Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής 1 Ατζέντα Διακριτή πηγή πληροφορίας χωρίς μνήμη Ποσότητα πληροφορίας της πηγής Κωδικοποίηση

Διαβάστε περισσότερα

Κεφάλαιο 3 ΠΑΡΑΓΩΓΟΣ. 3.1 Η έννοια της παραγώγου. y = f(x) f(x 0 ), = f(x 0 + x) f(x 0 )

Κεφάλαιο 3 ΠΑΡΑΓΩΓΟΣ. 3.1 Η έννοια της παραγώγου. y = f(x) f(x 0 ), = f(x 0 + x) f(x 0 ) Κεφάλαιο 3 ΠΑΡΑΓΩΓΟΣ 3.1 Η έννοια της παραγώγου Εστω y = f(x) µία συνάρτηση, που συνδέει τις µεταβλητές ποσότητες x και y. Ενα ερώτηµα που µπορεί να προκύψει καθώς µελετούµε τις δύο αυτές ποσοτήτες είναι

Διαβάστε περισσότερα

Pr(10 X 15) = Pr(15 X 20) = 1/2, (10.2)

Pr(10 X 15) = Pr(15 X 20) = 1/2, (10.2) Κεφάλαιο 10 Συνεχείς τυχαίες μεταβλητές Σε αυτό το κεφάλαιο θα εξετάσουμε τις ιδιότητες που έχουν οι συνεχείς τυχαίες μεταβλητές. Εκείνες οι Τ.Μ. X, δηλαδή, των οποίων το σύνολο τιμών δεν είναι διακριτό,

Διαβάστε περισσότερα

Αριθμητική Ανάλυση και Εφαρμογές

Αριθμητική Ανάλυση και Εφαρμογές Αριθμητική Ανάλυση και Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 07-08 Πεπερασμένες και Διαιρεμένες Διαφορές Εισαγωγή Θα εισάγουμε την έννοια των διαφορών με ένα

Διαβάστε περισσότερα

Θεωρία της Πληροφορίας 3 ο Εξάμηνο

Θεωρία της Πληροφορίας 3 ο Εξάμηνο Σμήμα Πληροφορικής & Επικοινωνιών Θεωρία της Πληροφορίας 3 ο Εξάμηνο Τομέας Τηλεπικοινωνιών και Δικτύων Δρ. Αναστάσιος Πολίτης Καθηγητής Εφαρμογών 1 Διεξαγωγή και Εξέταση του Μαθήματος Μάθημα Πώς? 13 Διαλέξεις.

Διαβάστε περισσότερα

f(y) dy = b a dy = b a x f(x) dx = b a dx = x 2 = b2 a 2 2(b a) b a dx = = (a2 + ab + b 2 )(b a) 3(b a)

f(y) dy = b a dy = b a x f(x) dx = b a dx = x 2 = b2 a 2 2(b a) b a dx = = (a2 + ab + b 2 )(b a) 3(b a) Κεφάλαιο 11 Συνεχείς κατανομές και ο Ν.Μ.Α. Στο προηγούμενο κεφάλαιο ορίσαμε την έννοια της συνεχούς τυχαίας μεταβλητής, και είδαμε τις βασικές της ιδιότητες. Εδώ θα περιγράψουμε κάποιους ιδιαίτερους τύπους

Διαβάστε περισσότερα

Αθανάσιος Χρ. Τζέμος Τομέας Θεωρητικής Φυσικής. Εντροπία Shannon

Αθανάσιος Χρ. Τζέμος Τομέας Θεωρητικής Φυσικής. Εντροπία Shannon Αθανάσιος Χρ. Τζέμος Τομέας Θεωρητικής Φυσικής Εντροπία Shannon Ένα από τα βασικά ερωτήματα της θεωρίας της πληροφορίας ήταν ανέκαθεν το πώς θα μπορούσε να ποσοτικοποιηθεί η πληροφορία, ώστε να μπορούμε

Διαβάστε περισσότερα

Θεωρία πληροφοριών. Τεχνολογία Πολυµέσων 07-1

Θεωρία πληροφοριών. Τεχνολογία Πολυµέσων 07-1 Θεωρία πληροφοριών Εισαγωγή Αµοιβαία πληροφορία Εσωτερική πληροφορία Υπό συνθήκη πληροφορία Παραδείγµατα πληροφορίας Μέση πληροφορία και εντροπία Παραδείγµατα εντροπίας Εφαρµογές Τεχνολογία Πολυµέσων 07-

Διαβάστε περισσότερα

Τεχνολογία Πολυμέσων. Ενότητα # 7: Θεωρία πληροφορίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Τεχνολογία Πολυμέσων. Ενότητα # 7: Θεωρία πληροφορίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής Τεχνολογία Πολυμέσων Ενότητα # 7: Θεωρία πληροφορίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής Χρηματοδότηση Το παρόν εκπαιδευτικό υλικό έχει αναπτυχθεί στα πλαίσια του εκπαιδευτικού έργου του διδάσκοντα.

Διαβάστε περισσότερα

Ψηφιακές Τηλεπικοινωνίες

Ψηφιακές Τηλεπικοινωνίες Ψηφιακές Τηλεπικοινωνίες Θεωρία Πληροφορίας: Κωδικοποίηση Πηγής Ψηφιακή Μετάδοση Υπάρχουν ιδιαίτερα εξελιγμένες τεχνικές αναλογικής μετάδοσης (που ακόμη χρησιμοποιούνται σε ορισμένες εφαρμογές) Επίσης,

Διαβάστε περισσότερα

22Α004 - Προχωρημένα Θέματα Θεωρίας Πληροφορίας Τελική Εξέταση

22Α004 - Προχωρημένα Θέματα Θεωρίας Πληροφορίας Τελική Εξέταση 22A004 (eclass EE278) Προχωρημένα Θέματα Θεωρίας Πληροφορίας Φυλλάδιο 11 Δ. Τουμπακάρης 6 Ιουνίου 2013 22Α004 - Προχωρημένα Θέματα Θεωρίας Πληροφορίας Τελική Εξέταση Διάρκεια Εξέτασης: 3 ώρες. 4 ασκήσεις

Διαβάστε περισσότερα

ΚΕΦΑΛΑΙΟ ΠΕΜΠΤΟ ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ

ΚΕΦΑΛΑΙΟ ΠΕΜΠΤΟ ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ ΚΕΦΑΛΑΙΟ ΠΕΜΠΤΟ ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ 5. Εισαγωγή Ο σκοπός κάθε συστήματος τηλεπικοινωνιών είναι η μεταφορά πληροφορίας από ένα σημείο (πηγή) σ ένα άλλο (δέκτης). Συνεπώς, κάθε μελέτη ενός τέτοιου συστήματος

Διαβάστε περισσότερα

ΕΝΟΤΗΤΑ 1: ΟΡΙΣΜΟΣ ΠΕΔΙΟ ΟΡΙΣΜΟΥ ΠΡΑΞΕΙΣ ΣΥΝΑΡΤΗΣΕΩΝ ΓΡΑΦΙΚΕΣ ΠΑΡΑΣΤΑΣΕΙΣ ΒΑΣΙΚΩΝ ΣΥΝΑΡΤΗΣΕΩΝ ΛΥΜΕΝΑ ΘΕΜΑΤΑ ΘΕΜΑ Α

ΕΝΟΤΗΤΑ 1: ΟΡΙΣΜΟΣ ΠΕΔΙΟ ΟΡΙΣΜΟΥ ΠΡΑΞΕΙΣ ΣΥΝΑΡΤΗΣΕΩΝ ΓΡΑΦΙΚΕΣ ΠΑΡΑΣΤΑΣΕΙΣ ΒΑΣΙΚΩΝ ΣΥΝΑΡΤΗΣΕΩΝ ΛΥΜΕΝΑ ΘΕΜΑΤΑ ΘΕΜΑ Α ΚΕΦΑΛΑΙΟ 1 ο : ΔΙΑΦΟΡΙΚΟΣ ΛΟΓΙΣΜΟΣ ΕΝΟΤΗΤΑ 1: ΟΡΙΣΜΟΣ ΠΕΔΙΟ ΟΡΙΣΜΟΥ ΠΡΑΞΕΙΣ ΣΥΝΑΡΤΗΣΕΩΝ ΓΡΑΦΙΚΕΣ ΠΑΡΑΣΤΑΣΕΙΣ ΒΑΣΙΚΩΝ ΣΥΝΑΡΤΗΣΕΩΝ ΛΥΜΕΝΑ ΘΕΜΑΤΑ Ερώτηση θεωρίας 1 ΘΕΜΑ Α Τι ονομάζουμε πραγματική συνάρτηση

Διαβάστε περισσότερα

4. ΚΕΦΑΛΑΙΟ ΕΦΑΡΜΟΓΕΣ ΤΟΥ ΜΕΤΑΣΧΗΜΑΤΙΣΜΟΥ FOURIER

4. ΚΕΦΑΛΑΙΟ ΕΦΑΡΜΟΓΕΣ ΤΟΥ ΜΕΤΑΣΧΗΜΑΤΙΣΜΟΥ FOURIER 4. ΚΕΦΑΛΑΙΟ ΕΦΑΡΜΟΓΕΣ ΤΟΥ ΜΕΤΑΣΧΗΜΑΤΙΣΜΟΥ FOURIER Σκοπός του κεφαλαίου είναι να παρουσιάσει μερικές εφαρμογές του Μετασχηματισμού Fourier (ΜF). Ειδικότερα στο κεφάλαιο αυτό θα περιγραφούν έμμεσοι τρόποι

Διαβάστε περισσότερα

ΛΟΓΙΣΜΟΣ ΜΙΑΣ ΜΕΤΑΒΛΗΤΗΣ, ΕΣΠΙ 1

ΛΟΓΙΣΜΟΣ ΜΙΑΣ ΜΕΤΑΒΛΗΤΗΣ, ΕΣΠΙ 1 ΛΟΓΙΣΜΟΣ ΜΙΑΣ ΜΕΤΑΒΛΗΤΗΣ, ΕΣΠΙ 1 ΣΥΝΑΡΤΗΣΕΙΣ Η έννοια της συνάρτησης είναι θεμελιώδης στο λογισμό και διαπερνά όλους τους μαθηματικούς κλάδους. Για το φοιτητή είναι σημαντικό να κατανοήσει πλήρως αυτή

Διαβάστε περισσότερα

Σ ΤΑΤ Ι Σ Τ Ι Κ Η ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Σ ΤΑΤ Ι Σ Τ Ι Κ Η ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ Σ ΤΑΤ Ι Σ Τ Ι Κ Η i ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ Κατανομή Δειγματοληψίας του Δειγματικού Μέσου Ο Δειγματικός Μέσος X είναι μια Τυχαία Μεταβλητή. Καθώς η επιλογή και χρήση διαφορετικών δειγμάτων από έναν

Διαβάστε περισσότερα

Θεωρία Υπολογισμού Άρτιοι ΑΜ. Διδάσκων: Σταύρος Κολλιόπουλος. eclass.di.uoa.gr. Περιγραφή μαθήματος

Θεωρία Υπολογισμού Άρτιοι ΑΜ. Διδάσκων: Σταύρος Κολλιόπουλος. eclass.di.uoa.gr. Περιγραφή μαθήματος Περιγραφή μαθήματος Θεωρία Υπολογισμού Άρτιοι ΑΜ Σκοπός του μαθήματος είναι η εισαγωγή στη Θεωρία Υπολογισμού και στη Θεωρία Υπολογιστικής Πολυπλοκότητας (Θεωρία Αλγορίθμων). Διδάσκων: Σταύρος Κολλιόπουλος

Διαβάστε περισσότερα

Θεωρία Υπολογισμού Αρτιοι ΑΜ Διδάσκων: Σταύρος Κολλιόπουλος eclass.di.uoa.gr

Θεωρία Υπολογισμού Αρτιοι ΑΜ Διδάσκων: Σταύρος Κολλιόπουλος eclass.di.uoa.gr Θεωρία Υπολογισμού Άρτιοι ΑΜ Διδάσκων: Σταύρος Κολλιόπουλος eclass.di.uoa.gr Περιγραφή μαθήματος Σκοπός του μαθήματος είναι η εισαγωγή στη Θεωρία Υπολογισμού και στη Θεωρία Υπολογιστικής Πολυπλοκότητας

Διαβάστε περισσότερα

Η Θεωρία στα Μαθηματικά κατεύθυνσης της Γ Λυκείου

Η Θεωρία στα Μαθηματικά κατεύθυνσης της Γ Λυκείου Η Θεωρία στα Μαθηματικά κατεύθυνσης της Γ Λυκείου wwwaskisopolisgr έκδοση 5-6 wwwaskisopolisgr ΣΥΝΑΡΤΗΣΕΙΣ 5 Τι ονομάζουμε πραγματική συνάρτηση; Έστω Α ένα υποσύνολο του Ονομάζουμε πραγματική συνάρτηση

Διαβάστε περισσότερα

ΜΙΓΑΔΙΚΟΙ ΑΡΙΘΜΟΙ ΕΠΙΜΕΛΕΙΑ : ΑΥΓΕΡΙΝΟΣ ΒΑΣΙΛΗΣ

ΜΙΓΑΔΙΚΟΙ ΑΡΙΘΜΟΙ ΕΠΙΜΕΛΕΙΑ : ΑΥΓΕΡΙΝΟΣ ΒΑΣΙΛΗΣ ΜΙΓΑΔΙΚΟΙ ΑΡΙΘΜΟΙ ΕΠΙΜΕΛΕΙΑ : ΑΥΓΕΡΙΝΟΣ ΒΑΣΙΛΗΣ ΕΥΡΙΠΙΔΟΥ 80 ΝΙΚΑΙΑ ΝΕΑΠΟΛΗ ΤΗΛΕΦΩΝΟ 0965897 ΔΙΕΥΘΥΝΣΗ ΣΠΟΥΔΩΝ ΒΡΟΥΤΣΗ ΕΥΑΓΓΕΛΙΑ ΜΠΟΥΡΝΟΥΤΣΟΥ ΚΩΝ/ΝΑ ΑΥΓΕΡΙΝΟΣ ΒΑΣΙΛΗΣ ΜΙΓΑΔΙΚΟΙ ΑΡΙΘΜΟΙ Η έννοια του μιγαδικού

Διαβάστε περισσότερα

X = = 81 9 = 9

X = = 81 9 = 9 Πιθανότητες και Αρχές Στατιστικής (11η Διάλεξη) Σωτήρης Νικολετσέας, καθηγητής Τμήμα Μηχανικών Η/Υ & Πληροφορικής, Πανεπιστήμιο Πατρών Ακαδημαϊκό Ετος 2018-2019 Σωτήρης Νικολετσέας, καθηγητής 1 / 35 Σύνοψη

Διαβάστε περισσότερα

iii ΠΕΡΙΕΧΟΜΕΝΑ Πρόλογος

iii ΠΕΡΙΕΧΟΜΕΝΑ Πρόλογος iii ΠΕΡΙΕΧΟΜΕΝΑ Πρόλογος xi 1 Αντικείμενα των Πιθανοτήτων και της Στατιστικής 1 1.1 Πιθανοτικά Πρότυπα και Αντικείμενο των Πιθανοτήτων, 1 1.2 Αντικείμενο της Στατιστικής, 3 1.3 Ο Ρόλος των Πιθανοτήτων

Διαβάστε περισσότερα

h(x, y) = card ({ 1 i n : x i y i

h(x, y) = card ({ 1 i n : x i y i Κεφάλαιο 1 Μετρικοί χώροι 1.1 Ορισμός και παραδείγματα Ορισμός 1.1.1 μετρική). Εστω X ένα μη κενό σύνολο. Μετρική στο X λέγεται κάθε συνάρτηση ρ : X X R με τις παρακάτω ιδιότητες: i) ρx, y) για κάθε x,

Διαβάστε περισσότερα

n 5 = 7 ε (π.χ. ορίζοντας n0 = 1+ ε συνεπώς (σύμϕωνα με τις παραπάνω ισοδυναμίες) an 5 < ε. Επομένως a n β n 23 + β n+1

n 5 = 7 ε (π.χ. ορίζοντας n0 = 1+ ε συνεπώς (σύμϕωνα με τις παραπάνω ισοδυναμίες) an 5 < ε. Επομένως a n β n 23 + β n+1 Θέμα 1 (α) Υποθέτουμε (προς απαγωγή σε άτοπο) ότι το σύνολο A έχει μέγιστο στοιχείο, έστω a = max A Τότε, εϕόσον a A, έχουμε a R Q και a M Ομως ο αριθμός μητρώου M είναι ρητός αριθμός, άρα (εϕόσον ο a

Διαβάστε περισσότερα

Θέματα Συστημάτων Πολυμέσων

Θέματα Συστημάτων Πολυμέσων Θέματα Συστημάτων Πολυμέσων Ενότητα # 6: Στοιχεία Θεωρίας Πληροφορίας Διδάσκων: Γεώργιος K. Πολύζος Τμήμα: Μεταπτυχιακό Πρόγραμμα Σπουδών Επιστήμη των Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό

Διαβάστε περισσότερα

Σ ΤΑΤ Ι Σ Τ Ι Κ Η. Statisticum collegium Iii

Σ ΤΑΤ Ι Σ Τ Ι Κ Η. Statisticum collegium Iii Σ ΤΑΤ Ι Σ Τ Ι Κ Η i Statisticum collegium Iii Η Κανονική Κατανομή Λέμε ότι μία τυχαία μεταβλητή X, ακολουθεί την Κανονική Κατανομή με παραμέτρους και και συμβολίζουμε X N, αν έχει συνάρτηση πυκνότητας

Διαβάστε περισσότερα

ΜΕΓΙΣΤΙΚΟΣ ΤΕΛΕΣΤΗΣ 18 Σεπτεμβρίου 2014

ΜΕΓΙΣΤΙΚΟΣ ΤΕΛΕΣΤΗΣ 18 Σεπτεμβρίου 2014 ΜΕΓΙΣΤΙΚΟΣ ΤΕΛΕΣΤΗΣ 18 Σεπτεμβρίου 2014 Περιεχόμενα 1 Εισαγωγή 2 2 Μεγιστικός τελέστης στην μπάλα 2 2.1 Βασικό θεώρημα........................ 2 2.2 Γενική περίπτωση μπάλας.................. 6 2.2.1 Στο

Διαβάστε περισσότερα

Δίαυλος Πληροφορίας. Η λειτουργία του περιγράφεται από:

Δίαυλος Πληροφορίας. Η λειτουργία του περιγράφεται από: Δίαυλος Πληροφορίας Η λειτουργία του περιγράφεται από: Πίνακας Διαύλου (μαθηματική περιγραφή) Διάγραμμα Διαύλου (παραστατικός τρόπος περιγραφής της λειτουργίας) Πίνακας Διαύλου Χρησιμοποιούμε τις υπό συνθήκη

Διαβάστε περισσότερα

Τυχαία Διανύσματα και Ανεξαρτησία

Τυχαία Διανύσματα και Ανεξαρτησία Τυχαία Διανύσματα και Ανεξαρτησία Θα γενικεύσουμε την έννοια της τυχαίας μεταβλητής από συνάρτηση στο R σε συνάρτηση στο R n. Ακολούθως, θα επεκτείνουμε τις έννοιες με τις οποίες ασχοληθήκαμε μέχρι τώρα

Διαβάστε περισσότερα

1. Τετραγωνικές μορφές. x y 0. 0x y 0 1α 1β 2α 2β 3. 0x + y 0

1. Τετραγωνικές μορφές. x y 0. 0x y 0 1α 1β 2α 2β 3. 0x + y 0 Β4. ΕΣΣΙΑΝΟΣ ΠΙΝΑΚΑΣ-ΚΥΡΤΟΤΗΤΑ 1.Τετραγωνικές μορφές.χαρακτηρισμός συμμετρικών πινάκων 3.Δεύτερες μερικές παράγωγοι-εσσιανός πίνακας 4.Συνθήκες για ακρότατα 5.Κυρτές/κοίλες συναρτήσεις 6.Ολικά ακρότατα

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΛΟΠΟΝΝΗΣΟΥ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΛΟΠΟΝΝΗΣΟΥ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΛΟΠΟΝΝΗΣΟΥ ΤΜΗΜΑ ΟΙΚΟΝΟΜΙΑΣ ΔΙΟΙΚΗΣΗΣ & ΠΛΗΡΟΦΟΡΙΚΗΣ ΤΜΗΜΑ ΟΙΚΟΝΟΜΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΜΑΘΗΜΑΤΙΚΑ Ι 11 ΟΚΤΩΒΡΙΟΥ 2016 ΜΗ ΓΡΑΜΜΙΚΕΣ ΣΥΝΑΡΤΗΣΕΙΣ ΕΙΣΑΓΩΓΗ Οικονομικές Συναρτήσεις με μεταβλητούς ρυθμούς

Διαβάστε περισσότερα

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ Θ.Ε. ΠΛΗ22 (2012-13) ΓΡΑΠΤΗ ΕΡΓΑΣΙΑ #4. Έκδοση v2 με διόρθωση τυπογραφικού λάθους στο ερώτημα 6.3 Στόχος: Βασικό στόχο της 4 ης εργασίας αποτελεί η εξοικείωση με τα μέτρα ποσότητας πληροφορίας τυχαίων

Διαβάστε περισσότερα

Στατιστική Συμπερασματολογία

Στατιστική Συμπερασματολογία Στατιστική Συμπερασματολογία Διαφάνειες 4 ου κεφαλαίου Ελεγχοσυναρτήσεις Γενικευμένου Λόγου Πιθανοφανειών Σταύρος Χατζόπουλος 27/03/2017, 03/04/2017, 24/04/2017 1 Εισαγωγή Έστω το τ.δ. X,,, από την κατανομή

Διαβάστε περισσότερα

Ε π ι μ έ λ ε ι α Κ Ο Λ Λ Α Σ Α Ν Τ Ω Ν Η Σ

Ε π ι μ έ λ ε ι α Κ Ο Λ Λ Α Σ Α Ν Τ Ω Ν Η Σ Ε π ι μ έ λ ε ι α Κ Ο Λ Λ Α Σ Α Ν Τ Ω Ν Η Σ 1 Συναρτήσεις Όταν αναφερόμαστε σε μια συνάρτηση, ουσιαστικά αναφερόμαστε σε μια σχέση ή εξάρτηση. Στα μαθηματικά που θα μας απασχολήσουν, με απλά λόγια, η σχέση

Διαβάστε περισσότερα

Εφαρμοσμένη Στατιστική Δημήτριος Μπάγκαβος Τμήμα Μαθηματικών και Εφαρμοσμένων Μαθηματικών Πανεπισ τήμιο Κρήτης 14 Μαρτίου /34

Εφαρμοσμένη Στατιστική Δημήτριος Μπάγκαβος Τμήμα Μαθηματικών και Εφαρμοσμένων Μαθηματικών Πανεπισ τήμιο Κρήτης 14 Μαρτίου /34 Εφαρμοσμένη Στατιστική Δημήτριος Μπάγκαβος Τμήμα Μαθηματικών και Εφαρμοσμένων Μαθηματικών Πανεπιστήμιο Κρήτης 14 Μαρτίου 018 1/34 Διαστήματα Εμπιστοσύνης. Εχουμε δει εκτενώς μέχρι τώρα τρόπους εκτίμησης

Διαβάστε περισσότερα

( ) log 2 = E. Σεραφείµ Καραµπογιάς

( ) log 2 = E. Σεραφείµ Καραµπογιάς Παρατηρούµε ότι ο ορισµός της Η βασίζεται στη χρονική µέση τιµή. Για να ισχύει ο ορισµός αυτός και για µέση τιµή συνόλου πρέπει η πηγή να είναι εργοδική, δηλαδή H ( X) ( ) = E log 2 p k Η εντροπία µιας

Διαβάστε περισσότερα

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣΟΡ Κεφάλαιο 1 : Εισαγωγή στη Θεωρία ωία Πληροφορίας Χρήστος Ξενάκης Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων Περιεχόμενα Ομιλίας Έννοια της πληροφορίας Άλλες βασικές έννοιες Στόχος

Διαβάστε περισσότερα

Γ ε ν ι κ έ ς εξ ε τ ά σ ε ι ς Μαθηματικά Γ λυκείου Θ ε τ ι κ ών και οικονομικών σπουδών

Γ ε ν ι κ έ ς εξ ε τ ά σ ε ι ς Μαθηματικά Γ λυκείου Θ ε τ ι κ ών και οικονομικών σπουδών Φ ρ ο ν τ ι σ τ ή ρ ι α δ υ α δ ι κ ό ΦΡΟΝΤΙΣΤΗΡΙΑ δυαδικό Γ ε ν ι κ έ ς εξ ε τ ά σ ε ι ς 6 Μαθηματικά Γ λυκείου Θ ε τ ι κ ών και οικονομικών σπουδών Τα θέματα επεξεργάστηκαν οι καθηγητές των Φροντιστηρίων

Διαβάστε περισσότερα

ΤΥΧΑΙΟΙ ΑΡΙΘΜΟΙ - ΠΡΟΣΟΜΟΙΩΣΗ

ΤΥΧΑΙΟΙ ΑΡΙΘΜΟΙ - ΠΡΟΣΟΜΟΙΩΣΗ ΚΕΦΑΛΑΙΟ 11 ΤΥΧΑΙΟΙ ΑΡΙΘΜΟΙ - ΠΡΟΣΟΜΟΙΩΣΗ ΤΥΧΑΙΟΙ ΑΡΙΘΜΟΙ Θα εισαγάγουμε την έννοια του τυχαίου αριθμού με ένα παράδειγμα. Παράδειγμα: Θεωρούμε μια τυχαία μεταβλητή με συνάρτηση πιθανότητας η οποία σε

Διαβάστε περισσότερα

1. ΣΤΑΤΙΚΗ ΑΡΙΣΤΟΠΟΙΗΣΗ

1. ΣΤΑΤΙΚΗ ΑΡΙΣΤΟΠΟΙΗΣΗ . ΣΤΑΤΙΚΗ ΑΡΙΣΤΟΠΟΙΗΣΗ. Μέγιστα και Ελάχιστα Συναρτήσεων Χωρίς Περιορισμούς Συναρτήσεις μιας Μεταβλητής Εστω f ( x) είναι συνάρτηση μιας μόνο μεταβλητής. Εστω επίσης ότι x είναι ένα σημείο στο πεδίο ορισμού

Διαβάστε περισσότερα

Ορισμός και Ιδιότητες

Ορισμός και Ιδιότητες ΚΑΝΟΝΙΚΗ ΚΑΤΑΝΟΜΗ Ορισμός και Ιδιότητες H κανονική κατανομή norml distriution θεωρείται η σπουδαιότερη κατανομή της Θεωρίας Πιθανοτήτων και της Στατιστικής. Οι λόγοι που εξηγούν την εξέχουσα θέση της,

Διαβάστε περισσότερα

ιαφορική εντροπία Σεραφείµ Καραµπογιάς

ιαφορική εντροπία Σεραφείµ Καραµπογιάς ιαφορική εντροπία Σεραφείµ Καραµπογιάς Για πηγές διακριτού χρόνου µε συνεχές αλφάβητο, των οποίων οι έξοδοι είναι πραγµατικοί αριθµοί, ορίζεται µια άλλη ποσότητα που µοιάζει µε την εντροπία και καλείται

Διαβάστε περισσότερα

Περιεχόμενα. Κεφάλαιο 1 ΣΥΣΤΗΜΑΤΑ ΣΥΝΤΕΤΑΓΜΕΝΩΝ ΣΕ ΜΙΑ ΕΥΘΕΙΑ... 13 1.1 Οι συντεταγμένες ενός σημείου...13 1.2 Απόλυτη τιμή...14

Περιεχόμενα. Κεφάλαιο 1 ΣΥΣΤΗΜΑΤΑ ΣΥΝΤΕΤΑΓΜΕΝΩΝ ΣΕ ΜΙΑ ΕΥΘΕΙΑ... 13 1.1 Οι συντεταγμένες ενός σημείου...13 1.2 Απόλυτη τιμή...14 Περιεχόμενα Κεφάλαιο 1 ΣΥΣΤΗΜΑΤΑ ΣΥΝΤΕΤΑΓΜΕΝΩΝ ΣΕ ΜΙΑ ΕΥΘΕΙΑ... 13 1.1 Οι συντεταγμένες ενός σημείου...13 1.2 Απόλυτη τιμή...14 Κεφάλαιο 2 ΣΥΣΤΗΜΑΤΑ ΣΥΝΤΕΤΑΓΜΕΝΩΝ ΣΕ ΕΝΑ ΕΠΙΠΕΔΟ 20 2.1 Οι συντεταγμένες

Διαβάστε περισσότερα

Μ Α Θ Η Μ Α Τ Α Γ Λ Υ Κ Ε Ι Ο Υ

Μ Α Θ Η Μ Α Τ Α Γ Λ Υ Κ Ε Ι Ο Υ Μ Α Θ Η Μ Α Τ Α Γ Λ Υ Κ Ε Ι Ο Υ ΜΑΘΗΜΑΤΙΚΑ ΠΡΟΣΑΝΑΤΟΛΙΣΜΟΥ ΘΕΤΙΚΩΝ ΣΠΟΥΔΩΝ ΚΑΙ ΣΠΟΥΔΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΠΛΗΡΟΦΟΡΙΚΗΣ (Α ΜΕΡΟΣ: ΣΥΝΑΡΤΗΣΕΙΣ) Επιμέλεια: Καραγιάννης Ιωάννης, Σχολικός Σύμβουλος Μαθηματικών

Διαβάστε περισσότερα

Το Κεντρικό Οριακό Θεώρημα

Το Κεντρικό Οριακό Θεώρημα Το Κεντρικό Οριακό Θεώρημα Όπως θα δούμε αργότερα στη Στατιστική Συμπερασματολογία, λέγοντας ότι «από έναν πληθυσμό παίρνουμε ένα τυχαίο δείγμα μεγέθους» εννοούμε ανεξάρτητες τυχαίες μεταβλητές,,..., που

Διαβάστε περισσότερα

Στατιστική είναι το σύνολο των μεθόδων και θεωριών που εφαρμόζονται σε αριθμητικά δεδομένα προκειμένου να ληφθεί κάποια απόφαση σε συνθήκες

Στατιστική είναι το σύνολο των μεθόδων και θεωριών που εφαρμόζονται σε αριθμητικά δεδομένα προκειμένου να ληφθεί κάποια απόφαση σε συνθήκες Ορισμός Στατιστική είναι το σύνολο των μεθόδων και θεωριών που εφαρμόζονται σε αριθμητικά δεδομένα προκειμένου να ληφθεί κάποια απόφαση σε συνθήκες αβεβαιότητας. Βασικές έννοιες Η μελέτη ενός πληθυσμού

Διαβάστε περισσότερα

Από το Γυμνάσιο στο Λύκειο... 7. 3. Δειγματικός χώρος Ενδεχόμενα... 42 Εύρεση δειγματικού χώρου... 46

Από το Γυμνάσιο στο Λύκειο... 7. 3. Δειγματικός χώρος Ενδεχόμενα... 42 Εύρεση δειγματικού χώρου... 46 ΠEΡΙΕΧΟΜΕΝΑ Από το Γυμνάσιο στο Λύκειο................................................ 7 1. Το Λεξιλόγιο της Λογικής.............................................. 11. Σύνολα..............................................................

Διαβάστε περισσότερα

Σ ΤΑΤ Ι Σ Τ Ι Κ Η. Statisticum collegium iv

Σ ΤΑΤ Ι Σ Τ Ι Κ Η. Statisticum collegium iv Σ ΤΑΤ Ι Σ Τ Ι Κ Η i Statisticum collegium iv Στατιστική Συμπερασματολογία Ι Σημειακές Εκτιμήσεις Διαστήματα Εμπιστοσύνης Στατιστική Συμπερασματολογία (Statistical Inference) Το πεδίο της Στατιστικής Συμπερασματολογία,

Διαβάστε περισσότερα

Περιεχόμενα της Ενότητας. Συνεχείς Τυχαίες Μεταβλητές. Συνεχείς Κατανομές Πιθανότητας. Συνεχείς Κατανομές Πιθανότητας.

Περιεχόμενα της Ενότητας. Συνεχείς Τυχαίες Μεταβλητές. Συνεχείς Κατανομές Πιθανότητας. Συνεχείς Κατανομές Πιθανότητας. Περιεχόμενα της Ενότητας Στατιστική Ι Ενότητα 5: Συνεχείς Κατανομές Πιθανότητας Δρ. Χρήστος Εμμανουηλίδης Επίκουρος Καθηγητής Αριστοτέλειο Πανεπιστήμιο Θεσσαλονίκης. Συνεχείς Τυχαίες Μεταβλητές. Συνεχείς

Διαβάστε περισσότερα

ΚΕΦΑΛΑΙΟ 3: Συνθήκες Αλυσίδων

ΚΕΦΑΛΑΙΟ 3: Συνθήκες Αλυσίδων ΚΕΦΑΛΑΙΟ 3: Συνθήκες Αλυσίδων Μελετάμε εδώ τη συνθήκη της αύξουσας αλυσίδας υποπροτύπων και τη συνθήκη της φθίνουσας αλυσίδας υποπροτύπων Αυτές συνδέονται μεταξύ τους με την έννοια της συνθετικής σειράς

Διαβάστε περισσότερα

Σεραφείµ Καραµπογιάς. Πηγές Πληροφορίας και Κωδικοποίηση Πηγής 6.3-1

Σεραφείµ Καραµπογιάς. Πηγές Πληροφορίας και Κωδικοποίηση Πηγής 6.3-1 Ο αλγόριθµος Lempel-iv Ο αλγόριθµος Lempel-iv ανήκει στην κατηγορία των καθολικών universal αλγορίθµων κωδικοποίησης πηγής δηλαδή αλγορίθµων που είναι ανεξάρτητοι από τη στατιστική της πηγής. Ο αλγόριθµος

Διαβάστε περισσότερα

ΑΣΚΗΣΕΙΣ ΠΙΘΑΝΟΤΗΤΩΝ του Παν. Λ. Θεοδωρόπουλου 0

ΑΣΚΗΣΕΙΣ ΠΙΘΑΝΟΤΗΤΩΝ του Παν. Λ. Θεοδωρόπουλου 0 ΑΣΚΗΣΕΙΣ ΠΙΘΑΝΟΤΗΤΩΝ του Παν. Λ. Θεοδωρόπουλου 0 Η Θεωρία Πιθανοτήτων είναι ένας σχετικά νέος κλάδος των Μαθηματικών, ο οποίος παρουσιάζει πολλά ιδιαίτερα χαρακτηριστικά στοιχεία. Επειδή η ιδιαιτερότητα

Διαβάστε περισσότερα

Ερωτήσεις-Απαντήσεις Θεωρίας

Ερωτήσεις-Απαντήσεις Θεωρίας 1 ΓΙΑΝΝΗΣ ΚΑΡΑΓΙΑΝΝΗΣ Σχολικός Σύμβουλος Μαθηματικών ΕΡΩΤΗΣΕΙΣ-ΑΠΑΝΤΗΣΕΙΣ ΘΕΩΡΙΑΣ ΣΤΑ ΜΑΘΗΜΑΤΙΚΑ Γ ΛΥΚΕΙΟΥ ΠΡΟΣΑΝΑΤΟΛΙΣΜΟΥ ΘΕΤΙΚΩΝ ΣΠΟΥΔΩΝ ΣΠΟΥΔΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΠΛΗΡΟΦΟΡΙΚΗΣ ΜΕΡΟΣ Β 2 ΕΡΩΤΗΣΕΙΣ-ΑΠΑΝΤΗΣΕΙΣ

Διαβάστε περισσότερα

Κεφάλαιο 2 Πληροφορία και εντροπία

Κεφάλαιο 2 Πληροφορία και εντροπία Κεφάλαιο 2 Πληροφορία και εντροπία Άσκηση. Έστω αλφάβητο Α={0,} και δύο πηγές p και q. Έστω οτι p(0)=-r, p()=r, q(0)=-s και q()=s. Να υπολογιστούν οι σχετικές εντροπίες Η(Α,p/q) και Η(Α,q/p). Να γίνει

Διαβάστε περισσότερα

Κεφάλαιο 10 Εισαγωγή στην Εκτίμηση

Κεφάλαιο 10 Εισαγωγή στην Εκτίμηση Κεφάλαιο 10 Εισαγωγή στην Εκτίμηση Εκεί που είμαστε Κεφάλαια 7 και 8: Οι διωνυμικές,κανονικές, εκθετικές κατανομές και κατανομές Poisson μας επιτρέπουν να κάνουμε διατυπώσεις πιθανοτήτων γύρω από το Χ

Διαβάστε περισσότερα

Για να εκφράσουμε τη διαδικασία αυτή, γράφουμε: :

Για να εκφράσουμε τη διαδικασία αυτή, γράφουμε: : Η θεωρία στα μαθηματικά προσανατολισμού Γ υκείου Τι λέμε συνάρτηση με πεδίο ορισμού το σύνολο ; Έστω ένα υποσύνολο του Ονομάζουμε πραγματική συνάρτηση με πεδίο ορισμού το μία διαδικασία (κανόνα), με την

Διαβάστε περισσότερα

ΠΑΡΑΔΕΙΓΜΑΤΑ ΘΕΜΑ Β. Να μελετήσετε ως προς τη μονοτονία και τα ακρότατα τις παρακάτω συναρτήσεις: f (x) = 0 x(2ln x + 1) = 0 ln x = x = e x =

ΠΑΡΑΔΕΙΓΜΑΤΑ ΘΕΜΑ Β. Να μελετήσετε ως προς τη μονοτονία και τα ακρότατα τις παρακάτω συναρτήσεις: f (x) = 0 x(2ln x + 1) = 0 ln x = x = e x = ΚΕΦΑΛΑΙΟ ο: ΔΙΑΦΟΡΙΚΟΣ ΛΟΓΙΣΜΟΣ ΕΝΟΤΗΤΑ 0: ΕΥΡΕΣΗ ΤΟΠΙΚΩΝ ΑΚΡΟΤΑΤΩΝ [Ενότητα Προσδιορισμός των Τοπικών Ακροτάτων - Θεώρημα Εύρεση Τοπικών Ακροτάτων του κεφ..7 Μέρος Β του σχολικού βιβλίου]. ΠΑΡΑΔΕΙΓΜΑΤΑ

Διαβάστε περισσότερα

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ Κεφάλαιο 10 : Κωδικοποίηση καναλιού Χρήστος Ξενάκης Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων Περιεχόμενα Ομιλίας Απόσταση και βάρος Hamming Τεχνικές και κώδικες ανίχνευσης &

Διαβάστε περισσότερα

Στοχαστικές Στρατηγικές

Στοχαστικές Στρατηγικές Στοχαστικές Στρατηγικές 3 η ενότητα: Εισαγωγή στα στοχαστικά προβλήματα διαδρομής Τμήμα Μαθηματικών, ΑΠΘ Ακαδημαϊκό έτος 2018-2019 Χειμερινό Εξάμηνο Παπάνα Αγγελική Μεταδιδακτορική ερευνήτρια, ΑΠΘ & Πανεπιστήμιο

Διαβάστε περισσότερα

Περίληψη ϐασικών εννοιών στην ϑεωρία πιθανοτήτων

Περίληψη ϐασικών εννοιών στην ϑεωρία πιθανοτήτων Περίληψη ϐασικών εννοιών στην ϑεωρία πιθανοτήτων 6 Απριλίου 2009 1 Συνδυαστική Η ϐασική αρχή µέτρησης µας λέει ότι αν σε ένα πείραµα που γίνεται σε δύο ϕάσεις και στο οποίο υπάρχουν n δυνατά αποτελέσµατα

Διαβάστε περισσότερα

Ελλιπή δεδομένα. Εδώ έχουμε 1275. Στον πίνακα που ακολουθεί δίνεται η κατά ηλικία κατανομή 1275 ατόμων

Ελλιπή δεδομένα. Εδώ έχουμε 1275. Στον πίνακα που ακολουθεί δίνεται η κατά ηλικία κατανομή 1275 ατόμων Ελλιπή δεδομένα Στον πίνακα που ακολουθεί δίνεται η κατά ηλικία κατανομή 75 ατόμων Εδώ έχουμε δ 75,0 75 5 Ηλικία Συχνότητες f 5-4 70 5-34 50 35-44 30 45-54 465 55-64 335 Δεν δήλωσαν 5 Σύνολο 75 Μπορεί

Διαβάστε περισσότερα

Στατιστική Περιγραφή Φυσικού Μεγέθους - Πιθανότητες

Στατιστική Περιγραφή Φυσικού Μεγέθους - Πιθανότητες Στατιστική Περιγραφή Φυσικού Μεγέθους - Πιθανότητες Είπαμε ότι γενικά τα συστηματικά σφάλματα που υπεισέρχονται σε μια μέτρηση ενός φυσικού μεγέθους είναι γενικά δύσκολο να επισημανθούν και να διορθωθούν.

Διαβάστε περισσότερα

1 Αριθμητική κινητής υποδιαστολής και σφάλματα στρογγύλευσης

1 Αριθμητική κινητής υποδιαστολής και σφάλματα στρογγύλευσης 1 Αριθμητική κινητής υποδιαστολής και σφάλματα στρογγύλευσης Στη συγκεκριμένη ενότητα εξετάζουμε θέματα σχετικά με την αριθμητική πεπερασμένης ακρίβειας που χρησιμοποιούν οι σημερινοί υπολογιστές και τα

Διαβάστε περισσότερα

Γραμμικός Προγραμματισμός Μέθοδος Simplex

Γραμμικός Προγραμματισμός Μέθοδος Simplex ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ Επιχειρησιακή Έρευνα Γραμμικός Προγραμματισμός Μέθοδος Simplex Η παρουσίαση προετοιμάστηκε από τον Ν.Α. Παναγιώτου Περιεχόμενα Παρουσίασης 1. Πρότυπη Μορφή ΓΠ 2. Πινακοποίηση

Διαβάστε περισσότερα

OΡΙΟ - ΣΥΝΕΧΕΙΑ ΣΥΝΑΡΤΗΣΗΣ

OΡΙΟ - ΣΥΝΕΧΕΙΑ ΣΥΝΑΡΤΗΣΗΣ Ο ΚΕΦΑΛΑΙΟ : ΟΡΙΟ ΣΥΝΕΧΕΙΑ ΣΥΝΑΡΤΗΣΗΣ OΡΙΟ - ΣΥΝΕΧΕΙΑ ΣΥΝΑΡΤΗΣΗΣ ΠΡΑΓΜΑΤΙΚΟΙ ΑΡΙΘΜΟΙ ΣΥΝΑΡΤΗΣΕΙΣ Έστω Α ένα υποσύνολο του Τι ονομάζουμε πραγματική συνάρτηση με πεδίο ορισμού το Α ; Απάντηση : ΕΣΠ Β Έστω

Διαβάστε περισσότερα

3.1 ΔΕΙΓΜΑΤΙΚΟΙ ΧΩΡΟΙ ΕΝΔΕΧΟΜΕΝΑ

3.1 ΔΕΙΓΜΑΤΙΚΟΙ ΧΩΡΟΙ ΕΝΔΕΧΟΜΕΝΑ ΚΕΦΑΛΑΙΟ : ΠΙΘΑΝΟΤΗΤΕΣ. ΔΕΙΓΜΑΤΙΚΟΙ ΧΩΡΟΙ ΕΝΔΕΧΟΜΕΝΑ Αιτιοκρατικό πείραμα ονομάζουμε κάθε πείραμα για το οποίο, όταν ξέρουμε τις συνθήκες κάτω από τις οποίες πραγματοποιείται, μπορούμε να προβλέψουμε με

Διαβάστε περισσότερα

ΚΕΦΑΛΑΙΟ 4 ο : ΑΝΙΣΩΣΕΙΣ ΤΟ 2 Ο ΘΕΜΑ

ΚΕΦΑΛΑΙΟ 4 ο : ΑΝΙΣΩΣΕΙΣ ΤΟ 2 Ο ΘΕΜΑ ΚΕΦΑΛΑΙΟ 4 ο : ΑΝΙΣΩΣΕΙΣ ΤΟ 2 Ο ΘΕΜΑ Άσκηση 1 Δίνονται οι ανισώσεις: 3x και 2 x α) Να βρείτε τις λύσεις τους (Μονάδες 10) β) Να βρείτε το σύνολο των κοινών τους λύσεων (Μονάδες 15) α) Έχουμε 3x 2x x 2

Διαβάστε περισσότερα

Απλή Γραμμική Παλινδρόμηση και Συσχέτιση 19/5/2017

Απλή Γραμμική Παλινδρόμηση και Συσχέτιση 19/5/2017 Απλή Γραμμική Παλινδρόμηση και Συσχέτιση 2 Εισαγωγή Η ανάλυση παλινδρόμησης περιλαμβάνει το σύνολο των μεθόδων της στατιστικής που αναφέρονται σε ποσοτικές σχέσεις μεταξύ μεταβλητών Πρότυπα παλινδρόμησης

Διαβάστε περισσότερα

Γραφική Λύση & Πρότυπη Μορφή Μαθηματικού Μοντέλου

Γραφική Λύση & Πρότυπη Μορφή Μαθηματικού Μοντέλου ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ Επιχειρησιακή Έρευνα Γραφική Λύση & Πρότυπη Μορφή Μαθηματικού Μοντέλου Η παρουσίαση προετοιμάστηκε από τον Ν.Α. Παναγιώτου Περιεχόμενα Παρουσίασης 1. Προϋποθέσεις Εφαρμογής

Διαβάστε περισσότερα

Αριθμητική Ανάλυση και Εφαρμογές

Αριθμητική Ανάλυση και Εφαρμογές Αριθμητική Ανάλυση και Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 2017-2018 Παρεμβολή και Παρεκβολή Εισαγωγή Ορισμός 6.1 Αν έχουμε στη διάθεσή μας τιμές μιας συνάρτησης

Διαβάστε περισσότερα

f(t) = (1 t)a + tb. f(n) =

f(t) = (1 t)a + tb. f(n) = Παράρτημα Αʹ Αριθμήσιμα και υπεραριθμήσιμα σύνολα Αʹ1 Ισοπληθικά σύνολα Ορισμός Αʹ11 (ισοπληθικότητα) Εστω A, B δύο μη κενά σύνολα Τα A, B λέγονται ισοπληθικά αν υπάρχει μια συνάρτηση f : A B, η οποία

Διαβάστε περισσότερα

Λυμένες Ασκήσεις σε Εντροπία, Αμοιβαία Πληροφορία, Κωδικοποίηση Πηγής και AEP

Λυμένες Ασκήσεις σε Εντροπία, Αμοιβαία Πληροφορία, Κωδικοποίηση Πηγής και AEP 22Α004 (eclass EE728) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας Φυλλάδιο 2 Δ. Τουμπακάρης 7 Μαΐου 205 Λυμένες Ασκήσεις σε Εντροπία, Αμοιβαία Πληροφορία, Κωδικοποίηση Πηγής και AEP. Συναρτήσεις τυχαίων μεταβλητών

Διαβάστε περισσότερα

Αναγνώριση Προτύπων Ι

Αναγνώριση Προτύπων Ι Αναγνώριση Προτύπων Ι Ενότητα 3: Στοχαστικά Συστήματα Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες

Διαβάστε περισσότερα

ΚΕΦΑΛΑΙΟ 3 ΤΟ ΔΙΩΝΥΜΙΚΟ ΘΕΩΡΗΜΑ

ΚΕΦΑΛΑΙΟ 3 ΤΟ ΔΙΩΝΥΜΙΚΟ ΘΕΩΡΗΜΑ ΚΕΦΑΛΑΙΟ 3 ΤΟ ΔΙΩΝΥΜΙΚΟ ΘΕΩΡΗΜΑ Εισαγωγή Οι αριθμοί που εκφράζουν το πλήθος των στοιχείων ανά αποτελούν ίσως τους πιο σημαντικούς αριθμούς της Συνδυαστικής και καλούνται διωνυμικοί συντελεστές διότι εμφανίζονται

Διαβάστε περισσότερα

Αριθμητική Ανάλυση & Εφαρμογές

Αριθμητική Ανάλυση & Εφαρμογές Αριθμητική Ανάλυση & Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 2017-2018 Υπολογισμοί και Σφάλματα Παράσταση Πραγματικών Αριθμών Συστήματα Αριθμών Παράσταση Ακέραιου

Διαβάστε περισσότερα

Ξέρουμε ότι: Συνάρτηση-απεικόνιση με πεδίο ορισμού ένα σύνολο Α και πεδίο τιμών ένα σύνολο Β είναι κάθε μονοσήμαντη απεικόνιση f του Α στο Β.

Ξέρουμε ότι: Συνάρτηση-απεικόνιση με πεδίο ορισμού ένα σύνολο Α και πεδίο τιμών ένα σύνολο Β είναι κάθε μονοσήμαντη απεικόνιση f του Α στο Β. Η έννοια της ακολουθίας Ξέρουμε ότι: Συνάρτηση-απεικόνιση με πεδίο ορισμού ένα σύνολο Α και πεδίο τιμών ένα σύνολο Β είναι κάθε μονοσήμαντη απεικόνιση f του Α στο Β. Δηλαδή: f : A B Η ακολουθία είναι συνάρτηση.

Διαβάστε περισσότερα

Πίνακες Διασποράς. Χρησιμοποιούμε ένα πίνακα διασποράς T και μια συνάρτηση διασποράς h. Ένα στοιχείο με κλειδί k αποθηκεύεται στη θέση

Πίνακες Διασποράς. Χρησιμοποιούμε ένα πίνακα διασποράς T και μια συνάρτηση διασποράς h. Ένα στοιχείο με κλειδί k αποθηκεύεται στη θέση Πίνακες Διασποράς Χρησιμοποιούμε ένα πίνακα διασποράς T και μια συνάρτηση διασποράς h Ένα στοιχείο με κλειδί k αποθηκεύεται στη θέση κλειδί k T 0 1 2 3 4 5 6 7 U : χώρος πιθανών κλειδιών Τ : πίνακας μεγέθους

Διαβάστε περισσότερα

P (A B) = P (AB) P (B) P (A B) = P (A) P (A B) = P (A) P (B)

P (A B) = P (AB) P (B) P (A B) = P (A) P (A B) = P (A) P (B) Πιθανότητες και Αρχές Στατιστικής (4η Διάλεξη) Σωτήρης Νικολετσέας, καθηγητής Τμήμα Μηχανικών Η/Υ & Πληροφορικής, Πανεπιστήμιο Πατρών Ακαδημαϊκό Ετος 2017-2018 Σωτήρης Νικολετσέας, καθηγητής 1 / 39 Περιεχόμενα

Διαβάστε περισσότερα

Κεφάλαιο 5. Το Συμπτωτικό Πολυώνυμο

Κεφάλαιο 5. Το Συμπτωτικό Πολυώνυμο Κεφάλαιο 5. Το Συμπτωτικό Πολυώνυμο Σύνοψη Στο κεφάλαιο αυτό παρουσιάζεται η ιδέα του συμπτωτικού πολυωνύμου, του πολυωνύμου, δηλαδή, που είναι του μικρότερου δυνατού βαθμού και που, για συγκεκριμένες,

Διαβάστε περισσότερα

ΕΝΔΕΙΚΤΙΚΕΣ ΛΥΣΕΙΣ ΣΤΑ ΜΑΘΗΜΑΤΙΚΑ ΠΡΟΣΑΝΑΤΟΛΙΣΜΟΥ 2017

ΕΝΔΕΙΚΤΙΚΕΣ ΛΥΣΕΙΣ ΣΤΑ ΜΑΘΗΜΑΤΙΚΑ ΠΡΟΣΑΝΑΤΟΛΙΣΜΟΥ 2017 ΕΝΔΕΙΚΤΙΚΕΣ ΛΥΣΕΙΣ ΣΤΑ ΜΑΘΗΜΑΤΙΚΑ ΠΡΟΣΑΝΑΤΟΛΙΣΜΟΥ 7 ΘΕΜΑ Α A Έστω συνάρτηση f, η οποία είναι συνεχής σε ένα διάστημα Δ Αν f σε κάθε εσωτερικό σημείο του Δ, τότε να αποδείξετε ότι η f είναι γνησίως αύξουσα

Διαβάστε περισσότερα

Από το Γυμνάσιο στο Λύκειο Δειγματικός χώρος Ενδεχόμενα Εύρεση δειγματικού χώρου... 46

Από το Γυμνάσιο στο Λύκειο Δειγματικός χώρος Ενδεχόμενα Εύρεση δειγματικού χώρου... 46 ΠEΡΙΕΧΟΜΕΝΑ Από το Γυμνάσιο στο Λύκειο................................................ 7 1. Το Λεξιλόγιο της Λογικής.............................................. 11 2. Σύνολα..............................................................

Διαβάστε περισσότερα

8. Πολλαπλές μερικές παράγωγοι

8. Πολλαπλές μερικές παράγωγοι 94 8 Πολλαπλές μερικές παράγωγοι Οι μερικές παράγωγοι,,, αν υπάρχουν, μιας συνάρτησης : U R R ( U ανοικτό είναι αυτές συναρτήσεις από το U στο R, επομένως μπορεί να ορισθεί για αυτές η έννοια της μερικής

Διαβάστε περισσότερα

n ίδια n διαφορετικά n n 0 n n n 1 n n n n 0 4

n ίδια n διαφορετικά n n 0 n n n 1 n n n n 0 4 Διακριτά Μαθηματικά Ι Επαναληπτικό Μάθημα 1 Συνδυαστική 2 Μεταξύ 2n αντικειμένων, τα n είναι ίδια. Βρείτε τον αριθμό των επιλογών n αντικειμένων από αυτά τα 2n αντικείμενα. Μεταξύ 3n + 1 αντικειμένων τα

Διαβάστε περισσότερα

Μαθηματική Εισαγωγή Συναρτήσεις

Μαθηματική Εισαγωγή Συναρτήσεις Φυσικός Ραδιοηλεκτρολόγος (MSc) ο Γενικό Λύκειο Καστοριάς A. Μαθηματική Εισαγωγή Πράξεις με αριθμούς σε εκθετική μορφή Επίλυση βασικών μορφών εξισώσεων Συναρτήσεις Στοιχεία τριγωνομετρίας Διανύσματα Καστοριά,

Διαβάστε περισσότερα

Μαθηματικά. Ενότητα 2: Διαφορικός Λογισμός. Σαριαννίδης Νικόλαος Τμήμα Διοίκησης Επιχειρήσεων (Κοζάνη)

Μαθηματικά. Ενότητα 2: Διαφορικός Λογισμός. Σαριαννίδης Νικόλαος Τμήμα Διοίκησης Επιχειρήσεων (Κοζάνη) Μαθηματικά Ενότητα 2: Διαφορικός Λογισμός Σαριαννίδης Νικόλαος Τμήμα Διοίκησης Επιχειρήσεων (Κοζάνη) Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό

Διαβάστε περισσότερα

Θεωρία Παιγνίων και Αποφάσεων. Ενότητα 5: Εύρεση σημείων ισορροπίας σε παίγνια μηδενικού αθροίσματος. Ε. Μαρκάκης. Επικ. Καθηγητής

Θεωρία Παιγνίων και Αποφάσεων. Ενότητα 5: Εύρεση σημείων ισορροπίας σε παίγνια μηδενικού αθροίσματος. Ε. Μαρκάκης. Επικ. Καθηγητής Θεωρία Παιγνίων και Αποφάσεων Ενότητα 5: Εύρεση σημείων ισορροπίας σε παίγνια μηδενικού αθροίσματος Ε. Μαρκάκης Επικ. Καθηγητής Περίληψη Παίγνια μηδενικού αθροίσματος PessimisIc play Αμιγείς max-min και

Διαβάστε περισσότερα

0x2 = 2. = = δηλαδή η f δεν. = 2. Άρα η συνάρτηση f δεν είναι συνεχής στο [0,3]. Συνεπώς δεν. x 2. lim f (x) = lim (2x 1) = 3 και x 2 x 2

0x2 = 2. = = δηλαδή η f δεν. = 2. Άρα η συνάρτηση f δεν είναι συνεχής στο [0,3]. Συνεπώς δεν. x 2. lim f (x) = lim (2x 1) = 3 και x 2 x 2 ΚΕΦΑΛΑΙΟ ο: ΣΥΝΑΡΤΗΣΕΙΣ - ΟΡΙΟ - ΣΥΝΕΧΕΙΑ ΣΥΝΑΡΤΗΣΗΣ ΕΝΟΤΗΤΑ 8: ΘΕΩΡΗΜΑ BOLZANO - ΠΡΟΣΗΜΟ ΣΥΝΑΡΤΗΣΗΣ - ΘΕΩΡΗΜΑ ΕΝΔΙΑΜΕΣΩΝ ΤΙΜΩΝ - ΘΕΩΡΗΜΑ ΜΕΓΙΣΤΗΣ ΚΑΙ ΕΛΑΧΙΣΤΗΣ ΤΙΜΗΣ - ΣΥΝΟΛΟ ΤΙΜΩΝ ΣΥΝΕΧΟΥΣ ΣΥΝΑΡΤΗΣΗΣ

Διαβάστε περισσότερα

Δίαυλος Πληροφορίας. Δρ. Α. Πολίτης

Δίαυλος Πληροφορίας. Δρ. Α. Πολίτης Δίαυλος Πληροφορίας Η λειτουργία του διαύλου πληροφορίας περιγράφεται από: Τον πίνακα διαύλου μαθηματική περιγραφή. Το διάγραμμα διάυλου παραστατικός τρόπος περιγραφής. Πίνακας Διαύλου Κατασκευάζεται με

Διαβάστε περισσότερα