HMY 795: Αναγνώριση Προτύπων



Σχετικά έγγραφα
HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

HMY 795: Αναγνώριση Προτύπων. Διάλεξη 2

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων

ΣΤΟΧΑΣΤΙΚΑ ΣΥΣΤΗΜΑΤΑ & ΕΠΙΚΟΙΝΩΝΙΕΣ 1o Τμήμα (Α - Κ): Αμφιθέατρο 3, Νέα Κτίρια ΣΗΜΜΥ Θεωρία Πιθανοτήτων & Στοχαστικές Ανελίξεις - 1

HMY 795: Αναγνώριση Προτύπων

ΘΕΩΡΙΑ ΑΠΟΦΑΣΕΩΝ 3 ο ΦΡΟΝΤΙΣΤΗΡΙΟ ΛΥΣΕΙΣ ΤΩΝ ΑΣΚΗΣΕΩΝ

07/11/2016. Στατιστική Ι. 6 η Διάλεξη (Βασικές διακριτές κατανομές)

ΕΚΤΙΜΙΣΗ ΜΕΓΙΣΤΗΣ ΠΙΘΑΝΟΦΑΝΕΙΑΣ

Ψηφιακές Τηλεπικοινωνίες. Βέλτιστος Δέκτης

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Θεωρία Λήψης Αποφάσεων

Μπεϋζιανή Στατιστική και MCMC Μέρος 2 ο : MCMC

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 9-10

3. Κατανομές πιθανότητας

HMY 795: Αναγνώριση Προτύπων

Μέθοδος μέγιστης πιθανοφάνειας

Εκτιμητές Μεγίστης Πιθανοφάνειας (Maximum Likelihood Estimators MLE)

Αναγνώριση Προτύπων. Baysian Θεωρία Αποφάσεων ΕΠΙΣΚΟΠΗΣΗ-ΑΣΚΗΣΕΙΣ

HMY 795: Αναγνώριση Προτύπων

Στατιστική. Εκτιμητική

Ασκήσεις μελέτης της 16 ης διάλεξης

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

Αναγνώριση Προτύπων (Pattern Recognition) Μπεϋζιανή Θεωρία Αποφάσεων (Bayesian Decision Theory) Π. Τσακαλίδης

Στατιστική Επιχειρήσεων Ι. Βασικές διακριτές κατανομές

ΜΗ ΓΡΑΜΜΙΚΗ ΠΑΛΙΝΔΡΟΜΙΣΗ

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

HMY 429: Εισαγωγή στην Επεξεργασία Ψηφιακών. Χρόνου (Ι)

Πιθανολογική Ανάλυση Αποφάσεων. Συστήματα Αποφάσεων Εργαστήριο Συστημάτων Αποφάσεων και Διοίκησης

Εφαρμοσμένη Στατιστική

Στατιστική Συμπερασματολογία

ΕΦΑΡΜΟΣΜΕΝΗ ΣΤΑΤΙΣΤΙΚΗ Ι Συμπληρωματικές Σημειώσεις Δημήτριος Παντελής

Τυχαία Διανύσματα και Ανεξαρτησία

Διάλεξη 1: Στατιστική Συμπερασματολογία - Εκτίμηση Σημείου

Μπεϋζιανή Στατιστική και MCMC Μέρος 2 ο : MCMC

Στατιστική λήψη αποφάσεων

HMY 795: Αναγνώριση Προτύπων

Στατιστική Συμπερασματολογία

ΤΥΧΑΙΟΙ ΑΡΙΘΜΟΙ - ΠΡΟΣΟΜΟΙΩΣΗ

Μέθοδος μέγιστης πιθανοφάνειας

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΕΝΤΥΠΟ ΘΕΜΑΤΩΝ ΕΞΕΤΑΣΕΩΝ

Bayesian statistics. DS GA 1002 Probability and Statistics for Data Science.

Στατιστική Συμπερασματολογία

ΠΕΡΙΕΧΟΜΕΝΑ ΜΕΡΟΣ ΠΡΩΤΟ: ΠΙΘΑΝΟΤΗΤΕΣ 11 ΚΕΦΑΛΑΙΟ 1 ΒΑΣΙΚΕΣ ΕΝΝΟΙΕΣ ΠΙΘΑΝΟΤΗΤΑΣ 13

Πιθανότητες & Τυχαία Σήματα. Διγαλάκης Βασίλης

ΤΜΗΜΑ ΣΤΑΤΙΣΤΙΚΗΣ ΚΑΙ ΑΣΦΑΛΙΣΤΙΚΗΣ ΕΠΙΣΤΗΜΗΣ Π

pdf: X = 0, 1 - p = q E(X) = 1 p + 0 (1 p) = p V ar(x) = E[(X µ) 2 ] = (1 p) 2 p + (0 p) 2 (1 p) = p (1 p) [1 p + p] = p (1 p) = p q

είναι πρόβλημα μεγιστοποίησης όλοι οι περιορισμοί είναι εξισώσεις με μη αρνητικούς του σταθερούς όρους όλες οι μεταβλητές είναι μη αρνητικές

ΣΤΑΤΙΣΤΙΚΗ ΕΠΙΧΕΙΡΗΣΕΩΝ

Θεωρητικές Κατανομές Πιθανότητας

Εισαγωγή Η Θεωρία Πιθανοτήτων παίζει μεγάλο ρόλο στη μοντελοποίηση και μελέτη συστημάτων των οποίων δεν μπορούμε να προβλέψουμε ή να παρατηρήσουμε την

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 13-14

HMY 799 1: Αναγνώριση Συστημάτων

Τ Ε Ι Ιονίων Νήσων Τμήμα Εφαρμογών Πληροφορικής στη Διοίκηση και την Οικονομία. Υπεύθυνος: Δρ. Κολιός Σταύρος

ΑΝΑΛΥΣΗ ΔΙΑΚΥΜΑΝΣΗΣ. Επικ. Καθ. Στέλιος Ζήμερας. Τμήμα Μαθηματικών Κατεύθυνση Στατιστικής και Αναλογιστικά Χρηματοοικονομικά Μαθηματικά

X = συνεχης. Είναι εμφανές ότι αναγκαία προϋπόθεση για την ύπαρξη της ροπογεννήτριας

ΠΕΡΙΕΧΟΜΕΝΑ ΚΕΦΑΛΑΙΟ 3 ΔΕΣΜΕΥΜΕΝΗ ΠΙΘΑΝΟΤΗΤΑ, ΟΛΙΚΗ ΠΙΘΑΝΟΤΗΤΑ ΘΕΩΡΗΜΑ BAYES, ΑΝΕΞΑΡΤΗΣΙΑ ΚΑΙ ΣΥΝΑΦΕΙΣ ΕΝΝΟΙΕΣ 71

X = = 81 9 = 9

Αναγνώριση Προτύπων Ι

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

pdf: X = 0, 1 - p = q E(X) = 1 p + 0 (1 p) = p V ar(x) = E[(X µ) 2 ] = (1 p) 2 p + (0 p) 2 (1 p) = p (1 p) [1 p + p] = p (1 p) = p q

Λήψη αποφάσεων κατά Bayes

Κεφάλαιο 1. Εισαγωγή: Βασικά Στοιχεία Θεωρίας Πιθανοτήτων και Εκτιμητικής

Στατιστική Επιχειρήσεων Ι

3 η ΕΝΟΤΗΤΑ ΜΗ ΓΡΑΜΜΙΚΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ ΕΝΟΣ ΚΡΙΤΗΡΙΟΥ

P(200 X 232) = =

Κεφάλαιο 2: Θεωρία Απόφασης του Bayes 2.1 Εισαγωγή

ΣΤΑΤΙΣΤΙΚΕΣ ΕΝΝΟΙΕΣ. Στατιστική????? Κάθε μέρα ερχόμαστε σε επαφή 24/02/2018

Βασίλειος Μαχαιράς Πολιτικός Μηχανικός Ph.D.

Άσκηση 1: Λύση: Για το άθροισμα ισχύει: κι επειδή οι μέσες τιμές των Χ και Υ είναι 0: Έτσι η διασπορά της Ζ=Χ+Υ είναι:

ΦΡΟΝΤΙΣΤΗΡΙΑ 7 ΚΑΙ 8

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

2.6 ΟΡΙΑ ΑΝΟΧΗΣ. πληθυσµού µε πιθανότητα τουλάχιστον ίση µε 100(1 α)%. Το. X ονοµάζεται κάτω όριο ανοχής ενώ το πάνω όριο ανοχής.

1 x-μ - 2 σ. e σ 2π. f(x) =

Αιτιολόγηση με αβεβαιότητα

2.2 ΓΕΝΙΚΗ ΜΟΡΦΗ ΕΞΙΣΩΣΗΣ ΕΥΘΕΙΑΣ

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΣΤΑΤΙΣΤΙΚΗ ΤΩΝ ΕΠΙΧΕΙΡΗΣΕΩΝ. Κεφάλαιο 8. Συνεχείς Κατανομές Πιθανοτήτων

Θεωρία Πιθανοτήτων & Στατιστική

ΤΜΗΜΑ ΣΤΑΤΙΣΤΙΚΗΣ ΚΑΙ ΑΣΦΑΛΙΣΤΙΚΗΣ ΕΠΙΣΤΗΜΗΣ Π

Ανασκόπηση θεωρίας ελαχίστων τετραγώνων και βέλτιστης εκτίμησης παραμέτρων

Στατιστική. Ενότητα 4 η : Θεωρητικές Κατανομές Πιθανότητας Διακριτής και Συνεχούς Τυχαίας Μεταβλητής. Γεώργιος Ζιούτας Τμήμα Χημικών Μηχανικών Α.Π.Θ.

ΦΡΟΝΤΙΣΤΗΡΙΟ 11. β) τον εκτιμητή μέγιστης πιθανοφάνειας για την άγνωστη παράμετρο λ 0.

Ανασκόπηση θεωρίας ελαχίστων τετραγώνων και βέλτιστης εκτίμησης παραμέτρων

Μέρος II. Στατιστική Συμπερασματολογία (Inferential Statistics)

ΣΤΑΤΙΣΤΙΚΗ ΕΠΙΧΕΙΡΗΣΕΩΝ ΕΙΔΙΚΑ ΘΕΜΑΤΑ. Κεφάλαιο 10. Εισαγωγή στην εκτιμητική

Μέρος V. Ανάλυση Παλινδρόμηση (Regression Analysis)

Θεωρία Πιθανοτήτων & Στατιστική

Τεχνικές Εκτίμησης Υπολογιστικών Συστημάτων Ενότητα 7: Η επιλογή των πιθανοτικών κατανομών εισόδου

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΣΤΑΤΙΣΤΙΚΗ ΤΩΝ ΕΠΙΧΕΙΡΗΣΕΩΝ. Κεφάλαιο 8. Συνεχείς Κατανομές Πιθανοτήτων Η Κανονική Κατανομή

Transcript:

HMY 795: Αναγνώριση Προτύπων Διάλεξη 5 Κατανομές πιθανότητας και εκτίμηση παραμέτρων δυαδικές τυχαίες μεταβλητές

Bayesian decision Minimum misclassificaxon rate decision: διαλέγουμε την κατηγορία Ck για την οποία η εκ των υστέρων (posterior) πιθανότητα p(ck x) είναι μέγιστη. Ελαχιστοποίηση ρίσκου Συνολικό ρίσκο Likelihood raxo επιλέγουμε C1 αν

Διαχωριστικές συναρτήσεις Ταξινόμηση κανονικών μεταβλητών Διαχωριστικές συναρτήσεις (discriminant funcxons) g i (x) (i=1,2, c) g i (x) > g j (x) j i Για Περίπτωση 1: Γραμμικός ταξινομητής, σύνορο κάθετο στη διάνυσμα διαφοράς μεταξύ μέσων τιμών Ισες a priori: Minimum Euclidean distance classifier Περίπτωση 2: Γραμμικός ταξινομητής Ισες a priori: Minimum Mahalanobis distance classifier

Διαχωριστικές συναρτήσεις Ταξινόμηση κανονικών μεταβλητών Περίπτωση 3: Τετραγωνικός ταξινομητής

Κατανομές πιθανότητας και αναγνώριση προτύπων Θεωρία πιθανοτήτων: κεντρικός ρόλος σε προβλήματα αναγνώρισης προτύπων Είδαμε ότι αν γνωρίζουμε τις εκ των προτέρων πιθανότητες p(c i ) και τις υπό συνθήκη πιθανότητες (πιθανοφάνειες) p(x C i ) μπορούμε να σχεδιάσουμε βέλτιστους ταξινομητές Σπάνια έχουμε αυτή την πληροφορία οπότε χρησιμοποιούμε τις παρατηρήσεις μας για εκτίμηση αυτών των συναρτήσεων πιθανότητας, τις οποίες μπορούμε στη συνέχεια να χρησιμοποιήσουμε τους στο σχεδιασμό κανόνων ταξινόμησης Για προβλήματα επιβλεπόμενης μάθησης οι a priori πιθανότητες p(c i ) είναι σχετικά απλό να προσδιοριστούν Πως μπορούμε να εκτιμήσουμε τις πιθανότητες p(x C i )?

Κατανομές πιθανότητας και αναγνώριση προτύπων Γενικά, το πρόβλημα της μοντελοποίησης της κατανομής της συνάρτησης πυκνότητας πιθανότητας (pdf) ενός τυχαίου διανύσματος x με βάση κάποιες παρατηρήσεις, δηλ. του p(x) με βάση ένα σύνολο παρατηρήσεων x 1, x 2,, x N είναι βασικό στη στατιστική και βρίσκει πολλές εφαρμογές Το πρόβλημα αυτό ονομάζεται εκτίμηση πυκνότητας (density esxmaxon) Υπάρχουν δύο γενικοί τρόποι επίλυσης του προβλήματος Υποθέτουμε ότι τα δεδομένα μας ακολουθούν συγκεκριμένη κατανομή π.χ. Ν (μ,σ 2 ) δηλ. με άλλα λόγια παραμετροποιούμε το πρόβλημα - και υπολογίζουμε τις παραμέτρους που χαρακτηρίζουν την κατανομή (parameter esxmaxon frequenxst (ML MAP) /Bayesian) αντί για την συνάρτηση p(x) Δεν υποθέτουμε συγκεκριμένη μορφή για την πυκνότητα πιθανότητας και υπολογίζουμε απευθείας τη συνάρτηση p(x) nonparametric density esxmaxon (histogram based, nearest neighbor algorithms κλπ)

Για δυαδικές τυχαίες μεταβλητές: Κατανομή Bernoulli Κατανομή Bernoulli Η κατανομή αυτή χαρακτηρίζεται πλήρως από μια παράμετρο (μ). Πως μπορούμε να την υπολογίσουμε από παρατηρήσεις? Εστω: Αν οι παρατηρήσεις είναι ανεξάρτητες η πιθανοφάνεια (likelihood) είναι: Log- likelihood

Κατανομή Bernoulli Αρα η εκτίμηση μέγιστης πιθανοφάνειας για το μ είναι: Γενικά βλέπουμε ότι το log- likelihood εξαρτάται μόνο από την ποσότητα - > επαρκής στατιστική παράμετρος (sufficient staxsxc) Προβλήματα με την εκτίμηση ML. Ας υποθέσουμε ότι το δείγμα μας είναι {1,1,1}. Η εκτίμησή μας θα είναι μ ML =1! Λύση: Χρήση a priori πιθανότητας για το μ, Μπεϋζιανή εκτίμηση

Διωνυμική κατανομή (Binomial distribuxon) Ποια είναι η πιθανότητα του αριθμού των παρατηρήσεων x=1 σε Ν παρατηρήσεις? Διωνυμική κατανομή: =

Μπεϋζιανή εκτίμηση της κατανομής Bernoulli Χρειαζόμαστε a priori κατανομή για το μ, δηλ το p(µ) Παρατηρούμε ότι η πιθανοφάνεια είναι ανάλογη των όρων µ x (1-µ) 1-x Εφόσον η εκ των υστέρων πιθανότητα είναι ανάλογη της εκ των προτέρων και της πιθανοφάνειας, δηλ. μια συνηθισμένη προσέγγιση στην Μπεϋζιανή εκτίμηση είναι η επιλογή μιας εκ των προτέρων πιθανότητας της ίδιας μορφής με την πιθανοφάνεια Οι a priori πιθανότητες αυτής της μορφής λέγονται συζυγείς (conjugate priors). Στην περίπτωσή μας, η κατανομή βήτα (beta distribuxon) πληροί αυτή την προϋπόθεση. Ορίζεται ως (για 0 µ 1): a, b: shape parameters, hyperparameters

Μπεϋζιανή εκτίμηση της κατανομής Bernoulli a,b: hyperparameters Γ(α): gamma funcxon, αν α θετικός ακέραιος: Γ(α)=(α-1)! Aν α πραγματικός: a>1, b>1: mode (μέγιστο) στο a<1, b<1: anx- mode (ελάχιστο) στο ίδιο σημείο a=b: mode, anx- mode στο κέντρο (0.5)

Μπεϋζιανή εκτίμηση της κατανομής Bernoulli Εκ των υστέρων κατανομή για το μ: = m heads, N-m tails Στην ουσία έχουμε ενημέρωση της a priori πιθανότητας με τις m παρατηρήσεις x=1 και Ν-m παρατηρήσεις x=0

Μπεϋζιανή εκτίμηση της κατανομής Bernoulli Π.χ. αν έρθει μια παρατήρηση x=1: a=a+1, αν έρθει x=0: b=b+1 SequenXal learning (σειριακή μάθηση): συνέπεια της Μπεϋζιανής προσέγγισης και της υπόθεσης ανεξάρτητων και όμοια κατανεμημένων παρατηρήσεων (independent and idenxcally distributed i.i.d.) Οσο αυξάνει το Ν:

Μπεϋζιανή εκτίμηση της κατανομής Bernoulli Πως μπορούμε να προβλέψουμε το αποτέλεσμα της επόμενης δοκιμής (προγνωστική κατανομή - predicxve distribuxon)? Περιθωριακή κατανομή ολοκληρώνουμε ως προς μ Αρα η πρόγνωση εξαρτάται από το λόγο παρατηρήσεων x=1 προς τις παρατηρήσεις x=0. Για Ν η παραπάνω συγκλίνει στην εκτίμηση ML Συχνά οι εκτιμήσεις Bayes και ML συμφωνούν στο όριο Οσο αυξάνει ο αριθμός των παρατηρήσεων, η εκ των υστέρων κατανομή γίνεται πιο οξεία (Bayesian learning)

Πολυωνυμικές τυχαίες μεταβλητές (MulXnomial random variables) Εστω ότι έχουμε μια τ.μ. που μπορεί να λάβει μια από Κ πιθανές αμοιβαία αποκλειστικές καταστάσεις Ενας τρόπος αναπαράστασης: διάνυσμα Kx1 π.χ. {0 0 1 0 0} T Γενίκευση της Bernoulli. Αν τότε:

Εκτίμηση ML Δεδομένων των παρατηρήσεων θέλουμε να εκτιμήσουμε τις παραμέτρους µ k Πιθανοφάνεια (ανεξάρτητες παρατηρήσεις): όπου ο αριθμός των 1 στη θέση k (επαρκής στατιστική παράμετρος) Μεγιστοποίηση της πιθανοφάνειας ως προς µ k υπό τη συνθήκη : πρόβλημα βελτιστοποίησης υπό συνθήκη - Lagrange mulxpliers Θέτουμε την παράγωγο ως προς µ k ίση με μηδέν:

Πολυωνυμική κατανομή Πρέπει όμως άρα λ=-ν και (κλάσμα των παρατηρήσεων για τις οποίες x k =1 Παρόμοια με τη διωνυμική, μπορούμε να ορίσουμε την πολυωνυμική κατανομή (mulxnomial distribuxon):

Bayesian esxmaxon mulxnomial distribuxon Η συζυγής κατανομή για το (διάνυσμα) µ σε αυτή την περίπτωση είναι της μορφής: Η κανονικοποιημένη μορφή της παραπάνω είναι η κατανομή Dirichlet Οι τιμές του διανύσματος μ βρίσκονται σε ένα simplex διαστάσεων Κ- 1

Dirichlet distribuxon α = (6,2,2) α = (3,7,5) α = (6,2,6) α = (2,3,4).

Bayesian esxmaxon mulxnomial distribuxon Για να υπολογίσουμε την εκ των υστέρων κατανομή του μ η οποία είναι επίσης κατανομή Dirichlet με παραμέτρους (α k +m k ) ή ισοδύναμα (α+µ) Οπως και στην περίπτωση της διωνυμικής, οι παράμετροι α k μπορούν να ερμηνευθούν ως οι ισοδύναμες «παρατηρήσεις» x k =1 στην εκ των προτέρων κατανομή