Αποτίμηση Μοντέλου. Ταξινόμηση III. Μέτρα Εκτίμησης. Μέτρα Εκτίμησης. Πιστότητα - Accuracy. Αποτίμηση Μοντέλου. Αποτίμηση Μοντέλου

Σχετικά έγγραφα
Κατηγοριοποίηση ΙΙI. Κατηγοριοποιητές Κανόνων. Εξόρυξη Δεδομένων Εξόρυξη Δεδομένων: Ακ. Έτος ΚΑΤΗΓΟΡΙΟΠΟΙΗΣΗ II 1

Κατηγοριοποίηση (classification) Το γενικό πρόβλημα της ανάθεσης ενός αντικειμένου σε μία ή περισσότερες προκαθορισμένες κατηγορίες (κλάσεις)

Ταξινόμηση ΙI. Σύντομη Επανάληψη. Εισαγωγή Κατασκευή έντρου Απόφασης. Εξόρυξη Δεδομένων

LOGO. Εξόρυξη Δεδομένων. Δειγματοληψία. Πίνακες συνάφειας. Καμπύλες ROC και AUC. Σύγκριση Μεθόδων Εξόρυξης

Αποθήκες εδομένων και Εξόρυξη εδομένων:

Αποθήκες Δεδομένων και Εξόρυξη Δεδομένων

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. Κατηγοριοποίηση. Αριστείδης Γ. Βραχάτης, Dipl-Ing, M.Sc, PhD

Υπερπροσαρμογή (Overfitting) (1)

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΑΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ

Ταξινόμηση. Εισαγωγή. Ορισμός. Ορισμός. Τεχνικές Ταξινόμησης. Εισαγωγή

Συσταδοποίηση Ι. Τι είναι συσταδοποίηση. Εφαρμογές. Εφαρμογές. Εισαγωγή Θέματα που θα μας απασχολήσουν σήμερα. Πότε μια συσταδοποίηση είναι καλή;

Εξόρυξη Γνώσης από Βιολογικά εδομένα

Οι διαφάνειες στηρίζονται στο P.-N. Tan, M.Steinbach, V. Kumar, «Introduction to Data Mining», Addison Wesley, 2006

Lecture Notes for Chapter 5

ΔΙΑΧΕΙΡΙΣΗ ΠΕΡΙΕΧΟΜΕΝΟΥ ΠΑΓΚΟΣΜΙΟΥ ΙΣΤΟΥ ΚΑΙ ΓΛΩΣΣΙΚΑ ΕΡΓΑΛΕΙΑ. Data Mining - Classification

Συνδυασμός Ταξινομητών χρησιμοποιώντας Μήτρες Αποφάσεων (Decision Templates) με εφαρμογή στην Ταξινόμηση Καρκινικών Δεδομένων ΔΙΠΛΩΜΑΤΙΚΗ ΕΡΓΑΣΙΑ

Εισαγωγή στην Εκτιμητική

Πληρουορική Γ Γσμμασίοσ

Κατηγοριοποίηση. 3 ο Φροντιστήριο. Ε Ξ Ό Ρ Υ Ξ Η Δ Ε Δ Ο Μ Έ Ν Ω Ν Κ Α Ι Α Λ Γ Ό Ρ Ι Θ Μ Ο Ι Μ Ά Θ Η Σ Η ς. Σκούρα Αγγελική

Η ΙΣΧΥΣ ΕΝΟΣ ΕΛΕΓΧΟΥ. (Power of a Test) ΚΕΦΑΛΑΙΟ 21

University of Cyprus Optical Diagnostics Laboratory. ΗΜΥ 370 Εισαγωγή στη Βιοϊατρική Μηχανική. Κλινικές Μελέτες και Βιοστατιστική

Οι διαφάνειες στηρίζονται στο P.-N. Tan, M.Steinbach, V. Kumar, «Introduction to Data Mining», Addison Wesley, 2006

Ευφυής Προγραμματισμός

ΠΡΟΓΝΩΣΤΙΚA ΣΥΣTHΜΑΤΑ

Σ ΤΑΤ Ι Σ Τ Ι Κ Η ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Αναγνώριση Προτύπων Εργασία 1η Classification

ΣΤΟΧΑΣΤΙΚΑ ΣΥΣΤΗΜΑΤΑ & ΕΠΙΚΟΙΝΩΝΙΕΣ 1o Τμήμα (Α - Κ): Αμφιθέατρο 3, Νέα Κτίρια ΣΗΜΜΥ Θεωρία Πιθανοτήτων & Στοχαστικές Ανελίξεις - 1

Ταξινόμηση I. Εισαγωγή. Ορισμός. Ορισμός. Τεχνικές Ταξινόμησης. Εισαγωγή

Διδάσκουσα: Χάλκου Χαρά,

Αποθήκες Δεδομένων και Εξόρυξη Δεδομένων:

Μηχανική Μάθηση Hypothesis Testing

Σ ΤΑΤ Ι Σ Τ Ι Κ Η. Statisticum collegium iv

Κατηγοριοποίηση βάσει διανύσματος χαρακτηριστικών

ΑΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ (Data Mining) Πανδή Αθηνά

1.α ιαγνωστικοί Έλεγχοι. 2.α Ευαισθησία και Ειδικότητα (εισαγωγικές έννοιες) ΒΙΟΣΤΑΤΙΣΤΙΚΗ ΙΙ. Πολύ σηµαντικό το θεώρηµα του Bayes:

Χαλκίδης Νέστωρας, Τσαγιοπούλου Μαρία, Παπακωνσταντίνου Νίκος, Μωυσιάδης Θεόδωρος. Αριστοτέλειο Πανεπιστήμιο Θεσσαλονίκης 2016

Δέντρα Απόφασης (Decision(

Ταξινόμηση II Σύντομη Ανακεφαλαίωση

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Αποθήκες και Εξόρυξη Δεδομένων

ΔΙΑΧΩΡΙΣΜΟΣ ΚΑΙ ΤΑΞΙΝΟΜΗΣΗ ΚΡΗΤΙΚΟΥ ΚΑΤΕΡΙΝΑ NΙΚΑΚΗ ΚΑΤΕΡΙΝΑ NΙΚΟΛΑΪΔΟΥ ΧΡΥΣΑ

ΔΠΜΣ: ΕΦΑΡΜΟΣΜΕΝΕΣ ΜΑΘΗΜΑΤΙΚΕΣ ΕΠΙΣΤΗΜΕΣ ΡΟΗ: ΣΤΑΤΙΣΤΙΚΗ-ΠΙΘΑΝΟΤΗΤΕΣ ΜΑΘΗΜΑ: ΑΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ ΤΕΛΙΚΗ ΕΡΓΑΣΙΑ ΔΗΜΗΤΡΑ ΤΑΤΣΙΟΥ

Αποθήκες Δεδομένων και Εξόρυξη Δεδομένων:

ΣΤΑΤΙΣΤΙΚΗ ΕΠΙΧΕΙΡΗΣΕΩΝ ΕΙΔΙΚΑ ΘΕΜΑΤΑ. Κεφάλαιο 10. Εισαγωγή στην εκτιμητική

Διάλεξη 1 Βασικές έννοιες

Αποθήκες εδομένων και Εξόρυξη εδομένων:

Ανάκτηση Πληροφορίας

Βιοστατιστική Ι. Δείκτες αξιολόγησης διαγνωστικών μεθόδων Θετική-Αρνητική Διαγνωστική Αξία ROC καμπύλες

Predicting the Choice of Contraceptive Method using Classification

ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ ΣΧΟΛΗ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ ΚΑΙ ΦΥΣΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΠΛΗΡΟΦΟΡΙΑΣ ΠΑΡΟΥΣΙΑΣΗ ΤΕΛΙΚΗΣ ΕΡΓΑΣΙΑΣ ΛΙΝΑ ΜΑΣΣΟΥ

Δειγματοληψία στην εκπαιδευτική έρευνα. Είδη δειγματοληψίας

Ταξινόμηση. Lecture Notes for Chapter 4. Introduction to Data Mining. by Tan, Steinbach, Kumar

Αποθήκες και Εξόρυξη Δεδομένων

Εξόρυξη Δεδομένων Κατηγοριοποίηση

Αναγνώριση Προτύπων. Μη παραμετρικές τεχνικές Αριθμητικά. (Non Parametric Techniques)

Math 6 SL Probability Distributions Practice Test Mark Scheme

ΕΙΣΑΓΩΓΗ ΣΤΗ ΣΤΑΤΙΣΤΙΚΗ ΑΝΑΛΥΣΗ

ΔΠΜΣ: ΕΦΑΡΜΟΣΜΕΝΕΣ ΜΑΘΗΜΑΤΙΚΕΣ ΕΠΙΣΤΗΜΕΣ ΑΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ ΤΕΛΙΚΗ ΕΡΓΑΣΙΑ

Μέθοδοι εκμάθησης ταξινομητών από θετικά παραδείγματα με αριθμητικά χαρακτηριστικά. Νικόλαος Α. Τρογκάνης Διπλωματική Εργασία

HMY 795: Αναγνώριση Προτύπων

Πρόλογος... xv. Κεφάλαιο 1. Εισαγωγικές Έννοιες... 1

Αποθήκες Δεδομένων και Εξόρυξη Δεδομένων

ΓΛΩΣΣΙΚΗ ΤΕΧΝΟΛΟΓΙΑ. Μάθημα 2 ο : Βασικές έννοιες. Γεώργιος Πετάσης. Ακαδημαϊκό Έτος:

Θέματα Στατιστικής στη γλώσσα R

Ευφυής Προγραμματισμός

Επιλογή παραμέτρων και χαρακτηριστικών ταξινομητή με χρήση της καμπύλης λειτουργίας δείκτη (ROC Curve)

Δημιουργία και ανάλυση προφίλ επενδυτών σε ασφαλιστικά προϊόντα με χρήση εργαλείων Εξόρυξης Γνώσης

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή

HMY 795: Αναγνώριση Προτύπων

1η εργασία για το μάθημα «Αναγνώριση προτύπων»

ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΡΗΤΗΣ. Μηχανική μάθηση. Ενότητα 7: Metrics of Performance. Ιωάννης Τσαμαρδίνος Τμήμα Επιστήμης Υπολογιστών

Π ΤΥΧΙΑΚΗ/ Δ ΙΠΛΩΜΑΤΙΚΗ Ε ΡΓΑΣΙΑ

Κατηγοριοποίηση. Εξόρυξη Δεδομένων και Αλγόριθμοι Μάθησης. 2 ο Φροντιστήριο. Σκούρα Αγγελική

ΑΝΔΡΟΥΛΑΚΗΣ ΜΑΝΟΣ A.M AΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ

ΕΠΑΛΗΘΕΥΣΗ (VERIFICATION) ΚΑΙ ΕΓΚΥΡΟΠΟΙΗΣΗ (VALIDATION) ΒΚ

Διπλωματική Εργασία: «Συγκριτική Μελέτη Μηχανισμών Εκτίμησης Ελλιπούς Πληροφορίας σε Ασύρματα Δίκτυα Αισθητήρων»

HMY 795: Αναγνώριση Προτύπων

ΠΕΡΙΓΡΑΦΙΚΗ ΣΤΑΤΙΣΤΙΚΗ Ι Κ. Μ. 436

ΗΜΕΡΟΜΗΝΙΑ: 25/05/2009 TΕΛΙΚΗ ΕΡΓΑΣΙΑ ΝΙΚΗ ΜΟΣΧΟΥ

Other Test Constructions: Likelihood Ratio & Bayes Tests

Αποθήκες Δεδομένων και Εξόρυξη Δεδομένων

APPENDICES APPENDIX A. STATISTICAL TABLES AND CHARTS 651 APPENDIX B. BIBLIOGRAPHY 677 APPENDIX C. ANSWERS TO SELECTED EXERCISES 679

Ανάλυση Συσχέτισης IΙ

Στατιστική Ι (ΨΥΧ-1202) ιάλεξη 3

Χημική Τεχνολογία. Ενότητα 1: Στατιστική Επεξεργασία Μετρήσεων. Ευάγγελος Φουντουκίδης Τμήμα Μηχανολόγων Μηχανικών Τ.Ε.

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ

t-distribution t a (ν) s N μ = where X s s x = ν 2 FD ν 1 FD a/2 a/2 t-distribution normal distribution for ν>120

11. ΣΤΑΤΙΣΤΙΚΕΣ ΑΠΟΤΕΛΕΣΜΑΤΩΝ

Τεχνητή Νοημοσύνη. 16η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

χ 2 test ανεξαρτησίας

Ταξινόμηση κάδου και ταξινόμηση Ρίζας Bucket-Sort και Radix-Sort

Διακριτικές Συναρτήσεις

Εισαγωγή στην Επεξεργασία Ερωτήσεων. Βάσεις Δεδομένων Ευαγγελία Πιτουρά 1

Μεταπτυχιακό Πρόγραμμα Φυσικού Τμήματος «Υπολογιστική Φυσική» Θέμα εργασίας στο A Μέρος του μαθήματος «Προσομοίωση Χαοτικών Συστημάτων»

Δείγμα (μεγάλο) από οποιαδήποτε κατανομή

Biostatistics for Health Sciences Review Sheet

Ζητήματα ηήμ με τα δεδομένα

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

Προεπεξεργασία Δεδομένων. Αποθήκες και Εξόρυξη Δεδομένων Διδάσκουσα: Μαρία Χαλκίδη

Transcript:

Ταξινόμηση III Οι διαφάνειες στηρίζονται στο P.-N. Tan, M.Steinbach, V. Kumar, «Introduction to Data Mining», Addison Wesley, 006 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ Αφού κατασκευαστεί ένα μοντέλο, θα θέλαμε να αξιολογήσουμε/εκτιμήσουμε την ποιότητα του/την ακρίβεια της ταξινόμησης που πετυχαίνει Έμφαση στην ικανότητα πρόβλεψης του μοντέλου παρά στην αποδοτικότητα του (πόσο γρήγορα κατασκευάζει το μοντέλο ή ταξινομεί μια εγγραφή, κλιμάκωση κλπ.) Confusion Matrix (Πίνακας Σύγχυσης) f ij : αριθμός των εγγραφών της κλάσης i που προβλέπονται ως κλάση j Πιστότητα (ακρίβεια;) (accuracy) Το πιο συνηθισμένο μέτρο Πιστότητα - Accuracy PREDICTED πρόβλεψη PREDICTED (true positive) f (false negative) f 0 f 00 + Accuracy = = f 00 0 0 + + + = 0 πραγματική f f 0 f 0 f 00 (false positive) f 0 (true negative) f 00 Λόγος Λάθους Error rate = f f 0 00 0 0 0 ErrorRate(C) = Accuracy(C) Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 3 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 4 Μπορούμε να χρησιμοποιήσουμε τα λάθη εκπαίδευσης/γενίκευσης (αισιόδοξη ή απαισιόδοξη προσέγγιση) εν είναι κατάλληλα γιατί βασίζονται στα δεδομένα εκπαίδευσης μόνο Συνήθως, σύνολο ελέγχου Μέτρα (metrics) για την εκτίμηση της απόδοσης του μοντέλου Πως να εκτιμήσουμε την απόδοση ενός μοντέλου Τι θα μετρήσουμε Μέθοδοι για την εκτίμηση της απόδοσης Πως μπορούνε να πάρουμε αξιόπιστες εκτιμήσεις Πως θα το μετρήσουμε Μέθοδοι για την σύγκριση μοντέλων Πως να συγκρίνουμε τη σχετική απόδοση δύο ανταγωνιστικών μοντέλων Ισχύουν για όλα τα μοντέλα ταξινόμησης Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 5 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 6

Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 7 Μέθοδος Holdout ιαμέριση του αρχικού συνόλου σε δύο ξένα σύνολα: Σύνολο εκπαίδευσης (/3) Σύνολο Ελέγχου (/3) Κατασκευή μοντέλου με βάση το σύνολο εκπαίδευσης Αποτίμηση μοντέλου με βάση το σύνολο ελέγχου Μέθοδος Holdout (-) Λιγότερες εγγραφές για εκπαίδευση πιθανόν όχι τόσο καλό μοντέλο, όσο αν χρησιμοποιούνταν όλες (-) Το μοντέλο εξαρτάται από τη σύνθεση των συνόλων εκπαίδευσης και ελέγχου όσο μικρότερο το σύνολο εκπαίδευσης, τόσο μεγαλύτερη η variance του μοντέλου όσο μεγαλύτερο το σύνολο εκπαίδευσης, τόσο λιγότερο αξιόπιστη η πιστότητα του μοντέλου που υπολογίζεται με το σύνολο ελέγχου wide confidence interval (-) Τα σύνολα ελέγχου και εκπαίδευσης δεν είναι ανεξάρτητα μεταξύ τους (υποσύνολα τυ ίδιου συνόλου - πχ μια κλάση που έχει πολλά δείγματα στο ένα, θα έχει λίγα στο άλλο και το ανάποδο) Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 8 Τυχαία Λήψη ειγμάτων Random Subsampling Επανάληψη της μεθόδου για τη βελτίωσή της έστω k επαναλήψεις, παίρνουμε το μέσο όρο της ακρίβειας Πάλι αφαιρούμε δεδομένα από το σύνολο εκπαίδευσης Ένα ακόμα πρόβλημα είναι ότι μια εγγραφή μπορεί να χρησιμοποιείται (επιλέγεται) ως εγγραφή εκπαίδευσης πιο συχνά από κάποια άλλη Cross validation ιαμοίραση των δεδομένων σε k διαστήματα Κατασκευή του μοντέλου αφήνοντας κάθε φορά ένα διάστημα ως σύνολο ελέγχου και χρησιμοποιώντας όλα τα υπόλοιπα ως σύνολα εκπαίδευσης (μια εγγραφή χρησιμοποιείται ακριβώς μια φορά για έλεγχο και τον ίδιο αριθμό για εκπαίδευση) -fold (δύο ίσα υποσύνολα, το ένα μια φορά για έλεγχο το άλλο για εκπαίδευση και μετά ανάποδα) Αν k = N, (Ν ο αριθμός των εγγραφών) leave-one-out Bootstrap Sample with replacement Μια εγγραφή που επιλέχθηκε ως δεδομένο εκπαίδευσης, ξαναμπαίνει στο αρχικό σύνολο Αν Ν δεδομένα, ένα δείγμα Ν στοιχείων 63.% των αρχικών Πιθανότητα ένα δεδομένο να επιλεγεί (-/Ν) Ν Για μεγάλο Ν, η πιθανότητα επιλογής τείνει ασυμπτωτικά στο -e - = 0.63, πιθανότητα μη επιλογής 0.368 Οι υπόλοιπες εγγραφές (όσες δεν επιλεγούν στο σύνολο εκπαίδευσης) εγγραφές ελέγχου.63 boostrap acc b = (0.638* errortest + 0.368* c boot accs ) Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 9 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 0 Βελτίωση Απόδοσης Βελτίωση Απόδοσης Ensemble Methods Σύνολο Μεθόδων Κατασκευή ενός συνόλου από ταξινομητές από τα δεδομένα εκπαίδευσης C, C,. C t -> C* Υπολογισμός της κλάσης των δεδομένων συναθροίζοντας (aggregating) τις προβλέψεις των t ταξινομητών Πως: πχ με πλειοψηφικό σύστημα (Voting majority) Step : Create Multiple Data Sets Step : Build Multiple Classifiers Step 3: Combine Classifiers D Aρχικά Δεδομένα εκπαίδευσης D D... D t- D t C C C t - C t C * Έστω t = 5 βασικοί ταξινομητές Αν ο καθένας λάθος, ε = 0.35 Έστω ότι ανεξάρτητοι και μόνο κλάσεις Πιθανότητα λανθασμένης πρόβλεψης του συνόλου: 5 i = 3 5 i ε ( ε ) i 5 i = 0.06 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ

Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 3 Βελτίωση Απόδοσης Bagging (Bootstarp + Aggregation ειγματοληψία με επανένταξη (Sampling with replacement) Κατασκευή ταξινομητή για κάθε δείγμα Κάθε δείγμα έχει πιθανότητα ( /n) n να επιλεγεί Original Data 3 4 5 6 7 8 9 0 Bagging (Round ) 7 8 0 8 5 0 0 5 9 Bagging (Round ) 4 9 3 7 3 Bagging (Round 3) 8 5 0 5 5 9 6 3 7 Boosting ε δίνουμε το ίδιο βάρος σε όλους τους ταξινομητές, αλλά παίρνουμε υπόψη μας την ακρίβειά τους -- C* βάρος με βάση την ακρίβεια του Βασική ιδέα: Έστω C i, o C i+ μεγαλύτερο βάθος στις πλειάδες που ταξινόμησε λάθος ο C i Πως; «πειράζουμε» την πιθανότητα επιλογής τους στο σύνολο εκπαίδευσης σωστά, πιθανότητα επιλογής λάθος, πιθανότητα επιλογής + Πως μπορούμε να πάρουμε αξιόπιστες εκτιμήσεις της απόδοσης Η απόδοση ενός μοντέλου μπορεί να εξαρτάται από πολλούς παράγοντες εκτός του αλγορίθμου μάθησης: Κατανομή των κλάσεων Το κόστος της λανθασμένης ταξινόμησης Το μέγεθος του συνόλου εκπαίδευσης και του συνόλου ελέγχου Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 4 Άλλα πέραν της Πιστότητας Καμπύλη Μάθησης (Learning Curve) Πίνακας σύγχυσης PREDICTED Η καμπύλη μάθησης δείχνει πως μεταβάλλεται η πιστότητα (accuracy) με την αύξηση του μεγέθους του δείγματος Επίδραση δείγματος μικρού μεγέθους: Bias in the estimate Variance of estimate Πιστότητα (accuracy) -- υπενθύμιση -- f 00 + Accuracy = = f 00 0+ f 0 + + + Λόγος Λάθους Error rate = f f 0 00 0 0 0 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 5 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 6 Άλλα πέραν της Πιστότητας Μειονεκτήματα της πιστότητας Θεωρείστε ένα πρόβλημα με κλάσεις Αριθμός παραδειγμάτων της κλάσης 0 = 9990 Αριθμός παραδειγμάτων της κλάσης = 0 Αν ένα μοντέλο προβλέπει οτιδήποτε ως κλάση 0, τότε πιστότητα = 9990/0000 = 99.9 % Η πιστότητα είναι παραπλανητική γιατί το μοντέλο δεν προβλέπει κανένα παράδειγμα της κλάσης C(i j) Πίνακας Κόστους PREDICTED C( ) C( ) C( ) C( ) C(i j): κόστος λανθασμένης ταξινόμησης ενός παραδείγματος της κλάσης i ως κλάση j βάρος C(M) = x C( ) + x C( ) + C( ) + C( ) Αρνητική τιμή κόστους σημαίνει επιπρόσθετη «επιβράβευση» σωστής πρόβλεψης Στα προηγούμενα, είχαμε C(YES YES) = C( ) = 0 και C(YES ) = C( YES) = Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 7 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 8

Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 9 Υπολογισμός του Κόστους της Ταξινόμησης Cost Matrix Model PREDICTED M + - + 50 40-60 50 Accuracy = 80% Cost = 390 PREDICTED C(i j) + - + - Model M - 00 0 PREDICTED + - C(i j): κόστος λανθασμένης ταξινόμησης ενός παραδείγματος της κλάσης i ως κλάση j + 50 5 Accuracy = 90% Cost = 455-45 00 Ταξινόμηση που λαμβάνει υπό όψιν της το κόστος Κατασκευή έντρου Ταξινόμησης Επιλογή γνωρίσματος στο οποίο θα γίνει η διάσπαση Στην απόφαση αν θα ψαλιδιστεί κάποιο υπο-δέντρο Στον καθορισμό της κλάσης του φύλλου Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 0 Καθορισμός κλάσης Κανονικά, ως ετικέτα ενός φύλλου την πλειοψηφούσα κλάση, Leaf-label = max p(i), το ποσοστό των εγγραφών της κλάσης i που έχουν ανατεθεί στον κόμβο Για δύο κλάσεις, p(+) > 0.5 Τώρα, την κλάση που ελαχιστοποιεί το: κλάση φύλλου = j p ( j) C( j, i) Για δύο κλάσεις: p(+) x C(+, +) + p(+) x C(+, -) p(-) x C(-, -) + p(-) x C(-, +) C(, + ) Αν C(-, -) = C(+, +) = 0 p( + ) > p(+) C(+, -) > p(-) x C(-, +) => C (, + ) + C ( +, ) Αν C(-, +) < C(+, -), τότε λιγότερο του 0.5 Κόστος vs Πιστότητας (Accuracy) Count Cost PREDICTED a c p q PREDICTED b d q p Η πιστότητα είναι ανάλογη του κόστους αν:. C( )=C( ) = q. C( )=C( ) = p N = a + b + c + d Accuracy = (a + d)/n Cost = p (a + d) + q (b + c) = p (a + d) + q (N a d) = q N (q p)(a + d) = N [q (q-p) Accuracy] Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ Άλλες μετρήσεις με βάση τον πίνακα σύγχυσης Άλλες μετρήσεις με βάση τον πίνακα σύγχυσης PREDICTED PREDICTED True positive rate or sensitivity: Το ποσοστό των θετικών παραδειγμάτων που ταξινομούνται σωστά R = + False positive rate: Το ποσοστό των αρνητικών παραδειγμάτων που ταξινομούνται λάθος (δηλαδή, ως θετικά) R = + True negative rate or specificity: Το ποσοστό των αρνητικών παραδειγμάτων που ταξινομούνται σωστά R = + False negative rate: Το ποσοστό των θετικών παραδειγμάτων που ταξινομούνται λάθος (δηλαδή, ως αρνητικά) R = + Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 3 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 4

Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 5 Recall (ανάκληση) Precision (ακρίβεια) Recall (ανάκληση) Precision (ακρίβεια) Precision p = + PREDICTED Πόσα από τα παραδείγματα που ο ταξινομητής έχει ταξινομήσει ως θετικά είναι πραγματικά θετικά Όσο πιο μεγάλη η ακρίβεια, τόσο μικρότερος o αριθμός των Precision Recall p = + r = + Πόσα από τα παραδείγματα που ο ταξινομητής έχει ταξινομήσει ως θετικά είναι πραγματικά θετικά Πόσα από τα θετικά παραδείγματα κατάφερε ο ταξινομητής να βρει Recall r = + Πόσα από τα θετικά παραδείγματα κατάφερε ο ταξινομητής να βρει Όσο πιο μεγάλη η ανάκληση, τόσο λιγότερα θετικά παραδείγματα έχουν ταξινομεί λάθος (=R) Συχνά το ένα καλό και το άλλο όχι Πχ, ένας ταξινομητής που όλα τα ταξινομεί ως θετικά, τηνκαλύτερηανάκλησημετη χειρότερη ακρίβεια Πώς να τα συνδυάσουμε; Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 6 F measure F rp = = r + p + + F = / r + / p Αρμονικά, Γεωμετρικά και Αριθμητικά Μέσα Παράδειγμα α=, b=5 Αρμονικό μέσο (Harmonic mean) Τείνει να είναι πιο κοντά στο μικρότερο από τα δύο Υψηλή τιμή σημαίνει ότι και τα δύο είναι ικανοποιητικά μεγάλα Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 7 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 8 Precision (p) = + Recall (r) = + rp F- measure (F) = = r + p + + Precision - C( ) & C( ) Recall - C( ) & C( ) F-measure όλα εκτός του C( ) w + w4 Weighted Accuracy = w + w + w + w Recall Precision F Accuracy w w 0 w3 0 3 0 0 4 w4 : ROC ROC (Receiver Operating Characteristic Curve) Αναπτύχθηκε στη δεκαετία 950 για την ανάλυση θορύβου στα σήματα Χαρακτηρίζει το trade-off μεταξύ positive hits και false alarms Η καμπύλη ROC δείχνει τα R (στον άξονα των y) προς τα R (στον άξονα των x) Η απόδοση κάθε ταξινομητή αναπαρίσταται ως ένα σημείο στην καμπύλη ROC R = + R = + Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 9 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 30

Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 3 : ROC : ROC (,): (0,0): declare everything to be negative class (,): declare everything to be positive class (,0): ideal Diagonal line: Random guessing Μια εγγραφή θεωρείται θετική με καθορισμένη πιθανότητα p ανεξάρτητα από τις τιμές των γνωρισμάτων της Καλοί ταξινομητές κοντά στην αριστερή πάνω γωνία του διαγράμματος Κάτω από τη διαγώνιο Πρόβλεψη είναι το αντίθετο της πραγματικής κλάσης R = + R = + R = + R = + Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 3 : ROC Σύγκριση δύο μοντέλων Κανένα μοντέλο δεν είναι πάντα καλύτερο του άλλου M καλύτερο για μικρό R M καλύτερο για μεγάλο R Ηπεριοχήκάτωαπότην καμπύλη ROC Ideal: Area = Random guess: Area = 0.5 Μέτρα (metrics) για την εκτίμηση της απόδοσης του μοντέλου Πως να εκτιμήσουμε την απόδοση ενός μοντέλου Μέθοδοι για την εκτίμηση της απόδοσης Πως μπορούνε να πάρουμε αξιόπιστες εκτιμήσεις Μέθοδοι για την σύγκριση μοντέλων Πως να συγκρίνουμε τη σχετική απόδοση δύο ανταγωνιστικών μοντέλων Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 33 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 34 Έλεγχος Σημαντικότητας (Test of Significance) Έστω δύο μοντέλα: Μοντέλο M: ακρίβεια = 85%, έλεγχος σε 30 εγγραφές Μοντέλο M: ακρίβεια = 75%, έλεγχος σε 5000 εγγραφές Είναι το Μ καλύτερο από το Μ; Πόση εμπιστοσύνη (confidence) μπορούμε να έχουμε για την πιστότητα του Μ και πόση για την πιστότητα του Μ; Μπορεί η διαφορά στην απόδοση να αποδοθεί σε τυχαία διακύμανση του συνόλου ελέγχου; Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 35 ιάστημα Εμπιστοσύνης για την Ακρίβεια (Confidence Interval) Η πρόβλεψη μπορεί να θεωρηθεί σε ένα πείραμα Bernoulli Ένα Bernoulli πείραμα έχει δύο πιθανά αποτελέσματα Πιθανά αποτελέσματα πρόβλεψης: σωστό ή λάθος Μια συλλογή από πειράματα έχει δυωνυμική κατανομή Binomial distribution: x Bin(N, p) x: αριθμός σωστών προβλέψεων Πχ: ρίξιμο τίμιου νομίσματος (κορώνα/γράμματα) 50 φορές, αριθμός κεφαλών; Expected number of heads = N p = 50 0.5 = 5 οθέντος του x (# σωστών προβλέψεων) ήισοδύναμα, acc=x/n, και του N (# εγγραφών ελέγχου), Μπορούμε να προβλέψουμε το p (την πραγματική πιστότητα του μοντέλο); Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 36

Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 37 Γιαμεγάλασύνολαελέγχου (N > 30), acc έχει κανονική κατανομή με μέσο mean p and variance p(-p)/n P acc p < < α / ) = α p( p) / N ( Zα / Z Area = - α Έστω ένα μοντέλο που έχει accuracy 80% όταν αποτιμάται σε 00 στιγμιότυπα ελέγχου: Ποιο είναι το διάστημα εμπιστοσύνης για την πραγματική του πιστότητα (p) με επίπεδο εμπιστοσύνης (-a) 95% N=00, acc = 0.8 -α = 0.95 (95% confidence) Από τον πίνακα, Z α/ =.96 Κάνοντας τις πράξεις 7.% - 86.7% -α 0.99 0.98 0.95 0.90 Z.58.33.96.65 Confidence Interval for p ( ιάστημα εμπιστοσύνης για το p): Z α/ Z - α / N p(lower) 50 0.670 00 0.7 500 0.763 000 0.774 5000 0.789 Πλησιάζει το 80% όσο το Ν μεγαλώνει N acc + Zα / ± Zα / + 4 N acc 4 N acc ( N + Zα ) / p(upper) 0.888 0.866 0.833 0.84 0.8 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 38 Μέτρα (metrics) για την εκτίμηση της απόδοσης του μοντέλου Πως να εκτιμήσουμε την απόδοση ενός μοντέλου Μέθοδοι για την εκτίμηση της απόδοσης Πως μπορούνε να πάρουμε αξιόπιστες εκτιμήσεις Μέθοδοι για την σύγκριση μοντέλων Πως να συγκρίνουμε τη σχετική απόδοση δύο ανταγωνιστικών μοντέλων οσμένων δύο μοντέλων, έστω M και M, ποιο είναι καλύτερο; M ελέγχεται στο D (size=n), error rate = e M ελέγχεται στο D (size=n), error rate = e Έστω D and D είναι ανεξάρτητα Θέλουμε να εξετάσουμε αν η διαφορά d = e -e είναι στατιστικά σημαντική Αν τα n και n είναι αρκετά are μεγάλα, τότε: Approximate e ( e ) i i ˆ σ = i n i e ~ N e ~ N ( μ, σ) ( μ, σ ) Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 39 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 40 Παράδειγμα d = e e d ~ N(d t,σ t ) όπου d t είναι η πραγματική διαφορά Since D and D are independent, their variance adds up: σ = σ + σ ˆ σ + ˆ σ t e( e) e( e) = + n n οθέντων: M: n = 30, e = 0.5 M: n = 5000, e = 0.5 d = e e = 0. Ηεκτιμώμενηvariance της διαφοράς στα error rates ˆ σ d Για 95% confidence level, Zα/=.96 d t 0.5( 0.5) 0.5( 0.5) = + = 0.0043 30 5000 = 0.00 ±.96 0.0043 = 0.00 ± 0.8 At (-α) confidence level, d t = d ± Z α / ˆ σ t => Το διάστημα περιέχει το 0 => η διαφορά μπορεί να είναι στατιστικά μη σημαντική Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 4 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 4

Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 43 0 Άλλοι Ταξινομητές Ταξινομητές με κανόνες Ταξινόμηση των εγγραφών με βάση ένα σύνολο από κανόνες της μορφής if then Κανόνας: (Συνθήκη) y όπου Συνθήκη (Condition) είναι σύζευξη συνθηκών στα γνωρίσματα y η ετικέτα της κλάσης LHS: rule antecedent (πρότερο) ή condition (συνθήκη) RHS: rule consequent (επακόλουθο ή απότοκο) Παραδείγματα κανόνων ταξινόμησης: (Blood Type=Warm) (Lay Eggs=) Birds (Taxable Income < 50K) (Refund=) Evade= Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 44 Παράδειγμα Name Blood Type Give Birth Can Fly Live in Water Class human warm yes no mammals no python cold no no no reptiles salmon cold no no yes fishes whale warm yes no yes mammals frog cold no no sometimes amphibians komodo cold no no no reptiles bat warm yes yes no mammals pigeon warm no yes no birds cat warm yes no no mammals leopard shark cold yes no yes fishes turtle cold no no sometimes reptiles penguin warm no no sometimes birds porcupine warm yes no no mammals eel cold no no yes fishes salamander cold no no sometimes amphibians gila monster cold no no no reptiles platypus warm no no no mammals owl warm no yes no birds dolphin warm yes no yes mammals eagle warm no yes no birds R: (Give Birth = no) (Can Fly = yes) Birds R: (Give Birth = no) (Live in Water = yes) Fishes R3: (Give Birth = yes) (Blood Type = warm) Mammals R4: (Give Birth = no) (Can Fly = no) Reptiles R5: (Live in Water = sometimes) Amphibians Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 45 Εφαρμογή Ταξινομητών με Κανόνες Ένας κανόνας r καλύπτει (covers) ένα στιγμιότυπο (εγγραφή) αν τα γνωρίσματα του στιγμιότυπου ικανοποιούν τη συνθήκη του κανόνα R: (Give Birth = no) (Can Fly = yes) Birds R: (Give Birth = no) (Live in Water = yes) Fishes R3: (Give Birth = yes) (Blood Type = warm) Mammals R4: (Give Birth = no) (Can Fly = no) Reptiles R5: (Live in Water = sometimes) Amphibians Name Blood Type Give Birth Can Fly Live in Water Class hawk warm no yes no? grizzly bear warm yes no no? Ο κανόνας R καλύπτει το hawk (ή αλλιώς το hawk ενεργοποιεί (trigger) τον κανόνα) => Bird Ο κανόνας R3 καλύπτει το grizzly bear => Mammal Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 46 Κάλυψη Κανόνα - Coverage: Το ποσοστό των εγγραφών που ικανοποιούν το LHS του κανόνα Πιστότητα Κανόνα - Accuracy: Το ποσοστό των κανόνων που καλύπτουν και το LHS και το RHS του κανόνα (Status=Single) Coverage = 40%, Accuracy = 50% Tid Refund Marital Status Taxable Income Single 5K Married 00K 3 Single 70K 4 Married 0K Class 5 Divorced 95K 6 Married 60K 7 Divorced 0K 8 Single 85K 9 Married 75K 0 Single 90K Χαρακτηριστικά Ταξινομητών με Κανόνες Αμοιβαία αποκλειόμενοι κανόνες (Mutually exclusive rules) Ένας ταξινομητής περιέχει αμοιβαία αποκλειόμενους κανόνες αν οι κανόνες είναι ανεξάρτητοι ο ένας από τον άλλο Κάθε εγγραφή καλύπτεται από το πολύ έναν κανόνα Εξαντλητικοί κανόνες (Exhaustive rules) Ένας ταξινομητής έχει εξαντλητική κάλυψη (coverage) αν καλύπτει όλους τους πιθανούς συνδυασμούς τιμών γνωρισμάτων Κάθε εγγραφή καλύπτεται από τουλάχιστον έναν κανόνα Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 47 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 48

Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 49 0 Κατασκευή Ταξινομητών με Κανόνες Έμμεση Μέθοδος: Από έντρα Απόφασης σε Κανόνες Ένας κανόνας για κάθε μονοπάτι από τη ρίζα σε φύλλο Κάθε ζευγάρι γνώρισμα-τιμή στο μονοπάτι αποτελεί ένα όρο στη σύζευξη και το φύλλο αφορά την κλάση (RHS) Άμεση Μέθοδος: Εξαγωγή κανόνων απευθείας από τα δεδομένα Π.χ.: RIPPER, CN, Holte s R Έμμεση Μέθοδος: Εξαγωγή κανόνων από άλλα μοντέλα ταξινομητών (πχ από δέντρα απόφασης) Π.χ.: C4.5 κανόνες {Single, Divorced} Refund Taxable Income Marital Status < 80K > 80K YES {Married} Κανόνες Ταξινόμησης (Classification Rules) (Refund=) ==> (Refund=, Marital Status={Single,Divorced}, Taxable Income<80K) ==> (Refund=, Marital Status={Single,Divorced}, Taxable Income>80K) ==> (Refund=, Marital Status={Married}) ==> Κανόνες αμοιβαία αποκλειόμενοι και εξαντλητικοί Το σύνολο κανόνων περιέχει όση πληροφορία περιέχει και το δέντρο Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 50 Q Από έντρα Απόφασης σε Κανόνες (Παράδειγμα) P - + + R Q - + Rule Set r: (P=,Q=) ==> - r: (P=,Q=) ==> + r3: (P=,R=) ==> + r4: (P=,R=,Q=) ==> - r5: (P=,R=,Q=) ==> + Οι κανόνες μπορεί να απλοποιηθούν (απαλοιφή κάποιων όρων στο LHS αν δεν αλλάζει πολύ το λάθος) {Single, Divorced} Refund Taxable Income Marital Status < 80K > 80K YES Από έντρα Απόφασης σε Κανόνες {Married} Tid Refund Marital Status Taxable Income Cheat Single 5K Married 00K 3 Single 70K 4 Married 0K 5 Divorced 95K 6 Married 60K 7 Divorced 0K 8 Single 85K 9 Married 75K 0 Single 90K Αρχικός Κανόνας: (Refund=) (Status=Married) Απλοποιημένος Κανόνας: (Status=Married) Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 5 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 5 Από έντρα Απόφασης σε Κανόνες Αν γίνει απλοποίηση (κλάδεμα): Οι κανόνες δεν είναι πια αμοιβαία αποκλειόμενοι Μια εγγραφή μπορεί να ενεργοποιήσει παραπάνω από έναν κανόνα Λύση (conflict resolution) () ιάταξη του συνόλου κανόνων (αν μια εγγραφή ενεργοποιεί πολλούς κανόνες, της ανατίθεται αυτός με τη μεγαλύτερη προτεραιότητα) (decision list) ή () ο κανόνας με τις πιο πολλές απαιτήσεις (πχ με το μεγαλύτερο αριθμό όρων) (size ordering) ή (3) διάταξη των κλάσεων (αν μια εγγραφή ενεργοποιεί πολλούς κανόνες, της ανατίθεται η τάξη με τη μεγαλύτερη προτεραιότητα) (misclassification cost) Άλλοι Ταξινομητές Ταξινομητές στιγμιοτύπου Χωρίς διάταξη του συνόλου κανόνων χρήση σχήματος ψηφοφορίας Οι κανόνες δεν είναι πια εξαντλητικοί Μια εγγραφή μπορεί να μην ενεργοποιεί κάποιον κανόνα Λύση Χρήση default κλάσης Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 53 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 54

Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 55 Ταξινομητές βασισμένοι σε Στιγμιότυπα Ταξινομητές βασισμένοι σε Στιγμιότυπα Μέχρι στιγμής Ταξινόμηση βασισμένη σε δύο βήματα Βήμα : Induction Step Κατασκευή Μοντέλου Ταξινομητή Βήμα : Deduction Step Εφαρμογή του μοντέλου για έλεγχο παραδειγμάτων Eager Learners vs Lazy Learners πχ Instance Based Classifiers (ταξινομητές βασισμένοι σε στιγμιότυπα) Μην κατασκευάσεις μοντέλο αν δε χρειαστεί Σύνολο Αποθηκευμένων Περιπτώσεων Atr... AtrN Class A B B C A C B Αποθήκευσε τις εγγραφές του συνόλου εκπαίδευσης Χρησιμοποίησε τις αποθηκευμένες εγγραφές για την εκτίμηση της κλάσης των νέων περιπτώσεων Unseen Case Atr... AtrN Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 56 Ταξινομητές βασισμένοι σε Στιγμιότυπα Παραδείγματα: Rote-learner Κρατά (Memorizes) όλο το σύνολο των δεδομένων εκπαίδευσης και ταξινομεί μια εγγραφή αν ταιριάζει πλήρως με κάποιο από τα δεδομένα εκπαίδευσης Nearest neighbor Κοντινότερος Γείτονας Χρήση των k κοντινότερων closest σημείων (nearest neighbors) για την ταξινόμηση k-κοντινότεροι γείτονες μιας εγγραφής x είναι τα σημεία που έχουν την k-οστή μικρότερη απόσταση από το x X X X (a) -nearest neighbor (b) -nearest neighbor (c) 3-nearest neighbor Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 57 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 58 Άγνωστη Εγγραφή Basic idea: If it walks like a duck, quacks like a duck, then it s probably a duck Training Records Compute Distance Choose k of the nearest records Test Record Χρειάζεται. Το σύνολο των αποθηκευμένων εγγραφών. Distance Metric Μετρική απόστασης για να υπολογίσουμε την απόσταση μεταξύ εγγραφών 3. Την τιμή του k, δηλαδή τον αριθμό των κοντινότερων γειτόνων που πρέπει να ανακληθούν Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 59 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 60

Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 6 Άγνωστη Εγγραφή Γιαναταξινομηθείμιαάγνωστη εγγραφή: Υπολογισμός της απόστασης από τις εγγραφές του συνόλου Εύρεση των k κοντινότερων γειτόνων Χρήση των κλάσεων των κοντινότερων γειτόνων για τον καθορισμό της κλάσης της άγνωστης εγγραφής - π.χ., με βάση την πλειοψηφία (majority vote) Απόσταση μεταξύ εγγραφών: Πχ ευκλείδεια απόσταση d( p, q) = i Καθορισμός τάξης Απλά τη πλειοψηφική κλάση Βάρος σε κάθε ψήφο με βάση την απόσταση weight factor, w = /d ( p i q i ) Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 6 Επιλογή της τιμής του k: k πολύ μικρό, ευαισθησία στα σημεία θορύβου k πολύ μεγάλο, η γειτονιάμπορείναπεριέχεισημείααπόάλλες κλάσεις Θέματα Κλιμάκωσης Τα γνωρίσματα ίσως πρέπει να κλιμακωθούν ώστε οι αποστάσεις να μην κυριαρχηθούν από κάποιο γνώρισμα Παράδειγμα: height of a person may vary from.5m to.8m weight of a person may vary from 90lb to 300lb income of a person may vary from $0K to $M εν κατασκευάζεται μοντέλο, μεγάλο κόστος για την ταξινόμηση Πολλές διαστάσεις (κατάρα των διαστάσεων) Θόρυβο (ελάττωση μέσω k-γειτόνων) Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 63 Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 64 Περίληψη Ορισμός Προβλήματος Ταξινόμησης Μια Κατηγορία Ταξινομητών: έντρο Απόφασης Μέθοδοι ορισμού της μη καθαρότητας ενός κόμβου Θέματα στην Ταξινόμηση: over and under-fitting, missing values, εκτίμηση λάθους Αποτίμηση μοντέλου Ταξινομητές Στιγμιότυπου (k-κοντινότεροι γείτονες) Εξόρυξη Δεδομένων: Ακ. Έτος 007-008 ΤΑΞΙΝΟΜΗΣΗ 65