Data Mining. Εισαγωγικά και Προηγµένα Θέµατα Εξόρυξης Γνώσης. Κατηγοριοποίηση (κεφ. 4)



Σχετικά έγγραφα
(classification) 2 ΠΑ.ΠΕΙ. ΓιάννηςΘεοδωρίδης 4.1

(training data) (test data)

Δέντρα Απόφασης (Decision(

14Ιαν Νοε

Ευφυής Προγραμματισμός

Πανεπιστήµιο Πειραιώς - Τµήµα Πληροφορικής. Αποθήκες εδοµένων και Εξόρυξη Γνώσης (Data Warehousing & Mining) Τεχνικές Data Mining. Γιάννης Θεοδωρίδης

Κατηγοριοποίηση. Εξόρυξη Δεδομένων και Αλγόριθμοι Μάθησης. 2 ο Φροντιστήριο. Σκούρα Αγγελική

Πανεπιστήµιο Πειραιώς Τµήµα Πληροφορικής. Εξόρυξη Γνώσης από εδοµένα (Data Mining) Συσταδοποίηση. Γιάννης Θεοδωρίδης

Κατηγοριοποίηση (Εποπτευόμενη μάθηση)

MBR Ελάχιστο Περιβάλλον Ορθογώνιο (Minimum Bounding Rectangle) Το µικρότερο ορθογώνιο που περιβάλλει πλήρως το αντικείµενο 7 Παραδείγµατα MBR 8 6.

Ταξινόμηση. Lecture Notes for Chapter 4. Introduction to Data Mining. by Tan, Steinbach, Kumar

Αποθήκες εδομένων και Εξόρυξη εδομένων:

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

Αποθήκες και Εξόρυξη Δεδομένων

ΔΙΑΧΕΙΡΙΣΗ ΠΕΡΙΕΧΟΜΕΝΟΥ ΠΑΓΚΟΣΜΙΟΥ ΙΣΤΟΥ ΚΑΙ ΓΛΩΣΣΙΚΑ ΕΡΓΑΛΕΙΑ. Data Mining - Classification

Κατηγοριοποίηση βάσει διανύσματος χαρακτηριστικών

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. Κατηγοριοποίηση. Αριστείδης Γ. Βραχάτης, Dipl-Ing, M.Sc, PhD

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Υπερπροσαρμογή (Overfitting) (1)

ΚΕΦΑΛΑΙΟ Μηχανική Μάθηση

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Διακριτικές Συναρτήσεις

Διδάσκουσα: Χάλκου Χαρά,

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Ευφυής Προγραμματισμός

Αποθήκες εδοµένων και Εξόρυξη Γνώσης (Data Warehousing & Data Mining)

Τεχνητή Νοημοσύνη. 16η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

Αποθήκες Δεδομένων και Εξόρυξη Δεδομένων

Νευρωνικά ίκτυα και Εξελικτικός. Σηµερινό Μάθηµα. επανάληψη Γενετικών Αλγορίθµων 1 η εργασία Επανάληψη νευρωνικών δικτύων Ασκήσεις εφαρµογές

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Διπλωματική Εργασία: «Συγκριτική Μελέτη Μηχανισμών Εκτίμησης Ελλιπούς Πληροφορίας σε Ασύρματα Δίκτυα Αισθητήρων»

Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

4.3. Γραµµικοί ταξινοµητές

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Οι διαφάνειες στηρίζονται στο P.-N. Tan, M.Steinbach, V. Kumar, «Introduction to Data Mining», Addison Wesley, 2006

Εξόρυξη Γνώσης από εδοµένα (Data Mining) Συσταδοποίηση

Εξόρυξη Γνώσης από Βιολογικά εδομένα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Πανεπιστήµιο Πειραιώς Τµήµα Πληροφορικής. Εξόρυξη Γνώσης από εδοµένα (Data Mining) Συσταδοποίηση. Γιάννης Θεοδωρίδης

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

Ταξινόμηση. Εισαγωγή. Ορισμός. Ορισμός. Τεχνικές Ταξινόμησης. Εισαγωγή

οµή δικτύου ΣΧΗΜΑ 8.1

ΕΡΓΑΣΙΑ : DATASET WEATHER ΕΙΡΗΝΗ ΛΥΓΚΩΝΗ

Επίλυση Προβληµάτων µε Greedy Αλγόριθµους

«Τεχνογλωσσία VIII» Εξαγωγή πληροφοριών από κείμενα

Ταξινόμηση I. Εισαγωγή. Ορισμός. Ορισμός. Τεχνικές Ταξινόμησης. Εισαγωγή

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΕΜΠ ΔΠΜΣ Εφαρμοσμένες Μαθηματικές Επιστήμες Αλγόριθμοι Εξόρυξης Πληροφορίας. Διάλεξη 05: Αλγόριθμοι εκμάθησης Μέρος Α Δένδρα&Κανόνες

LOGO. Εξόρυξη Δεδομένων. Δειγματοληψία. Πίνακες συνάφειας. Καμπύλες ROC και AUC. Σύγκριση Μεθόδων Εξόρυξης

ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ

Οι διαφάνειες στηρίζονται στο P.-N. Tan, M.Steinbach, V. Kumar, «Introduction to Data Mining», Addison Wesley, 2006

Διάλεξη 06: Αλγόριθμοι εκμάθησης ΜέροςΒ Bayes, ΚανόνεςΣυσχέτισης, ΑδρανήςΕκμάθηση & Ομαδοποίηση

Γ. Κορίλη Αλγόριθµοι ροµολόγησης

ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ ΣΧΟΛΗ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ ΚΑΙ ΦΥΣΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΠΛΗΡΟΦΟΡΙΑΣ ΠΑΡΟΥΣΙΑΣΗ ΤΕΛΙΚΗΣ ΕΡΓΑΣΙΑΣ ΛΙΝΑ ΜΑΣΣΟΥ

Α. ΤΕΙ ΚΡΗΤΗΣ Τµήµα Εφαρµοσµένης Πληροφορικής και Πολυµέσων Εργαστήριο Νευρωνικών Δικτύων

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

Ταξινόμηση II Σύντομη Ανακεφαλαίωση

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

HY380 Αλγόριθμοι και πολυπλοκότητα Hard Problems

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΠΜΣΕ ΣΤΗΝ ΕΦΑΡΜΟΣΜΕΝΗ ΠΛΗΡΟΦΟΡΙΚΗ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΚΑΙ ΕΞΕΛΙΚΤΙΚΟΙ ΑΛΓΟΡΙΘΜΟΙ

Εξόρυξη Γνώσης µε SQL Server 2005 Analysis Services

υποδείγματος για την αξιολόγηση αυτοκινήτων με τεχνικές Data Mining.»

Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα

ΑΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ

Ασκήσεις μελέτης της 19 ης διάλεξης

Αλγόριθµοι και Πολυπλοκότητα

Ενότητα 9 Ξένα Σύνολα που υποστηρίζουν τη λειτουργία της Ένωσης (Union-Find)

Μοντελοποίηση προβληµάτων

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Μεγίστου Σφάλµατος. Παναγιώτης Καρράς. Αθήνα, 26 Αυγούστου 2005

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σύνθεση Data Path. ιασύνδεσης. Μονάδες. Αριθµό Μονάδων. Τύπο Μονάδων. Unit Selection Unit Binding. λειτουργιών σε. Μονάδες. Αντιστοίχιση µεταβλητών &

Σχεδίαση και Ανάλυση Αλγορίθμων

Αποθήκες εδομένων και Εξόρυξη εδομένων:

Τεχνητή Νοημοσύνη ( )

Ενότητα 9 Ξένα Σύνολα που υποστηρίζουν τη λειτουργία της Ένωσης (Union-Find)

Μεταπτυχιακή Εργασία. Εξόρυξη γνώσης από ειδησεογραφικά δεδοµένα και συσχετισµός µε πραγµατικά γεγονότα

Εξόρυξη Δεδομένων Κατηγοριοποίηση

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ

Μάθηση με παραδείγματα Δέντρα Απόφασης

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΠΡΟΓΡΑΜΜΑ ΜΕΤΑΠΤΥΧΙΑΚΩΝ ΣΠΟΥ ΩΝ ΤΜΗΜΑΤΟΣ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ. ιπλωµατική Εργασία. της.

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Διδάσκων: Κωνσταντίνος Κώστα Διαφάνειες: Δημήτρης Ζεϊναλιπούρ

Predicting the Choice of Contraceptive Method using Classification

Μηχανική Μάθηση. Η µηχανική µάθηση ως πρόβληµα αναζήτησης

Ακαδημαϊκό Έτος , Χειμερινό Εξάμηνο Διδάσκων Καθ.: Νίκος Τσαπατσούλης

ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΜΑΘΗΣΗ ΔΙΚΤΥA LVQ και SOM. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

HMY 795: Αναγνώριση Προτύπων. Διάλεξη 2

Ενότητα 3 Επιτηρούµενος διαχωρισµός

Μέθοδοι Μηχανικής Μάθησης στην επεξεργασία Τηλεπισκοπικών Δεδομένων. Δρ. Ε. Χάρου

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοηµοσύνη Ι» 7ο Φροντιστήριο 15/1/2008

Τεχνητή Νοημοσύνη ΙΙ. Ενότητα : Μηχανική Μάθηση. Σγάρμπας Κυριάκος Πολυτεχνική Σχολή Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών

ΕΜΠ ΔΠΜΣ Εφαρμοσμένες Μαθηματικές Επιστήμες Αλγόριθμοι Εξόρυξης Πληροφορίας. Διάλεξη02 ΣυνιστώσεςΔεδομένων Οπτικοποίηση&Εξερεύνηση

Transcript:

Data Mining Εισαγωγικά και Προηγµένα Θέµατα Εξόρυξης Γνώσης Κατηγοριοποίηση (κεφ. 4) Βασίλης Βερύκιος - Γιάννης Θεοδωρίδης http://isl.cs.unipi.gr/dmbook Περιεχόµενα Το πρόβληµα της κατηγοριοποίησης Τεχνικές κατηγοριοποίησης Στατιστικές τεχνικές Τεχνικές βασισµένες στην απόσταση ένδρα αποφάσεων Νευρωνικά δίκτυα Κανόνες κατηγοριοποίησης Βασισµένες κατά κύριο λόγο (αλλά όχι αποκλειστικά) στις διαφάνειες που συνοδεύουν το βιβλίο M. H. Dunham: Data Mining, Introductory and Advanced Topics Prentice Hall, 2002 Επιµέλεια Ελληνικής έκδοσης Βασίλης Βερύκιος & Γιάννης Θεοδωρίδης, 2004-05 2

Κατηγοριοποίηση (Classification) Εκµάθηση µιας τεχνικής να προβλέπει την κλάση ενός στοιχείου επιλέγοντας από προκαθορισµένες τιµές 3 Εποπτευόµενη vs. Μη εποπτευόµενη µάθηση Εποπτευόµενη µάθηση (κατηγοριοποίηση) Επόπτευση: Τα δεδοµένα εκπαίδευσης συνοδεύονται από ετικέτες για την κλάση µε την οποία ανήκει το καθένα Τα νέα δεδοµένα κατηγοριοποιούνται µε βάσητηγνώσηπουµας παρέχουν τα δεδοµένα εκπαίδευσης Μη εποπτευόµενη µάθηση (συσταδοποίηση) ε γνωρίζουµε τις κλάση στην οποία ανήκουν τα δεδοµένα εκπαίδευσης Μας δίνεται ένα σύνολο µετρήσεων, παρατηρήσεων κλπ. µε στόχο να ανακαλύψουµε κλάσεις ή οµάδες µέσα στα δεδοµένα 4

Το πρόβληµα της κατηγοριοποίησης Αν µας δοθεί µια βάση δεδοµένων D={t 1,t 2,,t n } και ένα σύνολο κατηγοριών -"κλάσεων" C={C 1,,C m }, το Πρόβληµα Κατηγοριοποίησης έγκειται στον ορισµό µιας απεικόνισης f: D C όπου κάθε εγγραφή t i ανατίθεται σε µία κλάση C j. Ουσιαστικά, η κατηγοριοποίηση διαµερίζει τη D σε κλάσεις ισοδυναµίας. Η Πρόβλεψη είναι παρόµοιο πρόβληµα, αλλά µπορεί να θεωρηθείότιέχειάπειροαριθµό κλάσεων. 5 Παραδείγµατα κατηγοριοποίησης Οι δάσκαλοι αναθέτουν βαθµούς µέσα από τις κατηγορίες A, B, C, D, F. Τα µανιτάρια ταξινοµούνται σε δηλητηριώδη και φαγώσιµα. Μπορεί να γίνει πρόβλεψη εάν θα πληµµυρίσει ένας ποταµός. Οι πελάτες της τράπεζας µπορούν να κατηγοριοποιηθούν ως προς την πιστωτική τους ικανότητα. 6

Παράδειγµα κατηγοριοποίησης Βαθµολογία πτυχίου If x 8.5 then grade = «άριστα». If 6.5 x<8.5then grade = «λίαν καλώς». If x < 6.5 then grade = «καλώς». <8.5 x <6.5 καλώς x 8.5 άριστα 6.5 λίαν καλώς 7 Τεχνικές κατηγοριοποίησης Τυπική προσέγγιση: 1. ηµιουργία ενός µοντέλου µέσω της αξιολόγησης ενός συνόλου δεδοµένων εκπαίδευσης (training data) (ή µέσω της γνώσης ειδικών του πεδίου). 2. Εφαρµογή του µοντέλου σε νέα δεδοµένα. Οι κλάσεις πρέπει να είναι προκαθορισµένες Οι πιο κοινές τεχνικές είναι τα δένδρα αποφάσεων, τα νευρωνικά δίκτυα και τεχνικές βασισµένες σε απόσταση ή σε στατιστικές µεθόδους. 8

1 ο βήµα: ηµιουργία µοντέλου εδοµένα εκπαίδευσης (training data) Αλγόριθµος Κατηγοριοποίησης όνοµα βαθµίδα έτη µόνιµος Μιχάλης Επικ.Καθηγητής 3 ΟΧΙ Νίκος Επικ.Καθηγητής 7 ΝΑΙ Βασίλης Καθηγητής 2 ΝΑΙ ηµήτρης Αναπλ.Καθηγητής 7 ΝΑΙ Γιώργος Επικ.Καθηγητής 6 ΟΧΙ Κώστας Αναπλ.Καθηγητής 3 ΟΧΙ Μοντέλο IF βαθµίδα = Καθηγητής OR έτη > 6 THEN µόνιµος = ΝΑΙ 9 2 ο βήµα: Εφαρµογή µοντέλου Μοντέλο οκιµαστικά εδοµένα (test data) Νέα δεδοµένα (Γιάννης, Καθηγητής, 4) όνοµα βαθµίδα έτη µόνιµος Θωµάς Επικ.Καθηγητής 2 ΟΧΙ Νίκος Αναπλ.Καθηγητής 7 ΟΧΙ Γεράσιµος Καθηγητής 5 ΝΑΙ Ιωσήφ Επικ.Καθηγητής 7 ΝΑΙ Μόνιµος; 10

Προσδιορισµός κλάσεων µε βάσητην απόσταση µε βάσητη διαµέριση 11 Ζητήµατα που προκύπτουν Ελλιπή δεδοµένα (missing data) τα αγνοούµε τα αντικαθιστούµε µε ειδικές τιµές Μέτρηση απόδοσης Μέτρηση ακρίβειας µε χρήση συνόλου δοκιµαστικών δεδοµένων (test data) Μήτρα σύγχυσης (confusion matrix) Καµπύλη OC (operating characteristic) 12

Παράδειγµα µε δοκιµαστικά δεδοµένα Name Gender Height Output1 Output2 Kristina F 1.6m Short Medium Jim M 2m Tall Medium Maggie F 1.9m Medium Tall Martha F 1.88m Medium Tall Stephanie F 1.7m Short Medium Bob M 1.85m Medium Medium Kathy F 1.6m Short Medium Dave M 1.7m Short Medium Worth M 2.2m Tall Tall Steven M 2.1m Tall Tall Debbie F 1.8m Medium Medium Todd M 1.95m Medium Medium Kim F 1.9m Medium Tall Amy F 1.8m Medium Medium Wynette F 1.75m Medium Medium 13 Ακρίβεια κατηγοριοποίησης Για 2 κλάσεις (π.χ. Tall/Medium) υπάρχουν 4 πιθανοί συνδυασµοί (m κλάσεις m 2 συνδυασµοί) Αληθώς θετικό Ψευδώς αρνητικό Οπτικοποίηση ποιότητας κατηγοριοποίησης: Μήτρα σύγχυσης Καµπύλη OC Ψευδώς θετικό Αληθώς αρνητικό 14

Μήτρα σύγχυσης Έστω Output1 η ορθή κατηγοριοποίηση και Output2 η ανάθεση σε κλάσεις που προέκυψε από την (όποια) τεχνική κατηγοριοποίησης Μήτρα σύγχυσης (confusion matrix): Name Gender Height Output1 Output2 Kristina F 1.6m Short Medium Jim M 2m Tall Medium Maggie F 1.9m Medium Tall Martha F 1.88m Medium Tall Stephanie F 1.7m Short Medium Bob M 1.85m Medium Medium Kathy F 1.6m Short Medium Dave M 1.7m Short Medium Worth M 2.2m Tall Tall Steven M 2.1m Tall Tall Debbie F 1.8m Medium Medium Todd M 1.95m Medium Medium Kim F 1.9m Medium Tall Amy F 1.8m Medium Medium Wynette F 1.75m Medium Medium Πραγµατική Ανάθεση κλάση Short Medium Tall Short 0 4 0 Medium 0 5 3 Tall 0 1 2 15 Καµπύλη OC (Operating Characteristic) Αληθώς θετικά Ψευδώς θετικά 16

Παλινδρόµηση Κάνουµε την παραδοχή ότι τα δεδοµένα ταιριάζουν σε µία συνάρτηση: y = c 0 + c 1 x 1 + + c n x n Το πρόβληµα είναι ο προσδιορισµός των συντελεστών παλινδρόµησης c 0, c 1,, c n. Παραδοχή σφάλµατος: y = c 0 + c 1 x 1 + + c n x n + ε Εκτίµηση σφάλµατος µε χρήση σφάλµατος τετραγωνικού µέσου πάνω στο σύνολο δοκιµαστικών δεδοµένων: 17 Γραµµική παλινδρόµηση Φτωχή απόδοση (µέτριο ταίριασµα) 18

Κατηγοριοποίηση µε χρήση παλινδρόµησης ιαίρεση: χρησιµοποιούµε τη συνάρτηση παλινδρόµησης για να διαιρέσουµε το χώρο σε περιοχές. Πρόβλεψη: χρησιµοποιούµε τη συνάρτηση παλινδρόµησης για να προβλέψουµε τησυνάρτησηµέλους για µια κλάση. Η επιθυµητή κλάση δίνεται ως είσοδος στο πρόβληµα. 19 ιαίρεση y = c 0 + ε Θέλουµε να ελαχιστοποιήσουµε το L ως προς c 0 c 0 = = 1.786 y = 1.786 20

Πρόβλεψη 21 Bayesian κατηγοριοποίηση ύο παραδοχές για τα γνωρίσµατα Εξίσου σηµαντικά Στατιστικώς ανεξάρτητα (δοθείσης της τιµής µιας κλάσης) ηλαδή, αν γνωρίζουµε την τιµή ενός γνωρίσµατος δεν µπορούµε να πούµε τίποτα για την τιµή ενός άλλου γνωρίσµατος (µε δεδοµένο ότι γνωρίζουµε την κλάση) Η παραδοχή για την ανεξαρτησία των γνωρισµάτων σχεδόν ποτέ δεν ισχύει! αλλά αυτό το σχήµα δείχνει να δουλεύει καλά στην πράξη 22

Πρόγνωση καιρού Outlook Temperature Humidity Windy Play Sunny 2 3 Hot 2 2 High 3 4 False 6 2 9 5 Overcast 4 0 Mild 4 2 rmal 6 1 True 3 3 Rainy 3 2 Cool 3 1 Sunny 2/9 3/5 Hot 2/9 2/5 High 3/9 4/5 False 6/9 2/5 9/14 5/14 Overcast 4/9 0/5 Mild 4/9 2/5 rmal 6/9 1/5 True 3/9 3/5 Rainy 3/9 2/5 Cool 3/9 1/5 Outlook Sunny Temp Hot Humidity High Windy False Play Sunny Hot High True Overcast Hot High False Rainy Mild High False Rainy Cool rmal False Rainy Cool rmal True Overcast Cool rmal True Sunny Mild High False Sunny Cool rmal False Rainy Mild rmal False Sunny Mild rmal True Overcast Mild High True Overcast Hot rmal False 23 Rainy Mild High True Πρόγνωση καιρού (συν.) Outlook Temperature Humidity Windy Play Sunny 2 3 Hot 2 2 High 3 4 False 6 2 9 5 Overcast 4 0 Mild 4 2 rmal 6 1 True 3 3 Rainy 3 2 Cool 3 1 Sunny 2/9 3/5 Hot 2/9 2/5 High 3/9 4/5 False 6/9 2/5 9/14 5/14 Overcast 4/9 0/5 Mild 4/9 2/5 rmal 6/9 1/5 True 3/9 3/5 Rainy 3/9 2/5 Cool 3/9 1/5 Μια νέα ηµέρα: Outlook Sunny Temp. Cool Humidity High Windy True Play? Πιθανοφάνειες για τις δύο κλάσεις yes : 2/9 3/9 3/9 3/9 9/14 = 0.0053 no : 3/5 1/5 4/5 3/5 5/14 = 0.0206 Πιθανότητες (µετά την κανονικοποίηση): P( yes ) = 0.0053 / (0.0053 + 0.0206) = 0.205 P( no ) = 0.0206 / (0.0053 + 0.0206) = 0.795 24

Ο κανόνας του Bayes Pr[ H E] Ηπιθανότητανασυµβεί ένα γεγονός H δοθείσης µιας µαρτυρίας E : Pr[H ] Pr[ E H ]Pr[ H ] Pr[ H E] = Pr[ E] A priori πιθανότητα του H : Η πιθανότητα του γεγονότος χωρίς την επίκληση της µαρτυρίας A posteriori πιθανότητα του H : Η πιθανότητα του γεγονότος µε την επίκληση της µαρτυρίας 25 Κατηγοριοποίηση Naïve Bayes Εκµάθηση κατηγοριοποίησης: ποια η πιθανότητα µιας κλάσης δοθείσης µιας µαρτυρίας; Η µαρτυρία E είναι η εγγραφή στη Β Το γεγονός H είναι η κλάση της εγγραφής Απλοϊκή (naïve) παραδοχή: η µαρτυρία διαιρείται σε µέρη (όσο και τα γνωρίσµατα) που είναι ανεξάρτητα µεταξύ τους Pr[ E1 H ]Pr[ E1 H ] KPr[ E Pr[ H E] = Pr[ E] n H ]Pr[ H ] 26

Παράδειγµα πρόγνωσης καιρού Outlook Sunny Temp. Cool Humidity High Windy True Play? µαρτυρία E Πιθανότητα κλάσης yes Pr[ yes E] = Pr[ Outlook = Sunny yes] = Pr[ Temperatur e = Cool yes] Pr[ Humidity = High yes] Pr[ Windy = True yes] Pr[ yes] Pr[ E] 2 9 3 9 27 3 9 3 9 Pr[ E] 9 14 Το πρόβληµα της "µηδενικής συχνότητας" Τι θα συµβεί εάν δεν εµφανίζεται µια τιµή γνωρίσµατος σε κάθε κλάση; (π.χ. Humidity = high για την κλάση yes ) Η πιθανότητα θα είναι µηδέν! Pr[ Humidity = High yes] = 0 Η a posteriori πιθανότηταθαείναιεπίσηςµηδέν! (άσχετα µε το ποιες είναι οι υπόλοιπες τιµές!) Pr[ yes E] = 0 Τέχνασµα: προσθέτουµε 1 στο µετρητή κάθε ζευγαριού τιµής γνωρίσµατος κλάσης (εκτιµήτρια Laplace) Αποτέλεσµα: οι πιθανότητες δεν είναι ποτέ µηδέν! 28

Σχολιασµός Naïve Bayes Η κατηγοριοποίηση Naïve Bayes περιέργως δουλεύει καλά! ακόµη και αν καταστρατηγείται φανερά η παραδοχή περί ανεξαρτησίας γνωρισµάτων Γιατί; Επειδή η κατηγοριοποίηση δεν απαιτεί ακριβείς εκτιµήσεις πιθανοτήτων αρκεί η µέγιστη πιθανότητα να αντιστοιχεί στη σωστή κλάση Όµως: η προσθήκη επιπλέον γνωρισµάτων µπορεί να δηµιουργήσει προβλήµατα π.χ. ταυτόσηµα γνωρίσµατα 29 Κατηγοριοποίηση µε χρήση απόστασης Τοποθετούµε ταδεδοµένα στην «πλησιέστερη" (µε όρους απόστασης) κλάση. Πρέπει να προσδιορίσουµε τηναπόστασηµεταξύ ενός στοιχείου και µιας κλάσης. Κάθε κλάση µπορεί να αναπαρασταθεί µε Κέντρο βάρους (Centroid): ηκεντρικήτιµή της κλάσης Κεντρικό στοιχείο (Medoid): ένα αντιπροσωπευτικό σηµείο µέλος της. Σύνολο από ενδεικτικά σηµεία Αλγόριθµος: k- nearest neighbors (KNN) 30

Η προσέγγιση KNN Το σύνολο δεδοµένων εκπαίδευσης περιλαµβάνει τις κλάσεις. Γιανααναθέσουµε ένανέοστοιχείοσεµια κλάση εξετάζουµε ταk πλησιέστερα σ αυτό σηµεία. Τοποθετούµε το νέο στοιχείο στην κλάση που έχει την πλειοψηφία µέσα στα κοντινά στοιχεία. Πολυπλοκότητα O(q) για κάθε νέο στοιχείο (q είναι το µέγεθος του συνόλου δεδοµένων εκπαίδευσης). 31 Αλγόριθµος KNN Input: T //training data K //Number of neighbors t //Input tuple to classify Output: c //Class to which t is assigned KNN algorithm: //Algorithm to classify tuple using KNN begin N = ; //Find set of neighbors, N, for t for each d T do Υποθέτει ότι Ν είναι µια ειδική δοµή, if N K, then οργανωµένη µε βάσητηνοµοιότητα N = N {d}; sim(t,u) π.χ. σωρός ελαχίστων else if u N such that sim(t,u) sim(t,d), then begin N = N {u}; N = N {d}; end //Find class for classification c = class to which the most u N are classified end 32

Παράδειγµα KNN Name Gender Height Output1 Kristina F 1.6m Short Jim M 2m Tall Maggie F 1.9m Medium Martha F 1.88m Medium Stephanie F 1.7m Short Bob M 1.85m Medium Kathy F 1.6m Short Dave M 1.7m Short Worth M 2.2m Tall Steven M 2.1m Tall Debbie F 1.8m Medium Todd M 1.95m Medium Kim F 1.9m Medium Amy F 1.8m Medium Wynette F 1.75m Medium Pat F 1.6m? 1 3 2 4 5 Short 33 Κατηγοριοποίηση µε δένδρα αποφάσεων (decision trees) Κατηγοριοποίηση βασισµένη στη διαµέριση: διαίρεση του χώρου σε ορθογώνιες περιοχές Οι εγγραφές ανατίθενται σε κλάσεις µε βάσητηνπεριοχή µέσα στην οποία πέφτουν. Οι τεχνικές Α διαφέρουν = Καθηγητής µεταξύ τους στον τρόπο κατασκευής του δένδρου ΝΑΙ (επαγωγή Α) Οι εσωτερικοί κόµβοι ενός Α αντιστοιχούν σε γνωρίσµατα και τα τόξα ενός Α σε τιµές αυτών των γνωρισµάτων. Αλγόριθµοι: ID3, C4.5, CART Βαθµίδα Καθηγητής 6 ΟΧΙ έτη >6 ΝΑΙ 34

35 35 Παράδειγµα: πρόγνωση καιρού true high mild rain false normal hot overcast true high mild overcast true normal mild sunny false normal mild rain false normal cool sunny false high mild sunny true normal cool overcast true normal cool rain false normal cool rain false high mild rain false high hot overcast true high hot sunny false high hot sunny Play? Windy Humidity Temperature Outlook 36 36 overcast high normal false true sunny rain Παράδειγµα Α για το γνώρισµα Play? Outlook Humidity Windy

ένδρο Απόφασης οθέντων: µιας βάσης δεδοµένων D = {t 1,, t n } όπου t i =<t i1,, t ih > του σχήµατος της Β {A 1, A 2,, A h } ενός συνόλου κλάσεων C={C 1,., C m } ένδρο απόφασης (ή κατηγοριοποίησης) είναι ένα δένδρο συσχετισµένο Βαθµίδα µε τηd έτσι ώστε = Καθηγητής Κάθε εσωτερικός κόµβος έχει ως ετικέτα ένα γνώρισµα, A i ΝΑΙ Κάθε τόξο έχει ως ετικέτα ένα κατηγόρηµαπου µπορεί να εφαρµοστεί στο γνώρισµα τουκόµβου-γονέα Κάθε φύλλο (τερµατικός κόµβος) έχει ως ετικέτα µια κλάση, C j 6 ΟΧΙ Καθηγητής έτη >6 ΝΑΙ 37 Επαγωγή Α Input: D //Training data Output: T //Decision tree DTBuild algorithm: //Simplistic algorithm to illustrate naïve approach to building DT begin T = ; Determine splitting criterion; T = Create root node and label with splitting attribute; T = Add arc to root node for each split predicate and label; for each arc do begin D = Database created by applying splitting predicate to D; if stopping point reached for this path, then T = Create leaf node and label with appropriate class; else T = DTBuild(D); end T = Add T to arc; end 38

Ζητήµατα στα Α Αρχική επιλογή των γνωρισµάτων διάσπασης Κάποια από τα γνωρίσµατα της Β πρέπει να παραλειφθούν (δεν εξυπηρετούν την κατηγοριοποίηση) Κριτήριο διάσπασης Επιλογή του γνωρίσµατος διάσπασης Επιλογή των κατηγορηµάτων διάσπασης (πάνω στο γνώρισµα διάσπασης) ενδρική δοµή επιθυµητό: ισοζυγισµένο δένδρο µε λίγα επίπεδα κάποιες τεχνικές παράγουν µόνο δυαδικά δένδρα Κριτήρια τερµατισµού ακρίβεια κατηγοριοποίησης vs. απόδοση vs. υπερπροσαρµογή Κλάδεµα (pruning) εκ των υστέρων «τακτοποίηση» του Α για καλύτερη απόδοση 39 Σύγκριση Α Ισοζυγισµένο Α Βαθύ Α 40

Ποιο γνώρισµα ναδιαλέξουµε; 41 Ένα κριτήριο για την επιλογή του κατάλληλου γνωρίσµατος διάσπασης Ποιο είναι το καλύτερο; Αυτό που θα οδηγήσει στο µικρότερο δένδρο Ένας ευρετικός κανόνας (heuristic): επιλέγουµε το γνώρισµα που παράγει τους πιο "αγνούς" κόµβους. Για το σκοπό αυτό, χρησιµοποιείται µια συνάρτηση καταλληλότητας (fitness function). Στρατηγική: επιλέγουµε τογνώρισµα πουµεγιστοποιεί τη συνάρτηση καταλληλότητας Χαρακτηριστικές συναρτήσεις καταλληλότητας: Κέρδος πληροφορίας Gain (ID3) Λόγοςκέρδουςπληροφορίας GainRatio (C4.5) gini index (SPRINT) 42

Θεωρία Πληροφορίας Η επαγωγή Α βασίζεται συχνά στη Θεωρία Πληροφορίας 43 Πληροφορία / Εντροπία Έστω πιθανότητες p 1, p 2,.., p s τωνοποίωντοάθροισµα είναι 1. Η Εντροπία ορίζεται ως εξής: H ( p, p,..., p ) = 1 2 s i i= 1 ηβάσητουλογάριθµου δεν προσδιορίζεται (συνήθως, 10 ή 2) Η εντροπία είναι ποσοτικοποίηση της τυχαιότητας (έκπληξης, αβεβαιότητας). Ο στόχος της κατηγοριοποίησης καθόλου έκπληξη εντροπία = 0 s p log 1 p i 44 H(p,1-p)

Αλγόριθµος ID3 ηµιουργεί Α µε χρήση στοιχείων από τη θεωρία πληροφορίας (εντροπία) Επιλέγει για διάσπαση το γνώρισµα µε το µεγαλύτερο κέρδος πληροφορίας (information gain): Gain ( D, S ) = H ( D) P( D ) H ( ) s i= 1 i D i H(D) ηεντροπίατουd (πριν το διαχωρισµό) H(D i ) ηεντροπίατωνεπιµέρους D i (µετά το διαχωρισµό) Όσο µεγαλύτερη είναι η µείωση (το «άλµα» προς το 0), τόσο µεγαλύτερο είναι το κέρδος Gain(D,S) 45 Παράδειγµα ID3 Αρχική κατάσταση εντροπίας: H(D) = 4/15 log(15/4) + 8/15 log(15/8) + 3/15 log(15/3) = 0.4384 Κέρδος αν γίνει διάσπαση στο gender: Gender= F : 3/9 log(9/3) + 6/9 log(9/6)=0.2764 Gender= M : 1/6 log(6/1) + 2/6 log(6/2) + 3/6 log(6/3) = 0.4392 Weighted sum: (9/15)(0.2764) + (6/15)(0.4392) = 0.3415 Gain: 0.4384 0.3415 = 0.0969 Κέρδος αν γίνει διάσπαση στο height: Weighted sum: 0+0+... + (2/15)(0.301) = 0.0401 Gain: 0.4384 0.0401 = 0.3983 Κατηγορήµατα διάσπ.: (0, 1.6], (1.6, 1.7], (1.7, 1.8], (1.8, 1.9], (1.9, 2.0], (2.0, ) Επιλέγουµε height 46 Name Gender Height Output1 Kristina F 1.6m Short Jim M 2m Tall Maggie F 1.9m Medium Martha F 1.88m Medium Stephanie F 1.7m Short Bob M 1.85m Medium Kathy F 1.6m Short Dave M 1.7m Short Worth M 2.2m Tall Steven M 2.1m Tall Debbie F 1.8m Medium Todd M 1.95m Medium Kim F 1.9m Medium Amy F 1.8m Medium Wynette F 1.75m Medium

Αλγόριθµος C4.5 Ο αλγόριθµος ID3 µεροληπτεί υπέρ των γνωρισµάτων µε µεγάλο αριθµό διαιρέσεων Ο αλγόριθµος C4.5 αποτελεί βελτιωµένη εκδοχή του ID3: Καλύτερη διαχείριση ελλιπών / συνεχών δεδοµένων Κλάδεµα 2 τεχνικές: αντικατάσταση υποδένδρου / ανύψωση υποδένδρου Κανόνες αποφάσεων (που παράγονται από τα Α) Βελτιωµένη συνάρτηση καταλληλότητας (για αποφυγή υπερπροσαρµογής): GainRatio ( D, S ) ( D, S ) Gain = D1 H,..., D D s D 47 Αλγόριθµος CART ηµιουργεί δυαδικό δένδρο Χρησιµοποιεί εντροπία Μαθηµατικός τύπος για την επιλογή του σηµείου διάσπασης, s, για τον κόµβο t: Οι πιθανότητες P L,P R αντιστοιχούν στην πιθανότητα µια εγγραφή να βρεθεί στην αριστερή ή τη δεξιά πλευρά, αντίστοιχα, του δένδρου. 48

Παράδειγµα CART Στο ξεκίνηµα, υπάρχουν έξι επιλογές για σηµείο διάσπασης: Gender= M, height=1.6, height=1.7, height=1.8, height=1.9, height=2.0 (παραδοχή: η ισότητα οδηγεί στο δεξί κλαδί): Φ(Gender= M ) = 2 (6/15) (9/15) (2/15 + 4/15 + 3/15)=0.224 Φ(height=1.6) = 0 Φ(height=1.7) = 2 (2/15) (13/15) (0 + 8/15 + 3/15) = 0.169 Φ(height=1.8) = 2 (5/15) (10/15) (4/15 + 6/15 + 3/15) = 0.385 Φ(height=1.9) = 2 (9/15) (6/15) (4/15 + 2/15 + 3/15) = 0.256 Φ(height=2.0) = 2 (12/15) (3/15) (4/15 + 8/15 + 3/15) = 0.32 Αποφασίζεται διάσπαση στο height=1.8 κοκ. 49 Name Gender Height Output1 Kristina F 1.6m Short Jim M 2m Tall Maggie F 1.9m Medium Martha F 1.88m Medium Stephanie F 1.7m Short Bob M 1.85m Medium Kathy F 1.6m Short Dave M 1.7m Short Worth M 2.2m Tall Steven M 2.1m Tall Debbie F 1.8m Medium Todd M 1.95m Medium Kim F 1.9m Medium Amy F 1.8m Medium Wynette F 1.75m Medium Κατηγοριοποίηση µε χρήση Νευρωνικών ικτύων (Neural Networks NN) Τυπική δοµή ενός NN για κατηγοριοποίηση: Ένας κόµβος εξόδου ανά κατηγορία Τιµή εξόδου είναι η τιµή της συνάρτησης συµµετοχής στην κατηγορία Εποπτευόµενη µάθηση Για κάθε πλειάδα του συνόλου εκπαίδευσης, µετάδοσή της µέσα από το NN. Προσαρµογή των βαρών στις ακµές για βελτίωση µελλοντικής κατηγοριοποίησης. Αλγόριθµοι: διάδοση (propagation), οπισθοδιάδοση (backpropagation), βαθµωτή κατάβαση (gradient descent) 50

Ζητήµατα ενός NN Γνωρίσµατα (αριθµός κόµβων πηγής) Αριθµός κρυµµένων στρωµάτων / αριθµός κρυµµένων κόµβων εδοµένα εκπαίδευσης Αριθµός καταβοθρών ιασυνδέσεις Βάρη Συναρτήσεις ενεργοποίησης Τεχνική µάθησης Συνθήκη τερµατισµού της µάθησης 51 έντρο Απόφασης vs. Νευρωνικό ίκτυο Πλεονεκτήµατα NN: πιο ισχυρά (λόγω των βαρών), βελτιώνονται µε τη µάθηση (και µετά την εφαρµογή του συνόλου εκπαίδευσης), µπορούν να παραλληλοποιηθούν, πιο εύρωστα (σε περιβάλλοντα µε θόρυβο) Μειονεκτήµατα NN: δυσνόητα, διαδικασία δοκιµής επαλήθευσης, πιθανότητα αποτυχίας σύγκλισης (στηφάσητηςµάθησης) 52

ιάδοση (propagation) Tuple Input Output 53 Αλγόριθµος ιάδοσης σε ΝΝ 54

Παράδειγµα ιάδοσης 55 Μάθηση ενός NN Τροποποίηση των βαρών έτσι ώστε να αποδίδει καλύτερα σε δεδοµένα ελέγχου. Εποπτευόµενη (supervised learning): Χρησιµοποίηση γνώσης σωστής κατηγοριοποίησης. είναι εκ των προτέρω γνωστή η επιθυµητή τιµή της εξόδου Μη εποπτευόµενη (non-supervised learning): εν απαιτείται γνώση σωστής κατηγοριοποίησης. η έξοδος δεν είναι γνωστή 56

Εποπτευόµενη Μάθηση ενός NN 57 Εποπτευόµενη Μάθηση Σφάλµα του κόµβου i που η έξοδός του είναι y i ενώ θα έπρεπε να είναι d i : σφάλµα yi d i 2 ( y µέσο τετραγωνικό σφάλµα (MSE) i d i ) 2 m yi d Συνολικό MSE σφάλµα όλωντωνm κόµβων εξόδου m ( ) Αλλαγή στα βάρη των τόξων µε βάσητηνεκτίµηση του σφάλµατος κανόνας Hebb: w = cx y ij ij j i= 1 i 2 58

Οπισθοδιάδοση (backpropagation) ιάδοση προς τα πίσω των αλλαγών στα βάρη, από το στρώµα εξόδου προς το στρώµα εισόδου. Κανόνας έλτα: wij = cxij y j ( d j y j ) Οπισθοδιάδοση (backpropagation): γενικευµένη προσέγγιση του κανόνα έλτα Error 59 Αλγόριθµος Οπισθοδιάδοσης 60

Βαθµωτή κατάβαση (gradient descent) 61 Αλγόριθµος Βαθµωτής Κατάβασης 62

Μάθηση του Στρώµατος Εξόδου 63 Μάθηση του Κρυµµένου Στρώµατος 64

Τύποι ενός NN ιαφορετικές δοµές χρησιµοποιούνται για διαφορετικά προβλήµατα. Για επιβλεπόµενη µάθηση: Νευρωνικό δίκτυο Perceptron ίκτυο συνάρτησης ακτινικής βάσης (radial basis function RBF) Για µη-επιβλεπόµενη µάθηση: Αυτο-οργανωνόµενος χάρτης χαρακτηριστικών (self-organizing feature map SOFM) 65 Perceptron Perceptron είναι ένα από τα πιο απλά NNs. ενυπάρχουνκρυµµένα στρώµατα. 66

Παράδειγµα ενόςperceptron Υπόθεση: Άθροισµα: S=3x 1 +2x 2-6 Ενεργοποίηση: if S>0 then 1 else 0 67 ίκτυο Συνάρτησης Ακτινικής Βάσης Η RBF συνάρτηση έχει Gaussian σχήµα ίκτυα RBF Τρία Στρώµατα Κρυµµένο Στρώµα Gaussian συνάρτηση ενεργοποίησης Στρώµα εξόδου Γραµµική συνάρτηση ενεργοποίησης 68

Αυτο-οργανωνόµενος Χάρτης Χαρακτηριστικών (SOFM) Ανταγωνιστική µη εποπτευόµενη µάθηση Παρατηρούµε πώς δουλεύουν οι νευρώνες στον εγκέφαλο: Η διέγερση ενός νευρώνα επηρεάζει τη διέγερση των γειτονικών νευρώνων Οι νευρώνες που βρίσκονται µακριά φαίνεται να αλληλοαναχαιτίζονται Οι νευρώνες φαίνεται να έχουν συγκεκριµένες διακριτές µεταξύ τους λειτουργίες Παράδειγµα: Αυτο-οργανωνόµενος χάρτης Kohonen (Kohonen self-organizing map) ή ίκτυοkohonen 69 ίκτυο Kohonen 70

ίκτυο Kohonen Ανταγωνιστικό στρώµα µπορεί να θεωρηθεί σαν ένα 2-διάστατο πλέγµα Οµοιότητα µεταξύ ανταγωνιστικών κόµβων και κόµβων εισόδου: Είσοδος: X = <x 1,, x h > h Βάρη: <w 1i,, w hi > sim ( X, i ) = x j w ji j= 1 Ηοµοιότητα ορίζεται ως το εσωτερικό γινόµενοτωνδύοδιανυσµάτων Ο ανταγωνιστικός κόµβος που ταιριάζει περισσότερο µε την είσοδο κερδίζει Τα βάρη των κόµβων που κερδίζουν (όπως και τα βάρη κοντινών κόµβων) αυξάνονται. 71 Κατηγοριοποίηση µε Κανόνες Μπορούµε να κάνουµε κατηγοριοποίηση χρησιµοποιώντας κανόνες If-Then Κανόνας κατηγοριοποίησης: r = <a,c> Τµήµατα κανόνα: a: πρότερο (antecedent), c: επακόλουθο ή απότοκο (consequent) Παράγονται είτε µέσω άλλων τεχνικών (DT, NN) είτε απευθείας. Αλγόριθµοι: Gen, RX, 1R, PRISM 72

Παραγωγή κανόνων από Α 73 Παράδειγµα παραγωγής κανόνων 74

Αλγόριθµος 1R 75 Παράδειγµα 1R 76

Αλγόριθµος PRISM 77 Παράδειγµα PRISM 78

ένδρα αποφάσεων vs. Κανόνες Τα δένδρα ενσωµατώνουν τη σειρά µε την οποία έγινε η διάσπαση. Οι κανόνες δεν έχουν σειρά γνωρισµάτων και κατηγορηµάτων διάσπασης. Τα δένδρα δηµιουργούνται εξετάζοντας όλες τις κλάσεις. Αρκεί κανείς να εξετάσει µόνο µια κλάση για να δηµιουργήσει τους κανόνες που αντιστοιχούν σ αυτή. 79 Σύνοψη Κατηγοριοποίηση: η ανάθεση ετικετών στις εγγραφές της βάσης δεδοµένων σχετικά µε την κλάση στην οποία ανήκει η καθεµία Αλλιώς, διαµέριση της βάσης δεδοµένων σε (προκαθορισµένες) κατηγορίες Τεχνικές: στατιστικές (παλινδρόµηση, Bayesian, ) βασισµένες σε απόσταση (k-nn, ) δένδρα αποφάσεων (ID3, C4.5, CART, ) νευρωνικά δίκτυα (Perceptron, δίκτυα RDF, ) κανόνες κατηγοριοποίησης (1R, PRISM, ) 80