ΚΑΤΗΓΟΡΙΕΣ ΤΑΞΙΝΟΜΗΣΗΣ

Σχετικά έγγραφα
Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

HMY 795: Αναγνώριση Προτύπων

ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Ασκήσεις μελέτης της 19 ης διάλεξης

Γραµµικοί Ταξινοµητές

HMY 795: Αναγνώριση Προτύπων

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Αναγνώριση Προτύπων Ι

Αναγνώριση Προτύπων Ι

Το μοντέλο Perceptron

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON

Ακαδημαϊκό Έτος , Χειμερινό Εξάμηνο Διδάσκων Καθ.: Νίκος Τσαπατσούλης

10. Μη-κατευθυνόμενη ταξινόμηση ΚΥΡΊΩΣ ΜΈΡΗ ΔΕΥ

4.3. Γραµµικοί ταξινοµητές

7. ΕΠΕΞΕΡΓΑΣΊΑ ΣΗΜΆΤΩΝ

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Υπολογιστική Νοημοσύνη. Μάθημα 9: Γενίκευση

Τεχνητά Νευρωνικά Δίκτυα. Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Πρόλογος... xv. Κεφάλαιο 1. Εισαγωγικές Έννοιες... 1

Αναγνώριση Προτύπων Ι

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 3ο Φροντιστήριο

Περιεχόμενα. 2.1 Εισαγωγή Προγενέστερη έρευνα Ανάπτυξη υποδειγμάτων παραποίησης Πρόλογος... 11

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή

Διακριτικές Συναρτήσεις

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ

HMY 795: Αναγνώριση Προτύπων

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ 2012

Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ Αίθουσα Νέα Κτίρια ΣΗΜΜΥ Ε.Μ.Π. Ανάλυση Κυρίων Συνιστωσών (Principal-Component Analysis, PCA)

HMY 795: Αναγνώριση Προτύπων

Μέθοδοι Εκπαίδευσης και Μοντέλα Τεχνητών Νευρωνικών ικτύων

Μέθοδοι Μηχανικής Μάθησης στην επεξεργασία Τηλεπισκοπικών Δεδομένων. Δρ. Ε. Χάρου

Νευρωνικά ίκτυα και Εξελικτικός

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Αναγνώριση Προτύπων Ι

Ακέραιος Γραμμικός Προγραμματισμός

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΔΕ. 11 ΙΟΥΝΙΟΥ 2012

Διαχείριση Υδατικών Πόρων

Πληροφοριακά Συστήματα & Περιβάλλον

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)

ΧΑΡΟΚΟΠΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΜΑΤΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ. Καραγιώργου Σοφία

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο

Μεταπτυχιακό Πρόγραμμα «Γεωχωρικές Τεχνολογίες» Ψηφιακή Επεξεργασία Εικόνας. Εισηγητής Αναστάσιος Κεσίδης

Υπολογιστική Νοημοσύνη. Μάθημα 12: Παραδείγματα Ασκήσεων 2

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #8: Βελτιστοποίηση Συστημάτων Ασαφούς Λογικής. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ Αίθουσα Νέα Κτίρια ΣΗΜΜΥ Ε.Μ.Π.

8. ΕΠΕΞΕΡΓΑΣΊΑ ΣΗΜΆΤΩΝ. ICA: συναρτήσεις κόστους & εφαρμογές

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 13-14

Πληροφοριακά Συστήματα Διοίκησης

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Συνδυαστική Βελτιστοποίηση Εισαγωγή στον γραμμικό προγραμματισμό (ΓΠ)

ΦΙΛΤΡΟ KALMAN ΔΙΑΚΡΙΤΟΥ ΧΡΟΝΟΥ

Κεφάλαιο 19 Τεχνητά Νευρωνικά ίκτυα (Artificial Neural Nets)

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Α.Τ.Ε.Ι ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΠΟΛΥΜΕΣΩΝ ΕΡΓΑΣΤΗΡΙΟ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ. Σχήμα 1 Η λειτουργία του νευρώνα

ΕΛΕΓΧΟΣ ΠΑΡΑΓΩΓΙΚΩΝ ΔΙΕΡΓΑΣΙΩΝ

Συνδυαστική Βελτιστοποίηση Εισαγωγή στον γραμμικό προγραμματισμό (ΓΠ)

Νευρωνικά Δίκτυα στο Matlab

Νευρωνικά ίκτυα. Σηµερινό Μάθηµα

Υπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΔΙΠΛΩΜΑΤΙΚΗ ΕΡΓΑΣΙΑ. Τσαλαβούτης Α. Βασίλειος Φοιτητής 10 ου εξαμήνου ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ ΣΧΟΛΗ ΜΗΧΑΝΟΛΟΓΩΝ ΜΗΧΑΝΙΚΩΝ

ΔΙΑΧΩΡΙΣΜΟΣ ΚΑΙ ΤΑΞΙΝΟΜΗΣΗ ΚΡΗΤΙΚΟΥ ΚΑΤΕΡΙΝΑ NΙΚΑΚΗ ΚΑΤΕΡΙΝΑ NΙΚΟΛΑΪΔΟΥ ΧΡΥΣΑ

Κινητά Δίκτυα Επικοινωνιών. Συμπληρωματικό υλικό. Προσαρμοστική Ισοστάθμιση Καναλιού

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #12: Εισαγωγή στα Nευρωνικά Δίκτυα. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΜΑΘΗΣΗ ΔΙΚΤΥA LVQ και SOM. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

z = c 1 x 1 + c 2 x c n x n

HMY 795: Αναγνώριση Προτύπων

Μέθοδος μέγιστης πιθανοφάνειας

Αλεξάνδρειο ΣΕΙ Θεσσαλονίκης 1. Σμήμα Διοίκησης Επιχειρήσεων 2. Σμήμα Μηχανικών Πληροφορικής

E[ (x- ) ]= trace[(x-x)(x- ) ]

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης. ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

Μέθοδοι μονοδιάστατης ελαχιστοποίησης

Ακέραιος Γραμμικός Προγραμματισμός

Μέθοδοι μονοδιάστατης ελαχιστοποίησης

Εισόδημα Κατανάλωση

ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΙΑΣ ΤΜΗΜΑ ΙΑΤΡΙΚΗΣ ΔΙΠΛΩΜΑΤΙΚΗ ΕΡΓΑΣΙΑ. Χατζηλιάδη Παναγιώτα Ευανθία

/5

ΔΙΠΛΩΜΑΤΙΚΗ ΕΡΓΑΣΙΑ. Πρόβλεψη Αιολικής Ισχύος με χρήση Μηχανών Διανυσμάτων Υποστήριξης και Τεχνητών Νευρωνικών Δικτύων

Νευρωνικά ίκτυα και Εξελικτικός. Σηµερινό Μάθηµα. επανάληψη Γενετικών Αλγορίθµων 1 η εργασία Επανάληψη νευρωνικών δικτύων Ασκήσεις εφαρµογές

8. Η δημιουργία του εκτελέσιμου προγράμματος γίνεται μόνο όταν το πηγαίο πρόγραμμα δεν περιέχει συντακτικά λάθη.

Τεχνικές Βαθιάς Μηχανικής Μάθησης και Γνώσης για Ανάλυση Συναισθήματος στην Αλληλεπίδραση Ανθρώπου Μηχανής ΔΙΠΛΩΜΑΤΙΚΗ ΕΡΓΑΣΙΑ

ΤΕΙ ΔΥΤΙΚΗΣ ΜΑΚΕΔΟΝΙΑΣ ΜΠΣ Τραπεζικής & Χρηματοοικονομικής

Transcript:

ΚΑΤΗΓΟΡΙΕΣ ΤΑΞΙΝΟΜΗΣΗΣ Κατευθυνόμενη ταξινόμηση (supervsed cassfcaton) Μη-κατευθυνόμενη ταξινόμηση (unsupervsed cassfcaton) Γραμμική: Lnear Dscrmnant Anayss Μη- Γραμμική: Νευρωνικά δίκτυα κλπ. Ιεραρχική : Aggomeratve Dvsve Επιμεριστική: k-means SOM κλπ. Spectra Μηχανές Διανυσμάτων Υποστήριξης (Support Vector Machnes) κλπ. 1

10. ΚΑΤΕΥΘΥΝΟΜΕΝΗ ΤΑΞΙΝΟΜΗΣΗ 2

ΚΑΤΕΥΘΥΝΟΜΕΝΗ ΤΑΞΙΝΟΜΗΣΗ Γίνεται εκπαίδευση της μεθόδου ταξινόμησης για την εύρεση ενός διαχωριστικού επιπέδου Χωρισμός δεδομένων σε δύο ομάδες: Ομάδα εκπαίδευσης (Tranng set) δεδομένα γνωστής προέλευσης για εκπαίδευση της μεθόδου Ομάδα για τεστ (Test set) άγνωστα δεδομένα για αναγνώριση από την εκπαιδευμένη μέθοδο Μπορεί να υπάρξει και τρίτη ομάδα: Ομάδα επαλήθευσης (Vadaton set) δεδομένα γνωστής προέλευσης για επαλήθευση των αποτελεσμάτων της εκπαιδευμένης μεθόδου 3

ΜΗΧΑΝΕΣ ΔΙΑΝΥΣΜΑΤΩΝ ΥΠΟΣΤΗΡΙΞΗΣ (ΜΔΥ) (SUPPORT VECTOR MACHINES, SVM) Ανήκουν στην οικογένεια των μεθόδων ταξινόμησης βασιζόμενων σε πυρήνες Οι ΜΔΥ μεταφέρουν τα δεδομένα στο «χώρο χαρακτηριστικών», στον οποίο τα δεδομένα είναι γραμμικά διαχωριζόμενα και έχουν μεγαλύτερες διαστάσεις, όπου γίνεται ο υπολογισμός ενός πολυεπιπέδου μέγιστου διαχωρισμού των δύο τάξεων. Η μεταφορά επιτυγχάνεται μέσω συναρτήσεων πυρήνων (kernes): συναρτήσεις που δίνουν το εσωτερικό γινόμενο στο χώρο χαρακτηριστικών εκτελόντας υπολογισμούς στο χώρο δεδομένων 4

Δεδομένα {(Χ 1,y 1 ),,(Χ n,y n } όπου Χ =(x 1,,x p ) και y ={1,-1} ανάλογα με την τάξη στην οποία ανήκει το x Διανύσματα υποστήριξης: ανήκουν στα δύο επίπεδα παράλληλα του επιπέδου μέγιστου διαχωρισμού x x w w + b + 1 για y = +1 + b 1 για y = 1 όπου w: παράμετροι του επιπέδου διαχωρισμού, b: offset Γενική λύση: f ( x) = α y x, x Για μη-γραμμικό διαχωρισμό χρησιμοποιούνται οι συναρτήσεις πυρήνων, Κ<.>, και η γενική λύση είναι: f ( x) = α y K x, x

LINEAR DISCRIMINANT ANALYSIS (LDA) Δεδομένα είναι γραμμικά διαχωριζόμενα Διαχωρισμός σε δύο ομάδες Υπολογισμός ενός μετασχηματισμού ο οποίος περιστρέφει τους άξονες και δημιουργεί έτσι νέους άξονες. Προβολή των δεδομένων στους νέους άξονες μεγιστοποιεί τις διαφορές μεταξύ των δύο ομάδων. Ιδανική περίπτωση: εύρεση μετασχηματισμού που διαχωρίζει πλήρως τα δεδομένα Συνήθως: τέτοιος μετασχηματισμός δεν υπάρχει ελαχιστοποίηση επικάλυψης μεταξύ των μετασχηματισμένων ομάδων 6

Σχήμα από: http://www.dtreg.com/da.htm 7

Λύση μέσω μεγιστοποίησης της συνάρτησης κόστους, J(w): όπου: N c : αριθμός δεδομένων στην τάξη c. S B : πίνακας διασποράς μεταξύ των τάξεων (between-cass dstance) S W : πίνακας διασποράς μέσα στις τάξεις (wthn-cass dstance) 8

ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ (ΝΔ) Μοντέλα βασιζόμενα σε βιολογικά νευρωνικά δίκτυα Νευρώνες ενωμένοι μαζί δίκτυο. Αλγόριθμοι που αλλάζουν τη δύναμη κάθε «ένωσης» καθώς το δίκτυο μαθαίνει. 9

ΝΔ ΠΡΟΣΩ ΤΡΟΦΟΔΟΤΗΣΗΣ: ΑΝΑΓΝΩΡΙΣΤΗΣ (FEED-FORWARD NN: PERCEPTRON) Απλούστερο ΝΔ γραμμική μέθοδος ταξινόμησης Τα δεδομένα είναι ενωμένα απευθείας με την έξοδο μέσω συντελεστών βαρύτητας, w. Για δεδομένα Χ={Χ 1,,Χ Ν } η έξοδος του perceptron είναι 1, αν w.x + b > 0 f (x) = 0, αλλιώς όπου w: συντελεστές βαρύτητας, b: σταθερά bas. Εκπαίδευση: w( j)' = w( j) + α( y f ( x)) όπου w(j): τιμή του j th συντελεστή βαρύτητας, f(x): έξοδος του αναγνωριστή, y: η αναμενόμενη έξοδος, α: σταθερά, 0<α<1 Αυτό γίνεται επαναληπτικά και για κάθε νευρώνα στο δίκτυο μέχρι η διαφορά μεταξύ f(x) και y να είναι μικρότερη μιας μικρής σταθεράς. 10

ΠΑΡΑΔΕΙΓΜΑ ΕΚΠΑΙΔΕΥΣΗΣ ΑΝΑΓΝΩΡΙΣΤΗ Από http://en.wkpeda.org/wk/perceptron 11

ΠΟΛΥΣΤΡΩΜΑΤΙΚΟΣ ΑΝΑΓΝΩΡΙΣΤΗΣ (MULTILAYER PERCEPTRON) Πολλαπλά κρυμμένα στρώματα (hdden ayers) νευρώνων ενωμένα με τις εισόδους με πρόσω τροφοδότηση Επίτευξη μη-γραμμικής ταξινόμησης μέσω σιγμοειδούς συνάρτησης, η οποία εφαρμόζεται στο γραμμικό συνδυασμό των εισόδων 1 y = 1 x + e Οπισθοδρομική εκπαίδευση (backpropagaton) η πιο συνήθης: σύγκριση της εξόδου με την αναμενόμενη έξοδο για υπολογισμό του λάθους, το οποίο τροφοδοτείται πίσω μέσα στο ΝΔ για αναπροσαρμογή των συντελεστών βαρύτητας μέσω gradent descent. Επανάληψη μέχρι το λάθος να είναι μικρό. 12

Οπισθοδρομική εκπαίδευση: Forward pass: y n = f ( u ) = f j= 1 1 w j x 1 j + b, για = 1,..., L όπου n -1 : αριθμός κρυμμένων νευρώνων στο στρώμα - 1, L: αριθμός στρωμάτων, : αριθμός εξόδων στο στρώμα Error computaton: δ L = f ( u ) όπου d : αναμενόμενη έξοδος, f (.): παράγωγος Backward pass: Learnng updates: n L L ( d y ) 1 1 δ j = f ( u j ) δ jwj, για = = 1 L,...,1 Δw j = ηδ x 1 j Δb = ηδ για = 1,..., L 13

14 ΕΠΟΜΕΝΟ ΜΑΘΗΜΑ: Στατιστικές αποτελεσμάτων