Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα

Σχετικά έγγραφα
Γραµµικοί Ταξινοµητές

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

4.3. Γραµµικοί ταξινοµητές

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

Το μοντέλο Perceptron

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

Ασκήσεις μελέτης της 19 ης διάλεξης

Νευρωνικά ίκτυα και Εξελικτικός. Σηµερινό Μάθηµα. επανάληψη Γενετικών Αλγορίθµων 1 η εργασία Επανάληψη νευρωνικών δικτύων Ασκήσεις εφαρµογές

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Ακαδημαϊκό Έτος , Χειμερινό Εξάμηνο Διδάσκων Καθ.: Νίκος Τσαπατσούλης

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 3ο Φροντιστήριο

ΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΠΜΣΕ ΣΤΗΝ ΕΦΑΡΜΟΣΜΕΝΗ ΠΛΗΡΟΦΟΡΙΚΗ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΚΑΙ ΕΞΕΛΙΚΤΙΚΟΙ ΑΛΓΟΡΙΘΜΟΙ

Συστήµατα Μη-Γραµµικών Εξισώσεων Μέθοδος Newton-Raphson

Προσαρµοστικοί Αλγόριθµοι Υλοποίησης Βέλτιστων Ψηφιακών Φίλτρων: Ο αναδροµικός αλγόριθµος ελάχιστων τετραγώνων (RLS Recursive Least Squares)

ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ

Τεχνητή Νοημοσύνη. 19η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Αναγνώριση Προτύπων Ι

Νευρωνικά ίκτυα. Σηµερινό Μάθηµα

Α. ΤΕΙ ΚΡΗΤΗΣ Τµήµα Εφαρµοσµένης Πληροφορικής και Πολυµέσων Εργαστήριο Νευρωνικών Δικτύων

/5

4. Ο αισθητήρας (perceptron)

Υπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης. ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

HMY 795: Αναγνώριση Προτύπων

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο

Ακαδηµαϊκό Έτος , Εαρινό Εξάµηνο ιδάσκων Καθ.: Νίκος Τσαπατσούλης

οµή δικτύου ΣΧΗΜΑ 8.1

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΣΤΟΧΑΣΤΙΚΑ ΣΗΜΑΤΑ ΚΑΙ ΕΦΑΡΜΟΓΕΣ

Γραµµική Αλγεβρα. Ενότητα 3 : ιανυσµατικοί Χώροι και Υπόχωροι. Ευστράτιος Γαλλόπουλος Τµήµα Μηχανικών Η/Υ & Πληροφορικής

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοηµοσύνη Ι» 7ο Φροντιστήριο 15/1/2008

Κινητά Δίκτυα Επικοινωνιών. Συμπληρωματικό υλικό. Προσαρμοστική Ισοστάθμιση Καναλιού

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΔΕ. 11 ΙΟΥΝΙΟΥ 2012

Αναγνώριση Προτύπων Ι

Κεφάλαιο 1. Αριθµητική ολοκλήρωση συνήθων διαφορικών εξισώσεων και συστηµάτων

Βέλτιστα Ψηφιακά Φίλτρα: Φίλτρα Wiener, Ευθεία και αντίστροφη γραµµική πρόβλεψη

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

Οι πράξεις που χρειάζονται για την επίλυση αυτών των προβληµάτων (αφού είναι απλές) µπορούν να τεθούν σε µια σειρά και πάρουν µια αλγοριθµική µορφή.

Μη Συµβολικές Μέθοδοι

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ 2012

Γραµµική Άλγεβρα. Εισαγωγικά. Μέθοδος Απαλοιφής του Gauss

Επίλυση Γραµµικών Συστηµάτων

Τεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON

Αριθμητική εύρεση ριζών μη γραμμικών εξισώσεων

Μέθοδοι Μηχανικής Μάθησης στην επεξεργασία Τηλεπισκοπικών Δεδομένων. Δρ. Ε. Χάρου

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΚΕΦΑΛΑΙΟ 4 ΑΡΙΘΜΗΤΙΚΕΣ ΜΕΘΟ ΟΙ ΕΥΡΕΣΗΣ ΠΡΑΓΜΑΤΙΚΩΝ Ι ΙΟΤΙΜΩΝ. 4.1 Γραµµικοί µετασχηµατισµοί-ιδιοτιµές-ιδιοδιανύσµατα

ΧΑΡΟΚΟΠΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΜΑΤΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ. Καραγιώργου Σοφία

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΚΕΦΑΛΑΙΟ 3 ΑΡΙΘΜΗΤΙΚΗ ΕΠΙΛΥΣΗ ΓΡΑΜΜΙΚΩΝ ΣΥΣΤΗΜΑΤΩΝ. nn n n

Αναγνώριση Προτύπων (Pattern Recognition)

Γ. Κορίλη Αλγόριθµοι ροµολόγησης

ΕΙΣΑΓΩΓΗ ΣΤΗ ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ ΣΥΣΤΗΜΑΤΩΝ

QR είναι ˆx τότε x ˆx. 10 ρ. Ποιά είναι η τιµή του ρ και γιατί (σύντοµη εξήγηση). P = [X. 0, X,..., X. (n 1), X. n] a(n + 1 : 1 : 1)

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 13-14

Επίλυση δικτύων διανοµής

Στατιστική περιγραφή τουπεδίουβαρύτητας

Νευρωνικά Δίκτυα στο Matlab

Σχεδίαση Σ.Α.Ε: Σχεδίαση µε το Γεωµετρικό Τόπο Ριζών

Βασίλειος Μαχαιράς Πολιτικός Μηχανικός Ph.D.

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Τεχνητά Νευρωνικά Δίκτυα. Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης

Αριθµητική Ανάλυση 1 εκεµβρίου / 43

Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος

προβλήµατος Το φίλτρο Kalman διαφέρει από τα συνηθισµένα προβλήµατα ΜΕΤ σε δύο χαρακτηριστικά: παραµέτρων αγνώστων

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ

Επιστηµονικός Υπολογισµός Ι

Κατάτµηση εικόνας σε οµοιόµορφες περιοχές

Αριθμητική Ανάλυση & Εφαρμογές

Αναγνώριση Προτύπων (Pattern Recognition) Μπεϋζιανή Θεωρία Αποφάσεων (Bayesian Decision Theory) Π. Τσακαλίδης

ΚΕΦΑΛΑΙΟ Μηχανική Μάθηση

HMY 795: Αναγνώριση Προτύπων

Συγκριτική Μελέτη Μεθόδων Κατηγοριοποίησης σε Ιατρικά Δεδομένα

Ανάλυση Σ.Α.Ε στο χώρο κατάστασης

Transcript:

KEΣ 3 Αναγνώριση Προτύπων και Ανάλυση Εικόνας Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα ΤµήµαΕπιστήµης και Τεχνολογίας Τηλεπικοινωνιών Πανεπιστήµιο Πελοποννήσου Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Περιεχόµενα Βιβλιογραφία Περιεχόµενα Ενότητας Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρωνστοναλγόριθµο back-propagation Παραδείγµατα Βιβλιογραφία: Duda [4]: Chapter 6 Theodoridis []: Chapter 4 Bow []: Chapter 8

Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Εισαγωγή Μέχρι τώρα είδαµε ότιοιγραµµικοί ταξινοµητές µπορούν να σχεδιαστούν µε τέτοιο τρόπο ώστε να ελαχιστοποιούν το σφάλµα ταξινόµησης σε γραµµικά διαχωρίσιµα δεδοµένα (αλγόριθµος Perceptron, SVM) αλλά και σε µη γραµµικά διαχωρίσιµα δεδοµένα (αλγόριθµος Pocket, SVM) Υπάρχουν εντούτοις προβλήµατα στα οποία οι γραµµικοί ταξινοµητές δεν έχουν αποδεκτή απόδοση Σε τέτοιους είδους προβλήµαταπολυεπίπεδαδίκτυαperceptron σε συνδυασµό µε το αλγόριθµο back-propagation αποδεικνύονται ιδιαίτερα αποτελεσµατικά Τα πολυεπίπεδα Perceptron αποτελούν µια υποκατηγορία µιας ευρείας κατηγορίας µη γραµµικών ταξινοµητών που ονοµάζονται Νευρωνικά ίκτυα. Άλλα είδη Νευρωνικών ικτύων είναι τα δίκτυα RBF, τα δίκτυα Hopfiled, κ.λπ. Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Το πρόβληµα XOR x x XOR The XOR problem Class ω ω ω ω Το απλούστερο µη γραµµικό πρόβληµα είναι το πρόβληµα XOR (βλέπε σχήµα και πίνακα αληθείας στα αριστερά). Είναι εµφανές ότι δεν µπορούµε να βρούµε µια γραµµή: T = w x + w x.8.6.4. γιατηνοποίαναισχύει: >, <, x ω x ω (δηλαδή να διαχωρίζει τις κλάσεις ω, ω )..4.6.8 x

Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Πολυεπίπεδες Perceptron Το πρόβληµα XOR µπορεί να λυθεί χρησιµοποιώντας δύο γραµµές. Ηκλάσηω, βρίσκεται εκτός της σκιαγραµµισµένης περιοχής και η κλάση ω βρίσκεται εντός. Το XOR πρόβληµα µπορεί να λυθεί σε δύο βήµατα: Βήµα : Σχεδιάζουµε δύογραµµές: g x) = ( = Καθεµία από τις γραµµές υλοποιείται µε µια µηχανή Perceptron (νευρώνας). Η έξοδος τους θα είναι: yi = f ( gi ( x)) = i =, Βήµα : Βρίσκουµε τηθέσητουx σε σχέση και µε τις δύο γραµµές (τιµές y, y ) Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα x st phase x y (-) (+) (+) (+) y (-) (-) (-) (+) Πολυεπίπεδες Perceptron (II) nd phase ω () ω () ω () ω () Ισοδύναµα: Οι υπολογισµοί στο πρώτο βήµα πραγµατοποιούν µια αντιστοίχιση: T x y = [ y, y] Ηταξινόµηση γίνεται τώρα στα µετασχηµατισµένα δεδοµένα y (βλέπε σχήµα). Ηταξινόµηση αυτή πραγµατοποιείται από µια γραµµή (υπερεπιφάνεια) και εποµένως µπορεί να υλοποιηθεί µέσω µιας µηχανής Perceptron. Οι υπολογισµοί στο πρώτο βήµα εκτελούνµια αντιστοίχιση η οποία µετασχηµατίζει το µη γραµµικά διαχωρίσιµο πρόβληµα σε διαχωρίσιµο 3

Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Perceptron δύο επιπέδων g( x) = x + x = 3 g( x) = x + x = g( y) = y y = Η αρχιτεκτονική του συνολικού ταξινοµητή για το πρόβληµα XOR φαίνεται στο σχήµα. Η αρχιτεκτονική αυτή είναι γνωστή ως µηχανή Perceptron δύο επιπέδων µε ένακρυφό (hidden) (δύο εσωτερικοί νευρώνες) επίπεδο και ένα επίπεδο εξόδου (εξωτερικός νευρώνας) Η συνάρτηση ενεργοποίησης f όλων των νευρώνων δίνει έξοδο ή. f ( ) = Τα δεδοµένα εισόδου καθορίζουν το επίπεδο εισόδου το οποίο όµως δεν πραγµατοποιεί κάποια επεξεργασία. Συνολικά η µηχανή Perceptron δύο επιπέδων του παραδείγµατος υλοποιεί τις γραµµές (υπερεπίπεδα) που δίνονται από τις σχέσεις στα αριστερά (<=). Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Ταξινόµηση από τη µηχανή Perceptron δύο επιπέδων Η αντιστοίχιση που πραγµατοποιείται στο πρώτο επίπεδο µετασχηµατίζει τα δεδοµένα εισόδου στις κορυφές ενός τετραγώνου µοναδιαίας πλευράς, δηλαδή στα σηµεία (, ), (,), (,), (,). Στη γενική περίπτωση (βλέπε σχήµα) έχουµε: l x R T x y = [ y,... y p ], yi, i =,,... { } p και η αντιστοίχιση του διανύσµατος x γίνεται σε µια από τις κορυφές ενός υπερκύβου H p. Η αντιστοίχιση αυτή επιτυγχάνεται από τα p υπερεπίπεδα που ορίζουν οι εσωτερικοί νευρώνες. Η έξοδος καθενός από αυτούς τους νευρώνες είναι είτε µηδέν () είτε ένα () ανάλογα µε τησχετική θέση του x ως προς το υπερεπίπεδο. 4

Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Ταξινόµηση από τη µηχανή Perceptron δύο επιπέδων (ΙΙ) Οι τοµές των υπερεπιπέδων ορίζουν περιοχές (βλέπε σχήµα) στον l-διάστατο χώρο. Κάθε περιοχή αντιστοιχεί σε µια κορυφή του υπερκύβου. Για παράδειγµα ηπεριοχή βρίσκεται: στην αρνητική (-) πλευρά της g (x)= στην αρνητική (-) πλευρά της g (x)= στη θετική (+) πλευρά της g 3 (x)= Ο νευρώνας εξόδου υλοποιεί ένα υπερεπίπεδο στο µετασχηµατισµένο χώρο y, το οποίο διαχωρίζεις κάποιες κορυφές από κάποιες άλλες. Συγκεκριµένα µπορεί να διαχωρίσει περιοχές των οποίων η ένωση ορίζει µια συνεχή περιοχή αλλά όχι κάθε συνδυασµό περιοχών Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Παράδειγµα x..8.6.4 Data separable by two layer perceptron Γιαταδεδοµένα του σχήµατος στα αριστερά (κόκκινα κλάση ω, πράσινα κλάση ω ) να βρείτε µια µηχανή Perceptron δύο επιπέδων που να τα ταξινοµεί σωστά. Ζητούµενα: g (x), g (x), g(y) f( ) Transformation to y-space..8.6 y -..4 -...4.6.8. x...4.6.8 y 5

Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Παράδειγµα ΙΙ Οι παρακάτω γραµµές διαχωρίζουν τον διδιάστατο χώρο σε επτά περιοχές: = x + x = 3 = x = x = 4 x =. Να σχηµατίσετε τις ανωτέρω περιοχές. Να βρείτε σε ποιά κορυφή του κύβου αντιστοιχείται κάθε περιοχή 3. Αν οι περιοχές και σχηµατίζουν την κλάση ω καιοιυπόλοιπες την κλάση ω να ελέγξετε κατά πόσο το ανωτέρω πρόβληµα ταξινόµησης είναι επιλύσιµο µε µια µηχανή perceptron δύο επιπέδων. Αν είναι βρείτε την επιφάνεια διαχωρισµού των κλάσεων (δηλαδή τη συνάρτηση g(y)) Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Ηαρχιτεκτονικήτηςµηχανής Perceptron τριών επιπέδων φαίνεται στο σχήµα. Μηχανή Perceptron τριών επιπέδων Η µηχανή Perceptron τριών επιπέδων µπορεί να διαχωρίσει οποιοδήποτε συνδυασµό περιοχώνστοµετασχηµατισµένο χώρο y. Ηβασικήιδέαείναιπαρόµοια µε αυτή του XOR προβλήµατος: Χρησιµοποιούµε περισσότερα από ένα υπερεπίπεδα για να διαχωρίσουµε p το χώρο y R Τα υπερεπίπεδα αυτά συνδυάζονται στο επίπεδο εξόδου για τον τελικό διαχωρισµό σεδύοκλάσεις. 6

Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Η µηχανή Perceptron τριών επιπέδων µπορεί να διαχωρίσει οποιοδήποτε συνδυασµό περιοχών διότι: Μηχανή Perceptron τριών επιπέδων (ΙΙ) Για κάθε κορυφή του υπερκύβου που ανήκει στην κλάση ω µπορούµε να ορίσουµε ένα υπερεπίπεδο που διαχωρίζει αυτή την περιοχή (+) από όλες τις άλλες (-). Το επίπεδο εξόδου υλοποιεί µια συνάρτηση OR (όλων των κορυφών που ανήκουνστηνκλάσηω ). Συνοπτικά: Το πρώτο κρυφό επίπεδο δηµιουργεί τις υπερεπιφάνειες διαχωρισµού Το δεύτερο σχηµατίζει τις περιοχές Το επίπεδο εξόδου σχηµατίζει τις κλάσεις Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Παράδειγµα ΙΙΙ Οι παρακάτω γραµµές διαχωρίζουν τον διδιάστατο χώρο σε επτά περιοχές: = x + x = 3 = x = x = 4 x =. Αν οι περιοχές και σχηµατίζουν την κλάση ω καιοιυπόλοιπες την κλάση ω να βρείτε τις υπερεπιφάνειες διαχωρισµού των κλάσεων (δηλαδή τις συνάρτησεις q (y), q (y)) καθώς και την συνάρτηση εξόδου (OR) 7

Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Με τον όρο σχεδίαση αναφερόµαστε στην εύρεση, µε συστηµατικό τρόπο, των συναρτήσεων αντιστοίχισης (πρώτο επίπεδο), σχηµατισµού περιοχών (δεύτερο επίπεδο), και διαχωρισµού κλάσεων (επίπεδο εξόδου) από ένα σύνολο διανυσµάτων εκπαίδευσης [x, x,, x N ] γιαταοποίαείναιγνωστές οι κλάσεις στις οποίες ανήκουν. Υπάρχουν δύο βασικές κατευθύνσεις όσον αφορά τη σχεδίαση πολυεπίπεδων µηχανών Perceptron: Σχεδίαση πολυεπίπεδων µηχανών Perceptron Κατασκευή perceptron τριών επιπέδων για ορθή ταξινόµηση όλων των διανυσµάτων εκπαίδευσης µε χρήση της µεθοδολογίας που περιγράφηκε στις προηγούµενες διαφάνειες. Προφανώς σε αυτή την περίπτωση η δοµή του δικτύου Perceptron δεν είναι γνωστή και πρέπει να προκύψει από τη διαδικασία µάθησης. Με δεδοµένη µια δοµή γιατοδίκτυοperceptron υπολογίζουµε τα συναπτικά βάρη w ij, w i για την ελαχιστοποίηση ενός κριτηρίου κόστους. Η µεθοδολογία αυτή δεν οδηγεί πάντα σε ορθή ταξινόµηση όλων των διανυσµάτων εκπαίδευσης. Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Ο αλγόριθµος backpropagation Οαλγόριθµος backpropagation εφαρµόζεται σε πολυεπίπεδα δίκτυα Perceptron όπως αυτό του σχήµατος Συµβολισµοί: Είσοδος => ιάνυσµα x = [x x x L ] T Έξοδος => z = [z z z k ] T Νευρώνας i m => i-στός νευρώνας m-στού επιπέδου Συναπτικά βάρη w ijm => Βάρος που συνδέει τον i-στο νευρώνα του m-στού επιπέδου µε τονjστο νευρώνα του αµέσως προηγούµενου επιπέδου 8

Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Ο αλγόριθµος back-propagation είναι µια επαναληπτική διαδικασία υπολογισµού των συναπτικών βαρών [w ik j w i j ] σε ένα πολυεπίπεδο δίκτυο Perceptron µε τη βοήθεια των δεδοµένων εκπαίδευσης (x q, d q ), q =,,,N, όπου: x q = [x q x q x ql ] T το q-στο διάνυσµα εισόδου διάστασης L (x q є R L ) d q : ηεπιθυµητή έξοδος του διανύσµατος x q, µέσω της οποίας παράγεται η τελική κλάση στην οποία ανήκει ( => κλάση ω, => κλάση ω ) Επειδή στον αλγόριθµο back-propagation βελτιστοποιείται ένα κριτήριο κόστους (και όχι στο σφάλµα ταξινόµησης) είναι επιθυµητό οι συναρτήσεις ενεργοποίησης f ( ) τωννευρώνωνναέχουνσυνεχήµορφή ώστε να είναι παραγωγίσιµες: Η συνάρτηση ενεργοποίησης της µηχανής Perceptron δεν είναι αποδεκτή Αντίθετα η σιγµοειδής συνάρτηση: Ο αλγόριθµος backpropagation (ΙΙ) f ( x) = f ( x) = + e x > x < ax έχει παρόµοια συµπεριφορά αλλά επιπλέον είναι και παραγωγίσιµη Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Μορφή σιγµοειδούς συνάρτησης Ησιγµοειδής συνάρτηση µε κατάλληλη τιµή του α προσεγγίζει την βηµατική συνάρτηση αλλά εξακολουθεί να είναι παραγωγίσιµη. Η παράγωγος της σιγµοειδούς συνάρτησης δίνεται από τη σχέση: f ( x) = + e ax ax df ( x) ae f ' ( x) = = dx + e ax = af ( x) ( f ( x) ) 9

Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Βήµατα: Ορισµός µιας συνάρτησης κόστους J. Η συνηθέστερη επιλογή είναι η συνάρτηση σφάλµατος ελαχίστων τετραγώνων (least squares error). Το σφάλµα ορίζεταιωςηδιαφοράανάµεσα στο επιθυµητό διάνυσµα εξόδου d q του διανύσµατος x q και την πραγµατική έξοδο z q που δίνει το συγκεκριµένο διάνυσµα: e q = d q z q Ορισµός µιας επαναληπτικής διαδικασίας βελτιστοποίησης (ελαχιστοποίησης) της συνάρτησης κόστους ως προς τα συναπτικά βάρη w ij m. Η συνηθέστερη επιλογή είναι η χρήση της µεθόδου κατάβασης κατά τη µέγιστη κλίση (Gradient descent). Εναλλακτικές επιλογές: Αλγόριθµος Newton Υπολογισµός συναπτικών βαρών J = N q= Συζυγής κλίση (Conjugate gradient) e T q e q Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Η διαδικασία εύρεσης των συναπτικών βαρών είναι ένα µη γραµµικό πρόβληµα βελτιστοποίησης εξαιτίας της συνάρτησης ενεργοποίησης f( ) η οποία στις περισσότερες περιπτώσεις είναι µη γραµµική (π.χ. η σιγµοειδής συνάρτηση). Υπολογισµός συναπτικών βαρών (ΙΙ) Στην περίπτωση της µεθόδου κατάβασης κατά τη µέγιστη κλίση η επαναληπτική διαδικασία υπολογισµού των συναπτικών βαρών περιγράφεται από τις σχέσεις: r r w ( new) = w (old) + w r J w = µ w r r

Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Υπολογισµός των βαρών στον back-propagation ιαδικασία:. Αρχικοποίηση των συναπτικών βαρών µε µικρές τυχαίες τιµές. Υπολογισµός της κλίσης της συνάρτησης κόστους σε σχέση µε τα συναπτικά βάρη από το τελευταίο επίπεδο (επίπεδο εξόδου) προς τα πίσω 3. ιόρθωση των βαρών µε µεταβολή αντίθετα προς την κλίση της συνάρτησης κόστους 4. Επανάληψη των βηµάτων ()-(3) µέχρι την ικανοποίηση ενός κριτηρίου τερµατισµού (π.χ. πολύ µικρή µεταβολή των βαρών) Υπάρχουν δύο διαφορετικές προσεγγίσεις ως προς την διόρθωση των βαρών. ιόρθωση µετά από τον υπολογισµό της εξόδου κάθε προτύπου (Pattern mode). ιόρθωση µετά από την εφαρµογή του συνόλου των δεδοµένων εκπαίδευσης προτύπων (Batch mode) Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Σχηµατική αναπαράσταση του back-propagation

Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Εξισώσεις διόρθωσης των βαρών Έστω ότι έχουµε κριτήριο κόστους το τετραγωνικό σφάλµα: T J = e e e = d z όπου d ηεπιθυµητή έξοδος για το διάνυσµα εισόδου x και z ηέξοδοςτου δικτύου υπολογισµένη µε τα τρέχοντα βάρη. Η διόρθωση των βαρών στο δεύτερο επίπεδο δίνεται από τις σχέσεις: () () () wi ( new) = wi ( old) + wi () wi = µ y δi, i =,,..., k () T () δi = f ' wi y w + i ( di zi ) όπου <µ< είναι το βήµα προσαρµογής, f ( ) είναι η παράγωγος της συνάρτησης ενεργοποίησης, y είναι το διάνυσµα των εξόδων του πρώτου επιπέδου, και w i () είναι το διάνυσµα συναπτικών βαρών που εισέρχονται στον i-στο νευρώνα του δευτέρου επιπέδου. Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Εξισώσεις διόρθωσης των βαρών (ΙΙ) Η διόρθωση των βαρών στο πρώτο επίπεδο δίνεται από τις σχέσεις: () j () j () j w ( new) = w ( old) + w, () T ( ) () T w j = µ u j δ f ' wi x+ w δ () wi j δ () w j δ =, u =... j... () δk w kj () j j =,,..., p x όπου x είναι το πρότυπο εισόδου, w j () είναι το διάνυσµα συναπτικών βαρών που εισέρχονται στον j-στο νευρώνα του πρώτου επιπέδου, και u j είναι το διάνυσµα συναπτικών βαρών που εξέρχονται από τον j-στο νευρώνα του πρώτου επιπέδου

Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Επιλογή Παραµέτρων Ηεφαρµογή του αλγορίθµου back-propagation απαιτεί τη ρύθµιση κάποιων παραµέτρων εξαρχής: Κριτήριο κόστους Μέσο τετραγωνικό σφάλµα (Least Mean Squares Error LMS Error): J = N i= E( i) k k E( i) = em ( i) = ( d m ( i) z m ( i)) m= m= i =,,..., N όπου d m (i) είναι η επιθυµητή έξοδος από τον m νευρώνα εξόδου για το πρότυπο i (µπορεί να είναι ή ) και z m (i) ηπραγµατική έξοδος (στον ίδιο νευρώνακαιγιατοίδιοπρότυπο) η οποίακυµαίνεται στο διάστηµα [ ] ιασταυρούµενη εντροπία (Cross Entropy) J = N i= k E( i) E( i) = { d ( i) ln z ( i) + ( d ( i)) ln( z ( i)) } m= m m m m Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Επιλογή Παραµέτρων (II) Μέγεθος δικτύου Perceptron Συνήθως επιλέγεται δίκτυο µε έναµόνο κρυφό (hidden) επίπεδο. Οι νευρώνες εξόδου καθορίζονται από τον αριθµό των κλάσεων στα οποία θα ταξινοµήσουµε ταδεδοµένα. Εποµένως η επιλογή αφορά το πλήθος των νευρώνων στο κρυφό επίπεδο (p). Υπάρχουν δύο βασικές προσεγγίσεις: Μέθοδοι κλαδέµατος (pruning techniques). Ξεκινάµε απόέναδίκτυοµε πολλούς κόµβους και σταδιακά αφαιρούµε τους πιο ανενεργούς µε χρήση διαφόρων κριτηρίων Μέθοδοι σύνθεσης (constructive techniques). Ξεκινάµε απόέναδίκτυµε λίγους κόµβους και προσθέτουµε νέους µε στόχο τη βελτίωση της ταξινόµησης Γενικά πολλοί κόµβοι στο εσωτερικό επίπεδο οδηγούν σε εύκολη µάθηση αλλά σε πολλές περιπτώσεις φτωχή γενικευτική ικανότητα. Αντίθετα λίγοι κόµβοι µπορεί να µας οδηγήσουν σε ένα τοπικό ελάχιστο της συνάρτησης κόστους (µη επαρκήςλύση). Έχουν όµως καλύτερη γενικευτική ικανότητα 3

Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Προβλήµατα του backpropagation. Πιθανή σύγκλιση σε τοπικό ελάχιστο:. Φτωχή γενίκευση Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Παραδείγµατα Κατά την εφαρµογή του αλγορίθµου back-propagation στην m-στη επανάληψη έχουµε: Είσοδο το πρότυπο x = [ 3] Τ το οποίο έχει επιθυµητή έξοδο d = [ ] Τ Πίνακα βαρών στο πρώτο επίπεδο W = [w () w ()... w p () ] (η τελευταία γραµµή του πίνακα W αντιστοιχεί στα κατώφλια w i () των κόµβων): W.6. =......8.3.3.7.6 Πίνακα βαρών στο δεύτερο επίπεδο W = [w () w () w k () ] (η τελευταία γραµµή του πίνακα W αντιστοιχεί στα κατώφλια w i () των κόµβων): W.7.9 =.3.6.4.6.4.7.8.7 4

Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος back-propagation Επιλογή παραµέτρων Παραδείγµατα Παραδείγµατα (II) Ζητούµενα:. Να σχηµατίσετε το δίκτυο. Να υπολογίσετε την έξοδο y του κρυφού επιπέδου για το πρότυπο x. 3. Να υπολογίσετε την έξοδο z του δικτύου για το πρότυπο x 4. Να εφαρµόσετε τον αλγόριθµο back-propagation για τον υπολογισµό των πινάκων W, W στην m+ επανάληψη (µετά την εφαρµογή της εισόδου x) Θεωρήστε ότι όλοι οι κόµβοι έχουν συνάρτηση ενεργοποίησης: f ( x) = + e x για την οποία ισχύει: f '( x) = f ( x) ( f ( x) ) 5