3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON

Σχετικά έγγραφα
Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 3ο Φροντιστήριο

Το μοντέλο Perceptron

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης. ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

Νευρωνικά ίκτυα. Σηµερινό Μάθηµα

ΠΑΝΕΠΙΣΤΗΜΙΟΥ ΠΑΤΡΩΝ ΕΚΠΑΙ ΕΥΣΗΣ ΑΠΟ ΑΠΟΣΤΑΣΗ

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

4.3. Γραµµικοί ταξινοµητές

Χρήστος Ι. Σχοινάς Αν. Καθηγητής ΔΠΘ. Συμπληρωματικές σημειώσεις για το μάθημα: «Επιχειρησιακή Έρευνα ΙΙ»

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

Ασκήσεις μελέτης της 19 ης διάλεξης

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Ψηφιακή Επεξεργασία Σημάτων

Αναγνώριση Προτύπων Ι

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή

Αναγνώριση Προτύπων Ι

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Πανεπιστήμιο Πατρών Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών. Διάλεξη 11

ΜΑΣ 371: Αριθμητική Ανάλυση ΙI ΑΣΚΗΣΕΙΣ. 1. Να βρεθεί το πολυώνυμο Lagrange για τα σημεία (0, 1), (1, 2) και (4, 2).

Αναγνώριση Προτύπων Ι

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Τεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

y[n] 5y[n 1] + 6y[n 2] = 2x[n 1] (1) y h [n] = y h [n] = A 1 (2) n + A 2 (3) n (4) h[n] = 0, n < 0 (5) h[n] 5h[n 1] + 6h[n 2] = 2δ[n 1] (6)

Γραµµικοί Ταξινοµητές

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΣΤΟΧΑΣΤΙΚΑ ΣΗΜΑΤΑ ΚΑΙ ΕΦΑΡΜΟΓΕΣ

Μέθοδοι πολυδιάστατης ελαχιστοποίησης

ΧΑΡΟΚΟΠΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΜΑΤΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ. Καραγιώργου Σοφία

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Συνεχείς συναρτήσεις πολλών µεταβλητών. ε > υπάρχει ( ) ( )

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΔΕ. 11 ΙΟΥΝΙΟΥ 2012

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοηµοσύνη Ι» 7ο Φροντιστήριο 15/1/2008

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

HMY 795: Αναγνώριση Προτύπων

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

Αριθμητικές Μέθοδοι σε Προγραμματιστικό Περιβάλλον

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 2ο Φροντιστήριο

Κεφ. 6Β: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών

Συγκριτική Μελέτη Μεθόδων Κατηγοριοποίησης σε Ιατρικά Δεδομένα

(1) L{a 1 x 1 + a 2 x 2 } = a 1 L{x 1 } + a 2 L{x 2 } (2) x(t) = δ(t t ) x(t ) dt x[i] = δ[i i ] x[i ] (3) h[i, i ] x[i ] (4)

ΚΕΦΑΛΑΙΟ 2 ΜΗ ΓΡΑΜΜΙΚΕΣ ΕΞΙΣΩΣΕΙΣ

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #8: Βελτιστοποίηση Συστημάτων Ασαφούς Λογικής. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

12. ΑΝΙΣΩΣΕΙΣ Α ΒΑΘΜΟΥ. είναι δύο παραστάσεις μιας μεταβλητής x πού παίρνει τιμές στο

Ακαδηµαϊκό Έτος , Εαρινό Εξάµηνο ιδάσκων Καθ.: Νίκος Τσαπατσούλης

Αριθμητική Ανάλυση και Εφαρμογές

Υπολογιστικά & Διακριτά Μαθηματικά

Αριθμητική Ανάλυση & Εφαρμογές

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ 2012

Ακαδημαϊκό Έτος , Χειμερινό Εξάμηνο Διδάσκων Καθ.: Νίκος Τσαπατσούλης

ΤΕΧΝΟΛΟΓΙΑ ΛΟΓΙΣΜΙΚΟΥ Ι

Τεχνητά Νευρωνικά Δίκτυα. Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης

Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Κεφ. 7: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών

ΕΛΕΓΧΟΣ ΠΑΡΑΓΩΓΙΚΩΝ ΔΙΕΡΓΑΣΙΩΝ

ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ Αίθουσα Νέα Κτίρια ΣΗΜΜΥ Ε.Μ.Π. Ανάλυση Κυρίων Συνιστωσών (Principal-Component Analysis, PCA)

Συστήµατα Μη-Γραµµικών Εξισώσεων Μέθοδος Newton-Raphson

2.1 Αριθμητική επίλυση εξισώσεων

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

ΚΑΤΗΓΟΡΙΕΣ ΤΑΞΙΝΟΜΗΣΗΣ

Ο μαθητής που έχει μελετήσει το κεφάλαιο αυτό θα πρέπει να είναι σε θέση:

ΜΑΘΗΜΑΤΙΚΑ ΘΕΤΙΚΗΣ & ΤΕΧΝΟΛΟΓΙΚΗΣ ΚΑΤΕΥΘΥΝΣΗΣ Γ ΛΥΚΕΙΟΥ ΜΙΓΑΔΙΚΟΙ ΑΡΙΘΜΟΙ ΛΥΜΕΝΕΣ & ΑΛΥΤΕΣ ΑΣΚΗΣΕΙΣ. Επιμέλεια: Γ. Π. Βαξεβάνης (Γ. Π. Β.

Πιθανότητες & Τυχαία Σήματα. Διγαλάκης Βασίλης

Αναγνώριση Προτύπων (Pattern Recognition) Μπεϋζιανή Θεωρία Αποφάσεων (Bayesian Decision Theory) Π. Τσακαλίδης

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων

Συστήματα Αυτομάτου Ελέγχου ΙΙ. Άσκηση. γραμμάτων του επιθέτου σας (π.χ. για το επίθετο Κοσματόπουλος, οι αριθμοί α ι θα είναι a

Δειγματοληψία. Πρέπει να γνωρίζουμε πως πήραμε το δείγμα Το πλήθος n ij των παρατηρήσεων σε κάθε κελί είναι τ.μ. με μ ij συμβολίζουμε την μέση τιμή:

ΜΕΜ251 Αριθμητική Ανάλυση

Εισαγωγή στην Ανάλυση Αλγορίθμων

Ανδρέας Παπαζώης. Τμ. Διοίκησης Επιχειρήσεων

ΠΡΟΓΡΑΜΜΑ ΣΠΟΥΔΩΝ ΣΤΗΝ ΠΛΗΡΟΦΟΡΙΚΗ ΜΑΘΗΜΑΤΙΚΑ Ι (ΘΕ ΠΛΗ 12) ΕΡΓΑΣΙΑ 3 η Ημερομηνία Αποστολής στον Φοιτητή: 7 Ιανουαρίου 2008

Κεφάλαιο 5: Γραμμικές Διακρίνουσες Συναρτήσεις 5.1 Εισαγωγή

Σχεδίαση & Ανάλυση Αλγορίθμων

3 η ΕΝΟΤΗΤΑ ΜΗ ΓΡΑΜΜΙΚΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ ΕΝΟΣ ΚΡΙΤΗΡΙΟΥ

Επομένως το εύρος ζώνης του διαμορφωμένου σήματος είναι 2.

ΕΝΑΣ ΔΙΚΡΙΤΗΡΙΟΣ ΑΛΓΟΡΙΘΜΟΣ SIMPLEX

ΜΕΓΙΣΤΙΚΟΣ ΤΕΛΕΣΤΗΣ 18 Σεπτεμβρίου 2014

ΚΕΦΑΛΑΙΟ 6 ΠΡΟΒΛΕΨΕΙΣ ΜΕ ΥΠΟΔΕΙΓΜΑΤΑ ΧΡΟΝΟΣΕΙΡΩΝ

ΣΗΜΕΙΩΣΕΙΣ ΜΕΛΕΤΗΣ ΙΟΥΝΙΟΥ ΑΛΓΕΒΡΑ Β 2016

Σχεδίαση και Ανάλυση Αλγορίθμων

Κατ οίκον Εργασία 1 Σκελετοί Λύσεων

Πανεπιστήμιο Πατρών Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών. Διάλεξη 4

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Πανεπιστήμιο Πατρών Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών. Διάλεξη 5

Non Linear Equations (2)

HMY 795: Αναγνώριση Προτύπων

PROJECT ΣΤΟ ΜΑΘΗΜΑ ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟ ΟΥΣ

Γεώργιος Ακρίβης. Τμήμα Μηχανικών Η/Υ και Πληροφορικής Πανεπιστήμιο Ιωαννίνων

Γραμμικός Προγραμματισμός Μέθοδος Simplex

Ο Μετασχηματισμός Ζ. Ανάλυση συστημάτων με το μετασχηματισμό Ζ

ΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ

Παραδείγματα (2) Διανυσματικοί Χώροι

Εισαγωγή στις Τηλεπικοινωνίες. Δομή της παρουσίασης

Transcript:

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPRON 3. ΕΙΣΑΓΩΓΗ: Το Perceptron είναι η απλούστερη μορφή Νευρωνικού δικτύου, το οποίο χρησιμοποιείται για την ταξινόμηση ενός ειδικού τύπου προτύπων, που είναι γραμμικά διαχωριζόμενα. - Ενα τέτοιο δίκτυο φαίνεται στο σχήμα: Σχήμα : Perceptron ενός επιπέδου - Κανόνας εκπαίδευσης: Ο κανόνας του Rosenblatt. - Moντέλο νευρώνα: Το μοντέλο Mc Culloch - Pitts Αποτελείται από ένα γραμμικό συνδυαστή ακολουθούμενο από ένα στοιχείο κατωφλίου και παράγει έξοδο με τιμή ±. - Θεωρούμε το signal - flow graph του perceptron. 6

- Η έξοδος του Γ.Σ. θα είναι: υ = wx i i θ p i= () - Σκοπός του perceptron είναι να ταξινομήσει ένα σύνολο εισόδων x, x, x ρ σε μία από τις κλάσεις l και l. - Ο κανόνας απόφασης θα είναι: ανάθεσε το σημείο που αναπαριστούν x, x, x ρ τα στην l, αν y = + και στην αν l y = -. - Οι περιοχές απόφασης διαχωρίζονται από το υπερεπίπεδο που ορίζεται από τη σχέση: p υ = wx i i θ= 0 i= () w x + w x - θ = 0 Στο σχήμα 3 φαίνεται η γραμμική διαχωρισιμότητα για ένα δισδιάστατο πρόβλημα ταξινόμησης, με δύο κλάσεις 63

Σχήμα 3 Για την προσαρμογή του w χρησιμοποιούμε ένα error - correction tule. 3. ΤΟ ΘΕΩΡΗΜΑ ΣΥΓΚΛΙΣΗΣ ΤΟΥ PERCEPRON. - Θεωρούμε ότι το κατώφλι θ(n) σαν ένα συναπτικό βάρος, που είναι συνδεδεμένο σε μια σταθερή είσοδο -. Αρα, το (p + ) x διάνυσμα εισόδου είναι: x(n) = [ -, x (n), x (n),, x p (n) ] (3) και αντίστοιχα ορίζουμε το (p + ) x διάνυσμα βαρών: w(n) = [ θ(n), w (n), w (n),, w p (n) ] (4) - H έξοδος του γραμμικού συνδυαστή είναι: υ(n) = w (n) x(n) (5) - Aν οι κλάσεις l και l είναι γραμμικά διαχωριζόμενες, τότε υπάρχει ένα διάνυσμα βαρών: και wx 0 x l () 6 wx< 0 x l - Το πρόβλημα για το απλό Perceptron είναι να βρούμε το διάνυσμα βαρών w, το οποίο ικανοποιεί τις ανισότητες (6) 64

Σχήμα 4: Ισοδύναμο signal - flow graph του Perceptron. - Αλγόριθμος προσαρμογής των βαρών. ) Αν το n - στό μέλος του εκπαιδευτικού διανύσματος x(n), ταξινομείται σωστά από το διάνυσμα βαρών στην η-στή επανάληψη του αγλορίθμου, δεν γίνεται καμία διόρθωση στο w(n), δηλ. w(n + ) = w(n) αν w (n) x(n) 0 και x(n) l και w(n + ) = w(n) αν w (n) x(n) < 0 και x(n) l (7) ) Διαφορετικά, το διάνυσμα βαρών του Perceptron, ενημερώνεται σύμφωνα με τον κανόνα: w(n + ) = w(n) - η(n) x(n) αν w (n) x(n) 0 και x(n) l και w(n + ) = w(n) + η(n) x(n) αν w (n) < 0 και x(n) l (8) - όπου η παράμετρος ρυθμού - μάθησης η(n) ελέγχει τις ρυθμίσεις, που εφαρμόζονται στο διάνυσμα βαρών στην επανάληψη η. - Αν η(n) = η - ct > 0, τότε έχουμε ένα κανόνα σταθερά αυξανόμενης προσαρμογής (fixed increment adaptation rule) για το Perceptron. Σύγκλιση: ) η =, o fixed increment adaption rule συγκλίνει: Απόδειξη: Για w(0) = 0, υποθέτουμε ότι w (n) x(n) < 0, για η =,, και το διάνυσμα x(n) X (το υποσύνολο των x (n), x (n) l ). 65

Αρα, το perceptron ταξινομεί λάθος τα x(), x(),, και (6β) παραβιάζεται. Τότε για η(n) =, έχουμε: w(n + ) = w(n) + x(n) για x(n) l (9) Eπειδή w(0) = 0, μπορούμε να λύσουμε επαναληπτικά την εξίσωση, άρα: w(n + ) = x() + x() + + x(n) (0) Επειδή οι κλάσεις l και l έχουν υποτεθεί γραμμικά διαχωριζόμενες υπάρχει μια λύση wo για την οποία w x(n) 0 για το διάνυσμα x(),, x(n) X. - Για μια fixed λύση wo, μπορούμε να υπολογίζουμε ένα θετικό αριθμό α από τη σχέση: α= min x( n) X w o x ( n) () Aρα, από την (0), πολ/τας επί w o, παίρνουμε: w o w(n + ) = w o x() + w o x() + + w o x(n) () () () w o w(n + ) na, n =,, p (3) Aπό την ανισότητα Cauchy - Schwartz έχουμε: w o w(n + ) [w o w(n + ) ] (4) (4) (3) [w o w o (n + ) ] n α w o w(n + ) n α w( n+) n α (5) w o Στη συνέχεια, ακολουθούμε μια άλλη τεχνική. Ξαναγράφουμε την (9) στη μορφή: w(k + ) = w(k) + x(k), για k =,, n και x(k) X (6) w(k + ) = w(k) + x(k) + w (k) x(k) (7) Aλλά, έχουμε υποθέσει ότι το perceptron ταξινομεί λάθος ένα διάνυσμα εισόδου x(k) X, άρα w (k) x(k) < 0 (7) w(k + ) w(k) + x(k) ή w(k + ) - w(k) x(k), k =,, n (8) - Προσθέτοντας τις ανισότητες για k =, n και επειδή w(o) = 0, έχουμε: 66

p i= w( n +) x( k ) n β (9) όπου β είναι μια θετική σταθερά που ορίζεται από: (0) β = max x( k) x(n) X - H ανισότητα (9) ορίζει ότι η τετραγωνική νόρμα του w(k + ) αυξάνεται γραμμικά με τον αριθμό των επαναλήψεων (n). Αυτό όμως, έρχεται σε αντίθεση με το αποτέλεσμα της (5), για ικανοποιητικά μεγάλες τιμές του n. Στην πραγματικότητα, το n δεν μπορεί να είναι μεγαλύτερο από κάποια τιμή n max, για την οποία οι σχέσεις (5) και (9) ικανοποιούνται σαν ανισότητα. Αρα, το nmax, θα είναι η λύση της εξίσωσης: nmaxα w o = n β n = max max β w o α () - Εχουμε λοιπόν, αποδείξει ότι, για η(n) = η και w(o) = 0, δοθέντος ότι υπάρχει μια λύση w ο, ο κανόνας για την προσαρμογή των βαρών του perceptron, πρέπει να τελειώσει το πολύ σε nmax επαναλήψεις. - Aπό τις (), (0) και () είναι προφανές ότι δεν υπάρχει μια μοναδική λύση για w ο ή nmax. Ορισμός του fixed - increment converigene theore m, για το perceptron ενός επιπέδου (Rosenblat, 96): Εστω ότι τα υποσύνολα Χ και Χ, του εκπαιδευτικού συνόλου Χ, είναι γραμμικά διαχωριζόμενα και έστω ότι οι είσοδοι που παρουσιάζονται στο απλό perceptron προέρχονται από αυτά τα δύο υποσύνολα. Τότε, το perceptron συγκλίνει μετά aπό μερικές επαναλήψεις η o, με την έννοια ότι: w(n o ) = w(n o + ) = w(n o + ) = είναι ένα διάνυσμα λύσης για n o n max 67

- Θεωρούμε στη συνέχεια τη διαδικασία απόλυτης διάρθρωσης λάθους για την προσαρμογή ενός απλού perceptron, για το οποίο το η(n) είναι μεταβλητό. - Εστω ότι η(n) είναι ο μικρότερος ακέραιος για τον οποίο: η(n) x (n) x(n) > w (n) x(n) - Σε αυτή τη διαδικασία, βρίσκουμε ότι αν το εσωτερικό γινόμενο w (n) x(n) στην η- στή επανάληψη έχει λάθος πρόσημο, τότε το w (n+) x(n) στην επανάληψη n + θα είχε το σωστό πρόσημο. - Αυτό σημαίνει ότι αν το w (n) x(n) έχει λάθος πρόσημο, πρέπει να τροποποιήσουμε την εκπαιδευτική ακολουθία στη n + επανάλειψη θέτοντας x(n+) = x(n). - Mε άλλα λόγια, κάθε πρότυπο παρουσιάζεται επαναληπτικά στο perceptron, μέχρι να ταξινομηθεί σωστά. - Σημειώνουμε επίσης ότι η χρήση της αρχικής τιμής w(0) 0, σπανίως έχει σαν αποτέλεσμα την αύξηση ή ελάττωση του αριθμού των επαναλήψεων που απαιτούνται για σύγκλιση, εξαρτώμενο από το πως το w(0) συνδέεται προς τη λύση w o. 3.3 ΑΝΑΚΕΦΑΛΑΙΩΣΗ - Στον πίνακα, παρουσιάζεται η ανακεφαλαίωση του αλγόριθμου σύγκλισης του perceptron (Lippman, 987). - Το σύμβολο sgn( ), που χρησιμοποιείται στο βήμα 3 του πίνακα, για τον υπολογισμό της πραγματικής απόκρισης του perceptron, παριστάνει την συνάρτηση προσίμου: sgn ( υ) = + αν αν υ > 0 υ < 0 () ΠΙΝΑΚΑΣ : Αλγόριθμος Σύγκλισης του Perceptron Μεταβλητές και Παράμετροι x(n) = (p + ) x input vector [-, x (n), x (n), x ρ (n) ] w(n) = (p + ) x weight vector = [ θ(n), w (n), w (n),, w p (n) ] 68

θ(n) = threshold (κατώφλι) y(n) = actual response (πραγματική έξοδος) d(n) = desired response (επιθυμητή έξοδος) η = learning - rate parameter, θετική σταθερά < Step : Αρχικοποίηση Θέσε w(0) = 0. Κατόπιν κάνε τους υπολογισμούς για η =,, Step : Ενεργοποίηση Στο χρόνο n, ενεργοποίησε το perceptron εφαρμόζονται το συνεχές διάνυσμα εισόδου x(n) και το d(n). Step 3: Υπολογισμός πραγματικής Απόκρισης Υπολόγισε την πραγματική απόκριση του perceptron: y(n) = sgn [w (n) x(n) ] Step 4: Προσαρμογή διανύσματος βαρών Προσάρμοσε τα βάρη του perceptron: w(n + ) = w(n) + n [d(n) - y(n) ] x(n) (E.C.L. rule) όπου: d(n) = +, αν x(n) ανήκει στην κλάση l -, αν x(n) ανήκει στην κλάση l Step 5: Aύξησε το χρόνο η κατά μια μονάδα και πήγαινε στο βήμα. Παρατήρηση: Για το n ισχύει: ο < η. Για να δώσουμε τιμές μέσα σε αυτό το διάστημα, πρέπει να θυμόμαστε δύο απαιτήσεις (Lippman), που είναι conflict (συγκρουόμενες): - Να παίρνουμε μέσες τιμές των περασμένων εισόδων για να επιτύχουμε ευσταθείς εκτιμήσεις των βαρών, που απαιτεί μικρό η. - Γρήγορη προσαρμογή σε σχέση με τις πραγματικές αλλαγές στις υποκείμενες κατανομείς της διαδικασίας που είναι υπεύθυνη για τη δημιουργία του διανύσματος εισόδου x, απαντεί μια μεγάλη τιμή για το η. 3.4 ΜΕΤΡΟ ΑΠΟΔΟΣΗΣ 69

Είναι προφανές μέτρο απόδοσης θα μπορούσε να είναι η μέση πιθανότητα του λάθους ταξινόμισης, που ορίζεται σαν η μέση πιθανότητα του perceptron να πάρει απόφαση υπέρ μιας κλασης, όταν το διάνυσμα εισόδου ανήκει σε άλλη κλάση. - Δυστυχώς, ένα τέτοιο μέτρο απόδοσης, δεν οδηγεί από μόνο του στην αναλυτική παραγωγή του αλγόριθμου. - Ο Shynk (990) πρότεινε τη χρήση μιας συνάρτησης απόδοσης, η οποία προσαρμόζεται στη λειτουργία του perceptron, όπως φαίνεται από την: J = -E [ e(n) υ(n) ] (6) όπου e(n) = d(n) - y(n)-, το σήμα λάθους υ(n) = η έξοδος του γραμμικού συνδυαστή - Η στιγμιαία εκτίμηση της συνάρτησης απόδοσης, είναι χρονικά μεταβαλλόμενη συνάρτηση: J( n ) = - e (n) υ(n) = - [ d (n) - y (n) ] υ (n) J( n ) (7) - o στιγμιαίο gradient vector ορίζεται σαν: w J$ (n) = J(n) w( n) (8) - Aρα, επειδή το d(n) είναι ανεξάρτητο του w(n) και το γεγονός ότι η πραγματική έξοδος y(n) έχει μια σταθερή τιμή ±, από τις (7) και () w J$ (n) = - [ d(n) - y(n) ] v(n) w( n) (9) Aπό την (5): υ(n) = w (n) x(n) u( n) w( n) = x( n) (30) Εξ ορισμού είναι: υ = w x = p υ wx i i = w i= υ w υ w : υ w p 70

αλλά υ w i = xi για i =,,, p άρα: υ w = x x : x p = x Aντικαθιστώντας την (30) στην (9) έχουμε το αποτέλεσμα: w J$ (n) = - [ d (n) - y (n) ] x( n ) (3) Aρα, σύμφωνα με το E.C.L. rule, μπορούμε να εκφράσουμε την αλλαγή, που εφαρμόζεται στο διάνυσμα βαρών σαν: Δ w( n ) = η J$ (n) = - η [ d(n) - y(n) ] x( n) w (3) όπου η είναι η learning - rate parameter. - Αυτό είναι ακριβώς η διόρθωση που έγινε στο διάνυσμα βαρών, καθώς προχωρούμε από την επανάλειψη n στην n +, όπως περιγράφεται από την εξίσωση (5). Αποδείξαμε λοιπόν ότι η στιγμιαία εκτίμηση της συνάρτησης απόδοσης J ( n) J(n), όπως ορίζεται από την (7), είναι πράγματι το σωστό μέτρο απόδοσης για ένα perceptron ενός επιπέδου. 7