ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Σχετικά έγγραφα
Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΜΑΘΗΣΗ ΔΙΚΤΥA LVQ και SOM. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Το μοντέλο Perceptron

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Προσομοίωση Νευρωνικού Δικτύου στο MATLAB. Κυριακίδης Ιωάννης 2013

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #12: Εισαγωγή στα Nευρωνικά Δίκτυα. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #8: Βελτιστοποίηση Συστημάτων Ασαφούς Λογικής. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΠΡΟΒΛΗΜΑΤΑ ΔΥΟ ΔΙΑΣΤΑΣΕΩΝ

E[ (x- ) ]= trace[(x-x)(x- ) ]

ΦΙΛΤΡΟ KALMAN ΔΙΑΚΡΙΤΟΥ ΧΡΟΝΟΥ

ΧΑΡΟΚΟΠΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΜΑΤΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ. Καραγιώργου Σοφία

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ

Μέθοδοι πολυδιάστατης ελαχιστοποίησης

Κινητά Δίκτυα Επικοινωνιών. Συμπληρωματικό υλικό. Προσαρμοστική Ισοστάθμιση Καναλιού

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)

ΠΕΡΙΕΧΟΜΕΝΑ. ΠΡΟΛΟΓΟΣ... vii ΠΕΡΙΕΧΟΜΕΝΑ... ix ΓΕΝΙΚΗ ΒΙΒΛΙΟΓΡΑΦΙΑ... xv. Κεφάλαιο 1 ΓΕΝΙΚΕΣ ΕΝΝΟΙΕΣ ΑΠΟ ΤΗ ΣΤΑΤΙΣΤΙΚΗ

ΘΕΩΡΙΑ ΑΠΟΦΑΣΕΩΝ 3 ο ΦΡΟΝΤΙΣΤΗΡΙΟ ΛΥΣΕΙΣ ΤΩΝ ΑΣΚΗΣΕΩΝ

Τμήμα Εφαρμοσμένης Πληροφορικής

ΠΡΟΣΕΓΓΙΣΗ ΚΑΙ ΑΝΑΠΑΡΑΣΤΑΣΗ ΔΕΔΟΜΕΝΩΝ ΜΙΑΣ ΔΙΑΣΤΑΣΗΣ ΜΕ ΣΥΝΔΥΑΣΜΟ MLP ΚΑΙ RBF ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ Η ΜΕΤΑΠΤΥΧΙΑΚΗ ΕΡΓΑΣΙΑ ΕΞΕΙΔΙΚΕΥΣΗΣ.

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

ΚΑΤΗΓΟΡΙΕΣ ΤΑΞΙΝΟΜΗΣΗΣ

Κεφάλαιο 5 Γραμμικοί Μετασχηματισμοί

Υπολογιστική Νοημοσύνη. Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks

HY213. ΑΡΙΘΜΗΤΙΚΗ ΑΝΑΛΥΣΗ ΕΛΑΧΙΣΤΑ ΤΕΤΡΑΓΩΝΑ AΝΑΛΥΣΗ ΙΔΙΑΖΟΥΣΩΝ ΤΙΜΩΝ

ΣΗΜΑΤΑ ΚΑΙ ΣΥΣΤΗΜΑΤΑ Ι

ΓΡΑΜΜΙΚΟΣ & ΔΙΚΤΥΑΚΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ

Πανεπιστήμιο Πατρών Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών. Διάλεξη 4

Υπολογιστική Νοημοσύνη. Μάθημα 10: Ομαδοποίηση με Ανταγωνιστική Μάθηση - Δίκτυα Kohonen

3 η ΕΝΟΤΗΤΑ ΜΗ ΓΡΑΜΜΙΚΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ ΕΝΟΣ ΚΡΙΤΗΡΙΟΥ

4.3. Γραµµικοί ταξινοµητές

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON

Αναγνώριση Προτύπων Ι

Αναγνώριση Προτύπων Ι

Α.Τ.Ε.Ι ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΠΟΛΥΜΕΣΩΝ ΕΡΓΑΣΤΗΡΙΟ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ 4

Τεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Μηχανολογικό Σχέδιο με τη Βοήθεια Υπολογιστή. Αφφινικοί Μετασχηματισμοί Αναπαράσταση Γεωμετρικών Μορφών

Ανασκόπηση θεωρίας ελαχίστων τετραγώνων και βέλτιστης εκτίμησης παραμέτρων

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Ανασκόπηση θεωρίας ελαχίστων τετραγώνων και βέλτιστης εκτίμησης παραμέτρων

Τυχαία μεταβλητή (τ.μ.)

14 η εβδομάδα (26/01/2017) Έγιναν οι ασκήσεις 28, 29 και 30. Έγινε επανάληψη στη Θεωρία Καμπυλών και στη Θεωρία Επιφανειών.

ΚΕΦΑΛΑΙΟ 3. Περιγραφή της Μεθόδου ΠΕΡΙΓΡΑΦΗ ΤΗΣ ΜΕΘΟΔΟΥ

HMY 795: Αναγνώριση Προτύπων

Μέθοδοι Μηχανικής Μάθησης στην επεξεργασία Τηλεπισκοπικών Δεδομένων. Δρ. Ε. Χάρου

Βασίλειος Μαχαιράς Πολιτικός Μηχανικός Ph.D.

y(k) + a 1 y(k 1) = b 1 u(k 1), (1) website:

Σημειώσεις διαλέξεων: Βελτιστοποίηση πολυδιάστατων συνεχών συναρτήσεων 1 / 20

a 11 a 1n b 1 a m1 a mn b n

HMY 795: Αναγνώριση Προτύπων

Εργαστήριο Υπολογιστικής Νοημοσύνης Ευφυούς Ελέγχου. Αναστάσιος Ντούνης, Καθηγητής

Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα

Πληροφοριακά Συστήματα Διοίκησης

ΛΥΣΕΙΣ 6. a2 x 2 y 2. = y

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης. ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

Αριθμητική Ανάλυση και Εφαρμογές

Τεχνικές Μείωσης Διαστάσεων. Ειδικά θέματα ψηφιακής επεξεργασίας σήματος και εικόνας Σ. Φωτόπουλος- Α. Μακεδόνας

HMY 795: Αναγνώριση Προτύπων

ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ Αίθουσα Νέα Κτίρια ΣΗΜΜΥ Ε.Μ.Π. Ανάλυση Κυρίων Συνιστωσών (Principal-Component Analysis, PCA)

Αναλογικές και Ψηφιακές Επικοινωνίες

Κεφάλαιο 4 Διανυσματικοί Χώροι

Βέλτιστα Ψηφιακά Φίλτρα: Φίλτρα Wiener, Ευθεία και αντίστροφη γραµµική πρόβλεψη

Συμπίεση Δεδομένων

Υπολογιστική Νοημοσύνη. Μάθημα 12: Παραδείγματα Ασκήσεων 2

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή

ΚΕΦΑΛΑΙΟ 5: ΓΡΑΜΜΙΚΕΣ ΑΠΕΙΚΟΝΙΣΕΙΣ

ΔΙΑΛΕΞΗ 2 Νόμος Gauss, κίνηση σε ηλεκτρικό πεδίο. Ι. Γκιάλας Χίος, 28 Φεβρουαρίου 2014

HMY 795: Αναγνώριση Προτύπων

Εισαγωγικές έννοιες. Κατηγορίες προβλημάτων (σε μια διάσταση) Προβλήματα εύρεσης μεγίστου. Συμβολισμοί

Ασκήσεις μελέτης της 19 ης διάλεξης

Κεφάλαιο 4 Διανυσματικοί Χώροι

ΣΥΣΤΗΜΑ ΠΑΡΑΚΟΛΟΥΘΗΣΗΣ ΑΕΡΟΣΩΜΑΤΙ ΙΑΚΗΣ ΡΥΠΑΝΣΗΣ ΣΕ ΣΧΕ ΟΝ ΠΡΑΓΜΑΤΙΚΟ ΧΡΟΝΟ

(p 1) (p m) (m 1) (p 1)

Πιθανότητες & Τυχαία Σήματα. Διγαλάκης Βασίλης

1 Αριθμητική κινητής υποδιαστολής και σφάλματα στρογγύλευσης

Υπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning

Αναγνώριση Προτύπων (Pattern Recognition) Μπεϋζιανή Θεωρία Αποφάσεων (Bayesian Decision Theory) Π. Τσακαλίδης

Matrix Algorithms. Παρουσίαση στα πλαίσια του μαθήματος «Παράλληλοι. Αλγόριθμοι» Γ. Καούρη Β. Μήτσου

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ 2012

Ψηφιακές Τηλεπικοινωνίες. Βέλτιστος Δέκτης

E [ -x ^2 z] = E[x z]

Ορίζουμε την τυπική πολυδιάστατη κανονική, σαν την κατανομή του τυχαίου (,, T ( ) μεταξύ τους ανεξάρτητα. Τότε

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

P m (x)p n (x)dx = 2 2n + 1 δn m. P 1 (x) = x. P 2 (x) = 1 2 (3x2 1) P 3 (x) = 1 2 (5x3 3x) P 4 (x) = 1 8 (35x4 30x 2 + 3)

Τεχνητή Νοημοσύνη. 19η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Transcript:

ΔΙΚΤΥO RBF

Αρχιτεκτονική δικτύου RBF Δίκτυα RBF: δίκτυα συναρτήσεων πυρήνα (radial basis function networks). Πρόσθιας τροφοδότησης (feedforward) για προβλήματα μάθησης με επίβλεψη. Εναλλακτικό του MLP. Υλοποιούν απεικονίσεις από το χώρο εισόδων στο χώρο εξόδων (όπως το MLP), ωστόσο η λειτουργία των νευρώνων του κρυμμένου επιπέδου είναι εντελώς διαφορετική. x 1 h 1 x 0 =1 x 2 o 1 o p x d h M x 0 =1 επίπεδο είσοδου κρυμμένο επίπεδο επίπεδο εξόδου

Αρχιτεκτονική δικτύου RBF Τα δίκτυα RBF έχουν ένα μόνο κρυμμένο επίπεδο, του οποίου οι κρυμμένοι νευρώνες j υπολογίζουν μια ειδική συνάρτηση h j (x) του διανύσματος εισόδου x. Εστω ένα δίκτυο RBF με d εισόδους, Μ κρυμμένους νευρώνες και p εξόδους. Για είσοδο x=(x 1,,x d ) T, οι έξοδοι o i (i=1,,p) του δικτύου υπολογίζονται ως: o (x)=v + v ij είναι το βάρος της σύνδεσης από τον κρυμμένο νευρώνα j προς το νευρώνα εξόδου i και v i0 είναι η πόλωση του νευρώνα εξόδου i. Οι νευρώνες εξόδου είναι τυπικοί νευρώνες εσωτερικού γινομένου (όπως και στο MLP) με γραμμική συνάρτηση ενεργοποίησης. M v h (x) i i0 ij j j=1

Συναρτήσεις RBF Οι κρυμμένοι νευρώνες υπολογίζουν τις συναρτήσεις h(x) (με όρισμα το διάνυσμα εισόδου x) που ονομάζονται ακτινικές συναρτήσεις βάσης (radial basis functions). Συνήθως έχουν την ακόλουθη μορφή: υπάρχει κάποιο σημείο (που ονομάζεται κέντρο) για το οποίο παρέχουν μέγιστη τιμή και καθώς απομακρυνόμαστε ακτινικά από το κέντρο η τιμή της συνάρτησης μειώνεται και σχεδόν εκμηδενίζεται για σημεία x που είναι μακριά από το κέντρο. Χαρακτηριστικό παράδειγμα είναι η συνάρτηση Gauss, που είναι γνωστή και ως πυρήνας RBF (RBF kernel): h (x)=exp x-w 2 l jl j l=1 j =exp 2 2 2σ j 2σ j d (x -w ) 2

Συναρτήσεις RBF Το διάνυσμα βαρών w j =(w j1,, w jd ) T καθορίζει το κέντρο της συνάρτησης, ενώ η παράμετρος σ j καθορίζει την ακτίνα της συνάρτησης. Παίρνει τη μέγιστη τιμή στο κέντρο (για x=w j ) και η τιμή ελαττώνεται εκθετικά καθώς απομακρυνόμαστε ακτινικά από το κέντρο. Ο ρυθμός μείωσης καθορίζεται από την τιμή της ακτίνας σ j. Για μικρές τιμές της ακτίνας ο ρυθμός μείωσης είναι μεγάλος, ενώ το αντίθετο συμβαίνει για μεγάλες τιμές της ακτίνας. d=2

Συναρτήσεις RBF Εντοπισμένες συναρτήσεις (local functions): χαρακτηρίζονται από μια περιοχή εμβέλειας, έξω από την οποία η συνάρτηση δίνει αμελητέες τιμές. Στην περίπτωση RBF, η περιοχή εμβέλειας είναι σφαιρική στις δύο διαστάσεις και γενικότερα υπερσφαίρα στις d διαστάσεις. Επομένως όταν ένα διάνυσμα εισόδου x εμφανίζεται ως είσοδος στο δίκτυο RBF, θα δώσουν μεγάλη τιμή εξόδου οι κρυμμένοι νευρώνες οι οποίοι περιέχουν το x στην περιοχή εμβέλειάς τους. Μπορούμε λοιπόν να θεωρούμε ότι οι κρυμμένοι νευρώνες του δικτύου RBF ορίζουν σφαιρικές περιοχές επιρροής στον d-διάστατο χώρο των εισόδων.

Δίκτυο RBF (ευθύ πέρασμα) Εστω ένα δίκτυο RBF με d εισόδους, M κρυμμένους νευρώνες τύπου RBF, και p εξόδους. Για κάποια είσοδο x=(x 1,,x d ) T, οι έξοδοι o i προκύπτουν ως εξής: Επίπεδο εισόδου: Κρυμμένo επίπεδo: Επίπεδο εξόδου: Έξοδος του δικτύου: y (0) i =x, i=1,...,d i d d (1) (0) 2 2 i j ij j ij j=1 j=1 u = (y -w ) = (x -w ), i=1,...,m h =e i (1) 2 i i -u /σ M (2) i i0 ij j j=1 (2) (2) i i, i=1,...,m u =v v h, i=1,...p y =u i=1,...,p o =y i=1,...,p i (2) i

Δίκτυο RBF Ερώτηση: Δίνονται τρεις συναρτήσεις RBF h 1 (x), h 2 (x), h 3 (x) στο χώρο R 2 με κέντρα (0,0),(5,5), (-5,-5) αντίστοιχα και σ=1 και για τις τρεις συναρτήσεις. Χωρίς να κάνετε υπολογισμούς, να εκτιμήσετε ποια από τις τρεις συναρτήσεις θα δώσει μεγάλη έξοδο για τα ακόλουθα δεδομένα εισόδου: α) x=(0.2,-0.2) β) x=(-4.6,-5.2) γ) x=(5.5,4.8) δ) x=(-5,5)

Δυνατότητες δικτύου RBF Tο δίκτυο RBF (όπως και το MLP) χαρακτηρίζεται από την ιδιότητα της παγκόσμιας προσέγγισης (universal approximation). Η ιδιότητα αυτή μας εξασφαλίζει ότι ένα δίκτυο RBF μπορεί να προσεγγίσει οποιαδήποτε συνάρτηση με οποιαδήποτε ακρίβεια, αυξάνοντας επαρκώς τον αριθμό των νευρώνων RBF. Ωστόσο αυτή η ιδιότητα δεν είναι πρακτικά εκμεταλλεύσιμη, διότι δεν μας προτείνει πόσους RBF νευρώνες να χρησιμοποιήσουμε δοθέντος ενός συνόλου παραδειγμάτων εκπαίδευσης. Για πρόβλημα της επιλογής του αριθμού των νευρώνων RBF χρησιμοποιούνται οι μέθοδοι που αναφέρθηκαν για το MLP.

Κατασκευή δικτύου RBF Έστω ότι γνωρίζουμε πως τα δεδομένα εκπαίδευσης ενός προβλήματος ταξινόμησης σχηματίζουν σφαιρικές (κατά προσέγγιση) και διακριτές ομάδες, και τα δεδομένα κάθε ομάδας είναι της ίδιας κατηγορίας. C 1 C 3 C 2

Κατασκευή δικτύου RBF Για κάθε ομάδα δεδομένων, μπορούμε να ορίσουμε ένα νευρώνα RBF με κέντρο το κέντρο της αντίστοιχης ομάδας και ακτίνα τη διασπορά της ομάδας. Για κάποια είσοδο x η τιμή της εξόδου h j (x) του νευρώνα j δηλώνει εάν το x ανήκει στην ομάδα j. Ετσι το δεδομένο εισόδου x απεικονίζεται στο διάνυσμα h(x)=(h 1 (x),,h Μ (x)) T, που δείχνει το βαθμό στον οποίο το x ανήκει σε κάποια από τις ομάδες. Στη συνέχεια είναι πολύ εύκολο να καθορίσουμε τα βάρη στο επίπεδο εξόδου, ώστε ο κρυμμένος νευρώνας που αντιστοιχεί στην ομάδα κατηγορίας C k να διεγείρει μόνο τον αντίστοιχο νευρώνα εξόδου k.

Κατασκευή δικτύου RBF για το ΧΟR x 2 C 2 h 4 (x) (0,1) h 2 (x) C 1 (1,1) C 1 h 3 (x) C 2 (0,0) h 1 (x) Θεωρούμε ένα κρυμμένο νευρώνα για κάθε παράδειγμα εκπαίδευσης. Κάθε νευρώνας έχει για κέντρο ένα από τα τέσσερα παραδείγματα (0,0), (0,1), (1,0) και (1,1) και μια μικρή ακτίνα σ (π.χ σ=0.1). Κατά συνέπεια όταν κάποιο από τα παραδείγματα εμφανιστεί ως είσοδος θα δώσει μεγάλη έξοδο μόνο ο αντίστοιχος κρυμμένος νευρώνας. (1,0) x 1

Κατασκευή δικτύου RBF για το ΧΟR Στη συνέχεια θα πρέπει να καθορίσουμε τα βάρη από το κρυμμένο επίπεδο προς το επίπεδο εξόδου. Δεδομένου ότι έχουμε δύο κατηγορίες C 1 και C 2 θα θεωρήσουμε δύο γραμμικές εξόδους ο 1 και ο 2 μία για κάθε κατηγορία. Το διάνυσμα των εξόδων θέλουμε να είναι (0,1) για τα διανύσματα h=(0,1,0,0) και h=(0,0,1,0) και (1,0) για τα διανύσματα h=(1,0,0,0) και h=(0,0,0,1). Αυτή η απαίτηση επιτυγχάνεται εύκολα εάν θέσουμε: v 1, v 0, v 1, v 0 11 21 14 24 v 0, v 1, v 0, v 1 12 22 13 23

Εκπαίδευση δικτύου RBF Οι παράμετροι (βάρη) του δικτύου RBF που πρέπει να καθοριστούν κατά τη διάρκεια της εκπαίδευσης: τα κέντρα w j =(w j1,,w jd ) T (Μ d παράμετροι) και οι ακτίνες σ j (Μ παράμετροι) των νευρώνων RBF τα βάρη v ij ((Μ+1) p παράμετροι συμπεριλαμβανομένων των p πολώσεων v i0 ). Διαφορετική σημασία-ερμηνεία : τα βάρη w αναπαριστούν τις συντεταγμένες των κέντρων των κρυμμένων νευρώνων τα βάρη v έχουν την τυπική σημασία των νευρώνων εσωτερικού γινομένου (όπως και στο MLP) και ορίζουν την εξίσωση υπερεπιπέδου για τους νευρώνες εξόδου. Μπορεί να χρησιμοποιηθεί διαφορετική εκπαίδευση για τα δύο είδη βαρών.

Εκπαίδευση δικτύου RBF Όπως και στο MLP γίνεται μέσω της ελαχιστοποίησης του τετραγωνικού σφάλματος μεταξύ πραγματικών και επιθυμητών εξόδων του δικτύου. Έστω σύνολο παραδειγμάτων εκπαίδευσης D={(x n,t n )}, n=1,,n, x n =(x n1,, x nd ) T και t n =(t n1,, t np ) T Tο δίκτυο RBF θα πρέπει να έχει d νευρώνες στο επίπεδο εισόδου και p νευρώνες στο επίπεδο εξόδου. Εστω Μ ο αριθμός των κρυμμένων νευρώνων RBF (δίνεται από τον χρήστη). θ=(θ 1,,θ L ) T (L=(M+1)(d+p)) ένα διάνυσμα στο οποίο συγκεντρώνουμε όλες τις παραμέτρους του δικτύου ο(x n ; θ) το διάνυσμα εξόδου του δικτύου RBF όταν το διάνυσμα εισόδου είναι το x n. Επομένως μπορούμε να ορίσουμε την τετραγωνική συνάρτηση σφάλματος:

Εκπαίδευση δικτύου RBF Τετραγωνική συνάρτηση σφάλματος: 1 1 E(θ)= E (θ), E (θ) t -o(x ;θ) (t -o (x ;θ)) N p n n n n 2 n 2 nm m n=1 2 2 m=1 Ε n (θ) το τετραγωνικό σφάλμα ανά παράδειγμα (x n, t n ) Δύο μεθοδολογίες εκπαίδευσης: Ενιαία εκπαίδευση Εκπαίδευση δύο σταδίων

Ενίαια Εκπαίδευση δικτύου RBF Μέθοδος gradient descent για ελαχιστοποίηση του Ε(θ) ως προς τις παραμέτρους θ i του δικτύου. Για το παράδειγμα (x n,t n ): Οπότε: N n E E θ (t+1)=θ (t)- ---> θ (t+1)=θ (t)-, i=1,..,l θ i i i i θi p n 1 2 E = (oi-t ni) 2 i=1 d n 2 n 2 (xl -w jl) x -w j l=1 j =exp 2 2 2σ j 2σ j h (x)=exp n1 i M n i i0 vijh j(x ), i=1,...p j=1 o =v n n E E =(o n i -t ni )h j (x ) =(o i -t ni ) vij vi0 n p E n (x nl wjl) n p 2 E = (o i -t ni )v ij h j (x ) n x n w j 2 = (o i -t ni )v ij h j (x ) 3 wjl i1 σ j σ j i1 2σ j

Ενίαια Εκπαίδευση δικτύου RBF Μπορεί να εφαρμοστεί gradient descent με ομαδική ή σειριακή ενημέρωση. Προτιμάται η ομαδική ενημέρωση. Τα βάρη v ij αρχικοποιούνται όπως στο MLP: τυχαία στο (-1,1). Αν τα κέντρα και οι ακτίνες των συναρτήσεων βάσης αρχικοποιούνται εντελώς τυχαία, είναι πολύ δύσκολο για τη μέθοδο gradient descent να αποφύγει ρηχά τοπικά ελάχιστα. Στην περίπτωση όμως, που τα κέντρα και οι ακτίνες έχουν αρχικοποιηθεί σε καλές τιμές, τότε βρίσκουμε καλές λύσεις. Μια πιο αποδοτική προσέγγιση αρχικού καθορισμού των κέντρων βασίζεται στην παρατήρηση ότι επιθυμούμε τα κέντρα των νευρώνων RBF να τοποθετούνται σε κέντρα ομάδων που υπάρχουν στα δεδομένα εκπαίδευσης. Έτσι προέκυψε η μέθοδος εκπαίδευσης των δύο σταδίων.

Εκπαίδευση δύο σταδίων δικτύου RBF Πρώτο στάδιο: Χρησιμοποιείται το σύνολο των δεδομένων εκπαίδευσης X={x n } για τον καθορισμό νευρώνων RBF. Αγνοείται η πληροφορία σχετικά με την κατηγορία κάθε προτύπου εκπαίδευσης. Εφαρμόζεται κάποια μέθοδος ομαδοποίησης, π.χ. k-means ή LVQ. Προκύπτουν άμεσα τα κέντρα των ομάδων w j ενώ ο καθορισμός της ακτίνας γίνεται υπολογίζοντας τη διασπορά των δεδομένων κάθε ομάδας: 1 = x -w 2 n 2 j j N n j x O j

Εκπαίδευση δύο σταδίων δικτύου RBF Δεύτερο στάδιο: 1 η επιλογή Tα w ij και σ j παραμένουν σταθερά στις τιμές που καθορίστηκαν από το πρώτο στάδιο. Απομένει ο η εύρεση των βαρών v ij και των πολώσεων v i0 του επιπέδου εξόδου. Το πρόβλημα ανάγεται στην εκπαίδευση με το νέο σύνολο εκπαίδευσης {(h n,t n )} h n =(h 1 (x n ),,h M (x n )) T Μέθοδος gradient descent με μερικές παραγώγους 2 η επιλογή n E =(o i -t ni ) vi0 n E =(o n i -t ni )h j (x ) vij Εφαρμογή gradient descent (όπως ακριβώς στην ενιαία εκπαίδευση), αρχικοποιώντας τα κέντρα και τις ακτίνες στις τιμές που προκύπτουν από το πρώτο στάδιο.

Παράδειγμα Eκπαιδευμένο RBF για διάφορες τιμές του Μ

Σύγκριση MLP και RBF Υλοποιούν μη γραμμικές απεικονίσεις από το χώρο των εισόδων R d στο χώρο των εξόδων R p. Χαρακτηρίζονται από την ιδιότητα της παγκόσμιας προσέγγισης. Θεμελιώδης διαφορά: στη μορφή των συναρτήσεων h j (x) του κρυμμένου επιπέδου. Κάθε κρυμμένος νευρώνας του MLP ορίζει την εξίσωση ενός υπερεπιπέδου: το MLP υλοποιεί συναρτήσεις ταξινόμησης διαχωρίζοντας το χώρο των προτύπων με υπερεπίπεδα και ορίζοντας τις περιοχές απόφασης ως τομές των υπερεπιπέδων. Στον υπολογισμό μιας εξόδου συμμετέχουν όλες οι κρυμμένες μονάδες: κατανεμημένη αναπαράσταση, δηλαδή η γνώση σχετικά με την έξοδο που αντιστοιχεί σε κάποια είσοδο κατανέμεται στις τιμές των βαρών όλων των κρυμμένων

Σύγκριση MLP και RBF Tα δίκτυα RBF δημιουργούν τοπικές αναπαραστάσεις, δηλαδή η γνώση σχετικά με την έξοδο που αντιστοιχεί σε κάποια είσοδο x ενσωματώνεται στα βάρη εκείνων των κρυμμένων νευρώνων οι οποίες περιλαμβάνουν το πρότυπο x στη σφαίρα επιρροής τους. Δίκτυα RBF: ο χώρος παραδειγμάτων διαιρείται σε σφαιρικές περιοχές, καθεμιά από τις οποίες αντιστοιχεί σε μια μονάδα του κρυμμένου επίπεδου.

Σύγκριση MLP και RBF Άλλες διαφορές: Στο MLP μπορούμε να έχουμε περισσότερα του ενός κρυμμένα επίπεδα, ενώ το RBF έχει ακριβώς ένα κρυμμένο επίπεδο. Το MLP εκπαιδεύεται με ενιαίο τρόπο (δηλαδή ενημερώνονται όλα τα βάρη με τον ίδιο αλγόριθμο), ενώ στο RBF έχουμε συνήθως εκπαίδευση δύο σταδίων με διαφορετικούς αλγορίθμους σε κάθε στάδιο.