Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο

Σχετικά έγγραφα
Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 2ο Φροντιστήριο

Υπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 3ο Φροντιστήριο

ΣΤΟΧΑΣΤΙΚΑ ΣΗΜΑΤΑ ΚΑΙ ΕΦΑΡΜΟΓΕΣ

ΜΑΣ 371: Αριθμητική Ανάλυση ΙI ΑΣΚΗΣΕΙΣ. 1. Να βρεθεί το πολυώνυμο Lagrange για τα σημεία (0, 1), (1, 2) και (4, 2).

Πανεπιστήμιο Πατρών Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών. Διάλεξη 11

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Ακαδηµαϊκό Έτος , Εαρινό Εξάµηνο ιδάσκων Καθ.: Νίκος Τσαπατσούλης

Στοχαστικά Σήματα και Τηλεπικοινωνιές

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης. ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

Το μοντέλο Perceptron

Ασκήσεις μελέτης της 19 ης διάλεξης

Μέθοδοι πολυδιάστατης ελαχιστοποίησης

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)

Τετραγωνικά μοντέλα. Τετραγωνικό μοντέλο συνάρτησης. Παράδειγμα τετραγωνικού μοντέλου #1. Παράδειγμα τετραγωνικού μοντέλου #1

Υπολογιστική Νοημοσύνη. Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks

ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Κινητά Δίκτυα Επικοινωνιών. Συμπληρωματικό υλικό. Προσαρμοστική Ισοστάθμιση Καναλιού

Προσαρµοστικοί Αλγόριθµοι Υλοποίησης Βέλτιστων Ψηφιακών Φίλτρων: Ο αναδροµικός αλγόριθµος ελάχιστων τετραγώνων (RLS Recursive Least Squares)

Προσαρµοστικοί Αλγόριθµοι Υλοποίησης Βέλτιστων Ψηφιακών Φίλτρων: Οαλγόριθµος Least Mean Square (LMS)

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

EΦΑΡΜΟΓΕΣ ΤΗΣ ΨΗΦΙΑΚΗΣ ΕΠΕΞΕΡΓΑΣΙΑΣ ΣΗΜΑΤΩΝ. Γραµµική Εκτίµηση Τυχαίων Σηµάτων

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Πεπερασμένες Διαφορές.

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

1 Επανάληψη εννοιών από τον Απειροστικό Λογισμό

2. Επίλυση μη Γραμμικών Εξισώσεων

x[n] = e u[n 1] 4 x[n] = u[n 1] 4 X(z) = z 1 H(z) = (1 0.5z 1 )(1 + 4z 2 ) z 2 (βʹ) H(z) = H min (z)h lin (z) 4 z 1 1 z 1 (z 1 4 )(z 1) (1)

Τετραγωνικά μοντέλα. Τετραγωνικό μοντέλο συνάρτησης. Παράδειγμα τετραγωνικού μοντέλου #1. Παράδειγμα τετραγωνικού μοντέλου #1

Χρήστος Ι. Σχοινάς Αν. Καθηγητής ΔΠΘ. Συμπληρωματικές σημειώσεις για το μάθημα: «Επιχειρησιακή Έρευνα ΙΙ»

ΓΡΑΜΜΙΚΗ ΑΛΓΕΒΡΑ (ΗΥ-119)

A Τελική Εξέταση του μαθήματος «Αριθμητική Ανάλυση» Σχολή Θετικών Επιστημών, Τμήμα Μαθηματικών, Πανεπιστήμιο Αιγαίου

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοηµοσύνη Ι» 7ο Φροντιστήριο 15/1/2008

Δυναμική Μηχανών I. Διάλεξη 12. Χειμερινό Εξάμηνο 2013 Τμήμα Μηχανολόγων Μηχ., ΕΜΠ

ΕΠΑΝΑΛΗΠΤΙΚΗ ΤΕΛΙΚΗ ΕΞΕΤΑΣΗ 3 Ιουλίου 2010

ΜΑΣ 371: Αριθμητική Ανάλυση ΙI ΛΥΣΕΙΣ ΑΣΚΗΣΕΩΝ. 1. Να βρεθεί το πολυώνυμο παρεμβολής Lagrange για τα σημεία (0, 1), (1, 2) και (4, 2).

Πανεπιστήμιο Πατρών Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών. Διάλεξη 4

Στοχαστικά Σήματα και Τηλεπικοινωνιές

Συστήματα Αυτομάτου Ελέγχου ΙΙ. Άσκηση. γραμμάτων του επιθέτου σας (π.χ. για το επίθετο Κοσματόπουλος, οι αριθμοί α ι θα είναι a

Νευρωνικά ίκτυα. Σηµερινό Μάθηµα

Αριθµητική Ανάλυση 1 εκεµβρίου / 43

Συμπίεση Δεδομένων

ΤΕΤΥ Εφαρμοσμένα Μαθηματικά 1. Τελεστές και πίνακες. 1. Τελεστές και πίνακες Γενικά. Τι είναι συνάρτηση? Απεικόνιση ενός αριθμού σε έναν άλλο.

Προσαρµοστικοί αλγόριθµοι στο πεδίο της συχνότητας: ΟταχύςLMS (Fast Least Mean Square - FLMS)

ΓΡΑΜΜΙΚΗ ΑΛΓΕΒΡΑ (ΗΥ-119)

3 η ΕΝΟΤΗΤΑ ΜΗ ΓΡΑΜΜΙΚΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ ΕΝΟΣ ΚΡΙΤΗΡΙΟΥ

ΠΡΟΑΓΩΓΙΚΕΣ ΕΞΕΤΑΣΕΙΣ ( ) ΜΑΘΗΜΑΤΙΚΑ ΘΕΤΙΚΗΣ ΚΑΤΕΥΘΥΝΣΗΣ - Β ΕΝΙΑΙΟΥ ΛΥΚΕΙΟΥ

Βέλτιστος Έλεγχος Συστημάτων

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #8: Βελτιστοποίηση Συστημάτων Ασαφούς Λογικής. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

Εργαστήριο 9 Συναρτήσεις στη PASCAL. Η έννοια του κατακερματισμού. Συναρτήσεις. Σκοπός

Επαναληπτικές μέθοδοι

4. ΚΕΦΑΛΑΙΟ ΕΦΑΡΜΟΓΕΣ ΤΟΥ ΜΕΤΑΣΧΗΜΑΤΙΣΜΟΥ FOURIER

Αφαίρεση του Φαινομένου του Μικροφωνισμού σε Ακουστικά Βαρηκοΐας

Εφαρμοσμένα Μαθηματικά ΙΙ

ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ Αίθουσα Νέα Κτίρια ΣΗΜΜΥ Ε.Μ.Π. Ανάλυση Κυρίων Συνιστωσών (Principal-Component Analysis, PCA)

ΚΒΑΝΤΟΜΗΧΑΝΙΚΗ. Ασκήσεις Κεφαλαίου Ι

Άσκηση 1: Λύση: Για το άθροισμα ισχύει: κι επειδή οι μέσες τιμές των Χ και Υ είναι 0: Έτσι η διασπορά της Ζ=Χ+Υ είναι:

2.1 Αριθμητική επίλυση εξισώσεων

Αριθµητική Ολοκλήρωση

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Δυναμική Μηχανών I. Επανάληψη: Μαθηματικά

Αριθµητική Γραµµική ΑλγεβραΚεφάλαιο 4. Αριθµητικός Υπολογισµός Ιδιοτιµών 2 Απριλίου και2015 Ιδιοδιανυσµάτων 1 / 50

Τα περισσότερα προβλήματα βελτιστοποίησης είναι με περιορισμούς, αλλά οι μέθοδοι επίλυσης χωρίς περιορισμούς έχουν γενικό ενδιαφέρον.

Αναγνώριση Προτύπων Ι

ΜΕΜ251 Αριθμητική Ανάλυση

Ψηφιακός Έλεγχος. 6 η διάλεξη Σχεδίαση στο χώρο κατάστασης. Ψηφιακός Έλεγχος 1

E [ -x ^2 z] = E[x z]

Κεφ. 7: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΡΗΤΗΣ -ΤΜΗΜΑ ΕΠΙΣΤΗΜΗΣ ΥΠΟΛΟΓΙΣΤΩΝ. Λύσεις των Θεμάτων της Εξέτασης Ιανουαρίου 2010 στο μάθημα: «Γραμμική Άλγεβρα» (ΗΥ119)

Εισαγωγή στον Προγραµµατισµό. Ανάλυση (ή Επιστηµονικοί8 Υπολογισµοί)

ΕΛΛΗΝΙΚΗ ΗΜΟΚΡΑΤΙΑ ΕΛΛΗΝΙΚΟ ΑΝΟΙKΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

HY213. ΑΡΙΘΜΗΤΙΚΗ ΑΝΑΛΥΣΗ ΕΛΑΧΙΣΤΑ ΤΕΤΡΑΓΩΝΑ AΝΑΛΥΣΗ ΙΔΙΑΖΟΥΣΩΝ ΤΙΜΩΝ

Φίλτρα Kalman. Αναλυτικές μέθοδοι στη Γεωπληροφορική. ιατύπωση του βασικού προβλήματος. προβλήματος. μοντέλο. Πρωτεύων μοντέλο

Αναγνώριση Προτύπων Ι

Συστήματα Αυτόματου Ελέγχου

Ακαδημαϊκό Έτος , Χειμερινό Εξάμηνο Διδάσκων Καθ.: Νίκος Τσαπατσούλης

E[ (x- ) ]= trace[(x-x)(x- ) ]

Υπολογιστική Νοημοσύνη. Μάθημα 12: Παραδείγματα Ασκήσεων 2

Κινητά Δίκτυα Υπολογιστών

11 ΣΥΝΗΘΕΙΣ ΔΙΑΦΟΡΙΚΕΣ ΕΞΙΣΩΣΕΙΣ

Κεφάλαιο 6 Ιδιοτιμές και Ιδιοδιανύσματα

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ 2012

ΦΙΛΤΡΟ KALMAN ΔΙΑΚΡΙΤΟΥ ΧΡΟΝΟΥ

Εφαρμοσμένα Μαθηματικά ΙΙ Τελική Εξέταση Ι. Λυχναρόπουλος

Ειδικά Θέµατα Υπολογιστικής Όρασης & Γραφικής. Εµµανουήλ Ζ. Ψαράκης & Αθανάσιος Τσακαλίδης Πολυτεχνική Σχολή Τµήµα Μηχανικών Η/Υ & Πληροφορικής

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ

Εισαγωγικές έννοιες. Κατηγορίες προβλημάτων (σε μια διάσταση) Προβλήματα εύρεσης μεγίστου. Συμβολισμοί

Κλασικη ιαφορικη Γεωµετρια

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

PROJECT ΣΤΟ ΜΑΘΗΜΑ "ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟΔΟΥΣ"

ΕΠΕΞΕΡΓΑΣΙΑ & ΑΝΑΛΥΣΗ ΙΑΤΡΙΚΩΝ ΣΗΜΑΤΩΝ

Τμήμα Μηχανικών Η/Υ και Πληροφορικής

ΑΡΙΘΜΗΤΙΚΕΣ ΜΕΘΟΔΟΙ, , 5 Ο ΕΞΑΜΗΝΟ ΔΙΔΑΣΚΩΝ: Δ. Βαλουγεώργης Απαντήσεις: ΠΡΟΟΔΟΣ 1, Επιμέλεια λύσεων: Γιώργος Τάτσιος

Εξομοίωση Τηλεπικοινωνιακού Συστήματος Βασικής Ζώνης

Transcript:

Ασκήσεις Φροντιστηρίου 4 o Φροντιστήριο Πρόβλημα 1 ο Ο πίνακας συσχέτισης R x του διανύσματος εισόδου x( στον LMS αλγόριθμο 1 0.5 R x = ορίζεται ως: 0.5 1. Ορίστε το διάστημα των τιμών της παραμέτρου μάθησης η του LMS αλγόριθμου έτσι ώστε ο αλγόριθμος να συγκλίνει α) στη μέση τιμή, 0 < η < / λ max β) στη μέση τετραγωνική τιμή, 0 < η < / tr[r x ] ή 0 < η < / x( Βρίσκουμε τις ιδιοτιμές του R x ως εξής: det( R x λi ) = 1 λ 0,5 = (1 λ ) 0,5 1 λ 0,5 = 0,75 λ + λ = 0 Οπότε έχουμε : λ = 1/, 3/ α) Ο αλγόριθμος LMS συγκλίνει στην μέση τιμή αν η παράμετρος μάθησης ικανοποιεί την συνθήκη : 0< η < /λ max Στην συγκεκριμένη περίπτωση έχουμε λ max =3/ οπότε : 0< η < 4/3 β) Ο αλγόριθμος LMS συγκλίνει στη μέση τετραγωνική τιμή αν : tr[ R ] 0 < η < x Στην συγκεκριμένη περίπτωση έχουμε tr[r x ] = λ max + λ min = 3/ + 1/ = Οπότε: 0 < η < 1 Ασκήσεις 4 ου Φροντιστηρίου 1

Πρόβλημα ο Ο κανονικοποιημένος LMS αλγόριθμος περιγράφεται από την παρακάτω αναδρομική εξίσωση των βαρών: η ŵ(n + 1) = ŵ( + e(x( x(, x( όπου η είναι μία θετική σταθερά και είναι η Ευκλείδια νόρμα του διανύσματος εισόδου x(. Το σήμα λάθους δίνεται από τη σχέση e( = d( w (x(, όπου d( είναι η επιθυμητή απόκριση. Δείξτε ότι για να συγκλίνει o κανονικοποιημένος LMS στη μέση τετραγωνική τιμή πρέπει να ισχύει 0 < η < T Στον απλό LMS έχουμε ότι : w(n+1) = w( + ηe(x( (1) οπότε η σύγκλιση στο μέσο τετράγωνο γίνεται όταν : 0 < η < () x( Στον κανονικοποιημένο LMS έχουμε : e(x( w(n+1) = w( + η x( (3) Συγκρίνοντας την (1) και την (3) μπορούμε να γράψουμε : η = η x( (4) Χρησιμοποιώντας την () και την (4) έχουμε: η' < η < 0 < < 0 < η' < x( x( x( 0 Ασκήσεις 4 ου Φροντιστηρίου

Πρόβλημα 3 ο O LMS αλγόριθμος χρησιμοποιείται για να υλοποιηθεί ο δύο εισόδων, με ένα βάρος, προσαρμοστικός εξουδετερωτής θορύβου που φαίνεται στο παρακάτω σχήμα. Καθορίστε τις εξισώσεις που περιγράφουν τη λειτουργία αυτού του αλγόριθμου. Το βασικό σήμα d( είναι το επιθυμητό σήμα. Το σήμα αναφοράς x( είναι το σήμα εισόδου. Το σήμα e( είναι το σήμα λάθους : e( = d( y( Όπου y( = φ(w(x(). H φ(.) είναι η συνάρτηση ενεργοποίησης του νευρωνικού δικτύου, οπότε ισχύει : e( = ( d ( ϕ ( w( x( )) = ϕ '( w( x( ) x( w( w( Για την ανανέωση των βαρών έχουμε : e( w( n + 1) = w( η e( = w( + ηe( ϕ '( w( x( ) x( w( Εαν ο νευρώνας είναι γραμμικός, δηλαδή φ (1) = 1, τότε έχουμε τον απλό LMS w(n+1) = w( + ηe(x( Πρόβλημα 4 ο Ένας γραμμικός προβλεπτής με διάνυσμα εισόδου του να αποτελείται από τα δείγματα x(n-1), x(n-),, x(n-p) όπου p είναι η τάξη της πρόβλεψης. Πρέπει να χρησιμοποιήσουμε τον LMS αλγόριθμο για να προβλέψουμε την τιμή xˆ ( από τα δείγματα x(. Γράψτε τις αναδρομικές εξισώσεις που απαιτούνται για τον υπολογισμό τον βαρών w 1, w,, w p. Το σήμα εισόδου του προβλεπτή είναι: X (n-1) = [ x(n-1), x(n-),...., x(n-p) ] Ασκήσεις 4 ου Φροντιστηρίου 3

H επιθυμητή απόκριση είναι η d(=x( Χρησιμοποιώντας τον LMS έχουμε: xˆ ( = w T (X (n-1) e( = x( xˆ ( w(n+1) = w( + ηe(x (n-1) Πρόβλημα 5 ο Έστω ότι έχουμε ένα Νευρωνικό Δίκτυο εμπρόσθιας τροφοδότησης με αρχιτεκτονική 1--1. Θέλουμε να εκπαιδεύσουμε το δίκτυο, χρησιμοποιώντας αλγόριθμο πίσω διάδοσης του λάθους να προσεγγίζει την ακόλουθη συνάρτηση: π g( p) = 1+ sin( p), όπου p [,]. 4 Για τους νευρώνες του κρυφού επιπέδου χρησιμοποιούμε σα συνάρτηση 1 ενεργοποίησης τη λογιστική ( ϕυ ( ) = ) ενώ στο επίπεδο εξόδου την γραμμική 1 + e υ ( ϕ( υ) = υ ). Για τις ελεύθερες παραμέτρους του δικτύου θεωρήστε τις ακόλουθες αρχικές τιμές: w 1 = 0.7, w 31 = 0.41, w4 = 0.09 w 43 = 0.17, θ = 0.48, θ 3 = 0.13 και θ 4 = 0.48. Χρησιμοποιώντας παράμετρο μάθησης η=0.1 υλοποιείστε μια επανάληψη του αλγορίθμου Πίσω-Διάδοσης του Λάθους. To νευρωνικό δίκτυο είναι το εξής: Ασκήσεις 4 ου Φροντιστηρίου 4

Η συνάρτηση η οποία θέλουμε να προσεγγίζει το πιο πάνω Νευρωνικό Δίκτυο είναι η π g( p) = 1+ sin( p), όπου p [,]. 4 Για να μπορέσει το Νευρωνικό Δίκτυο να προσεγγίσει την πιο πάνω συνάρτηση θα πρέπει να εκπαιδευτεί στο διάστημα [-,]. Συνήθως επιλέγουμε τιμές εκπαίδευσης του δικτύου ομοιόμορφα στο [-,] εκτός και αν θέλουμε να προσεγγίσουμε μία περιοχή καλύτερα από τις υπόλοιπες οπότε σε αυτή την περιοχή παίρνουμε περισσότερες τιμές εκπαίδευσης απ ότι στις υπόλοιπες. Εφόσον μας ζητείται μόνο μια επανάληψη του αλγορίθμου πίσω διάδοσης επιλέγουμε στο [-,] την τιμή 1 για εκπαίδευση (χάριν ευκολίας). Η έξοδος η οποία θέλουμε να προσεγγίσουμε είναι η: π d = q(1) = 1+ sin( 1) d = 1+ = 1.707 4 Στη συνέχεια θα πρέπει να βάλουμε ως είσοδο στο νευρωνικό δίκτυο την τιμή 1 και θα υπολογίσουμε την έξοδό του. Μετά θα συγκρίνουμε την έξοδο του νευρωνικού δικτύου με την επιθυμητή έξοδο d και εφαρμόζοντας τις εξισώσεις της πίσω διάδοσης, θα προχωρήσουμε από το επίπεδο εξόδου στο επίπεδο εισόδου ενημερώνοντας (διορθώνοντας) σε κάθε επίπεδο τα βάρη. Στην άσκηση μας ζητείται μόνο μια επανάληψη, διαφορετικά θα συνεχίζαμε την πιο πάνω διαδικασία έως ότου Ασκήσεις 4 ου Φροντιστηρίου 5

το νευρωνικό δίκτυο μας δώσει προσέγγιση μικρότερη από το επιθυμητό όριο. Αυτή τη διαδικασία θα πρέπει να την επαναλάβουμε για όλα τα δείγματα εκπαίδευσης. Εμπρός Πέρασμα: Για το νευρώνα έχουμε: υ = x w θ = 1 ( 0.7) + ( 1) 0.48 υ = 0.75 1 1 y 1 1 = ( ) = = = 0.31 1+ e 1+ e ϕυ υ 0.75 και Για το νευρώνα 3 ισχύει: υ = x w θ = 1 ( 0.41) + ( 1) 0.13 υ = 0.54 3 1 31 3 3 1 1 y3= ϕυ ( 3) = = = 0.368 υ 0.57 1+ e 1+ e και 3 Για το επίπεδο εξόδου ακολουθούμε την ίδια διαδικασία. Μόνο που σε αυτή την περίπτωση σαν συνάρτηση ενεργοποίησης δε χρησιμοποιούμε την λογιστική απεικόνιση αλλά την ταυτοτική συνάρτηση: ϕ( υ) = υ. Έτσι για το νευρώνα 4 έχουμε: 3 υ = yw θ = 0.09 0.3 + ( 0.17) 0.368 + ( 1) ( 0.48) υ = 0.446 4 i 4i 4 4 i = και y4 = ϕ( υ4) = 0.446. Στη συνέχεια βρίσκουμε το λάθος e στις εξόδους του δικτύου (έχουμε μία έξοδο): e= e4 = d y4 = 1.707 0.446 1.61 Πίσω Πέρασμα: Υπολογίζουμε τα δ για όλους του υπολογιστικούς νευρώνες του δικτύου, ξεκινώντας από το επίπεδο εξόδου και προχωρώντας προς τα πίσω έως και το πρώτο κρυφό επίπεδο. Στο συγκεκριμένο πρόβλημα έχουμε μόνο ένα νευρώνα στο επίπεδο εξόδου και ένα μόνο κρυφό επίπεδο με δύο κρυφούς νευρώνες: Οπότε, για το νευρώνα 4 Ασκήσεις 4 ου Φροντιστηρίου 6

έχουμε (θα πρέπει να λάβουμε υπόψη ότι στο νευρώνα εξόδου χρησιμοποιούμε τη γραμμική συνάρτηση ενεργοποίησης): δ ( = e φ'( υ ) = e 1 δ ( = 1.61 4 4 4 4 Εν συνεχεία υπολογίζουμε τις τοπικές κλίσεις για τους δύο νευρώνες του κρυφού επιπέδου (εδώ θα πρέπει να λάβουμε υπόψη ότι οι νευρώνες του κρυφού επιπέδου χρησιμοποιούν τη λογιστική συνάρτηση ενεργοποίησης). δ = φ ( υ) δ4 w4 δ = y (1 y) δ4 w4 δ = 0.31 (1 0.31) 1.61 0.09 = 0.047 όμοια υπολογίζουμε και το δ 3= -0.0498 Στη συνέχεια υπολογίζουμε τις διορθώσεις στα βάρη και τα κατώφλια του δικτύου: Για το νευρώνα 4 έχουμε: Δ θ4 =Δ w40 = n δ4 y40 = 0.1 1.61 ( 1) = 0.161 Δ w43 = n δ4 y3 = 0.1 1.61 0.368 = 0.0464 Δ w4 = n δ4 y = 0.1 1.61 0.3 = 0.0404 Για το νευρώνα έχουμε: Δ θ =Δ w0 = n δ y0 = 0.0047 Δ w1 = n δ y1 = 0.0047 Για το νευρώνα 3 έχουμε: Δ θ3 =Δ w30 = n δ3 y30 = 0.00498 Δ w31 = n δ3 y1 = 0.00498. Τέλος υπολογίζουμε τις καινούργιες (διορθωμένες) τιμές των ελεύθερων παραμέτρων σύμφωνα με τον τύπο: w ji (n+1) = w ji ( + Δw ji (. Έχουμε: θ ( n+ 1) = θ ( +Δ θ ( = 0.48 0.161 = 0.6061 4 4 4 w 4 ( n+ 1) = 0.1304 Ασκήσεις 4 ου Φροντιστηρίου 7

w ( n+ 1) = 0.136 3 43 θ ( n + 1) = 0.13498 w ( n+ 1) = 0.41498 31 θ ( n + 1) = 0.47753 w ( n+ 1) = 0.6753 1 Αυτές είναι και οι νέες τιμές των βαρών και των κατωφλίων του δικτύου. Σε ένα «πραγματικό» πρόβλημα η παραπάνω διαδικασία θα έπρεπε να συνεχιστεί έως ότου να φτάσουμε σε ένα e μικρότερο από το λάθος προσέγγισης που ζητάμε για όλες τις τιμές που θα χρησιμοποιήσουμε για εκπαίδευση στο διάστημα [-,]. Ασκήσεις 4 ου Φροντιστηρίου 8