Υπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning

Σχετικά έγγραφα
Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)

Υπολογιστική Νοημοσύνη. Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο

Υπολογιστική Νοημοσύνη. Μάθημα 9: Γενίκευση

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ

Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Ασκήσεις μελέτης της 19 ης διάλεξης

Τεχνητή Νοημοσύνη. 19η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

Το μοντέλο Perceptron

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

ΧΑΡΟΚΟΠΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΜΑΤΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ. Καραγιώργου Σοφία

Μέθοδοι πολυδιάστατης ελαχιστοποίησης

Ρεφανίδης Γιάννης. Οκτώβριος

Υπολογιστική Νοημοσύνη. Μάθημα 12: Παραδείγματα Ασκήσεων 2

Εισαγωγή στους Νευρώνες. Κυριακίδης Ιωάννης 2013

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

ΕΦΑΡΜΟΣΜΕΝΗ ΣΤΑΤΙΣΤΙΚΗ Ι Συμπληρωματικές Σημειώσεις Δημήτριος Παντελής

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 2ο Φροντιστήριο

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΠΜΣΕ ΣΤΗΝ ΕΦΑΡΜΟΣΜΕΝΗ ΠΛΗΡΟΦΟΡΙΚΗ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΚΑΙ ΕΞΕΛΙΚΤΙΚΟΙ ΑΛΓΟΡΙΘΜΟΙ

Ανδρέας Παπαζώης. Τμ. Διοίκησης Επιχειρήσεων

Κινητά Δίκτυα Επικοινωνιών. Συμπληρωματικό υλικό. Προσαρμοστική Ισοστάθμιση Καναλιού

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #8: Βελτιστοποίηση Συστημάτων Ασαφούς Λογικής. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

Απλή Γραμμική Παλινδρόμηση και Συσχέτιση 19/5/2017

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

6. Στατιστικές μέθοδοι εκπαίδευσης

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα

Αναγνώριση Προτύπων Ι

Α.Τ.Ε.Ι ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΠΟΛΥΜΕΣΩΝ ΕΡΓΑΣΤΗΡΙΟ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ. Σχήμα 1 Η λειτουργία του νευρώνα

Εφαρμοσμένα Μαθηματικά ΙΙ

Γραμμική Αλγεβρα ΙΙ Διάλεξη 1 Εισαγωγή Χρήστος Κουρουνιώτης Πανεπισ τήμιο Κρήτης 19/2/2014 Χ.Κουρουνιώτης (Παν.Κρήτης) Διάλεξη 1 19/2/ / 13

Στατιστική Συμπερασματολογία

Εφαρμοσμένα Μαθηματικά ΙΙ

Αξιολόγηση ακρίβειας στη συνόρθωση δικτύων (μέρος IΙ)

Αναγνώριση Προτύπων Ι

Αναγνώριση Προτύπων Ι

Αριθμητική Ανάλυση & Εφαρμογές

Α. ΤΕΙ ΚΡΗΤΗΣ Τµήµα Εφαρµοσµένης Πληροφορικής και Πολυµέσων Εργαστήριο Νευρωνικών Δικτύων

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΑΝΑΛΥΣΗ ΑΛΓΟΡΙΘΜΩΝ

Εισαγωγή στην Στατιστική (ΔΕ200Α-210Α)

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Εισαγωγή στη Διαδικασία Ιεραρχικής Ανάλυσης. Ρόκου Έλενα Μεταδιδακτορική Ερευνήτρια ΕΜΠ Κηρυττόπουλος Κωνσταντίνος Επ.

ΚΕΦΑΛΑΙΟ ΟΡΙΖΟΝΤΙΑ ΒΟΛΗ ΘΕΩΡΙΑ

ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Τεχνητά Νευρωνικά Δίκτυα

Project 1: Principle Component Analysis

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Εισαγωγή στην Στατιστική (ΔΕ200Α-210Α)

4 o Μάθημα Διάστημα Εμπιστοσύνης του Μέσου

4 o Μάθημα Διάστημα Εμπιστοσύνης του Μέσου

ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ Αίθουσα Νέα Κτίρια ΣΗΜΜΥ Ε.Μ.Π. Ανάλυση Κυρίων Συνιστωσών (Principal-Component Analysis, PCA)

Βέλτιστος Έλεγχος Συστημάτων

Προσομοίωση Νευρωνικού Δικτύου στο MATLAB. Κυριακίδης Ιωάννης 2013

Έστω μια συνεχής (και σχετικά ομαλή) συνάρτηση f( x ), x [0, L]

Περιεχόμενα. Κεφάλαιο 1 ΣΥΣΤΗΜΑΤΑ ΣΥΝΤΕΤΑΓΜΕΝΩΝ ΣΕ ΜΙΑ ΕΥΘΕΙΑ Οι συντεταγμένες ενός σημείου Απόλυτη τιμή...14

Αριθμητική Ανάλυση και Εφαρμογές

Α.Τ.Ε.Ι ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΠΟΛΥΜΕΣΩΝ ΕΡΓΑΣΤΗΡΙΟ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ 4

HMY 795: Αναγνώριση Προτύπων

ΕΙΣΑΓΩΓΗ ΣΤΗ ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ ΣΥΣΤΗΜΑΤΩΝ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

5. Μέθοδος oπισθοδιάδοσης (backpropagation) του λάθους

Ανάλυση Διασποράς Ανάλυση Διασποράς διακύμανση κατά παράγοντες διακύμανση σφάλματος Παράδειγμα 1: Ισομεγέθη δείγματα

HMY 795: Αναγνώριση Προτύπων

ibemo Kazakhstan Republic of Kazakhstan, West Kazakhstan Oblast, Aksai, Pramzone, BKKS office complex Phone: ; Fax:

ΠΡΟΒΛΕΨΗ ΖΗΤΗΣΗΣ ΦΥΣΙΚΟΥ ΑΕΡΙΟΥ

ΠΕΡΙΕΧΟΜΕΝΑ ΠΡΟΛΟΓΟΣ 7. ΚΕΦΑΛΑΙΟ 1: Εισαγωγικές Έννοιες 13

Μέθοδοι μονοδιάστατης ελαχιστοποίησης

Τετραγωνικά μοντέλα. Τετραγωνικό μοντέλο συνάρτησης. Παράδειγμα τετραγωνικού μοντέλου #1. Παράδειγμα τετραγωνικού μοντέλου #1

MATLAB. Εισαγωγή στο SIMULINK. Μονάδα Αυτόματης Ρύθμισης και Πληροφορικής

Αριθμητική εύρεση ριζών μη γραμμικών εξισώσεων

Τμήμα Διοίκησης Επιχειρήσεων (Γρεβενά) Μάθημα: Οικονομετρία Διάλεξη 2η: Απλή Γραμμική Παλινδρόμηση. Διδάσκουσα: Κοντογιάννη Αριστούλα

Μέθοδοι μονοδιάστατης ελαχιστοποίησης

Συνδυαστική Βελτιστοποίηση Εισαγωγή στον γραμμικό προγραμματισμό (ΓΠ)

Κεφάλαιο 1: Κινηματική των Ταλαντώσεων


Συγκριτική Μελέτη Μεθόδων Κατηγοριοποίησης σε Ιατρικά Δεδομένα

- ΟΡΙΟ - ΣΥΝΕΧΕΙΑ ΣΥΝΑΡΤΗΣΗΣ ΕΝΟΤΗΤΑ 7: ΣΥΝΕΧΕΙΑ ΣΥΝΑΡΤΗΣΗΣ - ΠΡΑΞΕΙΣ ΜΕ ΣΥΝΕΧΕΙΣ ΣΥΝΑΡΤΗΣΕΙΣ - ΣΥΝΕΧΕΙΑ ΣΥΝΑΡΤΗΣΗΣ ΣΕ ΔΙΑΣΤΗΜΑΤΑ

Ανάπτυξη και δηµιουργία µοντέλων προσοµοίωσης ροής και µεταφοράς µάζας υπογείων υδάτων σε καρστικούς υδροφορείς µε χρήση θεωρίας νευρωνικών δικτύων

Εφαρμοσμένα Μαθηματικά ΙΙ 9ο Σετ Ασκήσεων (Λύσεις) Διανυσματικοί Χώροι

Σημειακή εκτίμηση και εκτίμηση με διάστημα. 11 η Διάλεξη

Τεχνητά Νευρωνικά Δίκτυα

Π Α Ν Ε Λ Λ Η Ν Ι Ε Σ Μ Α Θ Η Μ Α Τ Ι Κ Α K A I Σ Τ Ο Ι Χ Ε Ι Α Σ Τ Α Τ Ι Σ Τ Ι Κ Η

ΦΥΣ 145 Μαθηματικές Μέθοδοι στη Φυσική. Γράψτε το ονοματεπώνυμο και αριθμό ταυτότητάς σας στο πάνω μέρος της αυτής της σελίδας.

7.1.1 Η Μέθοδος των Ελαχίστων Τετραγώνων

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Αριθμητική Ανάλυση και Εφαρμογές

Backpropagation Multilayer Feedforward Δίκτυα. Κυριακίδης Ιωάννης 2013

Πολυτεχνείο Κρήτης. Τμήμα Μηχανικών Παραγωγής και Διοίκησης. Νευρωνικά δίκτυα και χρήση τους σε έλεγχο. του φοιτητή Αγγελάτου Γεώργιου

Transcript:

Υπολογιστική Νοημοσύνη Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning

Κεντρική ιδέα Τα παραδείγματα μάθησης παρουσιάζονται στο μηεκπαιδευμένο δίκτυο και υπολογίζονται οι έξοδοι. Για κάθε νευρώνα εξόδου υπολογίζεται το σφάλμα και γίνεται η σχετική αλλαγή των βαρών εισόδου. Με κατεύθυνση από το επίπεδο εξόδου προς το επίπεδο εισόδου, για κάθε εσωτερικό νευρώνα υπολογίζεται η συμμετοχή του στα σφάλματα των νευρώνων εξόδου και γίνεται η αλλαγή των βαρών στην είσοδό του. Η συμμετοχή ενός νευρώνα στα σφάλματα των νευρώνων του επόμενου επιπέδου του είναι ανάλογη της τρέχουσας εισόδου του και των συντελεστών βαρύτητας που τον συνδέουν με τους νευρώνες του επόμενου επιπέδου. 2

Προσαρμοσμένα σφάλματα (1/2) Έστω k ένας νευρώνας του επιπέδου εξόδου. Έστω ak η έξοδος του νευρώνα k για ένα συγκεκριμένο παράδειγμα εισόδου και ok η επιθυμητή έξοδος για το ίδιο παράδειγμα. Προφανώς το σφάλμα στη συγκεκριμένη περίπτωση για τον νευρώνα k είναι: Σφάλμα = a k -o k Το πραγματικό σφάλμα κάθε νευρώνα το πολλαπλασιάζουμε επί την παράγωγο της συνάρτησης ενεργοποίησης, σύμφωνα με το γενικευμένο κανόνα δέλτα: δk=(a k -o k )Φ'(S k ) Η παραπάνω τιμή ονομάζεται προσαρμοσμένο σφάλμα νευρώνα. 3

Προσαρμοσμένα σφάλματα (2/2) Ο πολλαπλασιασμός των σφαλμάτων επί την παράγωγο της συνάρτησης ενεργοποίησης έχει ως αποτέλεσμα: Να μειώνεται αυξάνεται η βαρύτητα του σφάλματος για τα παραδείγματα εκείνα που η έξοδός τους Φ(S k ) φαίνεται να έχει σταθεροποιηθεί είτε στο 0 ή στο 1 (για σιγμοειδή συνάρτηση ενεργοποίησης). η κλίση του διανύσματος ΔW=(Δw i1,k, Δw i2,k,..., Δ win,k ) να έχει την κατεύθυνση της πιο απότομης μεταβολής (πτώσης) της επιφάνειας του σφάλματος Ε=Ε(W), όπου W το σύνολο των βαρών του νευρωνικού δικτύου. Τα προσαρμοσμένα σφάλματα είναι σε αντιστοιχία με τον γενικευμένο κανόνα δέλτα για συνεχείς συναρτήσεις ενεργοποίησης. Ουσιαστικά μεταφέρουμε την παράγωγο της συνάρτησης ενεργοποίησης μέσα στο σφάλμα. 4

Σφάλματα κρυφών επιπέδων Τα σφάλματα των νευρώνων των κρυφών επιπέδων υπολογίζονται από τα σφάλματα των νευρώνων του αμέσως επόμενου επιπέδου, ως εξής: όπου: δ i = Φ (S i ) * Σw ik δ k i ένας νευρώνας του κρυφού επιπέδου. Το άθροισμα αναφέρεται σε όλους τους νευρώνες k του επόμενου επιπέδου (ή των επόμενων επιπέδων) με τους οποίους ο νευρώνας i συνδέεται με βάρη w ik. Με τον παραπάνω τρόπο υπολογίζονται τα σφάλματα για όλους τους νευρώνες του δικτύου, μέχρι και το επίπεδο εισόδου. 5

Αλλαγές στα βάρη Έχοντας υπολογίσει για κάθε νευρώνα i το σφάλμα δi, η αλλαγή στα βάρη εισόδου σε όλους τους νευρώνες γίνεται ως εξής: Δw ji = - d * δ i * a j Δηλαδή, η αλλαγή στο βάρος από τον νευρώνα j στον νευρώνα i εξαρτάται από το σφάλμα του νευρώνα i, την έξοδο του νευρώνα j και την σταθερά μάθησης (learning rate) d. Προσοχή: Η παράγωγος της συνάρτησης ενεργοποίησης έχει συμπεριληφθεί μέσα στα προσαρμοσμένα σφάλματα. 6

Επαναλήψεις Υπάρχουν δύο τρόποι παρουσίασης των παραδειγμάτων και αλλαγής των βαρών: Για κάθε παράδειγμα προβαίνουμε αμέσως σε αλλαγές των βαρών (αυξητική εκπαίδευση - incremental training). Μπορούμε να παρουσιάζουμε τα παραδείγματα και με τυχαία σειρά. Περιμένουμε να παρουσιαστούν όλα τα παραδείγματα μια φορά, υπολογίζουμε τις αλλαγές των βαρών για κάθε παράδειγμα και τις εφαρμόζουμε ταυτόχρονα αφού παρουσιαστούν όλα τα παραδείγματα (μαζική εκπαίδευση - batch training). Η παρουσίαση όλων των παραδειγμάτων μια φορά (ανεξαρτήτως του τρόπου αλλαγής των βαρών) ονομάζεται εποχή εκπαίδευσης (epoch). 7

Συνθήκες τερματισμού εκπαίδευσης Το συνολικό σφάλμα για όλα τα παραδείγματα ορίζεται σαν το άθροισμα των τετραγώνων των σφαλμάτων των νευρώνων εξόδου: Ως συνθήκη τερματισμού μπορεί να οριστεί η πτώση του παραπάνω σφάλματος κάτω από ένα όριο. Εναλλακτικά, ως συνθήκη τερματισμού μπορεί να θεωρηθεί η πραγματοποίηση ενός συγκεκριμένου αριθμού εποχών εκπαίδευσης ή η πάροδος ενός συγκεκριμένου χρονικού διαστήματος. 8