Δίκτυα Perceptron. Κυριακίδης Ιωάννης 2013

Σχετικά έγγραφα
Α.Τ.Ε.Ι ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΠΟΛΥΜΕΣΩΝ ΕΡΓΑΣΤΗΡΙΟ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ 4

Προσομοίωση Νευρωνικού Δικτύου στο MATLAB. Κυριακίδης Ιωάννης 2013

Εισαγωγή στους Νευρώνες. Κυριακίδης Ιωάννης 2013

Ανταγωνιστική Εκμάθηση Δίκτυα Kohonen. Κυριακίδης Ιωάννης 2013

Αρχιτεκτονική Νευρωνικών Δικτύων

Backpropagation Multilayer Feedforward Δίκτυα. Κυριακίδης Ιωάννης 2013

Α.Τ.ΕΙ ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΠΟΛΥΜΕΣΩΝ. ΕΡΓΑΣΤΗΡΙΟ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ

Α.Τ.Ε.Ι ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΠΟΛΥΜΕΣΩΝ ΕΡΓΑΣΤΗΡΙΟ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ. Σχήμα 1 Η λειτουργία του νευρώνα

Α. ΤΕΙ ΚΡΗΤΗΣ Τµήµα Εφαρµοσµένης Πληροφορικής και Πολυµέσων Εργαστήριο Νευρωνικών Δικτύων

Εργαστήρια Αριθμητικής Ανάλυσης Ι. 7 ο Εργαστήριο. Διανύσματα-Πίνακες 2 ο Μέρος

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Μετασχηματισμός Z. Κυριακίδης Ιωάννης 2011

Σχεδιασμός Φίλτρων. Κυριακίδης Ιωάννης 2011

Το μοντέλο Perceptron

Συστήματα Διακριτού Χρόνου (Discrete-Time Systems) Κυριακίδης Ιωάννης 2011

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Συστήματα Παράλληλης και Κατανεμημένης Επεξεργασίας

Εισαγωγή στα Σήματα. Κυριακίδης Ιωάννης 2011

Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Νευρωνικά Δίκτυα στο Matlab

Εισαγωγή στην Αριθμητική Ανάλυση

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Υπολογιστική Νοημοσύνη. Μάθημα 12: Παραδείγματα Ασκήσεων 2

Α.Σ.Ε.Ι ΚΡΗΣΗ ΣΜΗΜΑ ΕΦΑΡΜΟΜΕΝΗ ΠΛΗΡΟΦΟΡΙΚΗ & ΠΟΛΤΜΕΩΝ ΕΡΓΑΣΗΡΙΟ ΝΕΤΡΩΝΙΚΩΝ ΔΙΚΣΤΩΝ 2

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #12: Εισαγωγή στα Nευρωνικά Δίκτυα. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

Ψηφιακά Φίλτρα. Κυριακίδης Ιωάννης 2011

1 η Εργαστηριακή Άσκηση MATLAB Εισαγωγή

Εργαστήρια Αριθμητικής Ανάλυσης Ι. 4 ο Εργαστήριο. Διανύσματα-Πίνακες 1 ο Μέρος

διανύσματα - Πίνακες - Struct Στατικό διάνυσμα Είσοδος Έξοδος δεδομένων Συναρτήσεις Χειρισμός σφαλμάτων ΤΕΤΑΡΤΗ ΔΙΑΛΕΞΗ

ANFIS(Από την Θεωρία στην Πράξη)

Αριθμητική Επίλυση Συνήθων Διαφορίκών Εξισώσεων 3ο Εργαστήριο 27/03/2015 1

Υλοποιώντας λογικές πύλες χρησιμοποιώντας perceptrons

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

ΕΙΣΑΓΩΓΗ ΣΤΟ MATHLAB Α ΜΕΡΟΣ

1. ΕΙΣΑΓΩΓΗ ΣΤΟ MATLAB... 13

Τυπικές χρήσεις της Matlab

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης. ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ 2012

Προγραμματισμός Διαδικτύου Ασκήσεις Εργαστηρίου

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Αναγνώριση Προτύπων Ι

Υπολογιστική Νοημοσύνη. Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks

Αριθμητικές Μέθοδοι σε Προγραμματιστικό Περιβάλλον (Εργαστήριο 3)

Πραγματοποίηση Νευρωνικών Δικτύων με το Matlab. Νευρωνικά Δίκτυα

µέχρι και την Τρίτη και ώρα 22:30 1η Ασκηση ΑΜΕΣΟΙ ΜΕΘΟ ΟΙ ΓΙΑ ΤΗΝ ΕΠΙΛΥΣΗ ΓΡΑΜΜΙΚΩΝ ΣΥΣΤΗΜΑΤΩΝ

Matlab. Εισαγωγικές έννοιες. C. C. Katsidis

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Συστήματα Παράλληλης και Κατανεμημένης Επεξεργασίας

Ομαδοποίηση ΙΙ (Clustering)

Υλοποίηση Συστήματος Ανίχνευσης Εισβολών σε Περιβάλλον Android για Ασύρματα Δίκτυα Πρόσβασης

4.3. Γραµµικοί ταξινοµητές

Αναγνώριση Προτύπων Ι

ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΜΑΘΗΣΗ ΔΙΚΤΥA LVQ και SOM. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Διαδικασιακός Προγραμματισμός

Συνδυαστική Βελτιστοποίηση Εισαγωγή στον γραμμικό προγραμματισμό (ΓΠ)

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή

Συστήματα Αναμονής (Queuing Systems)

PROJECT ΣΤΟ ΜΑΘΗΜΑ "ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟΔΟΥΣ"

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΔΕ. 11 ΙΟΥΝΙΟΥ 2012

Λογικά Διανύσματα. >>x = -3/2*pi : pi/100 : 3/2*pi; >>y = tan(x); >>plot(x, y)

ΤΕΧΝΙΚΕΣ ΑΝΤΙΚΕΙΜΕΝΟΣΤΡΑΦΟΥΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΥ. Κλάσεις και Αντικείμενα

Σύντομες εισαγωγικές σημειώσεις για την. Matlab

Εισαγωγή στο MATLAB. Κολοβού Αθανασία, ΕΔΙΠ,

MATLAB Desktop (Επιφάνεια Εργασίας MATLAB) [1.]

Εισαγωγή στο GNU Octave/MATLAB

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο

ΓΡΑΜΜΙΚΟΣ & ΔΙΚΤΥΑΚΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ

Τανυστές στην Κβαντομηχανική Κβαντική Πληροφορική

ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΙΑΣ ΣΧΟΛΗ ΘΕΤΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

Ασκήσεις μελέτης της 19 ης διάλεξης

Εργαστήρια Αριθμητικής Ανάλυσης Ι. 9 ο Εργαστήριο. Απαλοιφή Gauss με μερική οδήγηση - Παρεμβολη

Προγραμματισμός και Χρήση Ηλεκτρονικών Υπολογιστών - Βασικά Εργαλεία Λογισμικού

ΤΕΧΝΟΛΟΓΙΑ ΛΟΓΙΣΜΙΚΟΥ Ι

Βασικά στοιχεία στο Matlab

Υπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning

ΑΡΙΘΜΗΤΙΚΕΣ ΜΕΘΟΔΟΙ ΣΕ ΠΡΟΓΡΑΜΜΑΤΙΣΤΙΚΟ ΠΕΡΙΒΑΛΛΟΝ

E [ -x ^2 z] = E[x z]

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Αλληλεπίδραση με το Matlab

ΑΝΑΠΤΥΞΗ ΕΦΑΡΜΟΓΩΝ ΣΕ ΠΡΟΓΡΑΜΜΑΤΙΣΤΙΚΟ ΠΕΡΙΒΑΛΛΟΝ. Εξετάσεις Προσομοίωσης 24/04/2019

ημιουργία και διαχείριση πινάκων

Προσεγγιστική λύση Γραμμικών Συστημάτων με την μέθοδο Gauss-Seidel. Δημιουργία κώδικα στο Matlab

Τμήμα Μηχανικών Παραγωγής και Διοίκησης. Διπλωματική εργασία: Νευροασαφής έλεγχος σε ευφυή ράβδο

ΔΟΜΗΜΕΝΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ

Με λίγα λόγια, το TCP/IP καθορίζει τον τρόπο που πακετάρονται και μεταφέρονται τα δεδομένα της σύνδεσής μας.

Υπολογιστική Νοημοσύνη. Μάθημα 10: Ομαδοποίηση με Ανταγωνιστική Μάθηση - Δίκτυα Kohonen

Κεφάλαιο Αλφαριθμητικές Σειρές Χαρακτήρων (Strings) (Διάλεξη 20) 1) Strings στη C

4.4 Μετατροπή από μία μορφή δομής επανάληψης σε μία άλλη.

Νευρωνικά ίκτυα και Εξελικτικός. Σηµερινό Μάθηµα. επανάληψη Γενετικών Αλγορίθµων 1 η εργασία Επανάληψη νευρωνικών δικτύων Ασκήσεις εφαρµογές

1. Κατασκευάστε ένα διάνυσμα με στοιχεία τους ζυγούς αριθμούς μεταξύ του 31 και 75

ΠΛΗΡΕΣ ΒΑΘΟΣ ΕΝΤΟΛΩΝ

ΜΗΧΑΝΙΚΗ ΟΡΑΣΗ. 2η ΕΡΓΑΣΙΑ ΤΕΧΝΟΛΟΓΙΚΟ ΕΚΠΑΙΔΕΥΤΙΚΟ ΙΔΡΥΜΑ ΚΡΗΤΗΣ ΣΧΟΛΗ ΤΕΧΝΟΛΟΓΙΚΩΝ ΕΦΑΡΜΟΓΩΝ ΔΙΑΤΜΗΜΑΤΙΚΟ ΠΡΟΓΡΑΜΜΑ ΜΕΤΑΠΤΥΧΙΑΚΩΝ ΣΠΟΥΔΩΝ

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON

Transcript:

Δίκτυα Perceptron Κυριακίδης Ιωάννης 2013

Αρχιτεκτονική του δικτύου Το δίκτυο Perceptron είναι το πρώτο νευρωνικό δίκτυο το οποίο θα κατασκευάσουμε και στη συνέχεια θα εκπαιδεύσουμε προκειμένου να το χρησιμοποιήσουμε σε εφαρμογές αναγνώρισης προτύπων. Το χαρακτηριστικό του δικτύου αυτού είναι ότι αποτελείται από ένα μόνο επίπεδο (θεωρητικά με οποιοδήποτε αριθμό νευρώνων)

Αρχιτεκτονική του δικτύου Ο κάθε νευρώνας υλοποιεί την συνάρτηση μεταφοράς hard limit Μεταξύ του επιπέδου των νευρώνων και του διανύσματος εισόδου υπάρχει πλήρης σύνδεση με τα αντίστοιχα βάρη. Ο κάθε νευρώνας επίσης έχει και ως μοναδιαία είσοδο το bias με βάρος b.

Αρχιτεκτονική του δικτύου Ο κάθε νευρώνας υλοποιεί την συνάρτηση μεταφοράς hard limit Μεταξύ του επιπέδου των νευρώνων και του διανύσματος εισόδου υπάρχει πλήρης σύνδεση με τα αντίστοιχα βάρη. Ο κάθε νευρώνας επίσης έχει και ως μοναδιαία είσοδο το bias με βάρος b. Υπενθυμίζουμε ότι η συνάρτηση αυτή δίνει μηδενική έξοδο (0) σε αρνητική είσοδο και μοναδιαία έξοδο (1) σε μηδενική ή θετική είσοδο.

Είσοδος 2 Γραμμικά Διαχωρίσιμα Προβλήματα Λόγω του ότι το δίκτυο αποτελείται μονάχα από ένα επίπεδο, περιορίζει το εύρος των εφαρμογών του στην Αναγνώριση Προτύπων. Συγκεκριμένα το δίκτυο είναι ικανό στην αντιμετώπιση γραμμικά διαχωρίσιμων προβλημάτων. Πρακτικά, αυτό σημαίνει ότι αν τοποθετήσω όλες τις πιθανές εισόδους σε ένα χώρο (πχ. δισδιάστατο), να μπορώ να χωρίσω γραμμικά τις εισόδους στις ανάλογες εξόδους (πρότυπα). Είσοδος 1

Δίκτυα Perceptron Μας επιτρέπουν να προβλέψουμε αποτελέσματα για φαινόμενα τα οποία δεν ξέρουμε ακριβώς "πώς δουλεύουν" Αλλά βάση παρατήρησης έχουμε φτιάξει ένα αρκετά μεγάλο σύνολο δεδομένων (πρότυπα εκπαίδευσης), το οποίο μπορεί να εκπαιδεύσει ένα νευρωνικό δίκτυο στη συμπεριφορά του φαινομένου που θέλουμε να μελετήσουμε Έτσι ώστε το νευρωνικό δίκτυο, να μας απαντήσει (με σχετική ακρίβεια) την επιρροή που θα είχε το φαινόμενο σε μια είσοδο για την οποία δεν έχουμε παρατηρήσει ακόμα έξοδο από το φαινόμενο.

Η συνάρτηση newp() Για να δημιουργήσουμε την δομή για ένα δίκτυο perceptron θα χρησιμοποιήσουμε την συνάρτηση newp() του MATLAB. net = newp(f, S); Όπου: F = Είναι ένας πίνακας 2 στηλών. Σε κάθε γραμμή του πίνακα θα πρέπει να υπάρχει η ελάχιστη και η μέγιστη τιμή για κάθε χαρακτηριστική τιμή του διανύσματος εισόδου. S = Είναι ο αριθμός των νευρώνων στο επίπεδο εξόδου.

Η συνάρτηση newp() Για να δημιουργήσουμε την δομή για ένα δίκτυο perceptron θα χρησιμοποιήσουμε την συνάρτηση newp() του MATLAB. net = newp(f, S); Όπου: F = Είναι ένας πίνακας 2 στηλών. Σε κάθε γραμμή του πίνακα Σημειώνεται θα πρέπει ότι να δεν υπάρχει χρειάζεται η ελάχιστη να και η μέγιστη ορίσουμε τιμή για με κάποια κάθε χαρακτηριστική εντολή την συνάρτηση τιμή του μεταφοράς που υλοποιεί ο κάθε νευρώνας διανύσματος εισόδου. μιας και αυτή είναι εξ ορισμού η hard limit S = Είναι και ο την αριθμός ρυθμίζει των αυτόματα νευρώνων η συνάρτηση στο επίπεδο εξόδου. newp().

Παράδειγμα Έστω ότι θέλουμε να κατασκευάσουμε ένα δίκτυο perceptron το οποίο να αποτελείται από 2 εισόδους (χαρακτηριστικές τιμές), και θέλουμε να εκπαιδευτεί για να ταξινομεί 4 πρότυπα εκπαίδευσης σε δύο κατηγορίες. X = [ -0.5-0.5 +0.3-0.1; -0.5 +0.5-0.5 +1.0]; T = [1 1 0 0]; plotpv(x,t);

Αρχικοποίηση Δομής Η εντολή η οποία θα μας κατασκευάσει το δίκτυο αυτό είναι η: net = newp(minmax(x), 1); Πληροφορίες Αρχικοποίησης Δομής: Με τις παρακάτω εντολές μπορούμε να δούμε διάφορες πληροφορίες σχετικά με την αρχικοποίηση των βαρών αλλά και των biases. WeightsConfiguration = net.inputweights{1,1} BiasesConfiguration = net.biases{1}

Πληροφορίες Αρχικοποίησης Δομής WeightsConfiguration = Neural Network Weight delays: 0 initfcn: 'initzero' initsettings: (none) learn: true learnfcn: 'learnp' learnparam: (none) size: [1 2] weightfcn: 'dotprod' weightparam: (none) userdata: (your custom info) BiasesConfiguration = Neural Network Bias initfcn: 'initzero' learn: true learnfcn: 'learnp' learnparam: (none) size: 1 userdata: (your custom info)

Τροποποίηση Αρχικοποίησης Αν το επιθυμούμε μπορούμε να επέμβουμε στην ιδιότητα αρχικοποίησης των βαρών αλλά και των biases και να χρησιμοποιήσουμε ένα αλγόριθμο τυχαίας αρχικοποίησης πληκτρολογώντας τις παρακάτω εντολές: net.inputweights{1,1}.initfcn = 'rands'; net.biases{1}.initfcn = 'rands'; Επίσης μπορούμε να δούμε αλλά και να αλλάξουμε τις τιμές της αρχικοποίησης τόσο των βαρών όσο και των biases χρησιμοποιώντας τις παρακάτω ιδιότητες: net.iw{1,1} net.b{1}

Εκπαίδευση του δικτύου Με τον όρο εκπαίδευση του δικτύου για την αναγνώριση προτύπων αναφερόμαστε στην διαδικασία επαναπροσδιορισμού των βαρών και των biases προκειμένου το δίκτυο να είναι ικανό να αναγνωρίζει τα διανύσματα εισόδου σε σχέση με την κατηγορία στην οποία αυτά υπάγονται (έξοδος). Η συνάρτηση που χρησιμοποιούμε για την εκπαίδευση του δικτύου είναι η train() και συντάσσεται ως εξής: net = train(net, X, T); όπου net είναι το αρχικοποιημένο δίκτυο, Χ είναι το διάνυσμα εισόδου, και Τ είναι το διάνυσμα του στόχου.

Κατηγορίες Εκπαίδευσης Γενικά υπάρχουν δύο κατηγορίες εκπαίδευσης: Supervised (με επίβλεψη) Η εκπαίδευση με επίβλεψη προϋποθέτει ότι για να εκπαιδεύσουμε το δίκτυο χρησιμοποιούμε κάποια διανύσματα εισόδου για τα οποία γνωρίζουμε εκ των προτέρων σε ποια κατηγορία ανήκουν (έξοδος). Unsupervised (χωρίς επίβλεψη). Στην εκπαίδευση χωρίς επίβλεψη η πρότερη γνώση για την ταυτότητα των προτύπων δεν υπάρχει.

Κώδικας Παραδείγματος Υπάρχει στο eclass clc; clear all; close all; X = [ -0.5-0.5 +0.3-0.1; -0.5 +0.5-0.5 +1.0]; T = [1 1 0 0]; net=newp(minmax(x),1); net.inputweights{1,1}.initfcn='rands'; net.biases{1}.initfcn='rands'; net.trainparam.epochs=15; net.trainparam.goal=0.01; net=init(net); WeightsConfiguration=net.inputweights{1,1} BiasesConfiguration=net.biases{1} initialweights=net.iw{1,1} initialbiases=net.b{1} net=train(net,x,t); apotelesma=sim(net,x); aftertrainweights=net.iw{1,1} aftertrainbiases=net.b{1} plotpv(x,t); plotpc(net.iw{1},net.b{1});

Κώδικας Παραδείγματος Υπάρχει στο eclass clc; clear all; close all; X = [ -0.5-0.5 +0.3-0.1; -0.5 +0.5-0.5 +1.0]; T = [1 1 0 0]; net=newp(minmax(x),1); net.inputweights{1,1}.initfcn='rands'; net.biases{1}.initfcn='rands'; net.trainparam.epochs=15; net.trainparam.goal=0.01; net=init(net); WeightsConfiguration=net.inputweights{1,1} BiasesConfiguration=net.biases{1} initialweights=net.iw{1,1} initialbiases=net.b{1} net=train(net,x,t); apotelesma=sim(net,x); Κάθε πέρασμα όλων των διανυσμάτων aftertrainweights=net.iw{1,1} εισόδου μαζί με τα ζευγάρια aftertrainbiases=net.b{1} τους (στόχους) κατά την εκπαίδευση του δικτύου την ονομάζουμε ως πέρασμα ή epoch plotpv(x,t); plotpc(net.iw{1},net.b{1});

Διαδικασία εκμάθησης Παρατηρούμε ότι στο συγκεκριμένο παράδειγμα το δίκτυο εκπαιδεύτηκε στο τρίτο πέρασμα των διανυσμάτων, επομένως δεν υπήρχε λόγος να συνεχίσει τις επαναλήψεις του.

Αποτελέσματα Εκμάθησης

Απορίες - Ερωτήσεις ;

Ασκήσεις για το σπίτι Οι ασκήσεις είναι ατομικές!!! 1. Συμπιέστε όλα τα αρχεία m-file σε ένα αρχείο με όνομα: lab04_ομx_yyyy (όπου X ο αριθμός ομάδας εργαστηρίου και YYYY το ΑΜ σας) 2. Υποβάλετε το αρχείο στην αντίστοιχη άσκηση στο eclass

Δεν θα έχετε