Το μοντέλο Perceptron
|
|
- Πλειόνη Δάβης
- 6 χρόνια πριν
- Προβολές:
Transcript
1 Το μοντέλο Perceptron Αποτελείται από έναν μόνο νευρώνα McCulloch-Pitts w j x x 1, x2,..., w x T 1 1 x 2 w 2 Σ u x n f(u) Άνυσμα Εισόδου s i x j x n w n -θ w w 1, w2,..., w n T Άνυσμα Βαρών 1
2 Το μοντέλο Perceptron Εκπαίδευση με επίβλεψη, δηλαδή με στόχους Ανάκληση: Είσοδοι Έξοδος διέγερση ή δυναμικό του Νευρώνα: u = w 1 x 1 + w 2 x w n x n θ έξοδος: y = S i = f u Συνάρτηση ενεργοποίησης: f = βηματική (0/1 ή -1/1, χωρίς ιδιαίτερη σημασία)
3 Το μοντέλο Perceptron Σύμφωνα με τα ανωτέρω θα έχουμε τις εξής συνοπτικές σχέσεις: n n u = i=1 Και ανάλογα με την τιμή της διέγερσης, θα έχουμε: Για βηματική συνάρτηση ενεργοποίησης (0/1) w i x i θ y = f u > 0 αν u = 0 αν u < 0 αν u n i=1 n i=1 n i=1 i=1 w i x i θ y = f u w i x i > θ 1 w i x i = θ 0 w i x i < θ 0 3
4 Το μοντέλο Perceptron Το κατώφλι θ μπορεί να θεωρηθεί σαν ακόμα ένα συναπτικό βάρος του δικτύου (w 0 = θ ) με σταθερή είσοδο x 0 = 1. Μπορεί επίσης να ορισθεί ως συναπτικό βάρος το w 0 = θ και ως είσοδος το x 0 = 1. Τότε το συναπτικό βάρος είναι το αντίθετο του κατωφλίου και ονομάζεται πόλωση (bias). Στις περιπτώσεις αυτές αντιμετωπίζεται όπως και τα υπόλοιπα συναπτικά βάρη. Έτσι η διάσταση των επαυξημένων διανυσμάτων Εισόδου και Βαρών θα είναι n+1: x = x 0 x 1 x 2 x n 1 x n T w = w 0 w 1 w 2 w n 1 w n T 4
5 Το μοντέλο Perceptron Η εξίσωση στο όριο: u = n i=1 w i x i θ=0 Αντιστοιχεί σε ένα υπέρ-επίπεδο R n στον χώρο, με διαστάσεις που καθορίζονται από την τιμή του n. Τα σημεία x i που αντιστοιχούν σε θετικές τιμές της διέγερσης (u > 0) βρίσκονται από την μια μεριά του υπέρ-επιπέδου και αυτά που αντιστοιχούν σε αρνητικές τιμές (u < 0) βρίσκονται στην άλλη μεριά του. Για (u = 0) τα σημεία βρίσκονται πάνω στο υπέρ-επίπεδο. 5
6 Το μοντέλο Perceptron Για n =2, το υπέρ-επίπεδο συρρικνώνεται σε μια ευθεία με εξίσωση: u = w 1 x 1 + w 2 x 2 θ = 0 Η ευθεία αυτή θα είναι κάθετη στο διάνυσμα των συνοπτικών βαρών: w = w 1 w T 2 u = 0 W + 6
7 Το μοντέλο Perceptron x 1 Διαχωριστική γραμμή Μήλα Πορτοκάλια x 2 Γενικότερα, εάν υπάρχει μια ευθεία που διαχωρίζει τις δύο κλάσεις των δεδομένων εισόδου, το Perceptron μπορεί -δια της εκμάθησης (εκπαίδευσης)- να την βρει. 7
8 Η εκπαίδευση του Perceptron Το ζητούμενο είναι να μπορεί το Perceptron να ρυθμίσει τις παραμέτρους του (δηλαδή τα βάρη των συνάψεών του) ώστε να είναι σε θέση στην συνέχεια να διαχωρίζει τα δεδομένα της εισόδου (π.χ. τα μήλα από τα πορτοκάλια). Με άλλα λόγια να βρει την διαχωριστική γραμμή μεταξύ των κλάσεων εισόδου. Αυτό μπορεί να το κάνει στον βαθμό που υπάρχει μια τέτοια ευθεία- δια της εκμάθησης (εκπαίδευσης), η οποία και θα είναι κάθετη στο διάνυσμα των συναπτικών βαρών. 8
9 Η εκπαίδευση του Perceptron Η εκπαίδευση γίνεται με επίβλεψη, δηλαδή κατά κάποιον τρόπο με έναν «δάσκαλο» που δίνει την επιθυμητή τιμή της εξόδου d p (ή τιμή στόχου), για κάθε πρότυπο εκπαίδευσης p. Το δίκτυο «μαθαίνει» ρυθμίζοντας τις παραμέτρους w 0, w 1,, w n, λαμβάνοντας υπ όψη τα επαυξημένα πρότυπα εκπαίδευσης x 1,, x p, και τους στόχους d 1, d p, των προτύπων αυτών, χρησιμοποιώντας έναν επαναληπτικό (recursive) αλγόριθμο εκμάθησης. 9
10 Κανόνας εκπαίδευσης του Perceptron Ο πιο κλασσικός κανόνας εκμάθησης του Perceptron είναι αυτός της σταθερής αύξησης (fixed increment rule). Είναι ένας επαναληπτικός κανόνας, δηλαδή όλα τα πρότυπα εμφανίζονται στην είσοδο με κυκλική σειρά και όταν τελειώσουν επαναλαμβάνονται από την αρχή. Ένας πλήρης κύκλος χρήσης όλων των προτύπων αποτελεί μία εποχή (epoch). Επανάληψη k: 1 2 P P+1 P+2 2P 2P+1 Πρότυπο p: 1 2 P 1 2 P 1 Εποχή 1 Εποχή 2 10
11 Κανόνας εκπαίδευσης του Perceptron Ο κανόνας μεταβάλλει το επαυξημένο διάνυσμα των συναπτικών βαρών w μόνον όταν υπάρχει σφάλμα ταξινόμησης, δηλαδή όταν ο στόχος d p για το πρότυπο p διαφέρει από την τρέχουσα έξοδο του δικτύου: y = f w k 1 T x p Όπου w k 1 είναι το επαυξημένο διάνυσμα των συναπτικών βαρών μετά την επανάληψη k 1. Εάν υπάρχει σφάλμα d p y, η διόρθωση γίνεται προσθέτοντας ή αφαιρώντας ένα ποσοστό του προτύπου x p, ανάλογο του σφάλματος: w k = w k 1 + β d p y x p 11
12 Κανόνας εκπαίδευσης του Perceptron Καθώς, όπως είδαμε, το w 0 αναφέρεται στο συναπτικό βάρος του κατωφλίου με σταθερή είσοδο x 0 = 1, ο κανόνας εκπαίδευσης για το w 0 θα γίνει: w 0 k = w 0 k 1 + β d p y Η παράμετρος b ρυθμίζει το μέγεθος της διόρθωσης, καλείται βήμα εκπαίδευσης ή ρυθμός εκπαίδευσης (learning step ή learning rate) και είναι ένας μικρός θετικός αριθμός. Μεγάλο b κίνδυνος ταλάντωσης Μικρό b αργή σύγκλιση 12
13 Κανόνας εκπαίδευσης του Perceptron Η εκπαίδευση του δικτύου (δηλαδή η ρύθμιση του ανύσματος w ) γίνεται έτσι ώστε, εάν το πρότυπο ταξινομήθηκε εσφαλμένα, την επόμενη φορά, είτε θα ταξινομηθεί σωστά, είτε να προσεγγίσει την σωστή ταξινόμηση. Εάν π.χ. η διέγερση του νευρώνα στο βήμα k 1, πριν την διόρθωση των βαρών, είναι: p u k,πριν = w k 1 T x p Τότε στο βήμα k, μετά την διόρθωση των βαρών, θα έχουμε: p u k,μετα = w k T x p 13
14 Κανόνας εκπαίδευσης του Perceptron Αφού: w k = w k 1 + β d p y x p p u k,πριν p u k,μετα = w k 1 T x p = w k T x p = w k 1 T x p + β d p y x p T x p p = u k,πριν + β d p y x p 2 Οι εσφαλμένες ταξινομήσεις μπορεί να είναι δύο ειδών και ανάλογα με την περίπτωση, γίνεται η εκπαίδευση των βαρών. 14
15 Κανόνας εκπαίδευσης του Perceptron Αν: d p p = 1 και y = f u k,πριν = 0 οπότε: d p p y = 1 > 0 και u k,πριν 0 Δηλαδή: β d p y x p 2 p > 0 και τότε: u k,μετα Αν: d p p = 0 και y = f u k,πριν = 1 οπότε: d p p y = 1 < 0 και u k,πριν > 0 Δηλαδή: β d p y x p 2 p < 0 και τότε: u k,μετα p > u k,πριν p < u k,πριν Και στις δύο περιπτώσεις η διέγερση u μεταβάλλεται προς την σωστή κατεύθυνση, ώστε να οδηγήσει την έξοδο y στην σωστή τιμή, μηδενίζοντας ο σφάλμα. Δηλαδή προσεγγίζουμε προς την σωστή κατεύθυνση. 15
16 Κανόνας εκπαίδευσης του Perceptron Δηλαδή αν: d p = 1 και y = 0 Η διέγερση u p k αυξάνεται για να οδηγήσει την έξοδο στο επιθυμητό y = 1. Ενώ αν: d p = 0 και y = 1 Τότε η διέγερση u p k μειώνεται για να οδηγήσει την έξοδο στο επιθυμητό y = 0. Το ίδιο θα συμβεί και αν για τους στόχους έχουμε (- 1/1), αντί για (0/1). 16
17 Κανόνας εκπαίδευσης του Perceptron Η όλη διαδικασία, υπό μορφή ψευδοκώδικα θα έχει ως εξής: Εισήγαγε όλα τα πρότυπα με τη σειρά. Όταν τελειώσουν ξανάρχισε πάλι από την αρχή. Εποχή = μια κυκλική επανάληψη όλων των προτύπων Για κάθε εποχή { Για κάθε πρότυπο k { y k = f w T x k w new = w + β d k y k } } x k Αν στόχος = έξοδος: τότε δεν γίνεται καμία διόρθωση. Διόρθωση μόνο σε περίπτωση σφάλματος. 17
18 Κανόνας εκπαίδευσης του Perceptron Ο αλγόριθμος τερματίζεται όταν δεν γίνεται πλέον καμία διόρθωση σε κανένα πρότυπο. Αυτό σημαίνει ότι ΟΛΟΙ οι στόχοι είναι ίσοι με ΟΛΕΣ τις εξόδους: d 1 = y 1 d 2 = y 2.. d p = y p 18
19 Παράδειγμα εκπαίδευσης του Perceptron Στο Perceptron του παραδείγματος έχουμε: Άνυσμα εισόδου n + 1 x 1 διαστάσεων (μαζί με το bias): x i = 1 x 1 i x 2 i x n 1 i x T n Άνυσμα βαρών (μαζί με το bias): n + 1 x 1 w i = b n w 1 i w 2 i w n 1 i w n T b i : bias (πόλωση) y i : πραγματική έξοδος d i : επιθυμητή έξοδος β: συντελεστής εκμάθησης <1 Συνάρτηση ενεργοποίησης sgn x ή (-1/1) 19
20 Παράδειγμα εκπαίδευσης του Perceptron Βήματα της εκπαίδευσης: 1) Αρχικοποίηση (Initialization). Θέτουμε τα βάρη αρχικά: w 0 = 0 ή σε άλλες τυχαίες τιμές 2) Ενεργοποίηση (Activation) Στο βήμα i εφαρμόζουμε την είσοδο x i και την επιθυμητή έξοδο d i x i = 1 x 1 i x 2 i x n 1 i x T n 3) Υπολογισμός εξόδου (Actual Response) Στο βήμα i υπολογίζουμε την έξοδο y i y i = sgn w i T x i +1 για x 0 Όπου: sgn x = ή Βηματική (1/-1) 1 για x < 0 20
21 Παράδειγμα εκπαίδευσης του Perceptron 4) Επικαιροποίηση βαρών (εάν έχουμε σφάλμα) w k + 1 = w k + β d k y k x k Όπου: d k = +1 αν x k C 1 1 αν x k C 2 όπου C 1, C 2 : κλάσεις Εάν π.χ. έχουμε 2 πορτοκάλια και 2 μήλα με τα εξής χαρακτηριστικά: Πορτοκάλια (Κλάση C 1 ) Μήλα (Κλάση C 2 ) Βάρος (gr) Μέγεθος (cm) , , , ,1 21
22 Παράδειγμα εκπαίδευσης του Perceptron x 2 Μέγεθος (cm) C 1 (121, 16,8) (114, 15,2) (210, 9,4) (195, 8,1) C x 1 Βάρος (gr) Θέλουμε να κατατάξουμε ένα άγνωστο φρούτο με τα εξής χαρακτηριστικά: Βάρος 140 gr, Μέγεθος 17.9 cm. 22
23 Παράδειγμα εκπαίδευσης του Perceptron Δίδονται τυχαίες αρχικές τιμές: b(0)=50, w 1 =-30, w 2 =300 x 0 =+1 b(0)=50 x 1 w 1 =-30 Σ u 1 s i -1 x 2 w 2 =300 f(u) 23
24 Παράδειγμα εκπαίδευσης του Perceptron Στο επίπεδο η διαχωριστική ευθεία για είσοδο δύο διαστάσεων (x 1, x 2 ) θα είναι: n i=1 w i x i + b = w 1 x 1 + w 2 x 2 + b=0 x 2 C 1 0 x 1 C 2 24
25 Παράδειγμα εκπαίδευσης του Perceptron Εάν η αρχική διαχωριστική ευθεία μεταξύ των δύο κλάσεων είναι για παράδειγμα: w 1 x 1 + w 2 x 2 + b=0 30x x =0 Για x 1 = 100 x 2 = w 1x 1 b = = 9,83 w Για x 1 = 200 x 2 = w 1x 1 b = = 19,83 w
26 Παράδειγμα εκπαίδευσης του Perceptron Τα δύο σημεία που ορίζουν την ευθεία θα είναι: (100, 9,83) και (200, 19,83) x 2 Μέγεθος (cm) C 1 (121, 16,8) (114, 15,2) (100, 9,83) (200, 19,83) (210, 9,4) (195, 8,1) C x 1 Βάρος (gr) 26
27 Παράδειγμα εκπαίδευσης του Perceptron Εάν εφαρμόσουμε στην είσοδο του Perceptron το άγνωστο φρούτο, θα έχουμε: x 0 =+1 b(0)= w 1 =-30 17,9 w 2 =300 Σ u 1 s i -1 f(u) x unknown = ,9 T Άνυσμα βαρών (μαζί με το bias): w 3 = T 27
28 Παράδειγμα εκπαίδευσης του Perceptron x 0 =+1 b(0)= w 1 =-30 Σ u 1 s i -1 17,9 w 2 =300 f(u) y unknown = sgn w T 0 x unknown = sgn T ,9 = sgn ,9 = sgn 1220 = +1 Δηλαδή το άγνωστο φρούτο ανήκει στην κλάση C 1 (πορτοκάλι). 28
29 Παράδειγμα εκπαίδευσης του Perceptron Εάν τα αρχικά βάρη και το bias είναι τέτοια ώστε η ευθεία να μην ξεχωρίζει τις κλάσεις, π.χ. b(0)=-1230, w 1 (0)=-30, w 2 (0)=300 w 1 x 1 + w 2 x 2 + b=0 30x x =0 Για x 1 = 100 x 2 = w 1x 1 b = w 2 Για x 1 = 200 x 2 = w 1x 1 b = w = 14,1 = 24,1 29
30 Παράδειγμα εκπαίδευσης του Perceptron Τα δύο σημεία που ορίζουν την ευθεία θα είναι: (100, 14,1) και (200, 24,1). Τότε οι κλάσεις δεν ξεχωρίζουν και θα πρέπει να γίνει εκπαίδευση του Perceptron. x 2 Μέγεθος (cm) (121, 16,8) (100, 14,1) (114, 15,2) (200, 24,1) (210, 9,4) (195, 8,1) x 1 Βάρος (gr) 30
31 Παράδειγμα εκπαίδευσης του Perceptron Για το 1 ο γνωστό φρούτο (121, 16,8) θα έχουμε d 1 = +1 : x 0 =+1 b(0)= ,8 w 1 =-30 w 2 =300 Σ u 1-1 f(u) y 1 = sgn w T 1 x 1 = sgn T ,8 = sgn ,8 = sgn 180 = +1 Δηλαδή ταξινομεί σωστά το φρούτο στην κλάση C 1 (πορτοκάλι). s i 31
32 Παράδειγμα εκπαίδευσης του Perceptron Για το 2 ο γνωστό φρούτο (114, 15,2) θα έχουμε d 2 = +1 : Απαιτείται διόρθωση x 0 =+1 των βαρών b(0)= ,2 w 1 =-30 w 2 =300 Σ u 1-1 f(u) y 2 = sgn w T 1 x 2 = sgn T ,2 = sgn ,2 = sgn 90 = 1 Δηλαδή δεν ταξινομεί σωστά το φρούτο στην κλάση C 1 (πορτοκάλι). s i 32
33 Παράδειγμα εκπαίδευσης του Perceptron Επικαιροποίηση των βαρών: w k + 1 = w k + β d k y k x k w 1 = T x k = x 2 = ,2 T d 1 = 1 y 1 = 1 β = 0,01 w = w 1 + β d 1 y 1 x 1 w 2 = T + 0, ,2 T = T + 0,02 2,28 0,304 T = 1229,08 27,72 300,304 T Βάζουμε τα νέα βάρη και ταξινομούμε ξανά τα φρούτα. 33
34 Παράδειγμα εκπαίδευσης του Perceptron Επανάληψη για το (114, 15,2) d 2 = +1 : Δηλαδή τώρα ταξινομεί σωστά το x 0 =+1 φρούτο στην κλάση C 1 (πορτοκάλι). b(0)=-1229, ,2 w 1 =-27,72 w 2 =300,304 Σ u 1-1 f(u) y 2 = sgn w T 2 x 2 = sgn 1229,08 27,72 300,304 T ,2 = sgn ,08 27, ,304 15,2 = sgn 175,46 = +1 s i 34
35 Παράδειγμα εκπαίδευσης του Perceptron Για το 3 ο γνωστό φρούτο (210, 9,4) θα έχουμε d 3 = 1 : Δηλαδή ταξινομεί σωστά το φρούτο x 0 =+1 στην κλάση C 2 (πορτοκάλι). b(0)=-1229, ,4 w 1 =-27,72 w 2 =300,304 Σ u 1-1 f(u) y 3 = sgn w T 2 x 3 = sgn 1229,08 27,72 300,304 T ,4 = sgn ,08 27, ,304 9,4 = sgn 4227,4224 = 1 s i 35
36 Παράδειγμα εκπαίδευσης του Perceptron Για το 4 ο γνωστό φρούτο (195, 8,1) θα έχουμε d 4 = 1 : Δηλαδή ταξινομεί σωστά το φρούτο x 0 =+1 στην κλάση C 2 (πορτοκάλι). b(0)=-1229, ,1 w 1 =-27,72 w 2 =300,304 Σ u 1-1 f(u) y 4 = sgn w T 2 x 4 = sgn 1229,08 27,72 300,304 T ,1 = sgn ,08 27, ,304 8,1 = sgn 4202,0176 = 1 = d 4 s i 36
37 Παράδειγμα εκπαίδευσης του Perceptron Επανεξετάζουμε το 1 ο γνωστό φρούτο (121, 16,8) d 1 = +1 : Δηλαδή ταξινομεί σωστά το φρούτο x 0 =+1 στην κλάση C 1 (πορτοκάλι). b(0)=-1229, ,8 w 1 =-27,72 w 2 =300,304 Σ u 1-1 f(u) y 1 = sgn w T 2 x 1 = sgn 1229,08 27,72 300,304 T ,8 = sgn ,08 27, ,304 16,8 = sgn 461,91 = +1 = d 1 s i 37
38 Παράδειγμα εκπαίδευσης του Perceptron Μετά την εκπαίδευση του Perceptron (δηλαδή την επικαιροποίηση των βαρών του), η ευθεία διαχωρισμού των δύο κλάσεων θα έχει αλλάξει θέση. w 1 x 1 + w 2 x 2 + b=0 27,72x ,304x ,08=0 Για x 1 = 100 x 2 = w 1x 1 b = w 2 Για x 1 = 200 x 2 = w 1x 1 b = w 2 27, ,08 300,304 27, ,08 300,304 = 13,32 = 22,55 38
39 Παράδειγμα εκπαίδευσης του Perceptron x 2 Μέγεθος (cm) (121, 16,8) (114, 15,2) (100, 13,32) (200, 22,55) (210, 9,4) (195, 8,1) x 1 Βάρος (gr) 39
40 Παράδειγμα εκπαίδευσης του Perceptron Επανεξετάζουμε το άγνωστο φρούτο (140, 17,9) : Δηλαδή ταξινομεί ξανά το άγνωστο x 0 =+1 φρούτο στην κλάση C 1 (πορτοκάλι). b(0)=-1229, ,9 w 1 =-27,72 w 2 =300,304 Σ u 1-1 f(u) y unknown = sgn w T 2 x unknown = sgn 1229,08 27,72 300,304 T ,9 = sgn ,08 27, ,304 17,9 = sgn 265,56 = +1 s i 40
41 Ιδιότητες κανόνα Perceptron Θεώρημα: Αν το πρόβλημα είναι γραμμικά διαχωρίσιμο τότε συγκλίνει σε πεπερασμένο (αλλά άγνωστο) αριθμό επαναλήψεων. Αν το πρόβλημα δεν είναι γραμμικά διαχωρίσιμο το Perceptron δεν συγκλίνει ποτέ! Εδώ εξαντλείται και η ικανότητα του Perceptron. 41
42 Ιδιότητες κανόνα Perceptron x 2 Π.χ. Το πρόβλημα XOR D 1 (0,1) (1,1) D 2 D 3 Τα δεδομένα δεν είναι γραμμικώς διαχωρίσιμα. Εδώ εξαντλείται και το όριο του Perceptron. Η εξέλιξή του (το MLP) υπερνικά αυτό το πρόβλημα. (0,0) (1,0) x 1 42
43 Το δίκτυο ADALINE Στο μοντέλο Perceptron οι αρχικές τιμές των στοιχείων του επαυξημένου διανύσματος των συναπτικών βαρών w 0 παίρνουν τυχαίες τιμές και οι έξοδοι του Perceptron παίρνουν τις τιμές 0/1 ή 1/-1, ανάλογα με την βηματική συνάρτηση ενεργοποίησης. Το ADALINE: ADAptive LINear Element (Αυτοπροσαρμοζόμενο Γραμμικό Στοιχείο) Ο όρος εισήχθη από τον Widrow και περιγράφει μια πιο απλοποιημένη μορφή του νευρώνα, όπου η συνάρτηση ενεργοποίησης f(.) δεν υπάρχει καθόλου και η έξοδος y του νευρώνα ταυτίζεται με το δυναμικό του νευρώνα u. 43
44 Το δίκτυο ADALINE x 1 w 1 u = n w i x i θ x 2 w 2 i=1 x j w j Σ u s i S i = f u = u x n w n -θ Και αν χρησιμοποιήσουμε τα επαυξημένα ανύσματα: u = i=0 Με: w = w 0 w 1 w 2 w n 1 w T n x = x 0 x 1 x 2 x n 1 x T n n w i x i = W T X 44
45 Η έξοδος y=u του ADALINE παίρνει τιμές από - έως ενώ στο Perceptron είχαμε 0/1 ή -1/1. Το ίδιο μπορεί να συμβαίνει και για τους στόχους d p, χωρίς αυτό να είναι υποχρεωτικό. Όμως για τον διαχωρισμό των κλάσεων οι διακριτοί αριθμοί είναι πιο εύχρηστοι. Τελικά, καθώς η έξοδος του ADALINE (y=u) μπορεί να πάρει άπειρες τιμές, καταλήγουμε, για τον διαχωρισμό δύο κλάσεων Α και Β, να υιοθετήσουμε την λογική: Εάν u>0, κλάση Α άρα και οι αντίστοιχοι στόχοι d>0 Εάν u 0, κλάση Β Το δίκτυο ADALINE άρα και οι αντίστοιχοι στόχοι d 0 45
46 Ελάχιστα Τετράγωνα Είναι ευνόητο πως για μια τέλεια ταξινόμηση των δεδομένων εισόδου στις κλάσεις Α ή Β, θα έχουμε: u p = d p Αυτό οδηγεί στην επίλυση ενός συστήματος P γραμμικών εξισώσεων (όπου P = το πλήθος όλων των προτύπων και για τις δύο κλάσεις): u 1 = w T x 1 = d 1 u 2 = w T x 2 = d 2 u P = w T x P = d P 46
47 Ελάχιστα Τετράγωνα Η σε άλλη μορφή: XW = d Με: X = x 1, x 2,, x p T d = d 1, d 2,, d p T Δηλαδή έχουμε P εξισώσεις με n+1 αγνώστους (τα βάρη w 0, w 1,, w n ). Αν P>n+1 μπορεί το σύστημα να μην έχει λύση και τότε αναζητούμε μια προσεγγιστική λύση, χρησιμοποιώντας ένα κριτήριο που να μας δείχνει πόσο κοντά είναι οι τιμές εξόδου στις επιθυμητές τιμές, συνολικά για όλα τα πρότυπα. Ένα τέτοιο κριτήριο είναι το τετραγωνικό σφάλμα. 47
48 Τετραγωνικό σφάλμα: Ελάχιστα Τετράγωνα J = P d p u p 2 = P d p w T x p 2 p=1 p=1 Εάν d p = u p για όλα τα πρότυπα, τότε το τετραγωνικό σφάλμα μηδενίζεται. Το τετραγωνικό σφάλμα J ορίζεται και ως η νόρμα της διαφοράς Xw d, δηλαδή η τετραγωνική απόσταση του διανύσματος στόχου d από το διάνυσμα εξόδου u = Xw: J = u d 2 Του οποίου επιζητούμε την ελαχιστοποίηση. 48
49 Μέσο Τετραγωνικό Σφάλμα (Mean Square Error) Συνήθως όμως, για το κόστος, χρησιμοποιείται ένα μέγεθος λίγο διαφορετικό από το J, αυτό του Μέσου Τετραγωνικού Σφάλματος (MSE): Όπου η έκφραση E J MSE = E x T w d 2 δηλώνει την αναμενόμενη τιμή. Το J MSE είναι η μέση τιμή του τετραγωνικού σφάλματος: x T w d 2 Και μπορεί να γραφεί επίσης υπό την μορφή: p J MSE = 1 p i=1 u i d i 2 49
50 Μέσο Τετραγωνικό Σφάλμα (Mean Square Error) Για να βρούμε τον σωστό κανόνα εκπαίδευσης, πρέπει να ελαχιστοποιήσουμε το J MSE, πράγμα το οποίο μπορεί γίνει με την κατάβαση δυναμικού, χρησιμοποιώντας την παραγώγιση: dw dt = J MSE w = w E xt w d 2 = E w xt w d 2 = 2E x x T w d = 2E x d x T w 50
51 Μέσο Τετραγωνικό Σφάλμα (Mean Square Error) Η ανωτέρω σχέση οδηγεί στον αναδρομικό αλγόριθμο εκπαίδευσης, γνωστό και ως LMS (Least Mean Squares): ή w k = β k x k d k w k 1 T x k w k = w k 1 + β k x k δ k δ k = d k w k 1 T x k = d k u k Ή ακόμα: w k = w k w k 1 = β k x k δ k 51
52 Μέσο Τετραγωνικό Σφάλμα (Mean Square Error) Η ανωτέρω σχέση δείχνει πως η διόρθωση βάρους w k είναι ανάλογη (λόγος αναλογίας β ) του γινομένου της εισόδου x k επί το σφάλμα δ k. w k = w k w k 1 = β k x k δ k Ο ανωτέρω κανόνας εκπαίδευσης (ή μάθησης) ADALINE, λέγεται και κανόνας δέλτα (delta rule) ή κανόνας Widrow-Hoff από το όνομα των δημιουργών του. 52
53 Κανόνας ADALINE (Widrow-Hoff ή delta rule) Είσοδοι: Τα επαυξημένα πρότυπα εισόδου: x 1,., x p Οι στόχοι που είναι πραγματικοί αριθμοί: d 1,., d p Έξοδος: Τα εκπαιδευμένα συναπτικά βάρη: w 0, w 1,, w n Αλγόριθμος: Δώσε τυχαίες τιμές στο επαυξημένο διάνυσμα w 0 Όρισε το όριο ε για το σφάλμα εκπαίδευσης Δώσε μια μικρή τιμή>0 για την παράμετρο εκπαίδευσης b 53
54 Κανόνας ADALINE (Widrow-Hoff ή delta rule) k=1 Για κάθε εποχή e=1,,maxepochs { Για κάθε πρότυπο p=1,,p { u(k) = w T x(k) w νέο = w + b(k) (d(k) - u(k)) x(k) Διόρθωση k=k+1 } Για κάθε πρότυπο p { Υπολόγισε το J } Τερματισμός όταν J < ε ή όταν e=maxepochs } 54
55 Κανόνας ADALINE (Widrow-Hoff ή delta rule) Ο αλγόριθμος ADALINE εξομοιώνεται στον υπολογιστή με πεπερασμένο αριθμό επαναλήψεων και προτύπων εισόδου. Ο συντελεστής b συνήθως δεν τείνει στο μηδέν αλλά σε μια μικρή τιμή κοντά στο μηδέν. Αν τα πρότυπα είναι λίγα, τα χρησιμοποιούμε ξανά και ξανά, κυκλικά επαναλαμβανόμενα, για να δημιουργήσουμε τεχνητά μια μεγάλη ακολουθία. Μια επανάληψη όλων των προτύπων, λέγεται εποχή, όπως και στο Perceptron. 55
56 ADALINE & PERCEPTRON Ομοιότητα με Perceptron: 1. Ένας μόνο νευρώνας McCulloch-Pitts 2. Ύπαρξη στόχων (εκπαίδευση με επίβλεψη) Διαφορά με Perceptron: 1. Οι στόχοι συγκρίνονται με την διέγερση u και όχι με την έξοδο y 2. Κριτήριο: Μέσο Τετραγωνικό Σφάλμα 56
57 ADALINE: πρόβλημα ορισμού στόχων Πρόβλημα ορισμού στόχων Στο Perceptron στόχοι σαφείς (0/1 ή 1/1) Στο ADALINE < u <, d =? Συνήθως βάζουμε d=1 αν το πρότυπο ανήκει στην κλάση 1 ή d = 1 αν το πρότυπο ανήκει στην κλάση 0. Κατά την εκπαίδευση του ADALINE δεν χρησιμοποιείται η μη γραμμική συνάρτηση ενεργοποίησης. Κατά την ανάκληση του δικτύου όμως μπορούμε να την χρησιμοποιήσουμε, παίρνοντας για έξοδο y = f u δυαδικές τιμές (0/1 ή -1/1). 57
58 Παράδειγμα ADALINE: Γραμμικά Διαχωρίσιμο Το ADALINE διαχωρίζει τις κλάσεις με επιτυχία, όταν αυτές είναι καλά διαχωρίσιμες και έχουν συγκρίσιμη διασπορά 58
59 Παράδειγμα ADALINE: Γραμμικά Διαχωρίσιμο Το ADALINE δεν διαχωρίζει τις κλάσεις σωστά, αν και είναι γραμμικά διαχωρίσιμες! Η διασπορές τους είναι αρκετά διαφορετικές 59
60 Παράδειγμα ADALINE: μη Γραμμικά Διαχωρίσιμο Το ADALINE κάνει σχετικά καλή δουλειά, αν και οι κλάσεις είναι μη γραμμικά διαχωρίσιμες. Το Perceptron δεν θα συνέκλινε. 60
61 Σύγκριση Perceptron - ADALINE Και οι δύο κανόνες είναι αυτοπροσαρμοστικοί. Πλεονέκτημα ADALINE: συγκλίνει ακόμη κι αν το πρόβλημα δεν είναι γραμμικά διαχωρίσιμο. Στην περίπτωση αυτή το Perceptron ταλαντεύεται επ άπειρον. Μειονέκτημα ADALINE: δεν εγγυάται το διαχωρισμό των κλάσεων όταν το πρόβλημα είναι γραμμικά διαχωρίσιμο. Στον αλγόριθμο Perceptron τέτοιο πρόβλημα δεν υφίσταται. 61
Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)
Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP) x -0,5 a x x 2 0 0 0 0 - -0,5 y y 0 0 x 2 -,5 a 2 θ η τιμή κατωφλίου Μία λύση του προβλήματος XOR Multi Layer Perceptron (MLP) x -0,5 Μία
Διαβάστε περισσότεραΤα Δίκτυα Perceptron και ADALINE. Κϊςτασ Διαμαντάρασ Τμιμα Πλθροφορικισ ΤΕΙ Θεςςαλονίκθσ
Τα Δίκτυα Perceptron και ADALINE Κϊςτασ Διαμαντάρασ Τμιμα Πλθροφορικισ ΤΕΙ Θεςςαλονίκθσ Ο Τεχνθτόσ Νευρϊνασ Το μοντζλο McCulloch-Pitts x 1 Νεσρώνας x 2... + u f(u) y x n - θ 2 Το μοντζλο Perceptron Ζνασ
Διαβάστε περισσότεραΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ
ΤΕΙ Δυτικής Μακεδονίας ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ 2015-2016 Τεχνητή Νοημοσύνη Νευρώνας Perceptron Διδάσκων: Τσίπουρας Μάρκος Εκπαιδευτικό Υλικό: Τσίπουρας Μάρκος Τζώρτζης Γρηγόρης Περιεχόμενα Εισαγωγή
Διαβάστε περισσότεραΒασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων
Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron Βιολογικός Νευρώνας Δενδρίτες, που αποτελούν τις γραμμές εισόδου των ερεθισμάτων (βιολογικών σημάτων) Σώμα, στο οποίο γίνεται η συσσώρευση των ερεθισμάτων και
Διαβάστε περισσότερα3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON
3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPRON 3. ΕΙΣΑΓΩΓΗ: Το Perceptron είναι η απλούστερη μορφή Νευρωνικού δικτύου, το οποίο χρησιμοποιείται για την ταξινόμηση ενός ειδικού τύπου προτύπων, που είναι γραμμικά διαχωριζόμενα.
Διαβάστε περισσότεραΥπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)
Υπολογιστική Νοημοσύνη Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2) Ο κανόνας Δέλτα για συνεχείς συναρτήσεις ενεργοποίησης (1/2) Για συνεχείς συναρτήσεις ενεργοποίησης, θα θέλαμε να αλλάξουμε περισσότερο
Διαβάστε περισσότεραΕκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.
Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης Ελαχιστοποίηση συνάρτησης σφάλματος Εκπαίδευση ΤΝΔ: μπορεί να διατυπωθεί ως πρόβλημα ελαχιστοποίησης μιας συνάρτησης σφάλματος E(w)
Διαβάστε περισσότεραΑσκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο
Πρόβλημα ο Ασκήσεις Φροντιστηρίου 5 o Φροντιστήριο Δίνεται το παρακάτω σύνολο εκπαίδευσης: # Είσοδος Κατηγορία 0 0 0 Α 2 0 0 Α 0 Β 4 0 0 Α 5 0 Β 6 0 0 Α 7 0 Β 8 Β α) Στον παρακάτω κύβο τοποθετείστε τα
Διαβάστε περισσότεραΣέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2
Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΜΙΑ ΣΥΜΒΑΣΗ: Προκειμένου να καταστήσουμε πιο συμπαγή το συμβολισμό H : ορίζουμε Ετσι έχουμε *=[ ] an *=[ ]. H : * * ΣΗΜΕΙΩΣΗ: Στη συνέχεια εκτός αν ορίζεται
Διαβάστε περισσότερα4.3. Γραµµικοί ταξινοµητές
Γραµµικοί ταξινοµητές Γραµµικός ταξινοµητής είναι ένα σύστηµα ταξινόµησης που χρησιµοποιεί γραµµικές διακριτικές συναρτήσεις Οι ταξινοµητές αυτοί αναπαρίστανται συχνά µε οµάδες κόµβων εντός των οποίων
Διαβάστε περισσότεραΕπαναληπτικές μέθοδοι
Επαναληπτικές μέθοδοι Η μέθοδος της διχοτόμησης και η μέθοδος Regula Fals που αναφέραμε αξιοποιούσαν το κριτήριο του Bolzano, πραγματοποιώντας διαδοχικές υποδιαιρέσεις του διαστήματος [α, b] στο οποίο,
Διαβάστε περισσότεραΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ
ΘΕΜΑ ο 2.5 µονάδες ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 2 Οκτωβρίου 23 ιάρκεια: 2 ώρες Έστω το παρακάτω γραµµικώς
Διαβάστε περισσότεραΣέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2
Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Η παραπάνω ανάλυση ήταν χρήσιμη προκειμένου να κατανοήσουμε τη λογική των δικτύων perceptrons πολλών επιπέδων
Διαβάστε περισσότεραΑριθμητικές Μέθοδοι σε Προγραμματιστικό Περιβάλλον
Τμήμα Μηχανικών Πληροφορικής Αριθμητικές Μέθοδοι σε Προγραμματιστικό Περιβάλλον Δρ. Δημήτρης Βαρσάμης Επίκουρος Καθηγητής Οκτώβριος 2014 Δρ. Δημήτρης Βαρσάμης Οκτώβριος 2014 1 / 42 Αριθμητικές Μέθοδοι
Διαβάστε περισσότεραΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης. ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ
ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης
Διαβάστε περισσότεραΚινητά Δίκτυα Επικοινωνιών. Συμπληρωματικό υλικό. Προσαρμοστική Ισοστάθμιση Καναλιού
Κινητά Δίκτυα Επικοινωνιών Συμπληρωματικό υλικό Προσαρμοστική Ισοστάθμιση Καναλιού Προσαρμοστικοί Ισοσταθμιστές Για να υπολογίσουμε τους συντελεστές του ισοσταθμιστή MMSE, απαιτείται να λύσουμε ένα γραμμικό
Διαβάστε περισσότεραΜέθοδοι πολυδιάστατης ελαχιστοποίησης
Μέθοδοι πολυδιάστατης ελαχιστοποίησης με παραγώγους Μέθοδοι πολυδιάστατης ελαχιστοποίησης Δ. Γ. Παπαγεωργίου Τμήμα Μηχανικών Επιστήμης Υλικών Πανεπιστήμιο Ιωαννίνων dpapageo@cc.uoi.gr http://pc64.materials.uoi.gr/dpapageo
Διαβάστε περισσότεραΑριθμητική εύρεση ριζών μη γραμμικών εξισώσεων
Αριθμητική εύρεση ριζών μη γραμμικών εξισώσεων Με τον όρο μη γραμμικές εξισώσεις εννοούμε εξισώσεις της μορφής: f( ) 0 που προέρχονται από συναρτήσεις f () που είναι μη γραμμικές ως προς. Περιέχουν δηλαδή
Διαβάστε περισσότεραΤεχνητά Νευρωνικά Δίκτυα. Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης
Τεχνητά Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης Ο Βιολογικός Νευρώνας Δενδρίτες Συνάψεις Πυρήνας (Σώμα) Άξονας 2 Ο Βιολογικός Νευρώνας 3 Βασικά Χαρακτηριστικά
Διαβάστε περισσότεραΑναγνώριση Προτύπων Ι
Αναγνώριση Προτύπων Ι Ενότητα 2: Δομικά Συστήματα Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες
Διαβάστε περισσότεραΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ 2012
ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ Δίνονται τα εξής πρότυπα: [ ] [ ] [ ] [ ] Άσκηση η (3 μονάδες) Χρησιμοποιώντας το κριτήριο της ομοιότητας να απορριφθεί ένα χαρακτηριστικό με βάση το συντελεστή συσχέτισης. (γράψτε ποιο
Διαβάστε περισσότεραΑσκήσεις μελέτης της 19 ης διάλεξης
Οικονομικό Πανεπιστήμιο Αθηνών, Τμήμα Πληροφορικής Μάθημα: Τεχνητή Νοημοσύνη, 2016 17 Διδάσκων: Ι. Ανδρουτσόπουλος Ασκήσεις μελέτης της 19 ης διάλεξης 19.1. Δείξτε ότι το Perceptron με (α) συνάρτηση ενεργοποίησης
Διαβάστε περισσότεραΑριθμητική Ανάλυση και Εφαρμογές
Αριθμητική Ανάλυση και Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 07-08 Αριθμητική Παραγώγιση Εισαγωγή Ορισμός 7. Αν y f x είναι μια συνάρτηση ορισμένη σε ένα διάστημα
Διαβάστε περισσότεραΑναγνώριση Προτύπων Ι
Αναγνώριση Προτύπων Ι Ενότητα 3: Στοχαστικά Συστήματα Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες
Διαβάστε περισσότεραΓραµµικοί Ταξινοµητές
ΚΕΣ 3: Αναγνώριση Προτύπων και Ανάλυση Εικόνας KEΣ 3 Αναγνώριση Προτύπων και Ανάλυση Εικόνας Γραµµικοί Ταξινοµητές ΤµήµαΕπιστήµης και Τεχνολογίας Τηλεπικοινωνιών Πανεπιστήµιο Πελοποννήσου 7 Ncolas sapatsouls
Διαβάστε περισσότεραΤΟΠΟΓΡΑΦΙΚΑ ΔΙΚΤΥΑ ΚΑΙ ΥΠΟΛΟΓΙΣΜΟΙ ΑΝΑΣΚΟΠΗΣΗ ΘΕΩΡΙΑΣ ΣΥΝΟΡΘΩΣΕΩΝ
ΤΟΠΟΓΡΑΦΙΚΑ ΔΙΚΤΥΑ ΚΑΙ ΥΠΟΛΟΓΙΣΜΟΙ ΑΝΑΣΚΟΠΗΣΗ ΘΕΩΡΙΑΣ ΣΥΝΟΡΘΩΣΕΩΝ Βασίλης Δ. Ανδριτσάνος Δρ. Αγρονόμος - Τοπογράφος Μηχανικός ΑΠΘ Επίκουρος Καθηγητής ΤΕΙ Αθήνας 3ο εξάμηνο http://eclass.teiath.gr Παρουσιάσεις,
Διαβάστε περισσότεραΑσκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 3ο Φροντιστήριο
Ασκήσεις Φροντιστηρίου 3ο Φροντιστήριο Πρόβλημα 1 ο Το perceptron ενός επιπέδου είναι ένας γραμμικός ταξινομητής προτύπων. Δικαιολογήστε αυτή την πρόταση. x 1 x 2 Έξοδος y x p θ Κατώφλι Perceptron (στοιχειώδης
Διαβάστε περισσότεραNon Linear Equations (2)
Non Linear Equations () Τρίτη, 17 Φεβρουαρίου 015 5:14 μμ 15.0.19 Page 1 15.0.19 Page 15.0.19 Page 3 15.0.19 Page 4 15.0.19 Page 5 15.0.19 Page 6 15.0.19 Page 7 15.0.19 Page 8 15.0.19 Page 9 15.0.19 Page
Διαβάστε περισσότεραΤο Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων
Το Πολυ Perceptron Δίκτυα Πρόσθιας Τροφοδότησης (feedforward) Tο αντίστοιχο γράφημα του δικτύου δεν περιλαμβάνει κύκλους: δεν υπάρχει δηλαδή ανατροφοδότηση της εξόδου ενός νευρώνα προς τους νευρώνες από
Διαβάστε περισσότεραΤΕΧΝΟΛΟΓΙΑ ΛΟΓΙΣΜΙΚΟΥ Ι
ΤΕΧΝΟΛΟΓΙΑ ΛΟΓΙΣΜΙΚΟΥ Ι κ. ΠΕΤΑΛΙΔΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΠΛΗΡΟΦΟΡΙΚΗΣ ΤΕ 1 Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται
Διαβάστε περισσότεραΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΔΕ. 11 ΙΟΥΝΙΟΥ 2012
ΔΕ. ΙΟΥΝΙΟΥ Δίνονται τα εξής πρότυπα: [ ] [ ] [ ] [ ] Άσκηση η ( μονάδες) Χρησιμοποιώντας το κριτήριο της ομοιότητας να απορριφθεί ένα χαρακτηριστικό με βάσει το συντελεστή συσχέτισης. (γράψτε ποιο χαρακτηριστικό
Διαβάστε περισσότεραΑναγνώριση Προτύπων Ι
Αναγνώριση Προτύπων Ι Ενότητα 1: Μέθοδοι Αναγνώρισης Προτύπων Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται
Διαβάστε περισσότεραΑσκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο
Ασκήσεις Φροντιστηρίου 4 o Φροντιστήριο Πρόβλημα 1 ο Ο πίνακας συσχέτισης R x του διανύσματος εισόδου x( στον LMS αλγόριθμο 1 0.5 R x = ορίζεται ως: 0.5 1. Ορίστε το διάστημα των τιμών της παραμέτρου μάθησης
Διαβάστε περισσότεραΤεχνητά Νευρωνικά Δίκτυα
Τεχνητά Νευρωνικά Δίκτυα & εφαρμογή τους στην πρόγνωση καιρού Πτυχιακή Εργασία Όνομα: Ανδρέας Φωτέας ΑΜ: 200600226 Επιβλέπων: Εμμανουήλ Τσίλης 2 Περιεχόμενα 1. Αρχές Λειτουργίας...7 1.1 Η δομή ενός νευρωνικού
Διαβάστε περισσότεραΑριθμητική Ανάλυση και Εφαρμογές
Αριθμητική Ανάλυση και Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 07-08 Αριθμητική Ολοκλήρωση Εισαγωγή Έστω ότι η f είναι μία φραγμένη συνάρτηση στο πεπερασμένο
Διαβάστε περισσότεραΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων
ΔΙΚΤΥO RBF Αρχιτεκτονική δικτύου RBF Δίκτυα RBF: δίκτυα συναρτήσεων πυρήνα (radial basis function networks). Πρόσθιας τροφοδότησης (feedforward) για προβλήματα μάθησης με επίβλεψη. Εναλλακτικό του MLP.
Διαβάστε περισσότεραΚεφ. 6Β: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών
Κεφ. 6Β: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών. Εισαγωγή (ορισμός προβλήματος, αριθμητική ολοκλήρωση ΣΔΕ, αντικατάσταση ΣΔΕ τάξης n με n εξισώσεις ης τάξης). Μέθοδος Euler 3. Μέθοδοι
Διαβάστε περισσότεραΚεφ. 7: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών
Κεφ. 7: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών 7. Εισαγωγή (ορισμός προβλήματος, αριθμητική ολοκλήρωση ΣΔΕ, αντικατάσταση ΣΔΕ τάξης n με n εξισώσεις ης τάξης) 7. Μέθοδος Euler 7.3
Διαβάστε περισσότεραΑριθμητική Ανάλυση και Εφαρμογές
Αριθμητική Ανάλυση και Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 2017-2018 Αριθμητική Επίλυση Εξισώσεων Εισαγωγή Ορισμός 5.1 Γενικά, το πρόβλημα της αριθμητικής
Διαβάστε περισσότεραΣέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2
Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΧΑΡΤΟΓΡΑΦΗΣΗ ΤΟΥ ΧΩΡΟΥ ΤΩΝ ΤΑΞΙΝΟΜΗΤΩΝ Ταξινομητές Ταξινομητές συναρτ. διάκρισης Ταξινομητές επιφανειών απόφ. Παραμετρικοί ταξινομητές Μη παραμετρικοί
Διαβάστε περισσότεραΥπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning
Υπολογιστική Νοημοσύνη Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning Κεντρική ιδέα Τα παραδείγματα μάθησης παρουσιάζονται στο μηεκπαιδευμένο δίκτυο και υπολογίζονται οι έξοδοι. Για
Διαβάστε περισσότεραΕΛΕΓΧΟΣ ΠΑΡΑΓΩΓΙΚΩΝ ΔΙΕΡΓΑΣΙΩΝ
ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ Ανώτατο Εκπαιδευτικό Ίδρυμα Πειραιά Τεχνολογικού Τομέα ΕΛΕΓΧΟΣ ΠΑΡΑΓΩΓΙΚΩΝ ΔΙΕΡΓΑΣΙΩΝ Ενότητα: Αναγνώριση Διεργασίας - Προσαρμοστικός Έλεγχος (Process Identification) Αλαφοδήμος Κωνσταντίνος
Διαβάστε περισσότεραΥπολογιστική Νοημοσύνη. Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks
Υπολογιστική Νοημοσύνη Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks Γενικά Ένα νευρωνικό δίκτυο λέγεται αναδρομικό, εάν υπάρχει έστω και μια σύνδεση από έναν νευρώνα επιπέδου i προς έναν νευρώνα επιπέδου
Διαβάστε περισσότεραΑριθμητική Ανάλυση και Εφαρμογές
Αριθμητική Ανάλυση και Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 2017-2018 Παρεμβολή και Παρεκβολή Εισαγωγή Ορισμός 6.1 Αν έχουμε στη διάθεσή μας τιμές μιας συνάρτησης
Διαβάστε περισσότεραΣΗΜΑΤΑ ΚΑΙ ΣΥΣΤΗΜΑΤΑ Ι
ΣΗΜΑΤΑ ΚΑΙ ΣΥΣΤΗΜΑΤΑ Ι Προσέγγιση και Ομοιότητα Σημάτων Επιμέλεια: Πέτρος Π. Γρουμπός Καθηγητής Γεώργιος Α. Βασκαντήρας Υπ. Διδάκτορας Τμήμα Ηλεκτρολόγων Μηχανικών & Τεχνολογίας Υπολογιστών Άδειες Χρήσης
Διαβάστε περισσότεραΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ
ΘΕΜΑ ο 2.5 µονάδες ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 2 Σεπτεµβρίου 2005 5:00-8:00 Σχεδιάστε έναν αισθητήρα ercetro
Διαβάστε περισσότεραΑριθμητική Ανάλυση & Εφαρμογές
Αριθμητική Ανάλυση & Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 2017-2018 Υπολογισμοί και Σφάλματα Παράσταση Πραγματικών Αριθμών Συστήματα Αριθμών Παράσταση Ακέραιου
Διαβάστε περισσότεραΚεφάλαιο 5. Το Συμπτωτικό Πολυώνυμο
Κεφάλαιο 5. Το Συμπτωτικό Πολυώνυμο Σύνοψη Στο κεφάλαιο αυτό παρουσιάζεται η ιδέα του συμπτωτικού πολυωνύμου, του πολυωνύμου, δηλαδή, που είναι του μικρότερου δυνατού βαθμού και που, για συγκεκριμένες,
Διαβάστε περισσότεραΤεχνητή Νοημοσύνη. TMHMA ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΕΧΝΟΛΟΓΙΑΣ ΥΠΟΛΟΓΙΣΤΩΝ. Εξάμηνο 5ο Οικονόμου Παναγιώτης & Ελπινίκη Παπαγεωργίου. Νευρωνικά Δίκτυα.
Τεχνητή Νοημοσύνη. TMHMA ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΕΧΝΟΛΟΓΙΑΣ ΥΠΟΛΟΓΙΣΤΩΝ Εξάμηνο 5ο Οικονόμου Παναγιώτης & Ελπινίκη Παπαγεωργίου. Νευρωνικά Δίκτυα. 1 ΤΕΧΝΗΤΑ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Χαρακτηριστικά Είδη εκπαίδευσης Δίκτυα
Διαβάστε περισσότεραΤμήμα Μηχανικών Η/Υ και Πληροφορικής
Τμήμα Μηχανικών Η/Υ και Πληροφορικής Εργαστήριο Επεξεργασίας Σημάτων και Τηλεπικοινωνιών Κινητά Δίκτυα Επικοινωνιών Μέρος Α: Τηλεπικοινωνιακά Θέματα: Τεχνικές Ισοστάθμισης Διαύλου Βασικές αρχές Ισοστάθμισης
Διαβάστε περισσότεραΜέθοδοι μονοδιάστατης ελαχιστοποίησης
Βασικές αρχές μεθόδων ελαχιστοποίησης Μέθοδοι μονοδιάστατης ελαχιστοποίησης Οι μέθοδοι ελαχιστοποίησης είναι επαναληπτικές. Ξεκινώντας από μια αρχική προσέγγιση του ελαχίστου (την συμβολίζουμε ) παράγουν
Διαβάστε περισσότεραΣέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2
Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΧΑΡΤΟΓΡΑΦΗΣΗ ΤΟΥ ΧΩΡΟΥ ΤΩΝ ΤΑΞΙΝΟΜΗΤΩΝ Ταξινομητές Ταξινομητές συναρτ. διάκρισης Ταξινομητές επιφανειών απόφ. Παραμετρικοί ταξινομητές Μη παραμετρικοί
Διαβάστε περισσότεραΧεμπιανά Μοντέλα Μάθησης με Επίβλεψη
Χεμπιανά Μοντέλα Μάθησης με Επίβλεψη Donald O. Hebb, Organization ofbehavior (1949) Ο Κανόνας του Hebb Είναι ένας από τους πρώτους κανόνες εκμάθησης στα νευρωνικά δίκτυα. Προτάθηκε αρχικά, από τον Hebb,
Διαβάστε περισσότεραΤεχνητή Νοημοσύνη. 19η διάλεξη ( ) Ίων Ανδρουτσόπουλος.
Τεχνητή Νοημοσύνη 19η διάλεξη (2016-17) Ίων Ανδρουτσόπουλος http://www.aueb.gr/users/ion/ 1 Οι διαφάνειες αυτές βασίζονται σε ύλη των βιβλίων: Artificia Inteigence A Modern Approach των S. Russe και P.
Διαβάστε περισσότεραΜη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα
KEΣ 3 Αναγνώριση Προτύπων και Ανάλυση Εικόνας Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα ΤµήµαΕπιστήµης και Τεχνολογίας Τηλεπικοινωνιών Πανεπιστήµιο Πελοποννήσου Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος
Διαβάστε περισσότεραΚΕΦΑΛΑΙΟ 2 ΑΝΑΣΚΟΠΗΣΗ ΑΠΑΡΑΙΤΗΤΩΝ ΓΝΩΣΕΩΝ: ΕΚΤΙΜΗΤΕΣ
ΚΕΦΑΛΑΙΟ ΑΝΑΣΚΟΠΗΣΗ ΑΠΑΡΑΙΤΗΤΩΝ ΓΝΩΣΕΩΝ: ΕΚΤΙΜΗΤΕΣ Ως γνωστό δείγμα είναι ένα σύνολο παρατηρήσεων από ένα πληθυσμό. Αν ο πληθυσμός αυτός θεωρηθεί μονοδιάστατος τότε μπορεί να εκφρασθεί με τη συνάρτηση
Διαβάστε περισσότεραΝευρωνικά Δίκτυα στο Matlab
Νευρωνικά Δίκτυα στο Matlab Ρ202 Μηχανική Ευφυΐα (Machine Intelligence) Ευστάθιος Αντωνίου Τμήμα Μηχανικών Πληροφορικής Αλεξάνδρειο ΤΕΙ Θεσσαλονίκης E-mail: antoniou@itteithegr Πρόγραμμα Μεταπτυχιακών
Διαβάστε περισσότεραΑ.Τ.Ε.Ι ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΠΟΛΥΜΕΣΩΝ ΕΡΓΑΣΤΗΡΙΟ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ 4
Α.Τ.Ε.Ι ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΠΟΛΥΜΕΣΩΝ ΕΡΓΑΣΤΗΡΙΟ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ 4 ΤΟ ΔΙΚΤΥΟ PERCEPTRON I. Αρχιτεκτονική του δικτύου Το δίκτυο Perceptron είναι το πρώτο νευρωνικό δίκτυο το οποίο
Διαβάστε περισσότεραΑναγνώριση Προτύπων Ι
Αναγνώριση Προτύπων Ι Ενότητα 4: Νευρωνικά Δίκτυα στην Ταξιμόμηση Προτύπων Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό
Διαβάστε περισσότεραΜέθοδοι μονοδιάστατης ελαχιστοποίησης
Βασικές αρχές μεθόδων ελαχιστοποίησης Μέθοδοι μονοδιάστατης ελαχιστοποίησης Οι μέθοδοι ελαχιστοποίησης είναι επαναληπτικές. Ξεκινώντας από μια αρχική προσέγγιση του ελαχίστου (την συμβολίζουμε ) παράγουν
Διαβάστε περισσότεραΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ
ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ Ακαδ. Έτος 07-08 Διδάσκων: Βασίλης ΚΟΥΤΡΑΣ Επικ. Καθηγητής v.koutras@fme.aegea.gr Τηλ: 7035468 Θα μελετήσουμε
Διαβάστε περισσότερα2 + 0.5 2 + 0.25 + 1 + 0.5 2 + 0.25 + 1 + 0.5 2 + 0.25 2 + 0.5 0 0.125 + 1 + 0.5 1 0.125 + 1 + 0.75 1 0.125 1/5
IOYNIOΣ 23 Δίνονται τα εξής πρότυπα: x! = 2.5 Άσκηση η (3 µονάδες) Χρησιµοποιώντας το κριτήριο της οµοιότητας να απορριφθεί ένα χαρακτηριστικό µε βάση το συντελεστή συσχέτισης. Γράψτε εδώ το χαρακτηριστικό
Διαβάστε περισσότεραΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #12: Εισαγωγή στα Nευρωνικά Δίκτυα. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.
ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ Ανώτατο Εκπαιδευτικό Ίδρυμα Πειραιά Τεχνολογικού Τομέα ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ Ενότητα #12: Εισαγωγή στα Nευρωνικά Δίκτυα Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε. Άδειες Χρήσης Το
Διαβάστε περισσότεραΤεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.
Τεχνητή Νοημοσύνη 18η διάλεξη (2016-17) Ίων Ανδρουτσόπουλος http://www.aueb.gr/users/ion/ 1 Οι διαφάνειες αυτής της διάλεξης βασίζονται: στο βιβλίο Machine Learning του T. Mitchell, McGraw- Hill, 1997,
Διαβάστε περισσότεραΜερικές φορές δεν μπορούμε να αποφανθούμε για την τιμή του άπειρου αθροίσματος.
Σειρές Σειρές και μερικά αθροίσματα: Το πρόβλημα της άθροισης μιας σειράς άπειρων όρων είναι πολύ παλιό. Μερικές φορές μια τέτοια σειρά καταλήγει σε πεπερασμένο αποτέλεσμα, μερικές φορές απειρίζεται και
Διαβάστε περισσότεραΠαρουσίαση 2 η : Αρχές εκτίμησης παραμέτρων Μέρος 1 ο
Εφαρμογές Ανάλυσης Σήματος στη Γεωδαισία Παρουσίαση η : Αρχές εκτίμησης παραμέτρων Μέρος ο Βασίλειος Δ. Ανδριτσάνος Αναπληρωτής Καθηγητής Γεώργιος Χλούπης Επίκουρος Καθηγητής Τμήμα Μηχανικών Τοπογραφίας
Διαβάστε περισσότεραΑνδρέας Παπαζώης. Τμ. Διοίκησης Επιχειρήσεων
Ανδρέας Παπαζώης Τμ. Διοίκησης Επιχειρήσεων Περιεχόμενα Εργ. Μαθήματος Εκπαίδευση (μάθηση) Νευρωνικών Δικτύων Απλός αισθητήρας Παράδειγμα εκπαίδευσης Θέματα υλοποίησης Νευρωνικών Δικτύων 2/17 Διαδικασία
Διαβάστε περισσότεραΣΤΟΧΑΣΤΙΚΑ ΣΗΜΑΤΑ ΚΑΙ ΕΦΑΡΜΟΓΕΣ
ΣΤΟΧΑΣΤΙΚΑ ΣΗΜΑΤΑ ΚΑΙ ΕΦΑΡΜΟΓΕΣ Ακαδηµαϊκό Έτος 007-008 ιδάσκων: Ν. Παπανδρέου (Π.. 407/80) Πανεπιστήµιο Πατρών Τµήµα Μηχανικών Ηλεκτρονικών Υπολογιστών και Πληροφορικής 1η Εργαστηριακή Άσκηση Αναγνώριση
Διαβάστε περισσότεραΕργαστήριο Υπολογιστικής Νοημοσύνης Ευφυούς Ελέγχου. Αναστάσιος Ντούνης, Καθηγητής
Εργαστήριο Υπολογιστικής Νοημοσύνης Ευφυούς Ελέγχου Αναστάσιος Ντούνης, Καθηγητής Υπολογιστική Νοημοσύνη Εισαγωγή στα Τεχνητά Νευρωνικά Δίκτυα (ΤΝΔ) Αναστάσιος Ντούνης, Καθηγητής 2 Περίγραμμα Διαλέξεων
Διαβάστε περισσότεραΣέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2
Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson Μέθοδοι ελαχίστων τετραγώνων Least square methos Αν οι κλάσεις είναι γραμμικώς διαχωρίσιμες το perceptron θα δώσει σαν έξοδο ± Αν οι κλάσεις ΔΕΝ είναι
Διαβάστε περισσότερα6. Στατιστικές μέθοδοι εκπαίδευσης
6. Στατιστικές μέθοδοι εκπαίδευσης Μία διαφορετική μέθοδος εκπαίδευσης των νευρωνικών δικτύων χρησιμοποιεί ιδέες από την Στατιστική Φυσική για να φέρει τελικά το ίδιο αποτέλεσμα όπως οι άλλες μέθοδοι,
Διαβάστε περισσότεραΠανεπιστήμιο Κύπρου Πολυτεχνική Σχολή
Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή Τμήμα Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών ΗΜΜΥ 795: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ Ακαδημαϊκό έτος 2010-11 Χειμερινό Εξάμηνο Practice final exam 1. Έστω ότι για
Διαβάστε περισσότεραΜΕΘΟΔΟΣ ΠΕΠΕΡΑΣΜΕΝΩΝ ΣΤΟΙΧΕΙΩΝ
ΜΕΘΟΔΟΣ ΠΕΠΕΡΑΣΜΕΝΩΝ ΣΤΟΙΧΕΙΩΝ Βασίζεται στην εφαρμογή των παρακάτω βημάτων:. Το φυσικό πεδίο αναπαριστάται με ένα σύνολο απλών γεωμετρικών σχημάτων που ονομάζονται Πεπερασμένα Στοιχεία.. Σε κάθε στοιχείο
Διαβάστε περισσότεραΑκαδημαϊκό Έτος , Χειμερινό Εξάμηνο Διδάσκων Καθ.: Νίκος Τσαπατσούλης
ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΛΟΠΟΝΝΗΣΟΥ, ΤΜΗΜΑ ΤΕΧΝΟΛΟΓΙΑΣ ΤΗΛΕΠΙΚΟΙΝΩΝΙΩΝ ΚΕΣ 3: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΚΑΙ ΑΝΑΛΥΣΗ ΕΙΚΟΝΑΣ Ακαδημαϊκό Έτος 7 8, Χειμερινό Εξάμηνο Καθ.: Νίκος Τσαπατσούλης ΕΡΩΤΗΣΕΙΣ ΕΠΑΝΑΛΗΨΗΣ Το παρόν
Διαβάστε περισσότεραΠ Τ Υ Χ Ι Α Κ Η /ΔΙ Π Λ Ω Μ ΑΤ Ι Κ Η Ε Ρ ΓΑ Σ Ι Α
Α Ρ Ι Σ Τ Ο Τ Ε Λ Ε Ι Ο Π Α Ν Ε Π Ι Σ Τ Η Μ Ι Ο Θ Ε Σ Σ Α Λ Ο Ν Ι Κ Η Σ ΣΧΟΛΗ ΘΕΤΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ Π Τ Υ Χ Ι Α Κ Η /ΔΙ Π Λ Ω Μ ΑΤ Ι Κ Η Ε Ρ ΓΑ Σ Ι Α ΤΕΧΝΙΚΕΣ ΟΜΑΔΟΠΟΙΗΣΗΣ ΜΕ ΧΡΗΣΗ ΝΕΥΡΩΝΙΚΩΝ
Διαβάστε περισσότεραΑΡΙΘΜΗΤΙΚΕΣ ΜΕΘΟΔΟΙ ΣΕ ΠΡΟΓΡΑΜΜΑΤΙΣΤΙΚΟ ΠΕΡΙΒΑΛΛΟΝ
ΑΡΙΘΜΗΤΙΚΕΣ ΜΕΘΟΔΟΙ ΣΕ ΠΡΟΓΡΑΜΜΑΤΙΣΤΙΚΟ ΠΕΡΙΒΑΛΛΟΝ ΜΑΘΗΜΑ 2 ο Μάθημα 2 ο Αριθμητική επίλυση εξισώσεων (μη γραμμικές) Μέθοδοι με διαδοχικές δοκιμές σε διάστημα (Διχοτόμησης, Regula-Falsi) Μέθοδοι με επαναληπτικούς
Διαβάστε περισσότεραΚινητά Δίκτυα Υπολογιστών
Κινητά Δίκτυα Υπολογιστών Καθ. Κώστας Μπερμπερίδης Πολυτεχνική Σχολή Τμήμα Μηχανικών Η/Υ & Πληροφορικής Σκοποί ενότητας Εξοικείωση του φοιτητή με την έννοια της προσαρμοστικής ισοστάθμισης καναλιού 2 Περιεχόμενα
Διαβάστε περισσότεραΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ
ηµήτρης Ψούνης ΠΛΗ3, Απαντήσεις Quiz σε ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ Μάθηµα 3. ΕΡΩΤΗΜΑ Ένας αισθητήρας µπορεί να µάθει: a. εδοµένα που ανήκουν σε 5 διαφορετικές κλάσεις. b. εδοµένα που ανήκουν
Διαβάστε περισσότεραStochastic Signals Class Estimation Theory. Andreas Polydoros University of Athens Dept. of Physics Electronics Laboratory
Stochastic Signals Class Estimation Theory Andreas Polydoros University of Athens Dept. of Physics Electronics Laboratory 1 Τι ειναι «Εκτιμηση» (Estimation)? Γενικο Πλαισιο: Θεωρια και Πραξη Συμπερασματων
Διαβάστε περισσότεραΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ
ΘΕΜΑ ο 2.5 µονάδες ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 7 Ιανουαρίου 2005 ιάρκεια εξέτασης: 5:00-8:00 Έστω ότι
Διαβάστε περισσότεραΠανεπιστήμιο Πατρών Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών. Διάλεξη 4
Πανεπιστήμιο Πατρών Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Τομέας Συστημάτων και Αυτομάτου Ελέγχου ΠΡΟΣΑΡΜΟΣΤΙΚΟΣ ΕΛΕΓΧΟΣ Διάλεξη 4 Πάτρα 2008 Ντετερμινιστικά Moving Average Μοντέλα Ισχύει:
Διαβάστε περισσότεραΣέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2
Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson 2 1 C MH ΠΑΡΑΜΕΤΡΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΒΑΣΙΣΜΕΝΟΙ ΣΕ ΕΠΙΦΑΝΕΙΕΣ ΑΠΟΦΑΣΗΣ Υπενθύμιση: είναι το σύνολο δεδομένων που περιέχει τα διαθέσιμα δεδομένα από όλες
Διαβάστε περισσότεραΣυσχετιστικές Μνήμες Δίκτυο Hopfield. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων
Συσχετιστικές Μνήμες Δίκτυο Hopfield Συσχετιστική Μνήμη Η ανάκληση ενός γεγονότος σε μία χρονική στιγμή προκαλείται από τη συσχέτιση αυτού του γεγονότος με κάποιο ερέθισμα. Πολλές φορές επίσης καλούμαστε
Διαβάστε περισσότεραΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ
ΘΕΜΑ 1 ο (2.5 µονάδες) ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 21 Σεπτεµβρίου 2004 ιάρκεια: 3 ώρες Το παρακάτω σύνολο
Διαβάστε περισσότεραΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #8: Βελτιστοποίηση Συστημάτων Ασαφούς Λογικής. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.
ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ Ανώτατο Εκπαιδευτικό Ίδρυμα Πειραιά Τεχνολογικού Τομέα ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ Ενότητα #8: Βελτιστοποίηση Συστημάτων Ασαφούς Λογικής Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε. Άδειες
Διαβάστε περισσότεραΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ
Θ.Ε. ΠΛΗ31 (2004-5) ΓΡΑΠΤΗ ΕΡΓΑΣΙΑ #3 Στόχος Στόχος αυτής της εργασίας είναι η απόκτηση δεξιοτήτων σε θέματα που αφορούν τα Τεχνητά Νευρωνικά Δίκτυα και ποιο συγκεκριμένα θέματα εκπαίδευσης και υλοποίησης.
Διαβάστε περισσότεραΤεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος.
Τεχνητή Νοημοσύνη 17η διάλεξη (2016-17) Ίων Ανδρουτσόπουλος http://.aueb.gr/users/ion/ 1 Οι διαφάνειες αυτής της διάλεξης βασίζονται: στο βιβλίο Artificia Inteigence A Modern Approach των S. Russe και
Διαβάστε περισσότεραΕισαγωγή στην επιστήμη των υπολογιστών. Λογισμικό Υπολογιστών Κεφάλαιο 8ο Αλγόριθμοι
Εισαγωγή στην επιστήμη των υπολογιστών Λογισμικό Υπολογιστών Κεφάλαιο 8ο Αλγόριθμοι 1 Έννοια Ανεπίσημα, ένας αλγόριθμος είναι μια βήμα προς βήμα μέθοδος για την επίλυση ενός προβλήματος ή την διεκπεραίωση
Διαβάστε περισσότεραHMY 799 1: Αναγνώριση Συστημάτων
HMY 799 : Αναγνώριση Συστημάτων Διάλεξη Γραμμική παλινδρόμηση (Linear regression) Εμπειρική συνάρτηση μεταφοράς Ομαλοποίηση (smoothing) Y ( ) ( ) ω G ω = U ( ω) ω +Δ ω γ ω Δω = ω +Δω W ( ξ ω ) U ( ξ) G(
Διαβάστε περισσότεραΣτοχαστικά Σήματα και Τηλεπικοινωνιές
Στοχαστικά Σήματα και Τηλεπικοινωνιές Ενότητα 5: Προσαρμοστική Επεξεργασία Καθηγητής Κώστας Μπερμπερίδης Πολυτεχνική Σχολή Τμήμα Μηχανικών Η/Υ και Πληροφορικής Σκοποί ενότητας Παρουσίαση των βασικών εννοιών
Διαβάστε περισσότεραΓραμμικός Προγραμματισμός Μέθοδος Simplex
ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ Επιχειρησιακή Έρευνα Γραμμικός Προγραμματισμός Μέθοδος Simplex Η παρουσίαση προετοιμάστηκε από τον Ν.Α. Παναγιώτου Περιεχόμενα Παρουσίασης 1. Πρότυπη Μορφή ΓΠ 2. Πινακοποίηση
Διαβάστε περισσότεραΑ.Τ.ΕΙ ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΠΟΛΥΜΕΣΩΝ. ΕΡΓΑΣΤΗΡΙΟ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ
Α.Τ.ΕΙ ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΠΟΛΥΜΕΣΩΝ. ΕΡΓΑΣΤΗΡΙΟ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΕΚΜΑΘΗΣΗ ΤΑ ΔΙΚΤΥΑ KOHONEN A. ΕΙΣΑΓΩΓΗ Στα προβλήματα που έχουμε αντιμετωπίσει μέχρι τώρα
Διαβάστε περισσότεραΣυνήθεις διαφορικές εξισώσεις προβλήματα οριακών τιμών
Συνήθεις διαφορικές εξισώσεις προβλήματα οριακών τιμών Οι παρούσες σημειώσεις αποτελούν βοήθημα στο μάθημα Αριθμητικές Μέθοδοι του 5 ου εξαμήνου του ΤΜΜ ημήτρης Βαλουγεώργης Καθηγητής Εργαστήριο Φυσικών
Διαβάστε περισσότεραΘΕΩΡΙΑ ΟΙΚΟΝΟΜΕΤΡΙΑΣ ΣΥΝΟΠΤΙΚΕΣ ΣΗΜΕΙΩΣΕΙΣ
ΘΕΩΡΙΑ ΟΙΚΟΝΟΜΕΤΡΙΑΣ ΣΥΝΟΠΤΙΚΕΣ ΣΗΜΕΙΩΣΕΙΣ ΑΠΛΟ ΓΡΑΜΜΙΚΟ ΥΠΟΔΕΙΓΜΑ Συντελεστής συσχέτισης (εκτιμητής Person: r, Y ( ( Y Y xy ( ( Y Y x y, όπου r, Y (ισχυρή θετική γραμμική συσχέτιση όταν, ισχυρή αρνητική
Διαβάστε περισσότεραΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ
ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ Ακαδ. Έτος 06-07 Διδάσκων: Βασίλης ΚΟΥΤΡΑΣ Επικ. Καθηγητής v.koutra@fme.aegea.gr Τηλ: 7035468 Θα μελετήσουμε
Διαβάστε περισσότεραHMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16
HMY 795: Αναγνώριση Προτύπων Διαλέξεις 15-16 Νευρωνικά Δίκτυα(Neural Networks) Fisher s linear discriminant: Μείωση διαστάσεων (dimensionality reduction) y Τ =w x s + s =w S w 2 2 Τ 1 2 W ( ) 2 2 ( ) m2
Διαβάστε περισσότεραΣέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2
Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson 2 1 ΧΑΡΤΟΓΡΑΦΗΣΗ ΤΟΥ ΧΩΡΟΥ ΤΩΝ ΤΑΞΙΝΟΜΗΤΩΝ Ταξινομητές Ταξινομητές συναρτ. διάκρισης Ταξινομητές επιφανειών απόφ. Παραμετρικοί ταξινομητές Μη παραμετρικοί
Διαβάστε περισσότεραΕισόδημα Κατανάλωση 1500 500 1600 600 1300 450 1100 400 600 250 700 275 900 300 800 352 850 400 1100 500
Εισόδημα Κατανάλωση 1500 500 1600 600 1300 450 1100 400 600 250 700 275 900 300 800 352 850 400 1100 500 Πληθυσμός Δείγμα Δείγμα Δείγμα Ο ρόλος της Οικονομετρίας Οικονομική Θεωρία Διατύπωση της
Διαβάστε περισσότεραΚΕΦΑΛΑΙΟ 5 ο. ΓΕΩΜΕΤΡΙΚOΣ ΤΟΠΟΣ ΤΩΝ PIZΩN ή ΤΟΠΟΣ ΕVANS
ΚΕΦΑΛΑΙΟ 5 ο ΓΕΩΜΕΤΡΙΚOΣ ΤΟΠΟΣ ΤΩΝ PIZΩN ή ΤΟΠΟΣ ΕVANS Εισαγωγή Η μελέτη ενός ΣΑΕ μπορεί να γίνει με την επίλυση της διαφορικής εξίσωσης που το περιγράφει και είναι τόσο πιο δύσκολο, όσο μεγαλυτέρου βαθμού
Διαβάστε περισσότεραΜέθοδος Ελαχίστων Τετραγώνων (για την προσαρμογή (ή λείανση) δεδομένων/μετρήσεων)
Μέθοδος Ελαχίστων Τετραγώνων (για την προσαρμογή (ή λείανση) δεδομένων/μετρήσεων) Στην πράξη, για πολύ σημαντικές εφαρμογές, γίνονται μετρήσεις τιμών μιας ποσότητας σε μια κλινική, για μια σφυγμομέτρηση,
Διαβάστε περισσότερα