Το μοντέλο Perceptron

Μέγεθος: px
Εμφάνιση ξεκινά από τη σελίδα:

Download "Το μοντέλο Perceptron"

Transcript

1 Το μοντέλο Perceptron Αποτελείται από έναν μόνο νευρώνα McCulloch-Pitts w j x x 1, x2,..., w x T 1 1 x 2 w 2 Σ u x n f(u) Άνυσμα Εισόδου s i x j x n w n -θ w w 1, w2,..., w n T Άνυσμα Βαρών 1

2 Το μοντέλο Perceptron Εκπαίδευση με επίβλεψη, δηλαδή με στόχους Ανάκληση: Είσοδοι Έξοδος διέγερση ή δυναμικό του Νευρώνα: u = w 1 x 1 + w 2 x w n x n θ έξοδος: y = S i = f u Συνάρτηση ενεργοποίησης: f = βηματική (0/1 ή -1/1, χωρίς ιδιαίτερη σημασία)

3 Το μοντέλο Perceptron Σύμφωνα με τα ανωτέρω θα έχουμε τις εξής συνοπτικές σχέσεις: n n u = i=1 Και ανάλογα με την τιμή της διέγερσης, θα έχουμε: Για βηματική συνάρτηση ενεργοποίησης (0/1) w i x i θ y = f u > 0 αν u = 0 αν u < 0 αν u n i=1 n i=1 n i=1 i=1 w i x i θ y = f u w i x i > θ 1 w i x i = θ 0 w i x i < θ 0 3

4 Το μοντέλο Perceptron Το κατώφλι θ μπορεί να θεωρηθεί σαν ακόμα ένα συναπτικό βάρος του δικτύου (w 0 = θ ) με σταθερή είσοδο x 0 = 1. Μπορεί επίσης να ορισθεί ως συναπτικό βάρος το w 0 = θ και ως είσοδος το x 0 = 1. Τότε το συναπτικό βάρος είναι το αντίθετο του κατωφλίου και ονομάζεται πόλωση (bias). Στις περιπτώσεις αυτές αντιμετωπίζεται όπως και τα υπόλοιπα συναπτικά βάρη. Έτσι η διάσταση των επαυξημένων διανυσμάτων Εισόδου και Βαρών θα είναι n+1: x = x 0 x 1 x 2 x n 1 x n T w = w 0 w 1 w 2 w n 1 w n T 4

5 Το μοντέλο Perceptron Η εξίσωση στο όριο: u = n i=1 w i x i θ=0 Αντιστοιχεί σε ένα υπέρ-επίπεδο R n στον χώρο, με διαστάσεις που καθορίζονται από την τιμή του n. Τα σημεία x i που αντιστοιχούν σε θετικές τιμές της διέγερσης (u > 0) βρίσκονται από την μια μεριά του υπέρ-επιπέδου και αυτά που αντιστοιχούν σε αρνητικές τιμές (u < 0) βρίσκονται στην άλλη μεριά του. Για (u = 0) τα σημεία βρίσκονται πάνω στο υπέρ-επίπεδο. 5

6 Το μοντέλο Perceptron Για n =2, το υπέρ-επίπεδο συρρικνώνεται σε μια ευθεία με εξίσωση: u = w 1 x 1 + w 2 x 2 θ = 0 Η ευθεία αυτή θα είναι κάθετη στο διάνυσμα των συνοπτικών βαρών: w = w 1 w T 2 u = 0 W + 6

7 Το μοντέλο Perceptron x 1 Διαχωριστική γραμμή Μήλα Πορτοκάλια x 2 Γενικότερα, εάν υπάρχει μια ευθεία που διαχωρίζει τις δύο κλάσεις των δεδομένων εισόδου, το Perceptron μπορεί -δια της εκμάθησης (εκπαίδευσης)- να την βρει. 7

8 Η εκπαίδευση του Perceptron Το ζητούμενο είναι να μπορεί το Perceptron να ρυθμίσει τις παραμέτρους του (δηλαδή τα βάρη των συνάψεών του) ώστε να είναι σε θέση στην συνέχεια να διαχωρίζει τα δεδομένα της εισόδου (π.χ. τα μήλα από τα πορτοκάλια). Με άλλα λόγια να βρει την διαχωριστική γραμμή μεταξύ των κλάσεων εισόδου. Αυτό μπορεί να το κάνει στον βαθμό που υπάρχει μια τέτοια ευθεία- δια της εκμάθησης (εκπαίδευσης), η οποία και θα είναι κάθετη στο διάνυσμα των συναπτικών βαρών. 8

9 Η εκπαίδευση του Perceptron Η εκπαίδευση γίνεται με επίβλεψη, δηλαδή κατά κάποιον τρόπο με έναν «δάσκαλο» που δίνει την επιθυμητή τιμή της εξόδου d p (ή τιμή στόχου), για κάθε πρότυπο εκπαίδευσης p. Το δίκτυο «μαθαίνει» ρυθμίζοντας τις παραμέτρους w 0, w 1,, w n, λαμβάνοντας υπ όψη τα επαυξημένα πρότυπα εκπαίδευσης x 1,, x p, και τους στόχους d 1, d p, των προτύπων αυτών, χρησιμοποιώντας έναν επαναληπτικό (recursive) αλγόριθμο εκμάθησης. 9

10 Κανόνας εκπαίδευσης του Perceptron Ο πιο κλασσικός κανόνας εκμάθησης του Perceptron είναι αυτός της σταθερής αύξησης (fixed increment rule). Είναι ένας επαναληπτικός κανόνας, δηλαδή όλα τα πρότυπα εμφανίζονται στην είσοδο με κυκλική σειρά και όταν τελειώσουν επαναλαμβάνονται από την αρχή. Ένας πλήρης κύκλος χρήσης όλων των προτύπων αποτελεί μία εποχή (epoch). Επανάληψη k: 1 2 P P+1 P+2 2P 2P+1 Πρότυπο p: 1 2 P 1 2 P 1 Εποχή 1 Εποχή 2 10

11 Κανόνας εκπαίδευσης του Perceptron Ο κανόνας μεταβάλλει το επαυξημένο διάνυσμα των συναπτικών βαρών w μόνον όταν υπάρχει σφάλμα ταξινόμησης, δηλαδή όταν ο στόχος d p για το πρότυπο p διαφέρει από την τρέχουσα έξοδο του δικτύου: y = f w k 1 T x p Όπου w k 1 είναι το επαυξημένο διάνυσμα των συναπτικών βαρών μετά την επανάληψη k 1. Εάν υπάρχει σφάλμα d p y, η διόρθωση γίνεται προσθέτοντας ή αφαιρώντας ένα ποσοστό του προτύπου x p, ανάλογο του σφάλματος: w k = w k 1 + β d p y x p 11

12 Κανόνας εκπαίδευσης του Perceptron Καθώς, όπως είδαμε, το w 0 αναφέρεται στο συναπτικό βάρος του κατωφλίου με σταθερή είσοδο x 0 = 1, ο κανόνας εκπαίδευσης για το w 0 θα γίνει: w 0 k = w 0 k 1 + β d p y Η παράμετρος b ρυθμίζει το μέγεθος της διόρθωσης, καλείται βήμα εκπαίδευσης ή ρυθμός εκπαίδευσης (learning step ή learning rate) και είναι ένας μικρός θετικός αριθμός. Μεγάλο b κίνδυνος ταλάντωσης Μικρό b αργή σύγκλιση 12

13 Κανόνας εκπαίδευσης του Perceptron Η εκπαίδευση του δικτύου (δηλαδή η ρύθμιση του ανύσματος w ) γίνεται έτσι ώστε, εάν το πρότυπο ταξινομήθηκε εσφαλμένα, την επόμενη φορά, είτε θα ταξινομηθεί σωστά, είτε να προσεγγίσει την σωστή ταξινόμηση. Εάν π.χ. η διέγερση του νευρώνα στο βήμα k 1, πριν την διόρθωση των βαρών, είναι: p u k,πριν = w k 1 T x p Τότε στο βήμα k, μετά την διόρθωση των βαρών, θα έχουμε: p u k,μετα = w k T x p 13

14 Κανόνας εκπαίδευσης του Perceptron Αφού: w k = w k 1 + β d p y x p p u k,πριν p u k,μετα = w k 1 T x p = w k T x p = w k 1 T x p + β d p y x p T x p p = u k,πριν + β d p y x p 2 Οι εσφαλμένες ταξινομήσεις μπορεί να είναι δύο ειδών και ανάλογα με την περίπτωση, γίνεται η εκπαίδευση των βαρών. 14

15 Κανόνας εκπαίδευσης του Perceptron Αν: d p p = 1 και y = f u k,πριν = 0 οπότε: d p p y = 1 > 0 και u k,πριν 0 Δηλαδή: β d p y x p 2 p > 0 και τότε: u k,μετα Αν: d p p = 0 και y = f u k,πριν = 1 οπότε: d p p y = 1 < 0 και u k,πριν > 0 Δηλαδή: β d p y x p 2 p < 0 και τότε: u k,μετα p > u k,πριν p < u k,πριν Και στις δύο περιπτώσεις η διέγερση u μεταβάλλεται προς την σωστή κατεύθυνση, ώστε να οδηγήσει την έξοδο y στην σωστή τιμή, μηδενίζοντας ο σφάλμα. Δηλαδή προσεγγίζουμε προς την σωστή κατεύθυνση. 15

16 Κανόνας εκπαίδευσης του Perceptron Δηλαδή αν: d p = 1 και y = 0 Η διέγερση u p k αυξάνεται για να οδηγήσει την έξοδο στο επιθυμητό y = 1. Ενώ αν: d p = 0 και y = 1 Τότε η διέγερση u p k μειώνεται για να οδηγήσει την έξοδο στο επιθυμητό y = 0. Το ίδιο θα συμβεί και αν για τους στόχους έχουμε (- 1/1), αντί για (0/1). 16

17 Κανόνας εκπαίδευσης του Perceptron Η όλη διαδικασία, υπό μορφή ψευδοκώδικα θα έχει ως εξής: Εισήγαγε όλα τα πρότυπα με τη σειρά. Όταν τελειώσουν ξανάρχισε πάλι από την αρχή. Εποχή = μια κυκλική επανάληψη όλων των προτύπων Για κάθε εποχή { Για κάθε πρότυπο k { y k = f w T x k w new = w + β d k y k } } x k Αν στόχος = έξοδος: τότε δεν γίνεται καμία διόρθωση. Διόρθωση μόνο σε περίπτωση σφάλματος. 17

18 Κανόνας εκπαίδευσης του Perceptron Ο αλγόριθμος τερματίζεται όταν δεν γίνεται πλέον καμία διόρθωση σε κανένα πρότυπο. Αυτό σημαίνει ότι ΟΛΟΙ οι στόχοι είναι ίσοι με ΟΛΕΣ τις εξόδους: d 1 = y 1 d 2 = y 2.. d p = y p 18

19 Παράδειγμα εκπαίδευσης του Perceptron Στο Perceptron του παραδείγματος έχουμε: Άνυσμα εισόδου n + 1 x 1 διαστάσεων (μαζί με το bias): x i = 1 x 1 i x 2 i x n 1 i x T n Άνυσμα βαρών (μαζί με το bias): n + 1 x 1 w i = b n w 1 i w 2 i w n 1 i w n T b i : bias (πόλωση) y i : πραγματική έξοδος d i : επιθυμητή έξοδος β: συντελεστής εκμάθησης <1 Συνάρτηση ενεργοποίησης sgn x ή (-1/1) 19

20 Παράδειγμα εκπαίδευσης του Perceptron Βήματα της εκπαίδευσης: 1) Αρχικοποίηση (Initialization). Θέτουμε τα βάρη αρχικά: w 0 = 0 ή σε άλλες τυχαίες τιμές 2) Ενεργοποίηση (Activation) Στο βήμα i εφαρμόζουμε την είσοδο x i και την επιθυμητή έξοδο d i x i = 1 x 1 i x 2 i x n 1 i x T n 3) Υπολογισμός εξόδου (Actual Response) Στο βήμα i υπολογίζουμε την έξοδο y i y i = sgn w i T x i +1 για x 0 Όπου: sgn x = ή Βηματική (1/-1) 1 για x < 0 20

21 Παράδειγμα εκπαίδευσης του Perceptron 4) Επικαιροποίηση βαρών (εάν έχουμε σφάλμα) w k + 1 = w k + β d k y k x k Όπου: d k = +1 αν x k C 1 1 αν x k C 2 όπου C 1, C 2 : κλάσεις Εάν π.χ. έχουμε 2 πορτοκάλια και 2 μήλα με τα εξής χαρακτηριστικά: Πορτοκάλια (Κλάση C 1 ) Μήλα (Κλάση C 2 ) Βάρος (gr) Μέγεθος (cm) , , , ,1 21

22 Παράδειγμα εκπαίδευσης του Perceptron x 2 Μέγεθος (cm) C 1 (121, 16,8) (114, 15,2) (210, 9,4) (195, 8,1) C x 1 Βάρος (gr) Θέλουμε να κατατάξουμε ένα άγνωστο φρούτο με τα εξής χαρακτηριστικά: Βάρος 140 gr, Μέγεθος 17.9 cm. 22

23 Παράδειγμα εκπαίδευσης του Perceptron Δίδονται τυχαίες αρχικές τιμές: b(0)=50, w 1 =-30, w 2 =300 x 0 =+1 b(0)=50 x 1 w 1 =-30 Σ u 1 s i -1 x 2 w 2 =300 f(u) 23

24 Παράδειγμα εκπαίδευσης του Perceptron Στο επίπεδο η διαχωριστική ευθεία για είσοδο δύο διαστάσεων (x 1, x 2 ) θα είναι: n i=1 w i x i + b = w 1 x 1 + w 2 x 2 + b=0 x 2 C 1 0 x 1 C 2 24

25 Παράδειγμα εκπαίδευσης του Perceptron Εάν η αρχική διαχωριστική ευθεία μεταξύ των δύο κλάσεων είναι για παράδειγμα: w 1 x 1 + w 2 x 2 + b=0 30x x =0 Για x 1 = 100 x 2 = w 1x 1 b = = 9,83 w Για x 1 = 200 x 2 = w 1x 1 b = = 19,83 w

26 Παράδειγμα εκπαίδευσης του Perceptron Τα δύο σημεία που ορίζουν την ευθεία θα είναι: (100, 9,83) και (200, 19,83) x 2 Μέγεθος (cm) C 1 (121, 16,8) (114, 15,2) (100, 9,83) (200, 19,83) (210, 9,4) (195, 8,1) C x 1 Βάρος (gr) 26

27 Παράδειγμα εκπαίδευσης του Perceptron Εάν εφαρμόσουμε στην είσοδο του Perceptron το άγνωστο φρούτο, θα έχουμε: x 0 =+1 b(0)= w 1 =-30 17,9 w 2 =300 Σ u 1 s i -1 f(u) x unknown = ,9 T Άνυσμα βαρών (μαζί με το bias): w 3 = T 27

28 Παράδειγμα εκπαίδευσης του Perceptron x 0 =+1 b(0)= w 1 =-30 Σ u 1 s i -1 17,9 w 2 =300 f(u) y unknown = sgn w T 0 x unknown = sgn T ,9 = sgn ,9 = sgn 1220 = +1 Δηλαδή το άγνωστο φρούτο ανήκει στην κλάση C 1 (πορτοκάλι). 28

29 Παράδειγμα εκπαίδευσης του Perceptron Εάν τα αρχικά βάρη και το bias είναι τέτοια ώστε η ευθεία να μην ξεχωρίζει τις κλάσεις, π.χ. b(0)=-1230, w 1 (0)=-30, w 2 (0)=300 w 1 x 1 + w 2 x 2 + b=0 30x x =0 Για x 1 = 100 x 2 = w 1x 1 b = w 2 Για x 1 = 200 x 2 = w 1x 1 b = w = 14,1 = 24,1 29

30 Παράδειγμα εκπαίδευσης του Perceptron Τα δύο σημεία που ορίζουν την ευθεία θα είναι: (100, 14,1) και (200, 24,1). Τότε οι κλάσεις δεν ξεχωρίζουν και θα πρέπει να γίνει εκπαίδευση του Perceptron. x 2 Μέγεθος (cm) (121, 16,8) (100, 14,1) (114, 15,2) (200, 24,1) (210, 9,4) (195, 8,1) x 1 Βάρος (gr) 30

31 Παράδειγμα εκπαίδευσης του Perceptron Για το 1 ο γνωστό φρούτο (121, 16,8) θα έχουμε d 1 = +1 : x 0 =+1 b(0)= ,8 w 1 =-30 w 2 =300 Σ u 1-1 f(u) y 1 = sgn w T 1 x 1 = sgn T ,8 = sgn ,8 = sgn 180 = +1 Δηλαδή ταξινομεί σωστά το φρούτο στην κλάση C 1 (πορτοκάλι). s i 31

32 Παράδειγμα εκπαίδευσης του Perceptron Για το 2 ο γνωστό φρούτο (114, 15,2) θα έχουμε d 2 = +1 : Απαιτείται διόρθωση x 0 =+1 των βαρών b(0)= ,2 w 1 =-30 w 2 =300 Σ u 1-1 f(u) y 2 = sgn w T 1 x 2 = sgn T ,2 = sgn ,2 = sgn 90 = 1 Δηλαδή δεν ταξινομεί σωστά το φρούτο στην κλάση C 1 (πορτοκάλι). s i 32

33 Παράδειγμα εκπαίδευσης του Perceptron Επικαιροποίηση των βαρών: w k + 1 = w k + β d k y k x k w 1 = T x k = x 2 = ,2 T d 1 = 1 y 1 = 1 β = 0,01 w = w 1 + β d 1 y 1 x 1 w 2 = T + 0, ,2 T = T + 0,02 2,28 0,304 T = 1229,08 27,72 300,304 T Βάζουμε τα νέα βάρη και ταξινομούμε ξανά τα φρούτα. 33

34 Παράδειγμα εκπαίδευσης του Perceptron Επανάληψη για το (114, 15,2) d 2 = +1 : Δηλαδή τώρα ταξινομεί σωστά το x 0 =+1 φρούτο στην κλάση C 1 (πορτοκάλι). b(0)=-1229, ,2 w 1 =-27,72 w 2 =300,304 Σ u 1-1 f(u) y 2 = sgn w T 2 x 2 = sgn 1229,08 27,72 300,304 T ,2 = sgn ,08 27, ,304 15,2 = sgn 175,46 = +1 s i 34

35 Παράδειγμα εκπαίδευσης του Perceptron Για το 3 ο γνωστό φρούτο (210, 9,4) θα έχουμε d 3 = 1 : Δηλαδή ταξινομεί σωστά το φρούτο x 0 =+1 στην κλάση C 2 (πορτοκάλι). b(0)=-1229, ,4 w 1 =-27,72 w 2 =300,304 Σ u 1-1 f(u) y 3 = sgn w T 2 x 3 = sgn 1229,08 27,72 300,304 T ,4 = sgn ,08 27, ,304 9,4 = sgn 4227,4224 = 1 s i 35

36 Παράδειγμα εκπαίδευσης του Perceptron Για το 4 ο γνωστό φρούτο (195, 8,1) θα έχουμε d 4 = 1 : Δηλαδή ταξινομεί σωστά το φρούτο x 0 =+1 στην κλάση C 2 (πορτοκάλι). b(0)=-1229, ,1 w 1 =-27,72 w 2 =300,304 Σ u 1-1 f(u) y 4 = sgn w T 2 x 4 = sgn 1229,08 27,72 300,304 T ,1 = sgn ,08 27, ,304 8,1 = sgn 4202,0176 = 1 = d 4 s i 36

37 Παράδειγμα εκπαίδευσης του Perceptron Επανεξετάζουμε το 1 ο γνωστό φρούτο (121, 16,8) d 1 = +1 : Δηλαδή ταξινομεί σωστά το φρούτο x 0 =+1 στην κλάση C 1 (πορτοκάλι). b(0)=-1229, ,8 w 1 =-27,72 w 2 =300,304 Σ u 1-1 f(u) y 1 = sgn w T 2 x 1 = sgn 1229,08 27,72 300,304 T ,8 = sgn ,08 27, ,304 16,8 = sgn 461,91 = +1 = d 1 s i 37

38 Παράδειγμα εκπαίδευσης του Perceptron Μετά την εκπαίδευση του Perceptron (δηλαδή την επικαιροποίηση των βαρών του), η ευθεία διαχωρισμού των δύο κλάσεων θα έχει αλλάξει θέση. w 1 x 1 + w 2 x 2 + b=0 27,72x ,304x ,08=0 Για x 1 = 100 x 2 = w 1x 1 b = w 2 Για x 1 = 200 x 2 = w 1x 1 b = w 2 27, ,08 300,304 27, ,08 300,304 = 13,32 = 22,55 38

39 Παράδειγμα εκπαίδευσης του Perceptron x 2 Μέγεθος (cm) (121, 16,8) (114, 15,2) (100, 13,32) (200, 22,55) (210, 9,4) (195, 8,1) x 1 Βάρος (gr) 39

40 Παράδειγμα εκπαίδευσης του Perceptron Επανεξετάζουμε το άγνωστο φρούτο (140, 17,9) : Δηλαδή ταξινομεί ξανά το άγνωστο x 0 =+1 φρούτο στην κλάση C 1 (πορτοκάλι). b(0)=-1229, ,9 w 1 =-27,72 w 2 =300,304 Σ u 1-1 f(u) y unknown = sgn w T 2 x unknown = sgn 1229,08 27,72 300,304 T ,9 = sgn ,08 27, ,304 17,9 = sgn 265,56 = +1 s i 40

41 Ιδιότητες κανόνα Perceptron Θεώρημα: Αν το πρόβλημα είναι γραμμικά διαχωρίσιμο τότε συγκλίνει σε πεπερασμένο (αλλά άγνωστο) αριθμό επαναλήψεων. Αν το πρόβλημα δεν είναι γραμμικά διαχωρίσιμο το Perceptron δεν συγκλίνει ποτέ! Εδώ εξαντλείται και η ικανότητα του Perceptron. 41

42 Ιδιότητες κανόνα Perceptron x 2 Π.χ. Το πρόβλημα XOR D 1 (0,1) (1,1) D 2 D 3 Τα δεδομένα δεν είναι γραμμικώς διαχωρίσιμα. Εδώ εξαντλείται και το όριο του Perceptron. Η εξέλιξή του (το MLP) υπερνικά αυτό το πρόβλημα. (0,0) (1,0) x 1 42

43 Το δίκτυο ADALINE Στο μοντέλο Perceptron οι αρχικές τιμές των στοιχείων του επαυξημένου διανύσματος των συναπτικών βαρών w 0 παίρνουν τυχαίες τιμές και οι έξοδοι του Perceptron παίρνουν τις τιμές 0/1 ή 1/-1, ανάλογα με την βηματική συνάρτηση ενεργοποίησης. Το ADALINE: ADAptive LINear Element (Αυτοπροσαρμοζόμενο Γραμμικό Στοιχείο) Ο όρος εισήχθη από τον Widrow και περιγράφει μια πιο απλοποιημένη μορφή του νευρώνα, όπου η συνάρτηση ενεργοποίησης f(.) δεν υπάρχει καθόλου και η έξοδος y του νευρώνα ταυτίζεται με το δυναμικό του νευρώνα u. 43

44 Το δίκτυο ADALINE x 1 w 1 u = n w i x i θ x 2 w 2 i=1 x j w j Σ u s i S i = f u = u x n w n -θ Και αν χρησιμοποιήσουμε τα επαυξημένα ανύσματα: u = i=0 Με: w = w 0 w 1 w 2 w n 1 w T n x = x 0 x 1 x 2 x n 1 x T n n w i x i = W T X 44

45 Η έξοδος y=u του ADALINE παίρνει τιμές από - έως ενώ στο Perceptron είχαμε 0/1 ή -1/1. Το ίδιο μπορεί να συμβαίνει και για τους στόχους d p, χωρίς αυτό να είναι υποχρεωτικό. Όμως για τον διαχωρισμό των κλάσεων οι διακριτοί αριθμοί είναι πιο εύχρηστοι. Τελικά, καθώς η έξοδος του ADALINE (y=u) μπορεί να πάρει άπειρες τιμές, καταλήγουμε, για τον διαχωρισμό δύο κλάσεων Α και Β, να υιοθετήσουμε την λογική: Εάν u>0, κλάση Α άρα και οι αντίστοιχοι στόχοι d>0 Εάν u 0, κλάση Β Το δίκτυο ADALINE άρα και οι αντίστοιχοι στόχοι d 0 45

46 Ελάχιστα Τετράγωνα Είναι ευνόητο πως για μια τέλεια ταξινόμηση των δεδομένων εισόδου στις κλάσεις Α ή Β, θα έχουμε: u p = d p Αυτό οδηγεί στην επίλυση ενός συστήματος P γραμμικών εξισώσεων (όπου P = το πλήθος όλων των προτύπων και για τις δύο κλάσεις): u 1 = w T x 1 = d 1 u 2 = w T x 2 = d 2 u P = w T x P = d P 46

47 Ελάχιστα Τετράγωνα Η σε άλλη μορφή: XW = d Με: X = x 1, x 2,, x p T d = d 1, d 2,, d p T Δηλαδή έχουμε P εξισώσεις με n+1 αγνώστους (τα βάρη w 0, w 1,, w n ). Αν P>n+1 μπορεί το σύστημα να μην έχει λύση και τότε αναζητούμε μια προσεγγιστική λύση, χρησιμοποιώντας ένα κριτήριο που να μας δείχνει πόσο κοντά είναι οι τιμές εξόδου στις επιθυμητές τιμές, συνολικά για όλα τα πρότυπα. Ένα τέτοιο κριτήριο είναι το τετραγωνικό σφάλμα. 47

48 Τετραγωνικό σφάλμα: Ελάχιστα Τετράγωνα J = P d p u p 2 = P d p w T x p 2 p=1 p=1 Εάν d p = u p για όλα τα πρότυπα, τότε το τετραγωνικό σφάλμα μηδενίζεται. Το τετραγωνικό σφάλμα J ορίζεται και ως η νόρμα της διαφοράς Xw d, δηλαδή η τετραγωνική απόσταση του διανύσματος στόχου d από το διάνυσμα εξόδου u = Xw: J = u d 2 Του οποίου επιζητούμε την ελαχιστοποίηση. 48

49 Μέσο Τετραγωνικό Σφάλμα (Mean Square Error) Συνήθως όμως, για το κόστος, χρησιμοποιείται ένα μέγεθος λίγο διαφορετικό από το J, αυτό του Μέσου Τετραγωνικού Σφάλματος (MSE): Όπου η έκφραση E J MSE = E x T w d 2 δηλώνει την αναμενόμενη τιμή. Το J MSE είναι η μέση τιμή του τετραγωνικού σφάλματος: x T w d 2 Και μπορεί να γραφεί επίσης υπό την μορφή: p J MSE = 1 p i=1 u i d i 2 49

50 Μέσο Τετραγωνικό Σφάλμα (Mean Square Error) Για να βρούμε τον σωστό κανόνα εκπαίδευσης, πρέπει να ελαχιστοποιήσουμε το J MSE, πράγμα το οποίο μπορεί γίνει με την κατάβαση δυναμικού, χρησιμοποιώντας την παραγώγιση: dw dt = J MSE w = w E xt w d 2 = E w xt w d 2 = 2E x x T w d = 2E x d x T w 50

51 Μέσο Τετραγωνικό Σφάλμα (Mean Square Error) Η ανωτέρω σχέση οδηγεί στον αναδρομικό αλγόριθμο εκπαίδευσης, γνωστό και ως LMS (Least Mean Squares): ή w k = β k x k d k w k 1 T x k w k = w k 1 + β k x k δ k δ k = d k w k 1 T x k = d k u k Ή ακόμα: w k = w k w k 1 = β k x k δ k 51

52 Μέσο Τετραγωνικό Σφάλμα (Mean Square Error) Η ανωτέρω σχέση δείχνει πως η διόρθωση βάρους w k είναι ανάλογη (λόγος αναλογίας β ) του γινομένου της εισόδου x k επί το σφάλμα δ k. w k = w k w k 1 = β k x k δ k Ο ανωτέρω κανόνας εκπαίδευσης (ή μάθησης) ADALINE, λέγεται και κανόνας δέλτα (delta rule) ή κανόνας Widrow-Hoff από το όνομα των δημιουργών του. 52

53 Κανόνας ADALINE (Widrow-Hoff ή delta rule) Είσοδοι: Τα επαυξημένα πρότυπα εισόδου: x 1,., x p Οι στόχοι που είναι πραγματικοί αριθμοί: d 1,., d p Έξοδος: Τα εκπαιδευμένα συναπτικά βάρη: w 0, w 1,, w n Αλγόριθμος: Δώσε τυχαίες τιμές στο επαυξημένο διάνυσμα w 0 Όρισε το όριο ε για το σφάλμα εκπαίδευσης Δώσε μια μικρή τιμή>0 για την παράμετρο εκπαίδευσης b 53

54 Κανόνας ADALINE (Widrow-Hoff ή delta rule) k=1 Για κάθε εποχή e=1,,maxepochs { Για κάθε πρότυπο p=1,,p { u(k) = w T x(k) w νέο = w + b(k) (d(k) - u(k)) x(k) Διόρθωση k=k+1 } Για κάθε πρότυπο p { Υπολόγισε το J } Τερματισμός όταν J < ε ή όταν e=maxepochs } 54

55 Κανόνας ADALINE (Widrow-Hoff ή delta rule) Ο αλγόριθμος ADALINE εξομοιώνεται στον υπολογιστή με πεπερασμένο αριθμό επαναλήψεων και προτύπων εισόδου. Ο συντελεστής b συνήθως δεν τείνει στο μηδέν αλλά σε μια μικρή τιμή κοντά στο μηδέν. Αν τα πρότυπα είναι λίγα, τα χρησιμοποιούμε ξανά και ξανά, κυκλικά επαναλαμβανόμενα, για να δημιουργήσουμε τεχνητά μια μεγάλη ακολουθία. Μια επανάληψη όλων των προτύπων, λέγεται εποχή, όπως και στο Perceptron. 55

56 ADALINE & PERCEPTRON Ομοιότητα με Perceptron: 1. Ένας μόνο νευρώνας McCulloch-Pitts 2. Ύπαρξη στόχων (εκπαίδευση με επίβλεψη) Διαφορά με Perceptron: 1. Οι στόχοι συγκρίνονται με την διέγερση u και όχι με την έξοδο y 2. Κριτήριο: Μέσο Τετραγωνικό Σφάλμα 56

57 ADALINE: πρόβλημα ορισμού στόχων Πρόβλημα ορισμού στόχων Στο Perceptron στόχοι σαφείς (0/1 ή 1/1) Στο ADALINE < u <, d =? Συνήθως βάζουμε d=1 αν το πρότυπο ανήκει στην κλάση 1 ή d = 1 αν το πρότυπο ανήκει στην κλάση 0. Κατά την εκπαίδευση του ADALINE δεν χρησιμοποιείται η μη γραμμική συνάρτηση ενεργοποίησης. Κατά την ανάκληση του δικτύου όμως μπορούμε να την χρησιμοποιήσουμε, παίρνοντας για έξοδο y = f u δυαδικές τιμές (0/1 ή -1/1). 57

58 Παράδειγμα ADALINE: Γραμμικά Διαχωρίσιμο Το ADALINE διαχωρίζει τις κλάσεις με επιτυχία, όταν αυτές είναι καλά διαχωρίσιμες και έχουν συγκρίσιμη διασπορά 58

59 Παράδειγμα ADALINE: Γραμμικά Διαχωρίσιμο Το ADALINE δεν διαχωρίζει τις κλάσεις σωστά, αν και είναι γραμμικά διαχωρίσιμες! Η διασπορές τους είναι αρκετά διαφορετικές 59

60 Παράδειγμα ADALINE: μη Γραμμικά Διαχωρίσιμο Το ADALINE κάνει σχετικά καλή δουλειά, αν και οι κλάσεις είναι μη γραμμικά διαχωρίσιμες. Το Perceptron δεν θα συνέκλινε. 60

61 Σύγκριση Perceptron - ADALINE Και οι δύο κανόνες είναι αυτοπροσαρμοστικοί. Πλεονέκτημα ADALINE: συγκλίνει ακόμη κι αν το πρόβλημα δεν είναι γραμμικά διαχωρίσιμο. Στην περίπτωση αυτή το Perceptron ταλαντεύεται επ άπειρον. Μειονέκτημα ADALINE: δεν εγγυάται το διαχωρισμό των κλάσεων όταν το πρόβλημα είναι γραμμικά διαχωρίσιμο. Στον αλγόριθμο Perceptron τέτοιο πρόβλημα δεν υφίσταται. 61

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP) Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP) x -0,5 a x x 2 0 0 0 0 - -0,5 y y 0 0 x 2 -,5 a 2 θ η τιμή κατωφλίου Μία λύση του προβλήματος XOR Multi Layer Perceptron (MLP) x -0,5 Μία

Διαβάστε περισσότερα

Τα Δίκτυα Perceptron και ADALINE. Κϊςτασ Διαμαντάρασ Τμιμα Πλθροφορικισ ΤΕΙ Θεςςαλονίκθσ

Τα Δίκτυα Perceptron και ADALINE. Κϊςτασ Διαμαντάρασ Τμιμα Πλθροφορικισ ΤΕΙ Θεςςαλονίκθσ Τα Δίκτυα Perceptron και ADALINE Κϊςτασ Διαμαντάρασ Τμιμα Πλθροφορικισ ΤΕΙ Θεςςαλονίκθσ Ο Τεχνθτόσ Νευρϊνασ Το μοντζλο McCulloch-Pitts x 1 Νεσρώνας x 2... + u f(u) y x n - θ 2 Το μοντζλο Perceptron Ζνασ

Διαβάστε περισσότερα

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ ΤΕΙ Δυτικής Μακεδονίας ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ 2015-2016 Τεχνητή Νοημοσύνη Νευρώνας Perceptron Διδάσκων: Τσίπουρας Μάρκος Εκπαιδευτικό Υλικό: Τσίπουρας Μάρκος Τζώρτζης Γρηγόρης Περιεχόμενα Εισαγωγή

Διαβάστε περισσότερα

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron Βιολογικός Νευρώνας Δενδρίτες, που αποτελούν τις γραμμές εισόδου των ερεθισμάτων (βιολογικών σημάτων) Σώμα, στο οποίο γίνεται η συσσώρευση των ερεθισμάτων και

Διαβάστε περισσότερα

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON 3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPRON 3. ΕΙΣΑΓΩΓΗ: Το Perceptron είναι η απλούστερη μορφή Νευρωνικού δικτύου, το οποίο χρησιμοποιείται για την ταξινόμηση ενός ειδικού τύπου προτύπων, που είναι γραμμικά διαχωριζόμενα.

Διαβάστε περισσότερα

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2) Υπολογιστική Νοημοσύνη Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2) Ο κανόνας Δέλτα για συνεχείς συναρτήσεις ενεργοποίησης (1/2) Για συνεχείς συναρτήσεις ενεργοποίησης, θα θέλαμε να αλλάξουμε περισσότερο

Διαβάστε περισσότερα

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης Ελαχιστοποίηση συνάρτησης σφάλματος Εκπαίδευση ΤΝΔ: μπορεί να διατυπωθεί ως πρόβλημα ελαχιστοποίησης μιας συνάρτησης σφάλματος E(w)

Διαβάστε περισσότερα

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο Πρόβλημα ο Ασκήσεις Φροντιστηρίου 5 o Φροντιστήριο Δίνεται το παρακάτω σύνολο εκπαίδευσης: # Είσοδος Κατηγορία 0 0 0 Α 2 0 0 Α 0 Β 4 0 0 Α 5 0 Β 6 0 0 Α 7 0 Β 8 Β α) Στον παρακάτω κύβο τοποθετείστε τα

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΜΙΑ ΣΥΜΒΑΣΗ: Προκειμένου να καταστήσουμε πιο συμπαγή το συμβολισμό H : ορίζουμε Ετσι έχουμε *=[ ] an *=[ ]. H : * * ΣΗΜΕΙΩΣΗ: Στη συνέχεια εκτός αν ορίζεται

Διαβάστε περισσότερα

4.3. Γραµµικοί ταξινοµητές

4.3. Γραµµικοί ταξινοµητές Γραµµικοί ταξινοµητές Γραµµικός ταξινοµητής είναι ένα σύστηµα ταξινόµησης που χρησιµοποιεί γραµµικές διακριτικές συναρτήσεις Οι ταξινοµητές αυτοί αναπαρίστανται συχνά µε οµάδες κόµβων εντός των οποίων

Διαβάστε περισσότερα

Επαναληπτικές μέθοδοι

Επαναληπτικές μέθοδοι Επαναληπτικές μέθοδοι Η μέθοδος της διχοτόμησης και η μέθοδος Regula Fals που αναφέραμε αξιοποιούσαν το κριτήριο του Bolzano, πραγματοποιώντας διαδοχικές υποδιαιρέσεις του διαστήματος [α, b] στο οποίο,

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ ο 2.5 µονάδες ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 2 Οκτωβρίου 23 ιάρκεια: 2 ώρες Έστω το παρακάτω γραµµικώς

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Η παραπάνω ανάλυση ήταν χρήσιμη προκειμένου να κατανοήσουμε τη λογική των δικτύων perceptrons πολλών επιπέδων

Διαβάστε περισσότερα

Αριθμητικές Μέθοδοι σε Προγραμματιστικό Περιβάλλον

Αριθμητικές Μέθοδοι σε Προγραμματιστικό Περιβάλλον Τμήμα Μηχανικών Πληροφορικής Αριθμητικές Μέθοδοι σε Προγραμματιστικό Περιβάλλον Δρ. Δημήτρης Βαρσάμης Επίκουρος Καθηγητής Οκτώβριος 2014 Δρ. Δημήτρης Βαρσάμης Οκτώβριος 2014 1 / 42 Αριθμητικές Μέθοδοι

Διαβάστε περισσότερα

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης. ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης. ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης

Διαβάστε περισσότερα

Κινητά Δίκτυα Επικοινωνιών. Συμπληρωματικό υλικό. Προσαρμοστική Ισοστάθμιση Καναλιού

Κινητά Δίκτυα Επικοινωνιών. Συμπληρωματικό υλικό. Προσαρμοστική Ισοστάθμιση Καναλιού Κινητά Δίκτυα Επικοινωνιών Συμπληρωματικό υλικό Προσαρμοστική Ισοστάθμιση Καναλιού Προσαρμοστικοί Ισοσταθμιστές Για να υπολογίσουμε τους συντελεστές του ισοσταθμιστή MMSE, απαιτείται να λύσουμε ένα γραμμικό

Διαβάστε περισσότερα

Μέθοδοι πολυδιάστατης ελαχιστοποίησης

Μέθοδοι πολυδιάστατης ελαχιστοποίησης Μέθοδοι πολυδιάστατης ελαχιστοποίησης με παραγώγους Μέθοδοι πολυδιάστατης ελαχιστοποίησης Δ. Γ. Παπαγεωργίου Τμήμα Μηχανικών Επιστήμης Υλικών Πανεπιστήμιο Ιωαννίνων dpapageo@cc.uoi.gr http://pc64.materials.uoi.gr/dpapageo

Διαβάστε περισσότερα

Αριθμητική εύρεση ριζών μη γραμμικών εξισώσεων

Αριθμητική εύρεση ριζών μη γραμμικών εξισώσεων Αριθμητική εύρεση ριζών μη γραμμικών εξισώσεων Με τον όρο μη γραμμικές εξισώσεις εννοούμε εξισώσεις της μορφής: f( ) 0 που προέρχονται από συναρτήσεις f () που είναι μη γραμμικές ως προς. Περιέχουν δηλαδή

Διαβάστε περισσότερα

Τεχνητά Νευρωνικά Δίκτυα. Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης

Τεχνητά Νευρωνικά Δίκτυα. Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης Τεχνητά Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης Ο Βιολογικός Νευρώνας Δενδρίτες Συνάψεις Πυρήνας (Σώμα) Άξονας 2 Ο Βιολογικός Νευρώνας 3 Βασικά Χαρακτηριστικά

Διαβάστε περισσότερα

Αναγνώριση Προτύπων Ι

Αναγνώριση Προτύπων Ι Αναγνώριση Προτύπων Ι Ενότητα 2: Δομικά Συστήματα Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες

Διαβάστε περισσότερα

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ 2012

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ 2012 ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ Δίνονται τα εξής πρότυπα: [ ] [ ] [ ] [ ] Άσκηση η (3 μονάδες) Χρησιμοποιώντας το κριτήριο της ομοιότητας να απορριφθεί ένα χαρακτηριστικό με βάση το συντελεστή συσχέτισης. (γράψτε ποιο

Διαβάστε περισσότερα

Ασκήσεις μελέτης της 19 ης διάλεξης

Ασκήσεις μελέτης της 19 ης διάλεξης Οικονομικό Πανεπιστήμιο Αθηνών, Τμήμα Πληροφορικής Μάθημα: Τεχνητή Νοημοσύνη, 2016 17 Διδάσκων: Ι. Ανδρουτσόπουλος Ασκήσεις μελέτης της 19 ης διάλεξης 19.1. Δείξτε ότι το Perceptron με (α) συνάρτηση ενεργοποίησης

Διαβάστε περισσότερα

Αριθμητική Ανάλυση και Εφαρμογές

Αριθμητική Ανάλυση και Εφαρμογές Αριθμητική Ανάλυση και Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 07-08 Αριθμητική Παραγώγιση Εισαγωγή Ορισμός 7. Αν y f x είναι μια συνάρτηση ορισμένη σε ένα διάστημα

Διαβάστε περισσότερα

Αναγνώριση Προτύπων Ι

Αναγνώριση Προτύπων Ι Αναγνώριση Προτύπων Ι Ενότητα 3: Στοχαστικά Συστήματα Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες

Διαβάστε περισσότερα

Γραµµικοί Ταξινοµητές

Γραµµικοί Ταξινοµητές ΚΕΣ 3: Αναγνώριση Προτύπων και Ανάλυση Εικόνας KEΣ 3 Αναγνώριση Προτύπων και Ανάλυση Εικόνας Γραµµικοί Ταξινοµητές ΤµήµαΕπιστήµης και Τεχνολογίας Τηλεπικοινωνιών Πανεπιστήµιο Πελοποννήσου 7 Ncolas sapatsouls

Διαβάστε περισσότερα

ΤΟΠΟΓΡΑΦΙΚΑ ΔΙΚΤΥΑ ΚΑΙ ΥΠΟΛΟΓΙΣΜΟΙ ΑΝΑΣΚΟΠΗΣΗ ΘΕΩΡΙΑΣ ΣΥΝΟΡΘΩΣΕΩΝ

ΤΟΠΟΓΡΑΦΙΚΑ ΔΙΚΤΥΑ ΚΑΙ ΥΠΟΛΟΓΙΣΜΟΙ ΑΝΑΣΚΟΠΗΣΗ ΘΕΩΡΙΑΣ ΣΥΝΟΡΘΩΣΕΩΝ ΤΟΠΟΓΡΑΦΙΚΑ ΔΙΚΤΥΑ ΚΑΙ ΥΠΟΛΟΓΙΣΜΟΙ ΑΝΑΣΚΟΠΗΣΗ ΘΕΩΡΙΑΣ ΣΥΝΟΡΘΩΣΕΩΝ Βασίλης Δ. Ανδριτσάνος Δρ. Αγρονόμος - Τοπογράφος Μηχανικός ΑΠΘ Επίκουρος Καθηγητής ΤΕΙ Αθήνας 3ο εξάμηνο http://eclass.teiath.gr Παρουσιάσεις,

Διαβάστε περισσότερα

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 3ο Φροντιστήριο

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 3ο Φροντιστήριο Ασκήσεις Φροντιστηρίου 3ο Φροντιστήριο Πρόβλημα 1 ο Το perceptron ενός επιπέδου είναι ένας γραμμικός ταξινομητής προτύπων. Δικαιολογήστε αυτή την πρόταση. x 1 x 2 Έξοδος y x p θ Κατώφλι Perceptron (στοιχειώδης

Διαβάστε περισσότερα

Non Linear Equations (2)

Non Linear Equations (2) Non Linear Equations () Τρίτη, 17 Φεβρουαρίου 015 5:14 μμ 15.0.19 Page 1 15.0.19 Page 15.0.19 Page 3 15.0.19 Page 4 15.0.19 Page 5 15.0.19 Page 6 15.0.19 Page 7 15.0.19 Page 8 15.0.19 Page 9 15.0.19 Page

Διαβάστε περισσότερα

Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Το Πολυεπίπεδο Perceptron. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων Το Πολυ Perceptron Δίκτυα Πρόσθιας Τροφοδότησης (feedforward) Tο αντίστοιχο γράφημα του δικτύου δεν περιλαμβάνει κύκλους: δεν υπάρχει δηλαδή ανατροφοδότηση της εξόδου ενός νευρώνα προς τους νευρώνες από

Διαβάστε περισσότερα

ΤΕΧΝΟΛΟΓΙΑ ΛΟΓΙΣΜΙΚΟΥ Ι

ΤΕΧΝΟΛΟΓΙΑ ΛΟΓΙΣΜΙΚΟΥ Ι ΤΕΧΝΟΛΟΓΙΑ ΛΟΓΙΣΜΙΚΟΥ Ι κ. ΠΕΤΑΛΙΔΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΠΛΗΡΟΦΟΡΙΚΗΣ ΤΕ 1 Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται

Διαβάστε περισσότερα

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΔΕ. 11 ΙΟΥΝΙΟΥ 2012

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΔΕ. 11 ΙΟΥΝΙΟΥ 2012 ΔΕ. ΙΟΥΝΙΟΥ Δίνονται τα εξής πρότυπα: [ ] [ ] [ ] [ ] Άσκηση η ( μονάδες) Χρησιμοποιώντας το κριτήριο της ομοιότητας να απορριφθεί ένα χαρακτηριστικό με βάσει το συντελεστή συσχέτισης. (γράψτε ποιο χαρακτηριστικό

Διαβάστε περισσότερα

Αναγνώριση Προτύπων Ι

Αναγνώριση Προτύπων Ι Αναγνώριση Προτύπων Ι Ενότητα 1: Μέθοδοι Αναγνώρισης Προτύπων Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται

Διαβάστε περισσότερα

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο Ασκήσεις Φροντιστηρίου 4 o Φροντιστήριο Πρόβλημα 1 ο Ο πίνακας συσχέτισης R x του διανύσματος εισόδου x( στον LMS αλγόριθμο 1 0.5 R x = ορίζεται ως: 0.5 1. Ορίστε το διάστημα των τιμών της παραμέτρου μάθησης

Διαβάστε περισσότερα

Τεχνητά Νευρωνικά Δίκτυα

Τεχνητά Νευρωνικά Δίκτυα Τεχνητά Νευρωνικά Δίκτυα & εφαρμογή τους στην πρόγνωση καιρού Πτυχιακή Εργασία Όνομα: Ανδρέας Φωτέας ΑΜ: 200600226 Επιβλέπων: Εμμανουήλ Τσίλης 2 Περιεχόμενα 1. Αρχές Λειτουργίας...7 1.1 Η δομή ενός νευρωνικού

Διαβάστε περισσότερα

Αριθμητική Ανάλυση και Εφαρμογές

Αριθμητική Ανάλυση και Εφαρμογές Αριθμητική Ανάλυση και Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 07-08 Αριθμητική Ολοκλήρωση Εισαγωγή Έστω ότι η f είναι μία φραγμένη συνάρτηση στο πεπερασμένο

Διαβάστε περισσότερα

ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΔΙΚΤΥO RBF. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων ΔΙΚΤΥO RBF Αρχιτεκτονική δικτύου RBF Δίκτυα RBF: δίκτυα συναρτήσεων πυρήνα (radial basis function networks). Πρόσθιας τροφοδότησης (feedforward) για προβλήματα μάθησης με επίβλεψη. Εναλλακτικό του MLP.

Διαβάστε περισσότερα

Κεφ. 6Β: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών

Κεφ. 6Β: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών Κεφ. 6Β: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών. Εισαγωγή (ορισμός προβλήματος, αριθμητική ολοκλήρωση ΣΔΕ, αντικατάσταση ΣΔΕ τάξης n με n εξισώσεις ης τάξης). Μέθοδος Euler 3. Μέθοδοι

Διαβάστε περισσότερα

Κεφ. 7: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών

Κεφ. 7: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών Κεφ. 7: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών 7. Εισαγωγή (ορισμός προβλήματος, αριθμητική ολοκλήρωση ΣΔΕ, αντικατάσταση ΣΔΕ τάξης n με n εξισώσεις ης τάξης) 7. Μέθοδος Euler 7.3

Διαβάστε περισσότερα

Αριθμητική Ανάλυση και Εφαρμογές

Αριθμητική Ανάλυση και Εφαρμογές Αριθμητική Ανάλυση και Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 2017-2018 Αριθμητική Επίλυση Εξισώσεων Εισαγωγή Ορισμός 5.1 Γενικά, το πρόβλημα της αριθμητικής

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΧΑΡΤΟΓΡΑΦΗΣΗ ΤΟΥ ΧΩΡΟΥ ΤΩΝ ΤΑΞΙΝΟΜΗΤΩΝ Ταξινομητές Ταξινομητές συναρτ. διάκρισης Ταξινομητές επιφανειών απόφ. Παραμετρικοί ταξινομητές Μη παραμετρικοί

Διαβάστε περισσότερα

Υπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning

Υπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning Υπολογιστική Νοημοσύνη Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning Κεντρική ιδέα Τα παραδείγματα μάθησης παρουσιάζονται στο μηεκπαιδευμένο δίκτυο και υπολογίζονται οι έξοδοι. Για

Διαβάστε περισσότερα

ΕΛΕΓΧΟΣ ΠΑΡΑΓΩΓΙΚΩΝ ΔΙΕΡΓΑΣΙΩΝ

ΕΛΕΓΧΟΣ ΠΑΡΑΓΩΓΙΚΩΝ ΔΙΕΡΓΑΣΙΩΝ ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ Ανώτατο Εκπαιδευτικό Ίδρυμα Πειραιά Τεχνολογικού Τομέα ΕΛΕΓΧΟΣ ΠΑΡΑΓΩΓΙΚΩΝ ΔΙΕΡΓΑΣΙΩΝ Ενότητα: Αναγνώριση Διεργασίας - Προσαρμοστικός Έλεγχος (Process Identification) Αλαφοδήμος Κωνσταντίνος

Διαβάστε περισσότερα

Υπολογιστική Νοημοσύνη. Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks

Υπολογιστική Νοημοσύνη. Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks Υπολογιστική Νοημοσύνη Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks Γενικά Ένα νευρωνικό δίκτυο λέγεται αναδρομικό, εάν υπάρχει έστω και μια σύνδεση από έναν νευρώνα επιπέδου i προς έναν νευρώνα επιπέδου

Διαβάστε περισσότερα

Αριθμητική Ανάλυση και Εφαρμογές

Αριθμητική Ανάλυση και Εφαρμογές Αριθμητική Ανάλυση και Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 2017-2018 Παρεμβολή και Παρεκβολή Εισαγωγή Ορισμός 6.1 Αν έχουμε στη διάθεσή μας τιμές μιας συνάρτησης

Διαβάστε περισσότερα

ΣΗΜΑΤΑ ΚΑΙ ΣΥΣΤΗΜΑΤΑ Ι

ΣΗΜΑΤΑ ΚΑΙ ΣΥΣΤΗΜΑΤΑ Ι ΣΗΜΑΤΑ ΚΑΙ ΣΥΣΤΗΜΑΤΑ Ι Προσέγγιση και Ομοιότητα Σημάτων Επιμέλεια: Πέτρος Π. Γρουμπός Καθηγητής Γεώργιος Α. Βασκαντήρας Υπ. Διδάκτορας Τμήμα Ηλεκτρολόγων Μηχανικών & Τεχνολογίας Υπολογιστών Άδειες Χρήσης

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ ο 2.5 µονάδες ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 2 Σεπτεµβρίου 2005 5:00-8:00 Σχεδιάστε έναν αισθητήρα ercetro

Διαβάστε περισσότερα

Αριθμητική Ανάλυση & Εφαρμογές

Αριθμητική Ανάλυση & Εφαρμογές Αριθμητική Ανάλυση & Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 2017-2018 Υπολογισμοί και Σφάλματα Παράσταση Πραγματικών Αριθμών Συστήματα Αριθμών Παράσταση Ακέραιου

Διαβάστε περισσότερα

Κεφάλαιο 5. Το Συμπτωτικό Πολυώνυμο

Κεφάλαιο 5. Το Συμπτωτικό Πολυώνυμο Κεφάλαιο 5. Το Συμπτωτικό Πολυώνυμο Σύνοψη Στο κεφάλαιο αυτό παρουσιάζεται η ιδέα του συμπτωτικού πολυωνύμου, του πολυωνύμου, δηλαδή, που είναι του μικρότερου δυνατού βαθμού και που, για συγκεκριμένες,

Διαβάστε περισσότερα

Τεχνητή Νοημοσύνη. TMHMA ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΕΧΝΟΛΟΓΙΑΣ ΥΠΟΛΟΓΙΣΤΩΝ. Εξάμηνο 5ο Οικονόμου Παναγιώτης & Ελπινίκη Παπαγεωργίου. Νευρωνικά Δίκτυα.

Τεχνητή Νοημοσύνη. TMHMA ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΕΧΝΟΛΟΓΙΑΣ ΥΠΟΛΟΓΙΣΤΩΝ. Εξάμηνο 5ο Οικονόμου Παναγιώτης & Ελπινίκη Παπαγεωργίου. Νευρωνικά Δίκτυα. Τεχνητή Νοημοσύνη. TMHMA ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΕΧΝΟΛΟΓΙΑΣ ΥΠΟΛΟΓΙΣΤΩΝ Εξάμηνο 5ο Οικονόμου Παναγιώτης & Ελπινίκη Παπαγεωργίου. Νευρωνικά Δίκτυα. 1 ΤΕΧΝΗΤΑ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Χαρακτηριστικά Είδη εκπαίδευσης Δίκτυα

Διαβάστε περισσότερα

Τμήμα Μηχανικών Η/Υ και Πληροφορικής

Τμήμα Μηχανικών Η/Υ και Πληροφορικής Τμήμα Μηχανικών Η/Υ και Πληροφορικής Εργαστήριο Επεξεργασίας Σημάτων και Τηλεπικοινωνιών Κινητά Δίκτυα Επικοινωνιών Μέρος Α: Τηλεπικοινωνιακά Θέματα: Τεχνικές Ισοστάθμισης Διαύλου Βασικές αρχές Ισοστάθμισης

Διαβάστε περισσότερα

Μέθοδοι μονοδιάστατης ελαχιστοποίησης

Μέθοδοι μονοδιάστατης ελαχιστοποίησης Βασικές αρχές μεθόδων ελαχιστοποίησης Μέθοδοι μονοδιάστατης ελαχιστοποίησης Οι μέθοδοι ελαχιστοποίησης είναι επαναληπτικές. Ξεκινώντας από μια αρχική προσέγγιση του ελαχίστου (την συμβολίζουμε ) παράγουν

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΧΑΡΤΟΓΡΑΦΗΣΗ ΤΟΥ ΧΩΡΟΥ ΤΩΝ ΤΑΞΙΝΟΜΗΤΩΝ Ταξινομητές Ταξινομητές συναρτ. διάκρισης Ταξινομητές επιφανειών απόφ. Παραμετρικοί ταξινομητές Μη παραμετρικοί

Διαβάστε περισσότερα

Χεμπιανά Μοντέλα Μάθησης με Επίβλεψη

Χεμπιανά Μοντέλα Μάθησης με Επίβλεψη Χεμπιανά Μοντέλα Μάθησης με Επίβλεψη Donald O. Hebb, Organization ofbehavior (1949) Ο Κανόνας του Hebb Είναι ένας από τους πρώτους κανόνες εκμάθησης στα νευρωνικά δίκτυα. Προτάθηκε αρχικά, από τον Hebb,

Διαβάστε περισσότερα

Τεχνητή Νοημοσύνη. 19η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 19η διάλεξη ( ) Ίων Ανδρουτσόπουλος. Τεχνητή Νοημοσύνη 19η διάλεξη (2016-17) Ίων Ανδρουτσόπουλος http://www.aueb.gr/users/ion/ 1 Οι διαφάνειες αυτές βασίζονται σε ύλη των βιβλίων: Artificia Inteigence A Modern Approach των S. Russe και P.

Διαβάστε περισσότερα

Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα

Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα KEΣ 3 Αναγνώριση Προτύπων και Ανάλυση Εικόνας Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα ΤµήµαΕπιστήµης και Τεχνολογίας Τηλεπικοινωνιών Πανεπιστήµιο Πελοποννήσου Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος

Διαβάστε περισσότερα

ΚΕΦΑΛΑΙΟ 2 ΑΝΑΣΚΟΠΗΣΗ ΑΠΑΡΑΙΤΗΤΩΝ ΓΝΩΣΕΩΝ: ΕΚΤΙΜΗΤΕΣ

ΚΕΦΑΛΑΙΟ 2 ΑΝΑΣΚΟΠΗΣΗ ΑΠΑΡΑΙΤΗΤΩΝ ΓΝΩΣΕΩΝ: ΕΚΤΙΜΗΤΕΣ ΚΕΦΑΛΑΙΟ ΑΝΑΣΚΟΠΗΣΗ ΑΠΑΡΑΙΤΗΤΩΝ ΓΝΩΣΕΩΝ: ΕΚΤΙΜΗΤΕΣ Ως γνωστό δείγμα είναι ένα σύνολο παρατηρήσεων από ένα πληθυσμό. Αν ο πληθυσμός αυτός θεωρηθεί μονοδιάστατος τότε μπορεί να εκφρασθεί με τη συνάρτηση

Διαβάστε περισσότερα

Νευρωνικά Δίκτυα στο Matlab

Νευρωνικά Δίκτυα στο Matlab Νευρωνικά Δίκτυα στο Matlab Ρ202 Μηχανική Ευφυΐα (Machine Intelligence) Ευστάθιος Αντωνίου Τμήμα Μηχανικών Πληροφορικής Αλεξάνδρειο ΤΕΙ Θεσσαλονίκης E-mail: antoniou@itteithegr Πρόγραμμα Μεταπτυχιακών

Διαβάστε περισσότερα

Α.Τ.Ε.Ι ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΠΟΛΥΜΕΣΩΝ ΕΡΓΑΣΤΗΡΙΟ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ 4

Α.Τ.Ε.Ι ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΠΟΛΥΜΕΣΩΝ ΕΡΓΑΣΤΗΡΙΟ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ 4 Α.Τ.Ε.Ι ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΠΟΛΥΜΕΣΩΝ ΕΡΓΑΣΤΗΡΙΟ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ 4 ΤΟ ΔΙΚΤΥΟ PERCEPTRON I. Αρχιτεκτονική του δικτύου Το δίκτυο Perceptron είναι το πρώτο νευρωνικό δίκτυο το οποίο

Διαβάστε περισσότερα

Αναγνώριση Προτύπων Ι

Αναγνώριση Προτύπων Ι Αναγνώριση Προτύπων Ι Ενότητα 4: Νευρωνικά Δίκτυα στην Ταξιμόμηση Προτύπων Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό

Διαβάστε περισσότερα

Μέθοδοι μονοδιάστατης ελαχιστοποίησης

Μέθοδοι μονοδιάστατης ελαχιστοποίησης Βασικές αρχές μεθόδων ελαχιστοποίησης Μέθοδοι μονοδιάστατης ελαχιστοποίησης Οι μέθοδοι ελαχιστοποίησης είναι επαναληπτικές. Ξεκινώντας από μια αρχική προσέγγιση του ελαχίστου (την συμβολίζουμε ) παράγουν

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ Ακαδ. Έτος 07-08 Διδάσκων: Βασίλης ΚΟΥΤΡΑΣ Επικ. Καθηγητής v.koutras@fme.aegea.gr Τηλ: 7035468 Θα μελετήσουμε

Διαβάστε περισσότερα

2 + 0.5 2 + 0.25 + 1 + 0.5 2 + 0.25 + 1 + 0.5 2 + 0.25 2 + 0.5 0 0.125 + 1 + 0.5 1 0.125 + 1 + 0.75 1 0.125 1/5

2 + 0.5 2 + 0.25 + 1 + 0.5 2 + 0.25 + 1 + 0.5 2 + 0.25 2 + 0.5 0 0.125 + 1 + 0.5 1 0.125 + 1 + 0.75 1 0.125 1/5 IOYNIOΣ 23 Δίνονται τα εξής πρότυπα: x! = 2.5 Άσκηση η (3 µονάδες) Χρησιµοποιώντας το κριτήριο της οµοιότητας να απορριφθεί ένα χαρακτηριστικό µε βάση το συντελεστή συσχέτισης. Γράψτε εδώ το χαρακτηριστικό

Διαβάστε περισσότερα

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #12: Εισαγωγή στα Nευρωνικά Δίκτυα. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #12: Εισαγωγή στα Nευρωνικά Δίκτυα. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε. ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ Ανώτατο Εκπαιδευτικό Ίδρυμα Πειραιά Τεχνολογικού Τομέα ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ Ενότητα #12: Εισαγωγή στα Nευρωνικά Δίκτυα Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε. Άδειες Χρήσης Το

Διαβάστε περισσότερα

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος. Τεχνητή Νοημοσύνη 18η διάλεξη (2016-17) Ίων Ανδρουτσόπουλος http://www.aueb.gr/users/ion/ 1 Οι διαφάνειες αυτής της διάλεξης βασίζονται: στο βιβλίο Machine Learning του T. Mitchell, McGraw- Hill, 1997,

Διαβάστε περισσότερα

Μερικές φορές δεν μπορούμε να αποφανθούμε για την τιμή του άπειρου αθροίσματος.

Μερικές φορές δεν μπορούμε να αποφανθούμε για την τιμή του άπειρου αθροίσματος. Σειρές Σειρές και μερικά αθροίσματα: Το πρόβλημα της άθροισης μιας σειράς άπειρων όρων είναι πολύ παλιό. Μερικές φορές μια τέτοια σειρά καταλήγει σε πεπερασμένο αποτέλεσμα, μερικές φορές απειρίζεται και

Διαβάστε περισσότερα

Παρουσίαση 2 η : Αρχές εκτίμησης παραμέτρων Μέρος 1 ο

Παρουσίαση 2 η : Αρχές εκτίμησης παραμέτρων Μέρος 1 ο Εφαρμογές Ανάλυσης Σήματος στη Γεωδαισία Παρουσίαση η : Αρχές εκτίμησης παραμέτρων Μέρος ο Βασίλειος Δ. Ανδριτσάνος Αναπληρωτής Καθηγητής Γεώργιος Χλούπης Επίκουρος Καθηγητής Τμήμα Μηχανικών Τοπογραφίας

Διαβάστε περισσότερα

Ανδρέας Παπαζώης. Τμ. Διοίκησης Επιχειρήσεων

Ανδρέας Παπαζώης. Τμ. Διοίκησης Επιχειρήσεων Ανδρέας Παπαζώης Τμ. Διοίκησης Επιχειρήσεων Περιεχόμενα Εργ. Μαθήματος Εκπαίδευση (μάθηση) Νευρωνικών Δικτύων Απλός αισθητήρας Παράδειγμα εκπαίδευσης Θέματα υλοποίησης Νευρωνικών Δικτύων 2/17 Διαδικασία

Διαβάστε περισσότερα

ΣΤΟΧΑΣΤΙΚΑ ΣΗΜΑΤΑ ΚΑΙ ΕΦΑΡΜΟΓΕΣ

ΣΤΟΧΑΣΤΙΚΑ ΣΗΜΑΤΑ ΚΑΙ ΕΦΑΡΜΟΓΕΣ ΣΤΟΧΑΣΤΙΚΑ ΣΗΜΑΤΑ ΚΑΙ ΕΦΑΡΜΟΓΕΣ Ακαδηµαϊκό Έτος 007-008 ιδάσκων: Ν. Παπανδρέου (Π.. 407/80) Πανεπιστήµιο Πατρών Τµήµα Μηχανικών Ηλεκτρονικών Υπολογιστών και Πληροφορικής 1η Εργαστηριακή Άσκηση Αναγνώριση

Διαβάστε περισσότερα

Εργαστήριο Υπολογιστικής Νοημοσύνης Ευφυούς Ελέγχου. Αναστάσιος Ντούνης, Καθηγητής

Εργαστήριο Υπολογιστικής Νοημοσύνης Ευφυούς Ελέγχου. Αναστάσιος Ντούνης, Καθηγητής Εργαστήριο Υπολογιστικής Νοημοσύνης Ευφυούς Ελέγχου Αναστάσιος Ντούνης, Καθηγητής Υπολογιστική Νοημοσύνη Εισαγωγή στα Τεχνητά Νευρωνικά Δίκτυα (ΤΝΔ) Αναστάσιος Ντούνης, Καθηγητής 2 Περίγραμμα Διαλέξεων

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson Μέθοδοι ελαχίστων τετραγώνων Least square methos Αν οι κλάσεις είναι γραμμικώς διαχωρίσιμες το perceptron θα δώσει σαν έξοδο ± Αν οι κλάσεις ΔΕΝ είναι

Διαβάστε περισσότερα

6. Στατιστικές μέθοδοι εκπαίδευσης

6. Στατιστικές μέθοδοι εκπαίδευσης 6. Στατιστικές μέθοδοι εκπαίδευσης Μία διαφορετική μέθοδος εκπαίδευσης των νευρωνικών δικτύων χρησιμοποιεί ιδέες από την Στατιστική Φυσική για να φέρει τελικά το ίδιο αποτέλεσμα όπως οι άλλες μέθοδοι,

Διαβάστε περισσότερα

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή Τμήμα Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών ΗΜΜΥ 795: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ Ακαδημαϊκό έτος 2010-11 Χειμερινό Εξάμηνο Practice final exam 1. Έστω ότι για

Διαβάστε περισσότερα

ΜΕΘΟΔΟΣ ΠΕΠΕΡΑΣΜΕΝΩΝ ΣΤΟΙΧΕΙΩΝ

ΜΕΘΟΔΟΣ ΠΕΠΕΡΑΣΜΕΝΩΝ ΣΤΟΙΧΕΙΩΝ ΜΕΘΟΔΟΣ ΠΕΠΕΡΑΣΜΕΝΩΝ ΣΤΟΙΧΕΙΩΝ Βασίζεται στην εφαρμογή των παρακάτω βημάτων:. Το φυσικό πεδίο αναπαριστάται με ένα σύνολο απλών γεωμετρικών σχημάτων που ονομάζονται Πεπερασμένα Στοιχεία.. Σε κάθε στοιχείο

Διαβάστε περισσότερα

Ακαδημαϊκό Έτος , Χειμερινό Εξάμηνο Διδάσκων Καθ.: Νίκος Τσαπατσούλης

Ακαδημαϊκό Έτος , Χειμερινό Εξάμηνο Διδάσκων Καθ.: Νίκος Τσαπατσούλης ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΛΟΠΟΝΝΗΣΟΥ, ΤΜΗΜΑ ΤΕΧΝΟΛΟΓΙΑΣ ΤΗΛΕΠΙΚΟΙΝΩΝΙΩΝ ΚΕΣ 3: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΚΑΙ ΑΝΑΛΥΣΗ ΕΙΚΟΝΑΣ Ακαδημαϊκό Έτος 7 8, Χειμερινό Εξάμηνο Καθ.: Νίκος Τσαπατσούλης ΕΡΩΤΗΣΕΙΣ ΕΠΑΝΑΛΗΨΗΣ Το παρόν

Διαβάστε περισσότερα

Π Τ Υ Χ Ι Α Κ Η /ΔΙ Π Λ Ω Μ ΑΤ Ι Κ Η Ε Ρ ΓΑ Σ Ι Α

Π Τ Υ Χ Ι Α Κ Η /ΔΙ Π Λ Ω Μ ΑΤ Ι Κ Η Ε Ρ ΓΑ Σ Ι Α Α Ρ Ι Σ Τ Ο Τ Ε Λ Ε Ι Ο Π Α Ν Ε Π Ι Σ Τ Η Μ Ι Ο Θ Ε Σ Σ Α Λ Ο Ν Ι Κ Η Σ ΣΧΟΛΗ ΘΕΤΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ Π Τ Υ Χ Ι Α Κ Η /ΔΙ Π Λ Ω Μ ΑΤ Ι Κ Η Ε Ρ ΓΑ Σ Ι Α ΤΕΧΝΙΚΕΣ ΟΜΑΔΟΠΟΙΗΣΗΣ ΜΕ ΧΡΗΣΗ ΝΕΥΡΩΝΙΚΩΝ

Διαβάστε περισσότερα

ΑΡΙΘΜΗΤΙΚΕΣ ΜΕΘΟΔΟΙ ΣΕ ΠΡΟΓΡΑΜΜΑΤΙΣΤΙΚΟ ΠΕΡΙΒΑΛΛΟΝ

ΑΡΙΘΜΗΤΙΚΕΣ ΜΕΘΟΔΟΙ ΣΕ ΠΡΟΓΡΑΜΜΑΤΙΣΤΙΚΟ ΠΕΡΙΒΑΛΛΟΝ ΑΡΙΘΜΗΤΙΚΕΣ ΜΕΘΟΔΟΙ ΣΕ ΠΡΟΓΡΑΜΜΑΤΙΣΤΙΚΟ ΠΕΡΙΒΑΛΛΟΝ ΜΑΘΗΜΑ 2 ο Μάθημα 2 ο Αριθμητική επίλυση εξισώσεων (μη γραμμικές) Μέθοδοι με διαδοχικές δοκιμές σε διάστημα (Διχοτόμησης, Regula-Falsi) Μέθοδοι με επαναληπτικούς

Διαβάστε περισσότερα

Κινητά Δίκτυα Υπολογιστών

Κινητά Δίκτυα Υπολογιστών Κινητά Δίκτυα Υπολογιστών Καθ. Κώστας Μπερμπερίδης Πολυτεχνική Σχολή Τμήμα Μηχανικών Η/Υ & Πληροφορικής Σκοποί ενότητας Εξοικείωση του φοιτητή με την έννοια της προσαρμοστικής ισοστάθμισης καναλιού 2 Περιεχόμενα

Διαβάστε περισσότερα

ΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ

ΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ ηµήτρης Ψούνης ΠΛΗ3, Απαντήσεις Quiz σε ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ Μάθηµα 3. ΕΡΩΤΗΜΑ Ένας αισθητήρας µπορεί να µάθει: a. εδοµένα που ανήκουν σε 5 διαφορετικές κλάσεις. b. εδοµένα που ανήκουν

Διαβάστε περισσότερα

Stochastic Signals Class Estimation Theory. Andreas Polydoros University of Athens Dept. of Physics Electronics Laboratory

Stochastic Signals Class Estimation Theory. Andreas Polydoros University of Athens Dept. of Physics Electronics Laboratory Stochastic Signals Class Estimation Theory Andreas Polydoros University of Athens Dept. of Physics Electronics Laboratory 1 Τι ειναι «Εκτιμηση» (Estimation)? Γενικο Πλαισιο: Θεωρια και Πραξη Συμπερασματων

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ ο 2.5 µονάδες ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 7 Ιανουαρίου 2005 ιάρκεια εξέτασης: 5:00-8:00 Έστω ότι

Διαβάστε περισσότερα

Πανεπιστήμιο Πατρών Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών. Διάλεξη 4

Πανεπιστήμιο Πατρών Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών. Διάλεξη 4 Πανεπιστήμιο Πατρών Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Τομέας Συστημάτων και Αυτομάτου Ελέγχου ΠΡΟΣΑΡΜΟΣΤΙΚΟΣ ΕΛΕΓΧΟΣ Διάλεξη 4 Πάτρα 2008 Ντετερμινιστικά Moving Average Μοντέλα Ισχύει:

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson 2 1 C MH ΠΑΡΑΜΕΤΡΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΒΑΣΙΣΜΕΝΟΙ ΣΕ ΕΠΙΦΑΝΕΙΕΣ ΑΠΟΦΑΣΗΣ Υπενθύμιση: είναι το σύνολο δεδομένων που περιέχει τα διαθέσιμα δεδομένα από όλες

Διαβάστε περισσότερα

Συσχετιστικές Μνήμες Δίκτυο Hopfield. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Συσχετιστικές Μνήμες Δίκτυο Hopfield. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων Συσχετιστικές Μνήμες Δίκτυο Hopfield Συσχετιστική Μνήμη Η ανάκληση ενός γεγονότος σε μία χρονική στιγμή προκαλείται από τη συσχέτιση αυτού του γεγονότος με κάποιο ερέθισμα. Πολλές φορές επίσης καλούμαστε

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ 1 ο (2.5 µονάδες) ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 21 Σεπτεµβρίου 2004 ιάρκεια: 3 ώρες Το παρακάτω σύνολο

Διαβάστε περισσότερα

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #8: Βελτιστοποίηση Συστημάτων Ασαφούς Λογικής. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #8: Βελτιστοποίηση Συστημάτων Ασαφούς Λογικής. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε. ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ Ανώτατο Εκπαιδευτικό Ίδρυμα Πειραιά Τεχνολογικού Τομέα ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ Ενότητα #8: Βελτιστοποίηση Συστημάτων Ασαφούς Λογικής Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε. Άδειες

Διαβάστε περισσότερα

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ Θ.Ε. ΠΛΗ31 (2004-5) ΓΡΑΠΤΗ ΕΡΓΑΣΙΑ #3 Στόχος Στόχος αυτής της εργασίας είναι η απόκτηση δεξιοτήτων σε θέματα που αφορούν τα Τεχνητά Νευρωνικά Δίκτυα και ποιο συγκεκριμένα θέματα εκπαίδευσης και υλοποίησης.

Διαβάστε περισσότερα

Τεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος. Τεχνητή Νοημοσύνη 17η διάλεξη (2016-17) Ίων Ανδρουτσόπουλος http://.aueb.gr/users/ion/ 1 Οι διαφάνειες αυτής της διάλεξης βασίζονται: στο βιβλίο Artificia Inteigence A Modern Approach των S. Russe και

Διαβάστε περισσότερα

Εισαγωγή στην επιστήμη των υπολογιστών. Λογισμικό Υπολογιστών Κεφάλαιο 8ο Αλγόριθμοι

Εισαγωγή στην επιστήμη των υπολογιστών. Λογισμικό Υπολογιστών Κεφάλαιο 8ο Αλγόριθμοι Εισαγωγή στην επιστήμη των υπολογιστών Λογισμικό Υπολογιστών Κεφάλαιο 8ο Αλγόριθμοι 1 Έννοια Ανεπίσημα, ένας αλγόριθμος είναι μια βήμα προς βήμα μέθοδος για την επίλυση ενός προβλήματος ή την διεκπεραίωση

Διαβάστε περισσότερα

HMY 799 1: Αναγνώριση Συστημάτων

HMY 799 1: Αναγνώριση Συστημάτων HMY 799 : Αναγνώριση Συστημάτων Διάλεξη Γραμμική παλινδρόμηση (Linear regression) Εμπειρική συνάρτηση μεταφοράς Ομαλοποίηση (smoothing) Y ( ) ( ) ω G ω = U ( ω) ω +Δ ω γ ω Δω = ω +Δω W ( ξ ω ) U ( ξ) G(

Διαβάστε περισσότερα

Στοχαστικά Σήματα και Τηλεπικοινωνιές

Στοχαστικά Σήματα και Τηλεπικοινωνιές Στοχαστικά Σήματα και Τηλεπικοινωνιές Ενότητα 5: Προσαρμοστική Επεξεργασία Καθηγητής Κώστας Μπερμπερίδης Πολυτεχνική Σχολή Τμήμα Μηχανικών Η/Υ και Πληροφορικής Σκοποί ενότητας Παρουσίαση των βασικών εννοιών

Διαβάστε περισσότερα

Γραμμικός Προγραμματισμός Μέθοδος Simplex

Γραμμικός Προγραμματισμός Μέθοδος Simplex ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ Επιχειρησιακή Έρευνα Γραμμικός Προγραμματισμός Μέθοδος Simplex Η παρουσίαση προετοιμάστηκε από τον Ν.Α. Παναγιώτου Περιεχόμενα Παρουσίασης 1. Πρότυπη Μορφή ΓΠ 2. Πινακοποίηση

Διαβάστε περισσότερα

Α.Τ.ΕΙ ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΠΟΛΥΜΕΣΩΝ. ΕΡΓΑΣΤΗΡΙΟ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ

Α.Τ.ΕΙ ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΠΟΛΥΜΕΣΩΝ. ΕΡΓΑΣΤΗΡΙΟ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ Α.Τ.ΕΙ ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΠΟΛΥΜΕΣΩΝ. ΕΡΓΑΣΤΗΡΙΟ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΕΚΜΑΘΗΣΗ ΤΑ ΔΙΚΤΥΑ KOHONEN A. ΕΙΣΑΓΩΓΗ Στα προβλήματα που έχουμε αντιμετωπίσει μέχρι τώρα

Διαβάστε περισσότερα

Συνήθεις διαφορικές εξισώσεις προβλήματα οριακών τιμών

Συνήθεις διαφορικές εξισώσεις προβλήματα οριακών τιμών Συνήθεις διαφορικές εξισώσεις προβλήματα οριακών τιμών Οι παρούσες σημειώσεις αποτελούν βοήθημα στο μάθημα Αριθμητικές Μέθοδοι του 5 ου εξαμήνου του ΤΜΜ ημήτρης Βαλουγεώργης Καθηγητής Εργαστήριο Φυσικών

Διαβάστε περισσότερα

ΘΕΩΡΙΑ ΟΙΚΟΝΟΜΕΤΡΙΑΣ ΣΥΝΟΠΤΙΚΕΣ ΣΗΜΕΙΩΣΕΙΣ

ΘΕΩΡΙΑ ΟΙΚΟΝΟΜΕΤΡΙΑΣ ΣΥΝΟΠΤΙΚΕΣ ΣΗΜΕΙΩΣΕΙΣ ΘΕΩΡΙΑ ΟΙΚΟΝΟΜΕΤΡΙΑΣ ΣΥΝΟΠΤΙΚΕΣ ΣΗΜΕΙΩΣΕΙΣ ΑΠΛΟ ΓΡΑΜΜΙΚΟ ΥΠΟΔΕΙΓΜΑ Συντελεστής συσχέτισης (εκτιμητής Person: r, Y ( ( Y Y xy ( ( Y Y x y, όπου r, Y (ισχυρή θετική γραμμική συσχέτιση όταν, ισχυρή αρνητική

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ Ακαδ. Έτος 06-07 Διδάσκων: Βασίλης ΚΟΥΤΡΑΣ Επικ. Καθηγητής v.koutra@fme.aegea.gr Τηλ: 7035468 Θα μελετήσουμε

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16 HMY 795: Αναγνώριση Προτύπων Διαλέξεις 15-16 Νευρωνικά Δίκτυα(Neural Networks) Fisher s linear discriminant: Μείωση διαστάσεων (dimensionality reduction) y Τ =w x s + s =w S w 2 2 Τ 1 2 W ( ) 2 2 ( ) m2

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson 2 1 ΧΑΡΤΟΓΡΑΦΗΣΗ ΤΟΥ ΧΩΡΟΥ ΤΩΝ ΤΑΞΙΝΟΜΗΤΩΝ Ταξινομητές Ταξινομητές συναρτ. διάκρισης Ταξινομητές επιφανειών απόφ. Παραμετρικοί ταξινομητές Μη παραμετρικοί

Διαβάστε περισσότερα

Εισόδημα Κατανάλωση 1500 500 1600 600 1300 450 1100 400 600 250 700 275 900 300 800 352 850 400 1100 500

Εισόδημα Κατανάλωση 1500 500 1600 600 1300 450 1100 400 600 250 700 275 900 300 800 352 850 400 1100 500 Εισόδημα Κατανάλωση 1500 500 1600 600 1300 450 1100 400 600 250 700 275 900 300 800 352 850 400 1100 500 Πληθυσμός Δείγμα Δείγμα Δείγμα Ο ρόλος της Οικονομετρίας Οικονομική Θεωρία Διατύπωση της

Διαβάστε περισσότερα

ΚΕΦΑΛΑΙΟ 5 ο. ΓΕΩΜΕΤΡΙΚOΣ ΤΟΠΟΣ ΤΩΝ PIZΩN ή ΤΟΠΟΣ ΕVANS

ΚΕΦΑΛΑΙΟ 5 ο. ΓΕΩΜΕΤΡΙΚOΣ ΤΟΠΟΣ ΤΩΝ PIZΩN ή ΤΟΠΟΣ ΕVANS ΚΕΦΑΛΑΙΟ 5 ο ΓΕΩΜΕΤΡΙΚOΣ ΤΟΠΟΣ ΤΩΝ PIZΩN ή ΤΟΠΟΣ ΕVANS Εισαγωγή Η μελέτη ενός ΣΑΕ μπορεί να γίνει με την επίλυση της διαφορικής εξίσωσης που το περιγράφει και είναι τόσο πιο δύσκολο, όσο μεγαλυτέρου βαθμού

Διαβάστε περισσότερα

Μέθοδος Ελαχίστων Τετραγώνων (για την προσαρμογή (ή λείανση) δεδομένων/μετρήσεων)

Μέθοδος Ελαχίστων Τετραγώνων (για την προσαρμογή (ή λείανση) δεδομένων/μετρήσεων) Μέθοδος Ελαχίστων Τετραγώνων (για την προσαρμογή (ή λείανση) δεδομένων/μετρήσεων) Στην πράξη, για πολύ σημαντικές εφαρμογές, γίνονται μετρήσεις τιμών μιας ποσότητας σε μια κλινική, για μια σφυγμομέτρηση,

Διαβάστε περισσότερα