Υπολογιστική Νοημοσύνη. Μέρος Β Εισαγωγή στα Τεχνητά Νευρωνικά Δίκτυα (ΤΝΔ) Αναστάσιος Ντούνης, Καθηγητής 1
|
|
- ÍΒενιαμίν Λούλης
- 6 χρόνια πριν
- Προβολές:
Transcript
1 Υπολογιστική Νοημοσύνη Μέρος Β Εισαγωγή στα Τεχνητά Νευρωνικά Δίκτυα (ΤΝΔ) Αναστάσιος Ντούνης, Καθηγητής 1
2 Περίγραμμα Διαλέξεων 1. Ορισμοί - Γενικά στοιχεία στα ΤΝΔ 2. Ιστορική αναδρομή 3. Ανάδραση 4. Αναπαράσταση γνώσης 5. Συσχετιστική μνήμη 6. Μοντέλα νευρώνων 7. Τα ΤΝΔ ως κατευθυνόμενοι γράφοι 8. Αρχιτεκτονικές ΤΝΔ 9. Διανύσματα και πίνακες στα μοντέλα των ΤΝΔ 10.Υλοποίηση λογικών συναρτήσεων με ΤΝΔ 11. Αλγόριθμοι μάθησης στα ΤΝΔ Αναστάσιος Ντούνης, Καθηγητής 2
3 Προτεινόμενη Βιβλιογραφία 1. Σημειώσεις - Διαφάνειες διαλέξεων 2. Κ. Διαμαντάρας, Τεχνητά Νευρωνικά Δίκτυα, Κλειδάριθμος, Σ. Τζαφέστας, Υπολογιστική Νοημοσύνη, Τόμος Α, Τόμος Β, Simon Haykin, Νευρωνικά Δίκτυα και Μηχανική Μάθηση, Εκδόσεις Παπασωτηρίου, Γ. Μπούταλης, Γ. Συρακούλης, Υπολογιστική Νοημοσύνη και Εφαρμογές, Αναστάσιος Ντούνης, Καθηγητής 3
4 Μαθηματικό Γλωσσάρι Ένα διάνυσμα ορίζεται από μια στήλη βαθμωτών τιμών. x όπου Τ συμβολίζει την αντιστροφή του πίνακα. x 1, x2,..., x T n T Βαθμωτό μέγεθος είναι το μονόμετρο μέγεθος x y xi yi i1 Το εσωτερικό γινόμενο ενός ζεύγους n-διάστατων διανυσμάτων x και y ορίζεται ως n Εάν το εσωτερικό γινόμενο είναι βαθμωτό μέγεθος τότε ισχύει: Το εξωτερικό γινόμενο ενός ζεύγους n-διάστατων διανυσμάτων x και y ορίζεται ως και είναι ένας πίνακας nxn. x T y y xy T x Αναστάσιος Ντούνης, Καθηγητής 4
5 Ευκλείδεια απόσταση μεταξύ ενός ζεύγους nx1 διανυσμάτων x1 και x2: d n 1/ 2 2 ( x1, x2) x1 x2 x1 x2 1 Η Ευκλείδεια απόσταση ορίζει την ομοιότητα μεταξύ των δύο διανυσμάτων. Όσο μικρότερη είναι η Ευκλείδεια απόσταση τόσο μεγαλύτερη ομοιότητα έχουν τα διανύσματα. Το συνημίτονο της γωνίας μεταξύ των δύο διανυσμάτων ορίζει την ομοιότητα των διανυσμάτων: T x1 x2 ( ) x 1 x 2 Όσο μεγαλύτερο είναι το συνημίτονο τόσο μικρότερη γωνία σχηματίζουν τα δύο διανύσματα επομένως τα διανύσματα έχουν μεγάλη ομοιότητα. Αναστάσιος Ντούνης, Καθηγητής 5
6 Δίνονται τα διανύσματα: Άσκηση x 1,2,3 T και y 5,6,7 T Να υπολογισθούν: α) το εσωτερικό γινόμενο β) το εξωτερικό γινόμενο γ) να επαληθευθεί η ιδιότητα x T y y T x δ) η απόσταση των δυο διανυσμάτων ε) το συνημίτονο της γωνίας των δύο διαστημάτων Αναστάσιος Ντούνης, Καθηγητής 6
7 Απαντήσεις β γ) ε) συν(θ) =
8 Τί είναι ΤΝΔ (1); ΤΝΔ Τεχνητό Νευρωνικό Δίκτυο ή απλά Νευρωνικά Δίκτυα ή Συνδεσμικά μοντέλα ή παράλληλα μοντέλα κατανεμημένης επεξεργασίας ή νευρομορφικά συστήματα. Το ΤΝΔ προσομοιώνει τη συμπεριφορά του ανθρώπινου εγκεφάλου. Το ΤΝΔ είναι μια νέα γενιά συστημάτων επεξεργασίας της πληροφορίας Αναστάσιος Ντούνης, Καθηγητής 8
9 Τί είναι ΤΝΔ (2); Ορισμός (Aleksander & Morton, 1990): Ενα Τεχνητό Νευρωνικό Δίκτυο είναι τεράστιος παράλληλος επεξεργαστής με κατανεμημένη αρχιτεκτονική, ο οποίος αποτελείται από απλές μονάδες επεξεργασίας και έχει από τη φύση του τη δυνατότητα να αποθηκεύει εμπειρική γνώση και να την καθιστά διαθέσιμη για χρήση. Το ΤΝΔ ομοιάζει με τον ανθρώπινο εγκέφαλο για δύο λόγους: - Η γνώση αποκτιέται από το δίκτυο με τη διαδικασία της μάθησης (δοκιμή και σφάλμα). - Οι δυνάμεις σύνδεσης μεταξύ των νευρώνων γνωστές και ως συναπτικά βάρη χρησιμοποιούνται για την αποθήκευση της γνώσης. Αναστάσιος Ντούνης, Καθηγητής 9
10 Βασικά χαρακτηριστικά των ΤΝΔ Τα ΤΝΔ είναι μεταξύ των νεώτερων τεχνολογιών επεξεργασίας σήματος στην εργαλειοθήκη της μηχανικής μάθησης. Στην τεχνολογία τα ΤΝΔ βοηθούν σε σημαντικές λειτουργίες ως: ταξινομητές υποδειγμάτων, μη γραμμικά προσαρμοστικά φίλτρα, ελεγκτές συστημάτων, προσεγγιστές συναρτήσεων. Τα μοντέλα των ΤΝΔ αποτελούνται από πληθώρα μη γραμμικών υπολογιστικών στοιχείων τα οποία λειτουργούν παράλληλα. Το σύνολο των μη γραμμικών υπολογιστικών στοιχείων ή μονάδων επεξεργασίας ονομάζονται νευρώνες. Όταν ένα υπολογιστικό στοιχείο του ΤΝΔ αποτυγχάνει στη λειτουργία του τότε το ΤΝΔ μπορεί να συνεχίσει να δουλεύει χωρίς κανένα πρόβλημα εξαιτίας της παράλληλης φύσης του. Ένα ΤΝΔ χρειάζονται εκπαίδευση για να λειτουργήσει. Η Προσαρμοστικότητα ή μάθηση (adaptation ή learning) είναι ένα βασικό χαρακτηριστικό των ΤΝΔ. Αναστάσιος Ντούνης, Καθηγητής 10
11 Η δομή των ΤΝΔ Ένα ΤΝΔ αποτελείται από ένα μεγάλο αριθμό αλληλοσυνδεόμενων στοιχείων επεξεργασίας που ονομάζονται νευρώνες. Ο ανθρώπινος εγκέφαλος συνίσταται από ~10 11 νευρώνες διαφορετικών τύπων. Πώς λειτουργούν τα ΤΝΔ; Με συλλογική (συγκεντρωτική) συμπεριφορά. Αναστάσιος Ντούνης, Καθηγητής 11
12 Ανατομία του νευρικού κυττάρου Δενδρίτες Σώμα Αξονας Αναστάσιος Ντούνης, Καθηγητής 12
13 Σώμα: Ο πυρήνας του νευρώνα. Δενδρίτες (παραλήπτες): Σημεία εισόδου ηλεκτρικών σημάτων. Οι δενδρίτες κάθε νευρώνα συνδέονται με τους άξονες άλλων νευρώνων. Άξονας: Έξοδος ηλεκτρικών σημάτων. Οι συνάψεις είναι σημεία ένωσης μεταξύ διακλαδώσεων του άξονα ενός νευρώνα και των δενδριτών από άλλους νευρώνες. Σε κάθε δενδρίτη υπάρχει ένα απειροελάχιστο κενό που ονομάζονται σύναψη. Το ποσοστό της ηλεκτρικής δραστηριότητας που μεταδίδεται στο δενδρίτη λέγεται συναπτικό βάρος. Η ικανότητα μάθησης και μνήμης που παρουσιάζει ο εγκέφαλος οφείλεται στην ικανότητα των συνάψεων να μεταβάλουν την αγωγιμότητά τους. Οι συνάψεις χωρίζονται σε ενισχυτικές (excitatory) και σε ανασταλτικές (inhibitory) ανάλογα με το αν το φορτίο που εκλύεται από τη σύναψη ερεθίζει το νευρώνα για να παράγει παλμούς με μεγαλύτερη συχνότητα ή αν τον καταστέλλει μειώνοντας την παραγωγή παλμών. Η ταχύτητα μεταφοράς των ηλεκτρικών παλμών είναι από 10 μέχρι 100 m/sec. Οι νευρώνες καταναλώνουν την περισσότερη ενέργεια από όλα τα κύτταρα του οργανισμού. Υπολογίζεται ότι ο ανθρώπινος εγκέφαλος καταναλώνει ισχύ 30 Watt. Αναστάσιος Ντούνης, Καθηγητής 13
14 Αναλογία με το Βιολογικό Νευρώνα Source: S.V. Kartalopoulos, Understanding Neural Networks & Fuzzy Logic Αναστάσιος Ντούνης, Καθηγητής 14
15 Βιολογικά νευρωνικά δίκτυα Το ανθρώπινο νευρικό σύστημα μπορεί να προσεγγιστεί σαν ένα τριεπίπεδο σύστημα. Ο ανθρώπινος εγκέφαλος αποτελείται από περίπου δισεκατομμύρια νευρώνες για την επεξεργασία των πληροφοριών. Ένας νευρώνας συνδέεται με άλλους νευρώνες, με κατά μέσο όρο περίπου συνάψεις. Αναστάσιος Ντούνης, Καθηγητής 15
16 Ο αριθμός αυτός προσεγγίζει τον αριθμό των γαλαξιών στο γνωστό μας σύμπαν. Ο εγκέφαλος παριστάνει ένα ασύγχρονο, μη γραμμικό, σε τεράστιο βαθμό παράλληλο, ανατροφοδοτούμενο δυναμικό σύστημα κοσμολογικών αναλογιών. Αναστάσιος Ντούνης, Καθηγητής 16
17 Ιστορική αναδρομή 1943: Το πρώτο μοντέλο νευρωνικού δικτύου (McCulloch & Pitts). 1949: Πρώτος αλγόριθμος μάθησης (Hebb & Pitts). Κάθε φορά που ενεργοποιείται μια σύναψη, αυτή ενισχύεται, με αποτέλεσμα το δίκτυο να μαθαίνει "λίγο περισσότερο" το πρότυπο που του παρουσιάζεται εκείνη τη στιγμή. 1958: Το μοντέλο του απλού αισθητήρα perceptron (Rosenblatt). 1969: Οι Minsky & Papert απέδειξαν μαθηματικά ότι τα ΤΝΔ ενός επιπέδου δεν μπορούν να λύσουν συγκεκριμένα προβλήματα. 1982: Μαθηματική απόδειξη ότι ένα νευρωνικό δίκτυο πολλών επιπέδων μπορεί να αποθηκεύσει οποιαδήποτε πληροφορία. 1986: Μέθοδος οπισθοδιάδοσης (Back-Propagation) για την εκπαίδευση ΤΝΔ (McClelland & Rumelhart). 1988: Σχεδιασμός κυψελωτών ΤΝΔ (Chua & Yang). 1988: Προτείνεται η μέθοδος εκπαίδευσης των ελαχίστων τετραγώνων (LMS) και το ADAptive LINear Element (ADALINE) (Windrow & Hoff). Αναστάσιος Ντούνης, Καθηγητής 17
18 Σήμερα: Η πρόοδος στους τομείς των ολοκληρωμένων κυκλωμάτων μεγάλης κλίμακας (VLSI) και στους παράλληλους υπολογιστές είχαν ως αποτέλεσμα την εντυπωσιακή ερευνητική άνθιση του ενδιαφέροντος στο χώρο των ΤΝΔ. Η εξέλιξη στη συνέχεια ήταν ραγδαία και σήμερα τα ΤΝΔ αποτελούν σημαντικό πεδίο βασικής και εφαρμοσμένης έρευνας. Αναστάσιος Ντούνης, Καθηγητής 18
19 Πλεονεκτήματα και Μειονεκτήματα των ΤΝΔ Παρέχουν ένα πρακτικό τρόπο για την εκμάθηση αριθμητικών και διανυσματικών συναρτήσεων ορισμένων σε συνεχή ή διακριτά μεγέθη. Πλεονεκτήματα Παρουσιάζουν ανοχή σε δεδομένα εκπαίδευσης με θόρυβο, δηλαδή δεδομένα που περιστασιακά έχουν λανθασμένες τιμές (π.χ. λάθη καταχώρησης). Παράλληλη επεξεργασία Προσαρμοστικότητα Δεν υπάρχει ανάγκη χαρακτηρισμού του προβλήματος πέρα από το σύνολο προτύπων εκπαίδευσης. Μειονεκτήματα Αδυνατούν να εξηγήσουν ποιοτικά τη γνώση που μοντελοποιούν. Δεν υπάρχουν σαφείς κανόνες για την ανάπτυξή τους. Η εκπαίδευση μπορεί να είναι δύσκολη ή αδύνατη. Η ικανότητα γενίκευσης είναι δύσκολα προβλέψιμη. Αναστάσιος Ντούνης, Καθηγητής 19
20 Εφαρμογές ΤΝΔ Συστήματα αναγνώρισης ταυτότητας Ταξινόμησης προτύπων Επεξεργασία εικόνας Επεξεργασία ομιλίας Μηχανική όραση Ρομποτική Βιοϊατρική Οικονομία Συστήματα ελέγχου κτλ. Αναστάσιος Ντούνης, Καθηγητής 20
21 Τυπικές εφαρμογές ΤΝΔ Ταξινόμηση Ιατρική διάγνωση, αναγνώριση στόχου, χαρακτήρων και φωνής. Προσέγγιση συνάρτησης Μοντελοποίηση διαδικασίας, έλεγχος διαδικασίας, μοντελοποίηση δεδομένων, διαγνωστική βλαβών δυναμικών συστημάτων, αναγνώριση συστημάτων. Πρόβλεψη χρονοσειρών Πρόβλεψη οικονομικών μεγεθών (πτώχευση, πωλήσεις), συστημάτων. Εξόρυξη δεδομένων δυναμική μοντελοποίηση Ομαδοποίηση, οπτικοποίηση δεδομένων (στατιστικά γραφήματα, θεματικοί χάρτες), εκμαίευση δεδομένων. Αναστάσιος Ντούνης, Καθηγητής 21
22 Ποιά είναι τα βασικά δομικά στοιχεία των ΤΝΔ; Ένα μαθηματικό μοντέλο εμπνευσμένο από τη νευροφυσιολογία. Αποτελείται από ένα μεγάλο σύνολο νευρώνων, δηλαδή στοιχείων αριθμητικής επεξεργασίας πληροφορίας. Η αντίδραση του νευρώνα εξαρτάται μόνο από τοπική πληροφορία. Ικανότητα μάθησης, ανάκλησης και γενίκευσης. Οι συνδέσεις με τα ρυθμιζόμενα βάρη αποθηκεύουν γνώση. Η συλλογική συμπεριφορά επιδεικνύει την υπολογιστική ισχύ. Αναστάσιος Ντούνης, Καθηγητής 22
23 Ο νευρώνας αποτελείται από τρία βασικά στοιχεία: 1. Συνάψεις (εκφράζονται από τα συναπτικά βάρη) 2. Αθροιστής (γραμμικός συνδυασμός των εισόδων του αθροιστή) 3. Συνάρτηση ενεργοποίησης (ελέγχει το πλάτος της εξόδου του νευρώνα) Αναστάσιος Ντούνης, Καθηγητής 23
24 Ανάδραση (feedback) στα ΤΝΔ Η ανάδραση λαμβάνει χώρα σε όλα τα μέρη του νευρικού συστήματος κάθε ζώντος οργανισμού. Με την ανάδραση στα ΤΝΔ επιτυγχάνουμε: Η έξοδος ενός στοιχείου ενός συστήματος ανατροφοδοτείται και επηρεάζει την είσοδο που εφαρμόζεται στο στοιχείο αυτό. Δημιουργία κλειστών βρόγχων. Η ανάδραση εμφανίζεται στο νευρικό σύστημα κάθε ζώντος οργανισμού. Το θέμα της ευστάθειας σε συστήματα με ανάδραση είναι εξαιρετικά σημαντικό. Αναστάσιος Ντούνης, Καθηγητής 24
25 Αναπαράσταση της γνώσης στα ΤΝΔ; Στον ορισμό των ΤΝΔ χρησιμοποιήθηκε η λέξη «γνώση». Τι είναι όμως γνώση; Η γνώση είναι η αποθηκευμένη πληροφορία ή τα μοντέλα που χρησιμοποιούνται από έναν άνθρωπο ή μια μηχανή για να ερμηνεύσουν, να προβλέψουν και να αντιδράσουν κατάλληλα στον εξωτερικό κόσμο. Ποιά είναι τα κύρια χαρακτηριστικά της αναπαράστασης γνώσης Τι είδους πληροφορία παρέχεται Πώς κωδικοποιείται η πληροφορία για περαιτέρω χρήση. Ένα ΤΝΔ πρέπει να κατασκευάσει ένα μοντέλο του περιβάλλοντος στο οποίο λειτουργεί και να φροντίσει για τη διατήρηση της συνέπειας του μοντέλου με το περιβάλλον. Αναστάσιος Ντούνης, Καθηγητής 25
26 Η γνώση του περιβάλλοντος αποτελείται από δύο είδη πληροφορίας: Προϋπάρχουσα πληροφορία για την κατάσταση του περιβάλλοντος Παρατηρήσεις (μετρήσεις) προερχόμενες από το περιβάλλον, συνήθως θορυβώδεις, παρέχουν πληροφορίες για το περιβάλλον και χρησιμοποιούνται ως παραδείγματα για την εκπαίδευση του δικτύου. Τα παραδείγματα μπορεί να είναι: Δεδομένα (δείγμα) εκπαίδευσης (training data/sample) δηλαδή η είσοδος συνοδεύεται από την επιθυμητή απόκριση του δικτύου. Αναστάσιος Ντούνης, Καθηγητής 26
27 Φάση εκπαίδευσης (learning), Φάση ανάκλησης (recall, generalization). Σε ένα ΤΝΔ συγκεκριμένης αρχιτεκτονικής η γνώση του περιβάλλοντος κωδικοποιείται στις παραμέτρους του δικτύου (συναπτικά βάρη και σταθερές πόλωσης). Αναστάσιος Ντούνης, Καθηγητής 27
28 Συσχετιστικές Μνήμες Η ανθρώπινη μνήμη είναι μια συσχετική μνήμη. Η μνήμη αυτή σχηματίζει συσχετίσεις/αντιστοιχίες ανάμεσα σε γεγονότα, μουσικά κομμάτια κ.α. Στους κλασικούς υπολογιστές που γνωρίζουμε η μνήμη (π.χ. RAM) δεν λειτουργεί με συσχετικό τρόπο. Η πληροφορία αποθηκεύεται σε μια περιοχή της μνήμης και η προσπέλαση γίνεται χρησιμοποιώντας τη διεύθυνσή της μέσω του αποκωδικοποιητή διευθύνσεων. Η λειτουργία μια συσχετιστικής μνήμης περιλαμβάνει δυο φάσεις: α. τη φάση της μάθησης β. τη φάση της ανάκλησης Κατά τη φάση της μάθησης η παρουσίαση του ερεθίσματος στην είσοδο (πρότυπο) μετασχηματίζεται σε ένα αποθηκευμένο πρότυπο. Κατά τη φάση της ανάκλησης η μνήμη δέχεται μια παραμορφωμένη παραλλαγή του αποθηκευμένου προτύπου και δίνει ως έξοδο το σωστό πρότυπο. Αναστάσιος Ντούνης, Καθηγητής 28
29 Συνεπώς στις συσχετιστικές μνήμες δεν υπάρχει άμεση αντιστοίχιση ανάμεσα στην είσοδο και στην έξοδο. Η έξοδος δεν καθορίζεται από μια απλή θέση μνήμης αλλά συμμετέχει όλος ο πίνακας θέσεων της μνήμης. Η συσχετιστική μνήμη είναι μια κατανεμημένη μνήμη. Διάνυσμα εισόδου x Συσχετιστική Μνήμη Διάνυσμα εξόδου y - Τα διανύσματα εισόδου έχουν διάσταση n. Για μια δεδομένη διάσταση n η συσχετιστική μνήμη μπορεί να συσχετίσει ένα αριθμό m προτύπων (m<=n) xk y k k 1,2,..., m Αναστάσιος Ντούνης, Καθηγητής 29
30 Υπολογισμός του πίνακα μνήμης Μ: Πίνακας Μνήμης Συσχέτισης M m k 1 y k x T k Πως μπορούμε να ανακτήσουμε ένα δεδομένο πρότυπο διάνυσμα εισόδου, αν γνωρίζουμε τον πίνακα μνήμης Μ; Απόκριση μνήμης: y M x k Αναστάσιος Ντούνης, Καθηγητής 30
31 Άσκηση Δίνονται τα παρακάτω ορθοκανονικά διανύσματα (ποια διανύσματα ονομάζονται ορθοκανονικά;) T T 1 [ 1,0,0,0], x2 [0,1,0,0], x3 Τα αντίστοιχα αποθηκευμένα πρότυπα είναι: T T T y1 [ 5,1,0], y 2 [ 2,1,6], y3 [ 2,4,3] Να βρεθούν: α) Ο πίνακας Μ της μνήμης β) Να αποδειχθεί ότι μνήμη συσχετίζει απόλυτα γ) Θεωρούμε ότι η διέγερση εισόδου της παραπάνω μνήμης είναι η παραμορφωμένη από θόρυβο παραλλαγή του προτύπου εκπαίδευσης x1. γ1) Να υπολογισθεί η απόκριση y της μνήμης. x [0,0,1,0] γ2) Να δεχθεί ότι η απόκριση y είναι περισσότερο όμοια προς το πρότυπο x1 με την Ευκλείδεια απόσταση. T x [ 0.8, 0.15,0.15, 0.2] T Αναστάσιος Ντούνης, Καθηγητής 31
32 Άσκηση συσχετιζόμενης μνήμης Δίνονται τα παρακάτω διανύσματα Τα αντίστοιχα αποθηκευμένα πρότυπα είναι: y, T T T 1 [ 1,0], y 2 [1,0], y3 [0,1], y 4 Να βρεθούν: α) Ο πίνακας Μ της μνήμης β) Να αποδειχθεί ότι μνήμη συσχετίζει απόλυτα γ) Θεωρούμε ότι η διέγερση εισόδου της παραπάνω μνήμης είναι η παραμορφωμένη από θόρυβο παραλλαγή του προτύπου εκπαίδευσης x2 x [ 0.8,0.9,0.15, 0.1] γ1) Να υπολογισθεί η απόκριση y της μνήμης. γ2) Με ποιο πρότυπο ταιριάζει περισσότερο η απόκριση y; T [0,1] T Αναστάσιος Ντούνης, Καθηγητής 32
33 Μοντέλα Νευρώνων Αναστάσιος Ντούνης, Καθηγητής 33
34 Μοντέλο McCulloch Pits (MCP Neuron) x 1 w 1 x 2 x n w 2 w n Σ f(.) Model 1 θ u y -1 Βηματική Συνάρτηση 0/1 (Step function) 0 0 = 1 > 0 Αναστάσιος Ντούνης, Καθηγητής 34
35 Διαφορετικές μοντελοποιήσεις της f( ) f(.)=βηματική 1/1 (signum) f(.) f(.) (σιγμοειδής) f(.) f(.) f( )=u Αναστάσιος Ντούνης, Καθηγητής 35
36 Παραδείγματα συναρτήσεων ενεργοποίησης Αναστάσιος Ντούνης, Καθηγητής 36
37 Μοντέλο Perceptron x 1 w 1 x 2 w 2 Σ u f(u) y Model 2 w n x n θ -1 f(u) 0/1-1/1 Αναστάσιος Ντούνης, Καθηγητής 37
38 Παράδειγμα X 1 W 1 = Θ=4 f HL 1 O i X 2 W 2 =2 Αναστάσιος Ντούνης, Καθηγητής 38
39 Νευρώνας Perceptron με γραμμική συνάρτηση μεταφοράς ADALINE: ADAptive LINear Element x 1 w 1 x 2 w 2 Σ u Model 3 w n x n Το στοιχείο αυτό προτάθηκε από τους Widrow και Hoff. Πρώτη εφαρμογή εκπαιδευόμενων μονάδων για τον έλεγχο ενός ανάστροφου εκκρεμούς στις αρχές τις δεκαετίας του 60. Αναστάσιος Ντούνης, Καθηγητής 39
40 Στατικός Νευρώνας (Μαθηματική έκφραση) 1 η Μορφή,, X Αν 0 =-1 W 0 =θ. Αν. Σ u f(u) y. Αν w n 2 η Μορφή, Η εξίσωση u γράφεται και ως το εσωτερικό γινόμενο μεταξύ των διανυσμάτων W και X. u=w T *X. x n Αναστάσιος Ντούνης, Καθηγητής 40
41 Δυναμικός νευρώνας με μνήμη X 0 =1... w 0 Σ u + Σ u (k) f(u) y w n x n + u (k-1) Ζ -1 u(k)=u(k-1)+ n i=0 W i X i διακριτού χρόνου. k: δείκτης Αναστάσιος Ντούνης, Καθηγητής 41
42 Πως επηρεάζει η πόλωση τη συμπεριφορά του νευρώνα x w Perceptron (1 είσοδος 1 έξοδος) Σ b u=xw+b = = f(u) Ελάττωση του b έχει ως αποτέλεσμα μετατόπιση της εξόδου y δεξιά Έστω ότι w=1 & b=1 τότε: () Έστω ότι w=1 & b=0 τότε: () 1 Έστω ότι w=1 & b=-1 τότε: () Αναστάσιος Ντούνης, Καθηγητής 42
43 Πως επηρεάζει το συναπτικό βάρος την έξοδο του νευρώνα Έστω ότι w=0,5 & b=0 τότε: (,) Έστω ότι w=1 & b=0 τότε: Έστω ότι w=2 & b=0 τότε: () 1,2 1 0,8 0,6 0,4 0, ,2 Αύξηση του w έχει ως αποτέλεσμα τη συρρίκνωση της εξόδου y. Αναστάσιος Ντούνης, Καθηγητής 43
44 ) ( 1 2 ) ( 2 tanh 1 1 ) ( 5. ) ( ) ( 1 ) ( 4. ) ( 1 ) ( 1 ) ( ) ( 3. ) ( 1 ) ( ) ( 1 1 ) ( 2. 1 ) ( ) ( u f a u f u a e e u f u u f u f u u u f u f u f u f e e e e u f u f u f u f e u f u f u u f u a u a u u u u u Παραγώγιση συναρτήσεων ενεργοποίησης Αναστάσιος Ντούνης, Καθηγητής 44
45 Αρχιτεκτονικές ΤΝΔ Τα ΤΝΔ μπορούν να κατηγοριοποιηθούν σε δύο κατηγορίες βασιζόμενοι στην αρχιτεκτονική των ΤΝΔ: ΤΝΔ προσοτροφοδότησης Αναδρομικά ΤΝΔ Αναστάσιος Ντούνης, Καθηγητής 45
46 Μονοστρωματικό ΤΝΔ προσοτροφοδότησης (feedforward) Αναστάσιος Ντούνης, Καθηγητής 46
47 Πολυστρωματικό ΤΝΔ προσοτροφοδοτησης (πλήρως διασυνδεδεμένο) Αναστάσιος Ντούνης, Καθηγητής 47
48 Μονοστρωματικό αναδρομικό ΤΝΔ Hopfield 1 Σύνηθες διάγραμμα Παράσταση με σηματογράφημα 2 Ζ Ζ -1 2 Ζ -1 3 Αναστάσιος Ντούνης, Καθηγητής 48
49 Πολυστρωματικό ανδρομικό ΤΝΔ ενός κρυμμένου στρώματος Ζ -1 Ζ -1 Είσοδοι... Ζ -1 Ζ -1 Αναστάσιος Ντούνης, Καθηγητής 49
50 Άσκηση Ένα πλήρως διασυνδεδεμένο εμπρός τροφοδότησης δίκτυο έχει 10 νευρώνες εισόδου, 2 κρυφά επίπεδα με 4 και 3 νευρώνες αντίστοιχα και 1 νευρώνα εξόδου. Σχεδιάστε την αρχιτεκτονική αυτού του δικτύου και υπολογίστε αναλυτικά τις συνολικές συνάψεις που διαθέτει. Αναστάσιος Ντούνης, Καθηγητής 50
51 Αριθμός συνάψεων: 10x4+4x3+3x1=55 Αναστάσιος Ντούνης, Καθηγητής 51
52 Άσκηση Βρείτε τον αριθμό των συνάψεων για τα παρακάτω δίκτυα: 1. Ένα πλήρως διασυνδεδεμένο προσοτροφοδότησης με 10 νευρώνες εισόδου, ένα επίπεδο με 4 κρυφούς νευρώνες και 2 νευρώνες εξόδου. 2. Ένα πλήρως διασυνδεδεμένο προσοτροφοδότησης με 10 νευρώνες εισόδου, ένα επίπεδο με 4 κρυφούς νευρώνες και 2 νευρώνες εξόδου, όπου κάθε νευρώνας του κρυφού επιπέδου δέχεται είσοδο από 6 νευρώνες εισόδου και κάθε νευρώνας εξόδου δέχεται είσοδο από 3 νευρώνες του κρυφού επιπέδου. Αναστάσιος Ντούνης, Καθηγητής 52
53 Αναστάσιος Ντούνης, Καθηγητής 53
54 Αναπαράσταση ΤΝΔ ως κατευθυνόμενος γράφος Υπολογισμοί Απλοποίηση της παρουσίασης του μοντέλου ενός νευρώνα χρησιμοποιώντας γραφήματα ροής σήματος χωρίς να θυσιάσουμε καμία από τις λειτουργικές ιδιότητες του μοντέλου. Τα γραφήματα ροής σήματος μας παρέχουν μια καλή μέθοδο απεικόνισης της ροής των σημάτων Αναστάσιος Ντούνης, Καθηγητής 54
55 Διάγραμμα ροής: δίκτυο κατευθυντικών κλάδων που ξεκινούν/καταλήγουν σε κόμβους Κάθε κόμβος σχετίζεται με το σήμα του Κάθε κλάδος χαρακτηρίζεται από τη συνάρτηση μεταφοράς Συναπτικοί κλάδοι με γραμμική σχέση εισόδου-εξόδου. Κλάδοι ενεργοποίησης με μη γραμμική συμπεριφορά. Το σήμα «ρέει» μόνο προς την κατεύθυνση του κλάδου. Το σήμα σε ένα κόμβο ισούται με το άθροισμα των σημάτων που καταλήγουν στον κόμβο μέσω των κλάδων. Το σήμα ενός κόμβου διοχετεύεται σε όλους τους κλάδους που αναχωρούν από τον κόμβο Αναστάσιος Ντούνης, Καθηγητής 55
56 Σηματογράφημα X 0 =-1... x n W 0 =θ Σ u f(u) y w n X 0 =-1 x n... W 0 =θ w n u f(u) y Αναστάσιος Ντούνης, Καθηγητής 56
57 Πίνακας αληθείας λογικών πυλών AND min OR max x 1 x Αναστάσιος Ντούνης, Καθηγητής 57
58 Υλοποίηση λογικών συναρτήσεων με νευρώνες X 0 = -1 OR 0.5 x 1 1 Σ 0/1 u x 2 1 X 0 = NOT X 0 = AND x 1-1 Σ 0/1 u x 1 1 Σ 0/1 u x 2 1 Αναστάσιος Ντούνης, Καθηγητής 58
59 Άσκηση Δίνεται το παρακάτω ΤΝΔ (2x1x1). Οι νευρώνες είναι τύπου perceptron με συνάρτηση ενεργοποίησης τη βηματική 0/1. Να δειχθεί ότι το δίκτυο υλοποιεί τη λογική συνάρτηση ΧΟR, δημιουργώντας τον πίνακα αλήθειας για το ΤΝΔ. Τι ανιχνεύει η έξοδος z του νευρώνα 1; Οι είσοδοι στο ΤΝΔ είναι: x 1 x XOR +1 1 z -2 2 y Έξοδος Αναστάσιος Ντούνης, Καθηγητής 59
60 Λύση Είσοδοι Κρυμμένο στρώμα Έξοδος x 1 x 2 z y Η έξοδος z του κρυμμένου στρώματος ανιχνεύει την ύπαρξη δύο μονάδων στις εισόδους (συνάρτηση AND). Αναστάσιος Ντούνης, Καθηγητής 60
61 Διανύσματα και πίνακες στα μοντέλα των ΤΝΔ 2 είσοδοι 1 νευρώνας εξόδου x 1 = + + = () x 1 W b Σ u f(u) y =, = = = () + Αναστάσιος Ντούνης, Καθηγητής 61
62 n είσοδοι 1 νευρώνας εξόδου = = () (nx1) x 1 W b Σ u f(u) y = = = () = + Αναστάσιος Ντούνης, Καθηγητής 62
63 Μονοστρωματικό ΤΝΔ (SLP) n είσοδοι 2 νευρώνες εξόδου x n x 1 = = ( ) = = ( ) [x1,x2,xn] = + w kj : Βάρος σύναψης j που ανήκει στο νευρώνα k Αναστάσιος Ντούνης, Καθηγητής 63
64 Μονοστρωματικό ΤΝΔ (SLP) b1 n είσοδοι m νευρώνες εξόδου x n = = ( )... = = ( ) = = ( ) ( ) + Αναστάσιος Ντούνης, Καθηγητής 64
65 Μαθηματικός τύπος μονοστρωματικού ΤΝΔ x1 1 y1 xn m ym
66 Πολυστρωματικό ΤΝΔ (MLP) n είσοδοι, r κόμβοι στο κρυμμένο στρώμα και m νευρώνες εξόδου u11 = + = ( ) ( ) = + = ( ) ( ) Αναστάσιος Ντούνης, Καθηγητής 66
67 Μαθηματικός τύπος πολυστρωματικού ΤΝΔ Διάνυσμα εισόδου: Έξοδος κρυφού επιπέδου: Έξοδος ΤΝΔ: = x1 1 X 1 1 y1 xn r X r m ym
68 ΤΝΔ με ακτινικές συναρτήσεις βάσης (Radial Basis Function, RBF) Τα δίκτυα RBF: Είναι εντελώς όμοια με ένα δίκτυο MLP. Είναι δίκτυα δυο στρωμάτων (χωρίς να υπολογίζουμε το στρώμα εισόδου), όπου το κρυφό στρώμα περιέχει την ακτινική συνάρτηση ενεργοποίησης και το στρώμα εξόδου ένα γραμμικό νευρώνα. Η διαφορά των RBF και MLP είναι ότι ένα RBF πραγματοποιεί μια τοπική απεικόνιση ενώ ένα MLP πραγματοποιεί μια συνολική απεικόνιση. Μπορούν να προσεγγίσουν οποιαδήποτε συνεχή συνάρτηση. Είναι ισοδύναμα με μηχανές ασαφούς λογικής. Αποτελούν μια εναλλακτική πρόταση μοντελοποίησης των ΤΝΔ.
69 Ενα τυπικό δίκτυο RBF και ο μαθηματικός τύπος x1 R1 w1 Σ y1 με κανονικοποιημένη έξοδος: xn Rr wr Σ ym Τοπική συνάρτηση βάσης ακτινικού τύπου (Gauss): Η συνάρτηση ακτινικού τύπου έχει κέντρο c και εύρος σ.
70 Εκπαίδευση ακτινικού δικτύου Οι νευρώνες του ακτινικού επιπέδου είναι τόσοι όσα και τα παραδείγματα εκπαίδευσης. Κάθε ακτινικός νευρώνας αντιστοιχεί σε ένα παράδειγμα εκπαίδευσης. Δεν υπάρχουν συναπτικά βάρη μεταξύ εισόδων και κρυφού στρώματος. Στην πρώτη φάση εκπαίδευσης καθορίζονται τα κέντρα των τοπικών συναρτήσεων βάσης. Στη δεύτερη φάση εκπαίδευσης καθορίζουμε τις συνδέσεις (συναπτικά βάρη) στο δεύτερο επίπεδο χρησιμοποιώντας τους αλγορίθμους βελτιστοποίησης βαθμίδας ή των ελαχίστων τετραγώνων. Τα βάρη μπορούν να υπολογιστούν από τα παραδείγματα εκπαίδευσης. Ο υπολογισμός αυτών των βαρών βασίζεται στην επίλυση συστημάτων Ν γραμμικών εξισώσεων με Ν αγνώστους, όπου Ν το πλήθος των παραδειγμάτων άρα και των ακτινικών νευρώνων και Ν βέβαια το πλήθος των βαρών στις εισόδους του κάθε γραμμικού νευρώνα.
71 Σχεδιασμός ενός δικτύου RBF 1. Επιλογή των κέντρων c των κρυφών νευρώνων α. Κάθε πρότυπο και ένα κέντρο, όπου P τα πρότυπα εισόδου. β. Τυχαία επιλογή προτύπων για να γίνουν κέντρα. Ο αριθμός των κέντρων Κ: Κ=10% του P. γ. Μέθοδοι ομαδοποίησης (clustering: Κ-μέσων, κ.α.) 2. Υπολογισμός της τιμής του εύρους σ των Γκαουσιανών Δίνουμε σε όλους τους νευρώνες το ίδιο εύρος:, όπου D είναι η απόσταση μεταξύ των πιο απομακρυσμένων κέντρων και P το σύνολο των προτύπων. 3. Υπολογισμός των συναπτικών βαρών α. Βασίζεται στην επίλυση συστήματος P γραμμικών εξισώσεων με P αγνώστους, όπου P το πλήθος των υποδειγμάτων-παραδειγμάτων. β. Εκπαίδευση με επίβλεψη (Generalized RBF). 4. Η ανάκληση του δικτύου RBF είναι όμοια με αυτή ενός δικτύου MLP.
72 Παράδειγμα Δίνονται δύο σημεία της συνάρτησης x 0 2 y 0 4 Κατασκευάστε ένα ακτινικό δίκτυο και προβλέψτε την τιμή της συνάρτησης στα σημεία x=0.5 και x=3. Δίνονται: Απάντηση Το ακτινικό δίκτυο που θα κατασκευαστεί θα έχει δύο ακτινικούς νευρώνες (1,2) στο κρυφό επίπεδο και ένα γραμμικό νευρώνα (Σ) στο επίπεδο της εξόδου. Τα κέντρα των ακτινικών συναρτήσεων είναι οι τιμές των δεδομένων της μεταβλητής x. Πρέπει να υπολογίσουμε τα βάρη w1 και w2. Αυτά υπολογίζονται με βάση την απαίτηση ότι το ακτινικό δίκτυο θα πρέπει να βγάζει ακριβή αποτελέσματα, όταν η είσοδος είναι μία εκ των δύο εισόδων των παραδειγμάτων εκπαίδευσης. (D = 2, P = 2, σ = 1). x 1 w1 Σ y 2 w2
73 σ = 1 σ = 1 Κέντρα
74 Για κάθε ένα από τα δύο παραδείγματα δημιουργούμε μια γραμμική εξίσωση με αγνώστους τα δύο συναπτικά βάρη. Δημιουργείται ένα σύστημα δύο εξισώσεων με δύο αγνώστους: Για να υπολογίσουμε την έξοδο του δικτύου για τις διάφορες τιμές του x εφαρμόζουμε τον τύπο των ακτινικών δικτύων. Για x = 2 έχουμε Η έξοδος του δικτύου είναι στο y = 4 που αναμέναμε. Για x = 0.5 έχουμε Η έξοδος του δικτύου είναι σχετικά κοντά από την y = 0.25 που αναμέναμε. Είναι λίγο μεγαλύτερη διότι συμμετέχει κατά ένα μικρό βαθμό συμμετοχής και ο δεύτερος νευρώνας. Για x = 3 έχουμε Η έξοδος του δικτύου είναι αρκετά μακριά από την y = 9 που αναμέναμε. Ο λόγος είναι ότι όσο η απόσταση από το κοντινότερο παράδειγμα μεγαλώνει, τόσο η έξοδος μικραίνει.
75 Να προσεγγιστεί η συνάρτηση του ημιτόνου με ακτινικό δίκτυο RBF χρησιμοποιώντας 11 δεδομένα από 0-2π με 3 κέντρα. x y R (D = , P = 11, σ = 1.34)
76 . =.. =.. =.
77 Ανάκληση δικτύου Είσοδος: x = Έξοδος + + = Απόκλιση: 0 2. Είσοδος: x = Έξοδος + + = Απόκλιση: = Είσοδος: x = Έξοδος + + = 0. Απόκλιση: =
78 Η απόκριση του RBF για 41 τιμές του x Η απόκριση του RBF για 11 τιμές του x
79 Μάθηση των ΝΔ Το περιβάλλον στο οποίο εργάζεται ένα ΝΔ καθορίζει τον τρόπο μάθησης Επιβλεπόμενη μάθηση (ενεργή) Ενισχυτική μάθηση Μη επιβλεπόμενη μάθηση (αυτό-οργανούμενη) Βασικοί κανόνες μάθησης Μάθηση διόρθωση σφάλματος Μάθηση Hebb Ανταγωνιστική μάθηση Μάθηση Boltzmann Αναστάσιος Ντούνης, Καθηγητής 79
80 Τρόποι μάθησης ΤΝΔ Με επίβλεψη Χωρίς επίβλεψη Ενισχυτική Μάθηση διόρθωσης σφάλματος Κανόνας δ, κανόνας Perceptron, BP, BPTT Βασικοί κανόνες μάθησηςτνδ Εββιανή μάθηση (Hebb) Ανταγωνιστική μάθηση Αναστάσιος Ντούνης, Καθηγητής 80
81 Ταξινόμηση νευρωνικών αλγορίθμων Το αντικείμενο μελέτης των ΤΝΔ είναι η ανάπτυξη αλγορίθμων που να μιμούνται την αρχιτεκτονική και τη λειτουργία των βιολογικών νευρωνικών δικτύων ΤΝΔ Εκπαιδευόμενα βάρη Με επίβλεψη Χωρίς επίβλεψη Σταθερά βάρη Ανάθεση τιμών στα συναπτικά βάρη Μάθηση: Κανόνας δ (ADALINE) Κανόνας Perceptron (Perceptron) Μάθηση: BP (MLP) BPTT: Αναδρομικά MLP RBF, Μοντέλα SVM, Στοχαστικές Μνήμες Συσχετιστικά Μοντέλα Εββιανή μάθηση (Hebb) Δίκτυα: PCA, ICA Ανταγωνιστικά μοντέλα Ανταγωνιστική μάθηση Δίκτυo Kohonen (SOM), LVQ, ART Δίκτυο Hopfield Συσχετιστικές μνήμες Brain State in Box Αναστάσιος Ντούνης, Καθηγητής 81
82 Πώς δουλεύουν τα ΤΝΔ; Εκπαίδευση του δικτύου: 1. Παρουσιάζονται τα δεδομένα στο δίκτυο 2. Το δίκτυο υπολογίζει την έξοδο 3. Η έξοδος του δικτύου συγκρίνεται με την επιθυμητή τιμή της εξόδου 4. Τα βάρη του δικτύου τροποποιούνται για να μειώσουν το σφάλμα της εξόδου Χρήση του δικτύου: 1. Παρουσιάζονται νέα δεδομένα στο δίκτυο 2. Το εκπαιδευμένο δίκτυο υπολογίζει την έξοδο Αναστάσιος Ντούνης, Καθηγητής 82
83 Αναστάσιος Ντούνης, Καθηγητής 83
84 Μάθηση διόρθωσης σφάλματος για SLP Ονόματα Κανόνας δέλτα (delta rule) για SLP ή Κανόνας ελαχιστοποίησης μέσου τετραγωνικού σφάλματος (LMS: Least Mean Squares) ή Κανόνας Widrow-Hoff ή Κανόνας ADALINE Αναστάσιος Ντούνης, Καθηγητής 84
85 Τεχνικές βελτιστοποίησης Τεχνικές Βαθμίδας (Gradient techniques) Οι τεχνικές αυτές ρυθμίζουν μια παράμετρο W βασιζόμενες στην ευαισθησία = μεταβολή της συνάρτησης κόστους πάνω στην μεταβολή της παραμέτρου. Π.χ. Delta rule, back propagation, hill climbing Ευρετικές τεχνικές τεχνητής νοημοσύνης Π.χ breadth first, depth first, A* algorithm Τεχνικές τύπου εξέλιξης (Evolutionary techniques) Οι τεχνικές αυτές χρησιμοποιούν ένα πληθυσμό παραμέτρων για να εξελιχθούν μετά από πολλές γενεές και να παράξουν το βέλτιστο κόστος. Π.χ Evolution Algorithm, GA, Genetic programming, PSO Αναστάσιος Ντούνης, Καθηγητής 85
86 j < 0 > 0 O δ rule ψάχνει για το ελάχιστο: Ένα βήμα πίσω αν η βαθμίδα πάει προς τα επάνω Ένα βήμα μπροστά αν η βαθμίδα πάει προς τα κάτω Σταματά αν η βαθμίδα είναι κοντά στην οριζόντια γραμμή Περιγραφή του κανόνα η: learning step ή learning rate ή βήμα εκπαίδευσης w Αναστάσιος Ντούνης, Καθηγητής 86
87 Κανόνας δ ρύθμισης συναπτικών βαρών χ 1 χ 2.. w 1 w 2 Σ f(.). w n y χ n Δ X n X r δ Τοπική παράγωγος d Αναστάσιος Ντούνης, Καθηγητής 87
88 Κανόνας δ ρύθμισης συνοπτικών βαρών u: δικτυακή διέγερση του νευρώνα δ: τοπική βαθμίδα ή παράγωγος του κόστους ως προς τη δικτυακή διέγερση του νευρώνα ή σφάλμα - για παραγωγίσιμη συνάρτηση ενεργοποίησης για μη παραγωγίσιμη συνάρτηση ενεργοποίησης Η παράγωγος της βηματικής συνάρτησης είναι η κρουστική συνάρτηση δ(t) ή συνάρτηση Dirac. r: σήμα μάθησης Αναστάσιος Ντούνης, Καθηγητής 88
89 Παραγώγιση συναρτήσεων ενεργοποίησης = (1- ) Αναστάσιος Ντούνης, Καθηγητής 89
90 Κανόνας δ για ένα νευρώνα με συνάρτηση ενεργοποίησης τη γραμμική f(u) = u J = Αναστάσιος Ντούνης, Καθηγητής 90
91 x 2 ( n) x T ( n) x( n) Αναστάσιος Ντούνης, Καθηγητής 91
92 Κανόνας δ για ένα νευρώνα με σιγμοειδή συνάρτηση ενεργοποίησης b y= Αναστάσιος Ντούνης, Καθηγητής 92
93 Υπολογισμός του διανύσματος των βαρών με τα ελάχιστα τετράγωνα Ελαχιστοποίηση της συνάρτησης J επιλέγοντας το κατάλληλο διάνυσμα των βαρών w με ελάχιστα τετράγωνα. Χ: πίνακας των P προτύπων εισόδου d: διάνυσμα των P στόχων εξόδου w: διάνυσμα βαρών Χw=d: Σύστημα P γραμμικών εξισώσεων υπό μορφή πινάκων Η λύση δίνεται από την εξίσωση w*=x + d όπου X + =(X T X) -1 X T X + ψευδοαντίστροφος πίνακας του πίνακα X Αναστάσιος Ντούνης, Καθηγητής 93
94 Έστω ένα νευρώνας με τρείς εισόδους και μια έξοδο. Συνάρτηση ενεργοποίησης η γνωστή μοναδιαία συνάρτηση. Λύση στο MATLAB. X= d = X + = w*=x + d = Βάρη του νευρώνα: w0=-1.5, w1=1, w2=1 Αναστάσιος Ντούνης, Καθηγητής 94
95 Υπολογισμός του διανύσματος των βαρών με το διαφορικό λογισμό Λύση του προηγούμενου προβλήματος με εργαλείο το διαφορικό λογισμό. J μέσο τετραγωνικό σφάλμα ανά πρότυπο και Jολ το συνολικό σφάλμα για το σύνολο των προτύπων. Τα πρότυπα εισόδων-εξόδων, x x x x 1 1 1, d , d , d , d Αναστάσιος Ντούνης, Καθηγητής 95
96 J J J J J d ( x1 w1 x2 w2 w0 ) 2 J 0 w1 w2 2w0 1 0 (1) w d ( x1 w1 x2w2 w0 ) d ( x1 w1 x2 w2 w0 ) d ( x1 w1 x2w2 w0 ) 0 J w 1 J w 0 2w w 2w 0 (2) w 2w 2w 0 (3) ) w1 w2 1 (3) ( (1) w Αναστάσιος Ντούνης, Καθηγητής 96
97 Σύγκριση ελαχίστων τετραγώνων και δ κανόνα Γιατί να χρησιμοποιήσουμε τον αναδρομικό κανόνα μάθησης δ και όχι με την απευθείας λύση στηριζόμενοι στη γραμμική άλγεβρα ή στο διαφορικό λογισμό; Η απευθείας λύση είναι σαφώς ταχύτερη και δεν απαιτεί επανάληψη. Ο κανόνας μάθησης δ είναι νευρωνικός καθώς είναι επαναληπτικός αλλά είναι βραδύτερος της άμεσης λύσης. Ένα βασικό πλεονέκτημα του κανόνα μάθησης δ σε σχέση με την απευθείας λύση βρίσκεται στην ικανότητα του να δέχεται μια ασταμάτητη ροή δεδομένων χωρίς να υπάρχει επανάληψη προτύπων. Τα πρότυπα προφανώς αυξάνουν συνεχώς. Για να εφαρμόσουμε την απευθείας λύση θα έπρεπε να περιμένουμε στο διηνεκές. Αντίθετα με το κανόνα δ, μετά από κάποιες επαναλήψεις τα βάρη ουσιαστικά συγκλίνουν κοντά στη λύση. Αναστάσιος Ντούνης, Καθηγητής 97
98 Ερωτήσεις 1. Ο κανόνας δέλτα δίνει την ποσότητα δ ως: (α) δ = σταθερά(στόχος έξοδος)στόχος (β) δ = σταθερά(στόχος έξοδος)σήμα εξόδου (γ) δ = σταθερά(στόχος έξοδος)σήμα εισόδου (α) δ = στόχος έξοδος (ε) κανένα από τα παραπάνω 2. Γιατί δεν εφαρμόζεται ο κανόνας δέλτα εκεί όπου το πρόβλημα δεν έχει στόχο; Δεν μπορεί να εφαρμοσθεί ο κανόνας δέλτα διότι ο κανόνας αυτός για να υπολογίσει την ποσότητα δ = nex χρειάζεται την ποσότητα e, η οποία είναι e = d-y. Εδώ d είναι ο στόχος και αφού στα ενδιάμεσα επίπεδα ενός ΤΝΔ δεν υπάρχει στόχος, άρα δεν μπορούν να υπολογισθούν οι ποσότητες e και δ. Για τον λόγο αυτό πρέπει να επινοηθεί μία άλλη διαδικασία που να επιφέρει την αλλαγή στα w, υπολογίζοντας βέβαια την ποσότητα δ. Αυτή ακριβώς η διαδικασία περιγράφεται στις επόμενες διαφάνειες. Πρέπει όμως να καταλάβουμε τον λόγο που δεν υπάρχουν οι τιμές του στόχου στα κρυμμένα επίπεδα. Αναστάσιος Ντούνης, Καθηγητής 98
99 Αλγόριθμος οπισθοδιάδοσης του σφάλματος - Back Propagation (επέκταση του κανόνα δ για MLP) Αναστάσιος Ντούνης, Καθηγητής 99
100 Καθορισμός της τοπικής βαθμίδας σφάλματος δ σε νευρώνα του κρυφού επιπέδου Έστω ένα πολυστρωματικό ΤΝΔ. Ο νευρώνας i ανήκει στο κρυφό επίπεδο l και ο νευρώνας k ανήκει στο επίπεδο εξόδου (L). Το πλήθος των νευρώνων στο κρυφό επίπεδο l είναι m. Νευρώνας i Νευρώνας k dk yj wij yi wki yk - ui/fi uk/fk ek Αναστάσιος Ντούνης, Καθηγητής 100
101 Το γράφημα ροής σήματος του πολυστρωματικού ΤΝΔ είναι το παρακάτω: Νευρώνας i Νευρώνας k yj wij ui fi(.) yi wki uk yk fk(.) -1 dk ek Το σήμα σφάλματος για ένα κρυφό νευρώνα καθορίζεται αναδρομικά με οπισθοδιάδοση βάσει των σφαλμάτων όλων των νευρώνων επιπέδου l+1 με τους οποίους συνδέεται άμεσα ο κρυφός νευρώνας. Η τοπική βαθμίδα σφάλματος δ του κόμβου i υπολογίζεται ως εξής: J J y J i ' i ( l) fi ( ui ) ui yi ui yi Αναστάσιος Ντούνης, Καθηγητής 101
102 1 J e e u J e e e 2 2 k k k k k k k yi k yi k uk yi (*) Υπολογίζουμε τις μερικές παραγώγους που εμφανίζονται στο άθροισμα μετά την εφαρμογή του κανόνα της αλυσίδας. ek ' ek dk yk dk f ( uk ) fk ( uk ) u k m uk uk wki yi w ki i0 y i J e f ( u ) w (**) (*) ' k k k ki yi k Αναστάσιος Ντούνης, Καθηγητής 102
103 Η τοπική βαθμίδα σφάλματος δ του κόμβου i είναι: J ' (**) ( ) ( ) ( ) ' ( ) ' i l fi ui i l fi ui ek fk ( uk ) wki yi k ' i ( l) fi ( ui ) k ( L) w ki k Γράφημα ροής σήματος που εκτελεί την οπισθοδιάδοση του σφάλματος δi(l) wki δk(l) f k(uk) ek Αναστάσιος Ντούνης, Καθηγητής 103
104 Βασικές εξισώσεις της μεθόδου οπισθοδιάδοσης BP Η διόρθωση που εφαρμόζεται στα συναπτικά βάρη ορίζεται από τον κανόνα δέλτα: Διόρθωση Ρυθμός Τοπική Σήμα εισόδου βάρους μάθησης βαθμίδα του νευρώνα w η δ y ή x Αναστάσιος Ντούνης, Καθηγητής 104
105 A. Τ ύποι υπολογισμού της τοπικής βαθμίδας δ Εάν ο νευρώ νας k είναι κόμβος εξόδου ( L ) d y f ( u ) e f ( u ) 1 k k k k k k Εάν ο νευρώνας i είναι ένας κόμβος του κρυφού στρώ ματος ( l ) f ( u ) ( L ) w 2 i i k k B. Τ ύποι ενημέρω σης τω ν βαρών 1. Για συναπτικά βάρη μεταξύ εξόδου και κρυφού επιπέδου w ( L ) n ( L ) y 3 2. Γ ki k i ki ια συναπτικά βάρη μεταξύ κρυφού επιπέδου και εισόδου w ( l ) n ( l ) x 4 ji i j j : αριθμός εισόδου, i : αριθμός κρυφού κόμβου k : αριθμός κόμβου εξόδου, l: αριθμός στρώ ματος l Αναστάσιος Ντούνης, Καθηγητής 105
106 Επισημάνσεις 1. Η εξίσωση (3) έδωσε το όνομα Back-Propagation στην όλη μέθοδο. Από τον τύπο φαίνεται ότι η τοπική βαθμίδα ή σφάλμα δ σε οποιονδήποτε νευρώνα του κρυφού στρώματος είναι συνάρτηση των σταθμισμένων τοπικών βαθμίδων (σφαλμάτων) του στρώματος της εξόδου (για ΤΝΔ με ένα κρυφό στρώμα και τουλάχιστον δυο εξόδους). Το ίδιο ισχύει και για περισσότερα στρώματα. 2. Τα σφάλματα μοιάζουν να πηγάζουν από το τελευταίο στρώμα και να προωθούνται προς τα πίσω, δηλαδή μέχρι το πρώτο στρώμα. Τα σφάλματα που προωθούνται προς τα πίσω χρησιμοποιούν τα ίδια βάρη του δικτύου που χρησιμοποιούνται και στην ανάκληση. 3. Αρίθμηση στρωμάτων l=1,,l l=1: στρώμα εισόδου, l=l: στρώμα εξόδου Αναστάσιος Ντούνης, Καθηγητής 106
107 Κριτήρια τερματισμού του αλγόριθμου BP Ένα ευρέως χρησιμοποιούμενο κριτήριο τερματισμού του αλγόριθμου BP είναι η αξιολόγηση του κόστους J. Το κόστος J(n) για την εποχή εκπαίδευσης n είναι μικρότερο από ένα κατώφλι ε που ορίζει ο χρήστης. Για να υπολογίσουμε το J(n) κρατάμε σταθερά τα βάρη, που προέκυψαν από την n εποχή και τροφοδοτούμε το δίκτυο με όλα τα πρότυπα υπολογίζοντας το σφάλμα e( p) d ( p) ( p) Για κάθε πρότυπο p. Στη συνέχεια αθροίζουμε όλα αυτά τα σφάλματα και το άθροισμά τους είναι το ζητούμενο κόστος Εναλλακτικό κριτήριο τερματισμού είναι η αξιοποίηση των συναπτικών βαρών. Κατά την n εποχή αθροίζουμε τις απόλυτες τιμές των μεταβολών των βαρών και να τη συγκρίνουμε με ένα κατώφλι ε που ορίζει ο χρήστης. y J ( n) e(1)... e( p) wij i, j 2 Αναστάσιος Ντούνης, Καθηγητής 107
108 Εφαρμογή του αλγόριθμου BP -1 x 1 x 2 J=1,2 W 31 =+0.1 W 42 = i=3,4 4 δ3 k=5 5 - y + d Σ e j: είσοδοι i: νευρώνες εσωτερικού στρώματος k: νευρώνες εξόδου δ5 Δεδομένα : Φάση ανάκλησης δ4 Εμπρός πέρασμα: Κόμβος 3:. Αναστάσιος Ντούνης, Καθηγητής 108
109 Κόμβος 4:, Κόμβος 5:. Υπολογισμός σφάλματος στην έξοδο του ΝΔ Αναστάσιος Ντούνης, Καθηγητής 109
110 Εφαρμογή του αλγόριθμου BP-2 Πίσω πέρασμα (φάση υπολογισμού του δ) Υπολογίζουμε το δ για όλους τους υπολογιστικούς νευρώνες = = ( )(1 ) = = Υπολογίζουμε τα τοπικά σφάλματα δ για τους 2 νευρώνες του κρυφού επιπέδου = = ( )(1 ( ) = = = = ( )(1 ( ) = Αναστάσιος Ντούνης, Καθηγητής 110
111 Εφαρμογή του αλγόριθμου BP-3 Υπολογισμός των διορθώσεων στα βάρη του ΤΝΔ Δw = = = w _ = w _ = = Δw = w _ = w _ + = Δw = w _ = w _ + = = 0.1 w _ = w _ + = = w _ = w _ + = = 0.2 w _ = w _ + = = Αναστάσιος Ντούνης, Καθηγητής 111
112 Εφαρμογή του αλγόριθμου BP- 4 Υπολογισμός της νέας εξόδου του δικτύου Κόμβος 3: Κόμβος 4: Κόμβος 5: Σφάλμα: e1 Αναστάσιος Ντούνης, Καθηγητής 112
113 Ερώτηση Η μέθοδος της οπισθοδιάδοσης έχει μειονεκτήματα γιατί: (α) ο χρόνος εκπαίδευσης μπορεί να είναι υπερβολικά μεγάλος (β) το δίκτυο μπορεί να πέσει σε τοπικά ελάχιστα και να μην μπορεί να απεγκλωβισθεί (γ) το μέγεθος του βήματος πρέπει να επιλεγεί προσεκτικά (δ) αν τα πρότυπα που παρουσιάζονται αλλάζουν, το δίκτυο δεν εκπαιδεύεται (ε) όλα τα παραπάνω Απάντηση Η ερώτηση αυτή μπορεί να θεωρηθεί λίγο παραπλανητική. Η σωστή απάντηση είναι το (ε), γιατί όλα τα σημεία που αναφέρονται στα (α) (δ) είναι σωστά. Ας δούμε γιατί συμβαίνει αυτό. O αριθμός των κύκλων που είναι απαραίτητος για την εκπαίδευση του δικτύου ποικίλλει από , άρα μπορεί πραγματικά να είναι μεγάλος ο χρόνος της εκπαίδευσης. Το δίκτυο μπορεί να πέσει σε τοπικά ελάχιστα. Έχει μεγάλη σημασία, επομένως, το μέγεθος του βήματος να επιλεγεί προσεκτικά, ώστε να μην πέφτει το δίκτυο συχνά σε τοπικά ελάχιστα. Τέλος, σωστή εκπαίδευση μπορεί να γίνει μόνο με μία, και την ίδια, ομάδα προτύπων, τα οποία πρέπει να παρουσιάζονται εναλλάξ και όχι τα πρότυπα να αλλάζουν συνεχώς. Άρα, το σωστό είναι το (ε). Αναστάσιος Ντούνης, Καθηγητής 113
114 Άσκηση Σχεδιάστε ένα δίκτυο που να έχει δύο εισόδους, δύο νευρώνες στο κρυμμένο επίπεδο και ένα νευρώνα στην έξοδο (2x2x2). Υπάρχει πλήρης συνδεσμολογία, αλλά μόνο από επίπεδο σε επίπεδο. Δίνεται το πρότυπο εισόδου (0.1,0.9) και η επιθυμητή έξοδος είναι το διάνυσμα (1,0). Τα βάρη αρχικά είναι όλα 0.3 από την είσοδο στο κρυμμένο επίπεδο και 0.2 από το κρυμμένο επίπεδο στην έξοδο. Επίσης η τιμή της πόλωσης στους νευρώνες είναι 0.4 και θεωρούμε ότι είναι συνάψεις με είσοδο -1. Ο ρυθμός μάθησης η = Θα χρησιμοποιήσουμε ως συνάρτηση μεταφοράς την γνωστή μας σιγμοειδή συνάρτηση. Βρείτε τις τιμές των βαρών μετά από ένα πέρασμα οπισθοδιάδοσης. Αναστάσιος Ντούνης, Καθηγητής 114
115 Αρχικό ΤΝΔ (2x2x2) -1-1 b3 b5 x1 w31 w32 3 w53 w54 5 y5 x2 w41 w42 4 w63 w64 6 y6 b4 b Αναστάσιος Ντούνης, Καθηγητής 115
116 Είσοδοι: ένα ζεύγος διανυσμάτων εισόδου-στόχου {x,d} Είσοδοι: Τα εκπαιδευόμενα βάρη wij(l) Φάση ανάκλησης = Forward phase Υπολογίζουμε τις εξόδους του πρώτου στρώματος l=1 x1 1 u3 w31 w32 b3, y(3) f ( u3) u3 x 2 1 e x 1 u4 w41 w42 b4 y f u4 x2 1 1, (4) ( ) u4 Υπολογίζουμε τις εξόδους του δεύτερου στρώματος l=2 y3 1 u5 w53 w54 b5, y(5) f ( u5) y 4 1 e y3 1 u6 w63 w64 b6, y(6) f ( u6) y 4 1 e u e 5 u 6 Αναστάσιος Ντούνης, Καθηγητής 116
117 Αποτελέσματα φάσης ανάκλησης Νευρώνας 3: u 0.1, y Νευρώνας 4: u 0.1, y Νευρώνας 5: u 0.21, y Νευρώνας 6: u 0.21, y Αναστάσιος Ντούνης, Καθηγητής 117
118 Φάση υπολογισμού δ = Backward phase Υπολογίζουμε με τον τύπο (1) τα τοπικά σφάλματα δk(l) του εξωτερικού στρώματος e f ( y ) d y f ( y ) d y f ( y ) 1 f ( y ) e f ( y ) d y f ( y ) d y f ( y ) 1 f ( y ) Υπολογίζουμε με τον τύπο (2) τα τοπικά σφάλματα δj(l-1) του στρώματος L-1 f ( y ) w w f ( y ) w w Αναστάσιος Ντούνης, Καθηγητής 118
119 Αποτελέσματα υπολογισμού του δ Αναστάσιος Ντούνης, Καθηγητής 119
120 δ3 δ5 d5 b3 b5 x1 w31 w32 3 w53 w54 5 y5 - e5 x2 w41 w42 4 w63 w64 6 y6 - e6 b4 b6 d6 δ4 δ6 Αναστάσιος Ντούνης, Καθηγητής 120
121 Φάση ενημέρωσης βαρών = Update phase Με βάση τον τύπο (3) ενημέρωσε τα βάρη του εξωτερικού στρώματος w (new) w (old)+ y w (new) w (old)+ y w (new) w (old)+ y w (new) w (old)+ y b b (new) b (old)+ 1 (new) b (old)+ 1 Αναστάσιος Ντούνης, Καθηγητής 121
122 Αποτελέσματα υπολογισμού νέων βαρών στο εξωτερικό στρώμα w w w w b b (new) =0.216 (new) =0.216 (new) ( 0.111) 0.475=0.187 (new) ( 0.111) 0.475=0.187 (new) (new) ( 0.111) Αναστάσιος Ντούνης, Καθηγητής 122
123 Με βάση τον τύπο (4) ενημέρωσε τα βάρη του εσωτερικού στρώματος w (new) w (old)+ x w (new) w (old)+ x w (new) w (old)+ x w (new) w (old)+ x b b (new) b (old)+ 1 (new) b (old)+ 1 Αναστάσιος Ντούνης, Καθηγητής 123
124 Αποτελέσματα υπολογισμού νέων βαρών στο εσωτερικό στρώμα w w w w b b (new) (new) (new) (new) (new) (new) Αναστάσιος Ντούνης, Καθηγητής 124
125 Το ΤΝΔ μετά από ένα κύκλο εκπαίδευσης και τα ενημερωμένα βάρη Επιθυμητή έξοδος Αναστάσιος Ντούνης, Καθηγητής 125
126 Αποτελέσματα υπολογισμού της εξόδου με τα νέα βάρη Νευρώνας 3: u 0.1, y Νευρώνας 4: u 0.1, y Νευρώνας 5: u 0.161, y Νευρώνας 6: u 0.25, y Η τελική έξοδος με τα νέα βάρη είναι (0.46,0.438) Αναστάσιος Ντούνης, Καθηγητής 126
127 Προσέγγιση συνάρτησης με MLP στο MATLAB Δημιουργία δικτύου MLP με κώδικα και GUI 2 Η μαθηματική μορφή της συνάρτησης είναι: y 2x 0.2x Από τη μαθηματική μελέτη της συνάρτησης προκύπτει ότι η πρώτη παράγωγος dy 2 0.4x dx μηδενίζεται στο σημείο x=5. 2 d y Η δεύτερη παράγωγος της συνάρτησης είναι αρνητική dx που σημαίνει ότι το σημείο (5,5) αποτελεί μέγιστο της συνάρτησης. Το MLP (1-5-1) αποτελείται από μια είσοδο, 1 ενδιάμεσο στρώμα με 5 νευρώνες και μια έξοδο. Αναστάσιος Ντούνης, Καθηγητής 127
128 Δεδομένα εκπαίδευσης και ανάκλησης x1=0:0.5:10; x2=0:1:10; y1=2*x1-0.21*x1.^2; x2=0:1:10; y2=2*x2-0.21*x2.^2; Αποθήκευση δεδομένων x1 και y1 στο αρχείο data: save data x1 y1 Σύνταξη των εντολών newff, train, sim, net.train.param.epochs net.iw, net.layers {1}: δομή του 1ου επιπέδου net.b, net.layers {2}: δομή του 2ου επιπέδου Δόμηση δικτύου >> net=newff(x1,y1,5,{'tansig'}); 5: υπάρχει κρυφό στρώμα με 5 νευρώνες Εκπαίδευση δικτύου >> net.trainparam.epochs=200; >> net=train(net,x1,y1); Ανάκληση δικτύου Y=sim(net,x2) plot(x2,y2,x2,υ, r ); net.train.param.goal=0.01 Αναστάσιος Ντούνης, Καθηγητής 128
129 Αναστάσιος Ντούνης, Καθηγητής 129
130 Αναστάσιος Ντούνης, Καθηγητής 130
131 Αναστάσιος Ντούνης, Καθηγητής 131
132 Ασκήσεις 1. Θεωρούμε ένα MLP δίκτυο στο οποίο όλοι οι νευρώνες λειτουργούν με γραμμική συνάρτηση ενεργοποίησης. Να αποδειχθεί ότι ένα τέτοιο δίκτυο είναι ισοδύναμο με ένα SLP. 2. Ένας νευρώνας δέχεται εισόδους από τέσσερις άλλους νευρώνες των οποίων τα επίπεδα ενεργοποίησης είναι 5, -10, 2 και -1. Τα αντίστοιχα συναπτικά βάρη του νευρώνα είναι 0.4, 0.2, -0.5 και Υπολογίστε την έξοδο του νευρώνα για τις παρακάτω δύο καταστάσεις: α. Ο νευρώνας είναι γραμμικός. β. Ο νευρώνας αναπαρίσταται από ένα McCulloch-Pits μοντέλο. γ. Ο νευρώνας έχει ως συνάρτηση ενεργοποίησης τη σιγμοειδή Αναστάσιος Ντούνης, Καθηγητής 132
133 3. Έστω ένα ΝΔ με τρεις εισόδους και δύο νευρώνες ως εξόδους. Οι πολώσεις των δύο νευρώνων είναι 1, με βάρος b1 = 0.5 για τον πρώτο νευρώνα και b = για το δεύτερο νευρώνα. Η συνάρτηση ενεργοποίησης είναι η υπερβολική εφαπτομένη. Τα βάρη του δικτύου είναι: w Να υπολογιστούν οι έξοδοι του ΝΔ. Λύση Χρησιμοποιώντας διανύσματα και πίνακες μπορούμε να διατυπώσουμε σε συμπαγή μορφή τη μαθηματική έκφραση του ΝΔ. Οι τρεις είσοδοι, οι δύο έξοδοι και οι πολώσεις αποτελούν διανύσματα στήλης x, y και z. Ο πίνακας w που περιέχει τα βάρη του δικτύου αποτελείται από δύο γραμμές όσοι και οι κόμβοι του ΝΔ και τρεις στήλες όσες και οι είσοδοι του δικτύου. Η πρώτη γραμμή περιέχει τα βάρη που καταλήγουν στον πρώτο κόμβο και η δεύτερη γραμμή τα βάρη που καταλήγουν στο δεύτερο κόμβο. Αναστάσιος Ντούνης, Καθηγητής 133
134 y tanh y y Αναστάσιος Ντούνης, Καθηγητής 134
135 4. Ένας πίνακας βαρών δίνεται από τον παρακάτω πίνακα: α. Σχεδιάστε ένα SLP με γραμμικούς νευρώνες στο οποίο τα βάρη να δίνονται από τον πίνακα W. β. Να γραφεί η εξίσωση πινάκων της σχέσης εισόδου-εξόδου του SLP W Αναστάσιος Ντούνης, Καθηγητής 135
136 5. Για ποιους συνδυασμούς των εισόδων ενεργοποιείται ο νευρώνας 3. 1 Είσοδοι x 1 x x y y x y Αναστάσιος Ντούνης, Καθηγητής 136
137 6. Να σχεδιαστεί ένα ΤΝΔ που να προσομοιώνει τη συνάρτηση: f x x x x ANDNOT ANDx x,, ORx x , Να χρησιμοποιηθούν οι νευρώνες που υλοποιούν τις λογικές συναρτήσεις AND, OR και NOT. Α) Να γραφεί ο πίνακας αλήθειας Β) Ποια λογική συνάρτηση είναι η f1. 7. Να σχεδιαστεί ένα ΤΝΔ που να προσομοιώνει τη συνάρτηση: f x x2 x1 x ORAND ANDx NOT x, ANDNOTx ,, x Να χρησιμοποιηθούν οι νευρώνες που υλοποιούν τις λογικές συναρτήσεις AND, OR και NOT. Α) Να γραφεί ο πίνακας αλήθειας Β) Ποια λογική συνάρτηση είναι η f Αναστάσιος Ντούνης, Καθηγητής 137
138 8. Δίνεται ένα ΤΝΔ-MLP. Οι νευρώνες είναι τύπου MCP. Δείξτε ότι το δίκτυο επιλύει το πρόβλημα XOR. 1 x y x Αναστάσιος Ντούνης, Καθηγητής 138
139 Λύση Είσοδοι Κρυμμένο στρώμα Έξοδος x 1 x 2 u1 y1 u2 y2 u y XOR AND OR, NOT AND Αναστάσιος Ντούνης, Καθηγητής 139
140 9. Θεωρούμε ένα MLP (i-είσοδοι, j-κρυφοί νευρώνες και 1-νευρώνας εξόδου). Όλοι οι νευρώνες λειτουργούν στη γραμμική περιοχή. Να αποδειχθεί ότι κάθε τέτοιο MLP δίκτυο είναι ισοδύναμο με ένα SLP (i-είσοδοι και 1-νευρώνας εξόδου) 10. Θεωρούμε ένα SLP με m νευρώνες (nxm). Το SLP αποτελείται από n εισόδους, m εξόδους και m πολώσεις. Χρησιμοποιώντας το βοηθητικό κόμβο με x0=1 και εμφυτεύοντας τις πολώσεις στον πίνακα των συναπτικών βαρών η έξοδος y του SLP σε συμπαγή μορφή είναι: y w w w w... w 1 x n 1 y 2 w20 w21 w22 w23... w 2n x f y m wm 0 wm 1 wm 2 wm3... w mn x n Αναστάσιος Ντούνης, Καθηγητής 140
141 11. Να υπολογιστούν οι έξοδοι του SLP και να αναγνωριστούν οι πολώσεις και τα κατώφλια ενεργοποίησης. Οι νευρώνες χρησιμοποιούν ως συνάρτηση ενεργοποίησης την «υπερβολική εφαπτομένη». Δίνονται: x Αποτελέσματα w y y w m , m 1, Αναστάσιος Ντούνης, Καθηγητής 141
142 12. Να υπολογιστούν οι έξοδοι του MLP και να αναγνωριστούν οι πολώσεις και τα κατώφλια ενεργοποίησης. Δίνονται: x w w Αναστάσιος Ντούνης, Καθηγητής 142
143 Αποτελέσματα: y y w w p , , m 1, , , p 1, 2,3 p0 0 m0 m0 Αναστάσιος Ντούνης, Καθηγητής 143
144 13. Η ενεργοποίηση του νευρώνα εξαρτάται μόνο από τις τιμές στα: (α) βάρη των συνδέσεων, τιμές εισόδου, τιμή κατωφλίου, σφάλμα στην έξοδο (β) βάρη των συνδέσεων, τιμές εισόδου, τιμή κατωφλίου (γ) βάρη των συνδέσεων, τιμές εισόδου (δ) βάρη των συνδέσεων, τιμές κατωφλίου (ε) κανένα από τα παραπάνω Αναστάσιος Ντούνης, Καθηγητής 144
145 14. Ο νευρώνας perceptron έχει 3 εισόδους, συνάρτηση ενεργοποίησης 0/1 και κατώφλι θ = 0. Το διάνυσμα εισόδου είναι x = [1,0.7,1.6] και τα αντίστοιχα βάρη είναι w = [0.5,1.5, 1.0]. Εξηγήστε το Σ ή το Λ. Συνολική Είσοδος u α) 1 0 β) γ) δ) 1 1 ε) στ) Έξοδος y Σωστό Λάθος Αναστάσιος Ντούνης, Καθηγητής 145
146 Αποτελέσματα: Συνολική Είσοδος u Έξοδος y Σωστό α) 1 0 β) γ) δ) 1 1 ε) στ) Λάθος Η απάντηση (γ) είναι λανθασμένη διότι, ενώ κάνατε σωστά τον υπολογισμό, εντούτοις για την έξοδο έχετε εφαρμόσει λανθασμένα τη συνάρτηση ενεργοποίησης 0/1. Η απάντηση (στ) είναι λανθασμένη διότι δεν έχετε λάβει υπόψη το πρόσημο του βάρους του τρίτου νευρώνα. Αναστάσιος Ντούνης, Καθηγητής 146
147 15. Έχουμε μία ομάδα από 8 σημεία (τιμές του x) και 8 αντίστοιχες τιμές του y, οι οποίες είναι οι τιμές του στόχου. Θεωρούμε ότι τα σημεία αυτά είναι δεδομένα τα οποία πέφτουν πάνω σε μία ευθεία γραμμή. Κάνετε την γραφική παράσταση των σημείων αυτών. Υπολογίστε την εξίσωση y = mx + c, με τη γνωστή μέθοδο των ελαχίστων τετραγώνων. Ακολούθως χρησιμοποιείστε ένα νευρωνικό δίκτυο (ένα νευρώνα) και βρείτε το ίδιο αποτέλεσμα αλλά χωρίς τον τύπο τώρα. Υπόδειξη: H μία είσοδος θα είναι πάντα το x, η άλλη είσοδος θα είναι πάντα η μονάδα (1), δηλ. έχουμε την περίπτωση του εσωτερικού βάρους b. Η είσοδος x συνδέεται με την έξοδο με βάρος m, η δεύτερη είσοδος συνδέεται με την έξοδο με βάρος c. Η έξοδος είναι το y. Έχουμε 8 πρότυπα, όπως είναι στον Πίνακα. Χρησιμοποιήστε ως σταθερά εκπαίδευσης η = 0,1. Πόσους κύκλους (εποχές) χρειάζεται το δίκτυο αυτό για να εκπαιδευθεί; x 0,30 0,35 0,40 0,50 0,60 0,80 0,95 1,10 Στόχος (y) 1,60 1,40 1,40 1,60 1,70 2,00 1,70 2,10 Αναστάσιος Ντούνης, Καθηγητής 147
148 y Αναστάσιος Ντούνης, Καθηγητής 148
149 16. Δίνεται το παρακάτω ΤΝΔ με δύο εισόδους, δύο σιγμοειδείς νευρώνες (3 και 4) και μια έξοδο. Η είσοδος x1=1 είναι πάντα σταθερή. Το νευρωνικό δίκτυο λειτουργεί ως αντιστροφέας, δηλαδή δίνει έξοδο y=0 όταν η είσοδος είναι x2=1 και έξοδο y=1 όταν η είσοδος είναι x2=0. α) Υπολογίστε το αρχικό μέσο τετραγωνικό σφάλμα για τα δύο παραδείγματα. β) Με αυτά τα παραδείγματα εκπαίδευσης να εφαρμόσετε τον αλγόριθμο ανάστροφης διάδοσης για μια εποχή (ένας κύκλος) εκπαίδευσης του ΤΝΔ. Στο τέλος της εποχής να υπολογίζεται το νέο μέσο τετραγωνικό σφάλμα. Δημιουργήστε έναν πίνακα για την καλύτερη παρουσίαση των αποτελεσμάτων της διαδικασίας μάθησης. γ) Ποια είναι η λειτουργία του νευρώνα 3; Δίνονται: w31 2, w32 5, w41 2, w43 3 Αρχικά βάρη: Ρυθμός μάθησης: η = 0.1 Σφάλμα (e) = επιθυμητή τιμή εξόδου πραγματική τιμή της εξόδου του ΤΝΔ. Αναστάσιος Ντούνης, Καθηγητής 149
ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #12: Εισαγωγή στα Nευρωνικά Δίκτυα. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.
ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ Ανώτατο Εκπαιδευτικό Ίδρυμα Πειραιά Τεχνολογικού Τομέα ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ Ενότητα #12: Εισαγωγή στα Nευρωνικά Δίκτυα Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε. Άδειες Χρήσης Το
Εργαστήριο Υπολογιστικής Νοημοσύνης Ευφυούς Ελέγχου. Αναστάσιος Ντούνης, Καθηγητής
Εργαστήριο Υπολογιστικής Νοημοσύνης Ευφυούς Ελέγχου Αναστάσιος Ντούνης, Καθηγητής Υπολογιστική Νοημοσύνη Εισαγωγή στα Τεχνητά Νευρωνικά Δίκτυα (ΤΝΔ) Αναστάσιος Ντούνης, Καθηγητής 2 Περίγραμμα Διαλέξεων
Τεχνητά Νευρωνικά Δίκτυα. Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης
Τεχνητά Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης Ο Βιολογικός Νευρώνας Δενδρίτες Συνάψεις Πυρήνας (Σώμα) Άξονας 2 Ο Βιολογικός Νευρώνας 3 Βασικά Χαρακτηριστικά
Το μοντέλο Perceptron
Το μοντέλο Perceptron Αποτελείται από έναν μόνο νευρώνα McCulloch-Pitts w j x x 1, x2,..., w x T 1 1 x 2 w 2 Σ u x n f(u) Άνυσμα Εισόδου s i x j x n w n -θ w w 1, w2,..., w n T Άνυσμα Βαρών 1 Το μοντέλο
Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)
Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP) x -0,5 a x x 2 0 0 0 0 - -0,5 y y 0 0 x 2 -,5 a 2 θ η τιμή κατωφλίου Μία λύση του προβλήματος XOR Multi Layer Perceptron (MLP) x -0,5 Μία
ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ
ΤΕΙ Δυτικής Μακεδονίας ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ 2015-2016 Τεχνητή Νοημοσύνη Νευρώνας Perceptron Διδάσκων: Τσίπουρας Μάρκος Εκπαιδευτικό Υλικό: Τσίπουρας Μάρκος Τζώρτζης Γρηγόρης Περιεχόμενα Εισαγωγή
Πληροφοριακά Συστήματα & Περιβάλλον
ΑΡΙΣΤΟΤΕΛΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΟΝΙΚΗΣ ΑΝΟΙΧΤΑ ΑΚΑΔΗΜΑΙΚΑ ΜΑΘΗΜΑΤΑ Πληροφοριακά Συστήματα & Περιβάλλον Ενότητα 8: Τεχνητά Νευρωνικά Δίκτυα Παναγιώτης Λεφάκης Δασολογίας & Φυσικού Περιβάλλοντος Άδειες Χρήσης
Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων
Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron Βιολογικός Νευρώνας Δενδρίτες, που αποτελούν τις γραμμές εισόδου των ερεθισμάτων (βιολογικών σημάτων) Σώμα, στο οποίο γίνεται η συσσώρευση των ερεθισμάτων και
Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων
Το Πολυ Perceptron Δίκτυα Πρόσθιας Τροφοδότησης (feedforward) Tο αντίστοιχο γράφημα του δικτύου δεν περιλαμβάνει κύκλους: δεν υπάρχει δηλαδή ανατροφοδότηση της εξόδου ενός νευρώνα προς τους νευρώνες από
ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων
ΔΙΚΤΥO RBF Αρχιτεκτονική δικτύου RBF Δίκτυα RBF: δίκτυα συναρτήσεων πυρήνα (radial basis function networks). Πρόσθιας τροφοδότησης (feedforward) για προβλήματα μάθησης με επίβλεψη. Εναλλακτικό του MLP.
Υπολογιστική Νοημοσύνη. Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks
Υπολογιστική Νοημοσύνη Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks Γενικά Ένα νευρωνικό δίκτυο λέγεται αναδρομικό, εάν υπάρχει έστω και μια σύνδεση από έναν νευρώνα επιπέδου i προς έναν νευρώνα επιπέδου
Εισαγωγή στα Τεχνητά Νευρωνικά Δίκτυα. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων
Εισαγωγή στα Τεχνητά Νευρωνικά Δίκτυα Τεχνητή Νοημοσύνη (Artificial Intelligence) Ανάπτυξη μεθόδων και τεχνολογιών για την επίλυση προβλημάτων στα οποία ο άνθρωπος υπερέχει (?) του υπολογιστή Συλλογισμοί
Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο
Πρόβλημα ο Ασκήσεις Φροντιστηρίου 5 o Φροντιστήριο Δίνεται το παρακάτω σύνολο εκπαίδευσης: # Είσοδος Κατηγορία 0 0 0 Α 2 0 0 Α 0 Β 4 0 0 Α 5 0 Β 6 0 0 Α 7 0 Β 8 Β α) Στον παρακάτω κύβο τοποθετείστε τα
ΧΑΡΟΚΟΠΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΜΑΤΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ. Καραγιώργου Σοφία
ΧΑΡΟΚΟΠΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΜΑΤΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Καραγιώργου Σοφία Εισαγωγή Προσομοιώνει βιολογικές διεργασίες (π.χ. λειτουργία του εγκεφάλου, διαδικασία
Τεχνητή Νοημοσύνη. TMHMA ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΕΧΝΟΛΟΓΙΑΣ ΥΠΟΛΟΓΙΣΤΩΝ. Εξάμηνο 5ο Οικονόμου Παναγιώτης & Ελπινίκη Παπαγεωργίου. Νευρωνικά Δίκτυα.
Τεχνητή Νοημοσύνη. TMHMA ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΕΧΝΟΛΟΓΙΑΣ ΥΠΟΛΟΓΙΣΤΩΝ Εξάμηνο 5ο Οικονόμου Παναγιώτης & Ελπινίκη Παπαγεωργίου. Νευρωνικά Δίκτυα. 1 ΤΕΧΝΗΤΑ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Χαρακτηριστικά Είδη εκπαίδευσης Δίκτυα
Κινητά Δίκτυα Επικοινωνιών. Συμπληρωματικό υλικό. Προσαρμοστική Ισοστάθμιση Καναλιού
Κινητά Δίκτυα Επικοινωνιών Συμπληρωματικό υλικό Προσαρμοστική Ισοστάθμιση Καναλιού Προσαρμοστικοί Ισοσταθμιστές Για να υπολογίσουμε τους συντελεστές του ισοσταθμιστή MMSE, απαιτείται να λύσουμε ένα γραμμικό
Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο
Ασκήσεις Φροντιστηρίου 4 o Φροντιστήριο Πρόβλημα 1 ο Ο πίνακας συσχέτισης R x του διανύσματος εισόδου x( στον LMS αλγόριθμο 1 0.5 R x = ορίζεται ως: 0.5 1. Ορίστε το διάστημα των τιμών της παραμέτρου μάθησης
Τεχνητή Νοημοσύνη. 19η διάλεξη ( ) Ίων Ανδρουτσόπουλος.
Τεχνητή Νοημοσύνη 19η διάλεξη (2016-17) Ίων Ανδρουτσόπουλος http://www.aueb.gr/users/ion/ 1 Οι διαφάνειες αυτές βασίζονται σε ύλη των βιβλίων: Artificia Inteigence A Modern Approach των S. Russe και P.
ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ
ΘΕΜΑ ο 2.5 µονάδες ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 2 Οκτωβρίου 23 ιάρκεια: 2 ώρες Έστω το παρακάτω γραµµικώς
Ασκήσεις μελέτης της 19 ης διάλεξης
Οικονομικό Πανεπιστήμιο Αθηνών, Τμήμα Πληροφορικής Μάθημα: Τεχνητή Νοημοσύνη, 2016 17 Διδάσκων: Ι. Ανδρουτσόπουλος Ασκήσεις μελέτης της 19 ης διάλεξης 19.1. Δείξτε ότι το Perceptron με (α) συνάρτηση ενεργοποίησης
Αναγνώριση Προτύπων Ι
Αναγνώριση Προτύπων Ι Ενότητα 1: Μέθοδοι Αναγνώρισης Προτύπων Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται
4.3. Γραµµικοί ταξινοµητές
Γραµµικοί ταξινοµητές Γραµµικός ταξινοµητής είναι ένα σύστηµα ταξινόµησης που χρησιµοποιεί γραµµικές διακριτικές συναρτήσεις Οι ταξινοµητές αυτοί αναπαρίστανται συχνά µε οµάδες κόµβων εντός των οποίων
Μέθοδοι Μηχανικής Μάθησης στην επεξεργασία Τηλεπισκοπικών Δεδομένων. Δρ. Ε. Χάρου
Μέθοδοι Μηχανικής Μάθησης στην επεξεργασία Τηλεπισκοπικών Δεδομένων Δρ. Ε. Χάρου Πρόγραμμα υπολογιστικής ευφυίας Ινστιτούτο Πληροφορικής & Τηλεπικοινωνιών ΕΚΕΦΕ ΔΗΜΟΚΡΙΤΟΣ exarou@iit.demokritos.gr Μηχανική
Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης
Μάθημα 4 ο Δρ. Ανέστης Γ. Χατζημιχαηλίδης Τμήμα Μηχανικών Πληροφορικής Τ.Ε. ΤΕΙ Ανατολικής Μακεδονίας και Θράκης 2016-2017 Διευρυμένη Υπολογιστική Νοημοσύνη (ΥΝ) Επεκτάσεις της Κλασικής ΥΝ. Μεθοδολογίες
ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #8: Βελτιστοποίηση Συστημάτων Ασαφούς Λογικής. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.
ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ Ανώτατο Εκπαιδευτικό Ίδρυμα Πειραιά Τεχνολογικού Τομέα ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ Ενότητα #8: Βελτιστοποίηση Συστημάτων Ασαφούς Λογικής Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε. Άδειες
Ανδρέας Παπαζώης. Τμ. Διοίκησης Επιχειρήσεων
Ανδρέας Παπαζώης Τμ. Διοίκησης Επιχειρήσεων Περιεχόμενα Εργ. Μαθήματος Βιολογικά Νευρωνικά Δίκτυα Η έννοια των Τεχνητών Νευρωνικών Δικτύων Η δομή ενός νευρώνα Διαδικασία εκπαίδευσης Παραδείγματα απλών
Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.
Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης Ελαχιστοποίηση συνάρτησης σφάλματος Εκπαίδευση ΤΝΔ: μπορεί να διατυπωθεί ως πρόβλημα ελαχιστοποίησης μιας συνάρτησης σφάλματος E(w)
Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)
Υπολογιστική Νοημοσύνη Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2) Ο κανόνας Δέλτα για συνεχείς συναρτήσεις ενεργοποίησης (1/2) Για συνεχείς συναρτήσεις ενεργοποίησης, θα θέλαμε να αλλάξουμε περισσότερο
Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.
Τεχνητή Νοημοσύνη 18η διάλεξη (2016-17) Ίων Ανδρουτσόπουλος http://www.aueb.gr/users/ion/ 1 Οι διαφάνειες αυτής της διάλεξης βασίζονται: στο βιβλίο Machine Learning του T. Mitchell, McGraw- Hill, 1997,
Κεφ. 6Β: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών
Κεφ. 6Β: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών. Εισαγωγή (ορισμός προβλήματος, αριθμητική ολοκλήρωση ΣΔΕ, αντικατάσταση ΣΔΕ τάξης n με n εξισώσεις ης τάξης). Μέθοδος Euler 3. Μέθοδοι
ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ Αίθουσα Νέα Κτίρια ΣΗΜΜΥ Ε.Μ.Π. Ανάλυση Κυρίων Συνιστωσών (Principal-Component Analysis, PCA)
ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ Αίθουσα 005 - Νέα Κτίρια ΣΗΜΜΥ Ε.Μ.Π. Ανάλυση Κυρίων Συνιστωσών (Principal-Coponent Analysis, PCA) καθ. Βασίλης Μάγκλαρης aglaris@netode.ntua.gr www.netode.ntua.gr
ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΜΑΘΗΣΗ ΔΙΚΤΥA LVQ και SOM. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων
ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΜΑΘΗΣΗ ΔΙΚΤΥA LVQ και SOM Μάθηση χωρίς επίβλεψη (unsupervised learning) Σύνολο εκπαίδευσης D={(x n )}, n=1,,n. x n =(x n1,, x nd ) T, δεν υπάρχουν τιμές-στόχοι t n. Προβλήματα μάθησης χωρίς
HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16
HMY 795: Αναγνώριση Προτύπων Διαλέξεις 15-16 Νευρωνικά Δίκτυα(Neural Networks) Fisher s linear discriminant: Μείωση διαστάσεων (dimensionality reduction) y Τ =w x s + s =w S w 2 2 Τ 1 2 W ( ) 2 2 ( ) m2
Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή
Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή Τµήµα Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών ΗΜΜΥ 795: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ Ακαδηµαϊκό έτος 2010-11 Χειµερινό Εξάµηνο Τελική εξέταση Τρίτη, 21 εκεµβρίου 2010,
Κεφ. 7: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών
Κεφ. 7: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών 7. Εισαγωγή (ορισμός προβλήματος, αριθμητική ολοκλήρωση ΣΔΕ, αντικατάσταση ΣΔΕ τάξης n με n εξισώσεις ης τάξης) 7. Μέθοδος Euler 7.3
Νευρωνικά Δίκτυα στο Matlab
Νευρωνικά Δίκτυα στο Matlab Ρ202 Μηχανική Ευφυΐα (Machine Intelligence) Ευστάθιος Αντωνίου Τμήμα Μηχανικών Πληροφορικής Αλεξάνδρειο ΤΕΙ Θεσσαλονίκης E-mail: antoniou@itteithegr Πρόγραμμα Μεταπτυχιακών
Μέθοδοι πολυδιάστατης ελαχιστοποίησης
Μέθοδοι πολυδιάστατης ελαχιστοποίησης με παραγώγους Μέθοδοι πολυδιάστατης ελαχιστοποίησης Δ. Γ. Παπαγεωργίου Τμήμα Μηχανικών Επιστήμης Υλικών Πανεπιστήμιο Ιωαννίνων dpapageo@cc.uoi.gr http://pc64.materials.uoi.gr/dpapageo
ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ
Θ.Ε. ΠΛΗ31 (2004-5) ΓΡΑΠΤΗ ΕΡΓΑΣΙΑ #3 Στόχος Στόχος αυτής της εργασίας είναι η απόκτηση δεξιοτήτων σε θέματα που αφορούν τα Τεχνητά Νευρωνικά Δίκτυα και ποιο συγκεκριμένα θέματα εκπαίδευσης και υλοποίησης.
Ψηφιακή Επεξεργασία Σημάτων
Ψηφιακή Επεξεργασία Σημάτων Ενότητα 3: Συστήματα Διακριτού Χρόνου Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής 1 Συστήματα Διακριτού Χρόνου Εισαγωγή στα Συστήματα Διακριτού Χρόνου Ταξινόμηση Συστημάτων ΔΧ
ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ
ΘΕΜΑ 1 ο (2,5 μονάδες) ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Τελικές εξετάσεις Πέμπτη 21 Ιουνίου 2012 16:30-19:30 Υποθέστε ότι θέλουμε
Υπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning
Υπολογιστική Νοημοσύνη Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning Κεντρική ιδέα Τα παραδείγματα μάθησης παρουσιάζονται στο μηεκπαιδευμένο δίκτυο και υπολογίζονται οι έξοδοι. Για
Αναγνώριση Προτύπων Ι
Αναγνώριση Προτύπων Ι Ενότητα 4: Νευρωνικά Δίκτυα στην Ταξιμόμηση Προτύπων Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό
3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON
3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPRON 3. ΕΙΣΑΓΩΓΗ: Το Perceptron είναι η απλούστερη μορφή Νευρωνικού δικτύου, το οποίο χρησιμοποιείται για την ταξινόμηση ενός ειδικού τύπου προτύπων, που είναι γραμμικά διαχωριζόμενα.
Αναγνώριση Προτύπων Ι
Αναγνώριση Προτύπων Ι Ενότητα 2: Δομικά Συστήματα Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες
4. ΚΕΦΑΛΑΙΟ ΕΦΑΡΜΟΓΕΣ ΤΟΥ ΜΕΤΑΣΧΗΜΑΤΙΣΜΟΥ FOURIER
4. ΚΕΦΑΛΑΙΟ ΕΦΑΡΜΟΓΕΣ ΤΟΥ ΜΕΤΑΣΧΗΜΑΤΙΣΜΟΥ FOURIER Σκοπός του κεφαλαίου είναι να παρουσιάσει μερικές εφαρμογές του Μετασχηματισμού Fourier (ΜF). Ειδικότερα στο κεφάλαιο αυτό θα περιγραφούν έμμεσοι τρόποι
Αριθμητική εύρεση ριζών μη γραμμικών εξισώσεων
Αριθμητική εύρεση ριζών μη γραμμικών εξισώσεων Με τον όρο μη γραμμικές εξισώσεις εννοούμε εξισώσεις της μορφής: f( ) 0 που προέρχονται από συναρτήσεις f () που είναι μη γραμμικές ως προς. Περιέχουν δηλαδή
5. (Λειτουργικά) Δομικά Διαγράμματα
5. (Λειτουργικά) Δομικά Διαγράμματα Γενικά, ένα λειτουργικό δομικό διάγραμμα έχει συγκεκριμένη δομή που περιλαμβάνει: Τις δομικές μονάδες (λειτουργικά τμήματα ή βαθμίδες) που συμβολίζουν συγκεκριμένες
Συσχετιστικές Μνήμες Δίκτυο Hopfield. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων
Συσχετιστικές Μνήμες Δίκτυο Hopfield Συσχετιστική Μνήμη Η ανάκληση ενός γεγονότος σε μία χρονική στιγμή προκαλείται από τη συσχέτιση αυτού του γεγονότος με κάποιο ερέθισμα. Πολλές φορές επίσης καλούμαστε
Τεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος.
Τεχνητή Νοημοσύνη 17η διάλεξη (2016-17) Ίων Ανδρουτσόπουλος http://.aueb.gr/users/ion/ 1 Οι διαφάνειες αυτής της διάλεξης βασίζονται: στο βιβλίο Artificia Inteigence A Modern Approach των S. Russe και
ΒΑΣΙΚΑ ΣΤΟΙΧΕΙΑ ΘΕΩΡΙΑΣ ΤΗΣ ΜΕΘΟΔΟΥ SIMPLEX
ΒΑΣΙΚΑ ΣΤΟΙΧΕΙΑ ΘΕΩΡΙΑΣ ΤΗΣ ΜΕΘΟΔΟΥ SIMPLEX Θεμελιώδης αλγόριθμος επίλυσης προβλημάτων Γραμμικού Προγραμματισμού που κάνει χρήση της θεωρίας της Γραμμικής Άλγεβρας Προτάθηκε από το Dantzig (1947) και πλέον
Μάθημα 1: Εισαγωγή στην. Υπολογιστική Νοημοσύνη
Υπολογιστική Νοημοσύνη Μάθημα 1: Εισαγωγή στην Υπολογιστική Νοημοσύνη Εισαγωγή Ένας δυναμικά αναπτυσσόμενος κλάδος της Πληροφορικής είναι η Υπολογιστική Νοημοσύνη. Η Υπολογιστική Νοημοσύνη αποτελεί ένα
Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2
Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Η παραπάνω ανάλυση ήταν χρήσιμη προκειμένου να κατανοήσουμε τη λογική των δικτύων perceptrons πολλών επιπέδων
Πληροφορική 2. Τεχνητή νοημοσύνη
Πληροφορική 2 Τεχνητή νοημοσύνη 1 2 Τι είναι τεχνητή νοημοσύνη; Τεχνητή νοημοσύνη (AI=Artificial Intelligence) είναι η μελέτη προγραμματισμένων συστημάτων τα οποία μπορούν να προσομοιώνουν μέχρι κάποιο
ΔΙΠΛΩΜΑΤΙΚΗ ΕΡΓΑΣΙΑ. Τσαλαβούτης Α. Βασίλειος Φοιτητής 10 ου εξαμήνου ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ ΣΧΟΛΗ ΜΗΧΑΝΟΛΟΓΩΝ ΜΗΧΑΝΙΚΩΝ
ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ ΣΧΟΛΗ ΜΗΧΑΝΟΛΟΓΩΝ ΜΗΧΑΝΙΚΩΝ ΤΟΜΕΑΣ ΒΙΟΜΗΧΑΝΙΚΗΣ ΔΙΟΙΚΗΣΗΣ ΚΑΙ ΕΠΙΧΕΙΡΗΣΙΑΚΗΣ ΕΡΕΥΝΑΣ ΔΙΠΛΩΜΑΤΙΚΗ ΕΡΓΑΣΙΑ Πειραματική διερεύνηση αλγορίθμων για βελτιστοποίηση της απόδοσης της
6. Στατιστικές μέθοδοι εκπαίδευσης
6. Στατιστικές μέθοδοι εκπαίδευσης Μία διαφορετική μέθοδος εκπαίδευσης των νευρωνικών δικτύων χρησιμοποιεί ιδέες από την Στατιστική Φυσική για να φέρει τελικά το ίδιο αποτέλεσμα όπως οι άλλες μέθοδοι,
Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2
Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Version 2 1 Άλλοι τύποι νευρωνικών δικτύων Αυτοοργανούμενοι χάρτες (Self-organizing maps - SOMs) Αναδρομικά νευρωνικά δίκτυα (Recurrent Neural Networks): γενικής
Περιεχόμενα ΕΝΟΤΗΤΑ I. ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ. Πρόλογος 15
Περιεχόμενα Πρόλογος 15 ΕΝΟΤΗΤΑ I. ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ 1 Τεχνητή νοημοσύνη 21 1.1 Εισαγωγή 21 1.2 Ιστορική εξέλιξη 22 1.3 Εφαρμογές Τεχνητής Νοημοσύνης 25 2 Επίλυση Προβλημάτων 29 2.1 Διαμόρφωση
ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ
ΘΕΜΑ ο (2.5 µονάδες) ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις Παρασκευή 9 Ιανουαρίου 2007 5:00-8:00 εδοµένου ότι η
Κινητά Δίκτυα Υπολογιστών
Κινητά Δίκτυα Υπολογιστών Καθ. Κώστας Μπερμπερίδης Πολυτεχνική Σχολή Τμήμα Μηχανικών Η/Υ & Πληροφορικής Σκοποί ενότητας Εξοικείωση του φοιτητή με την έννοια της προσαρμοστικής ισοστάθμισης καναλιού 2 Περιεχόμενα
Συνήθεις διαφορικές εξισώσεις προβλήματα οριακών τιμών
Συνήθεις διαφορικές εξισώσεις προβλήματα οριακών τιμών Οι παρούσες σημειώσεις αποτελούν βοήθημα στο μάθημα Αριθμητικές Μέθοδοι του 5 ου εξαμήνου του ΤΜΜ ημήτρης Βαλουγεώργης Καθηγητής Εργαστήριο Φυσικών
Νευρωνικά ίκτυα και Εξελικτικός. Σηµερινό Μάθηµα. επανάληψη Γενετικών Αλγορίθµων 1 η εργασία Επανάληψη νευρωνικών δικτύων Ασκήσεις εφαρµογές
Νευρωνικά ίκτυα και Εξελικτικός Προγραµµατισµός Σηµερινό Μάθηµα επανάληψη Γενετικών Αλγορίθµων η εργασία Επανάληψη νευρωνικών δικτύων Ασκήσεις εφαρµογές Κωδικοποίηση Αντικειµενική Συνάρτ Αρχικοποίηση Αξιολόγηση
Μαθηματική Εισαγωγή Συναρτήσεις
Φυσικός Ραδιοηλεκτρολόγος (MSc) ο Γενικό Λύκειο Καστοριάς A. Μαθηματική Εισαγωγή Πράξεις με αριθμούς σε εκθετική μορφή Επίλυση βασικών μορφών εξισώσεων Συναρτήσεις Στοιχεία τριγωνομετρίας Διανύσματα Καστοριά,
Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων
Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων Εισηγητής: ρ Ηλίας Ζαφειρόπουλος Εισαγωγή Ιατρικά δεδοµένα: Συλλογή Οργάνωση Αξιοποίηση Data Mining ιαχείριση εδοµένων Εκπαίδευση
Αριθμητική Ανάλυση και Εφαρμογές
Αριθμητική Ανάλυση και Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 2017-2018 Παρεμβολή και Παρεκβολή Εισαγωγή Ορισμός 6.1 Αν έχουμε στη διάθεσή μας τιμές μιας συνάρτησης
Τεχνικές Μείωσης Διαστάσεων. Ειδικά θέματα ψηφιακής επεξεργασίας σήματος και εικόνας Σ. Φωτόπουλος- Α. Μακεδόνας
Τεχνικές Μείωσης Διαστάσεων Ειδικά θέματα ψηφιακής επεξεργασίας σήματος και εικόνας Σ. Φωτόπουλος- Α. Μακεδόνας 1 Εισαγωγή Το μεγαλύτερο μέρος των δεδομένων που καλούμαστε να επεξεργαστούμε είναι πολυδιάστατα.
Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2
Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΧΑΡΤΟΓΡΑΦΗΣΗ ΤΟΥ ΧΩΡΟΥ ΤΩΝ ΤΑΞΙΝΟΜΗΤΩΝ Ταξινομητές Ταξινομητές συναρτ. διάκρισης Ταξινομητές επιφανειών απόφ. Παραμετρικοί ταξινομητές Μη παραμετρικοί
Πανεπιστήμιο Αιγαίου
Πανεπιστήμιο Αιγαίου Τμήμα Πολιτισμικής Τεχνολογίας και Επικοινωνίας Μελέτη της Επίπτωσης της Διασποράς των Συναρτήσεων Βάσης στο Σχεδιασμό Νευρωνικών Δικτύων Συναρτήσεων Ακτινικής Βάσης Πτυχιακή εργασία
Α.Τ.ΕΙ ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΠΟΛΥΜΕΣΩΝ. ΕΡΓΑΣΤΗΡΙΟ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ
Α.Τ.ΕΙ ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΠΟΛΥΜΕΣΩΝ. ΕΡΓΑΣΤΗΡΙΟ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΕΚΜΑΘΗΣΗ ΤΑ ΔΙΚΤΥΑ KOHONEN A. ΕΙΣΑΓΩΓΗ Στα προβλήματα που έχουμε αντιμετωπίσει μέχρι τώρα
7 η διάλεξη Ακολουθιακά Κυκλώματα
7 η διάλεξη Ακολουθιακά Κυκλώματα 1 2 3 4 5 6 7 Παραπάνω βλέπουμε ακολουθιακό κύκλωμα σχεδιασμένο με μανταλωτές διαφορετικής φάσης. Παρατηρούμε ότι συνδυαστική λογική μπορεί να προστεθεί μεταξύ και των
Αριθμητική Ανάλυση και Εφαρμογές
Αριθμητική Ανάλυση και Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 07-08 Πεπερασμένες και Διαιρεμένες Διαφορές Εισαγωγή Θα εισάγουμε την έννοια των διαφορών με ένα
E [ -x ^2 z] = E[x z]
1 1.ΦΙΛΤΡΟ KALMAN ΔΙΑΚΡΙΤΟΥ ΧΡΟΝΟΥ Σε αυτήν την διάλεξη θα πάμε στο φίλτρο με περισσότερες λεπτομέρειες, και θα παράσχουμε μια νέα παραγωγή για το φίλτρο Kalman, αυτή τη φορά βασισμένο στην ιδέα της γραμμικής
Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων
Μάθηση και Γενίκευση Το Πολυεπίπεδο Perceptron (MultiLayer Perceptron (MLP)) Έστω σύνολο εκπαίδευσης D={(x n,t n )}, n=1,,n. x n =(x n1,, x nd ) T, t n =(t n1,, t np ) T Θα πρέπει το MLP να έχει d νευρώνες
ΠΡΟΣΕΓΓΙΣΗ ΚΑΙ ΑΝΑΠΑΡΑΣΤΑΣΗ ΔΕΔΟΜΕΝΩΝ ΜΙΑΣ ΔΙΑΣΤΑΣΗΣ ΜΕ ΣΥΝΔΥΑΣΜΟ MLP ΚΑΙ RBF ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ Η ΜΕΤΑΠΤΥΧΙΑΚΗ ΕΡΓΑΣΙΑ ΕΞΕΙΔΙΚΕΥΣΗΣ.
ΠΡΟΣΕΓΓΙΣΗ ΚΑΙ ΑΝΑΠΑΡΑΣΤΑΣΗ ΔΕΔΟΜΕΝΩΝ ΜΙΑΣ ΔΙΑΣΤΑΣΗΣ ΜΕ ΣΥΝΔΥΑΣΜΟ MLP ΚΑΙ RBF ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ Η ΜΕΤΑΠΤΥΧΙΑΚΗ ΕΡΓΑΣΙΑ ΕΞΕΙΔΙΚΕΥΣΗΣ Υποβάλλεται στην ορισθείσα από την Γενική Συνέλευση Ειδικής Σύνθεσης
ΑΝΑΛΥΤΙΚΟ ΠΡΟΓΡΑΜΜΑ B ΤΑΞΗΣ. χρησιμοποιήσουμε καθημερινά φαινόμενα όπως το θερμόμετρο, Θετικοί-Αρνητικοί αριθμοί.
ΑΝΑΛΥΤΙΚΟ ΠΡΟΓΡΑΜΜΑ B ΤΑΞΗΣ ΑΛΓΕΒΡΑ (50 Δ. ώρες) Περιεχόμενα Στόχοι Οδηγίες - ενδεικτικές δραστηριότητες Οι μαθητές να είναι ικανοί: Μπορούμε να ΟΙ ΑΚΕΡΑΙΟΙ ΑΡΙΘΜΟΙ χρησιμοποιήσουμε καθημερινά φαινόμενα
Μαθηματική Εισαγωγή Συναρτήσεις
Φυσικός Ραδιοηλεκτρολόγος (MSc) ο Γενικό Λύκειο Καστοριάς Καστοριά, Ιούλιος 14 A. Μαθηματική Εισαγωγή Πράξεις με αριθμούς σε εκθετική μορφή Επίλυση βασικών μορφών εξισώσεων Συναρτήσεις Στοιχεία τριγωνομετρίας
Αριθμητική Ανάλυση και Εφαρμογές
Αριθμητική Ανάλυση και Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 07-08 Αριθμητική Παραγώγιση Εισαγωγή Ορισμός 7. Αν y f x είναι μια συνάρτηση ορισμένη σε ένα διάστημα
Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος
Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος Χιωτίδης Γεώργιος Τμήμα Λογιστικής και Χρηματοοικονομικής Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης
Neural Networks: Neural Model
Neural Networks: Neural Model M.Sc in Bioinformatics and Neuroinformatics Recording and Processing of Brain Signal 2 nd Lecture Part 2 Antonia Plerou Φυσικός Νευρώνας Κυτταρικό σώμα: Περιλαμβάνει τον πυρήνα
ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ
ΘΕΜΑ ο 2.5 µονάδες ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 7 Ιανουαρίου 2005 ιάρκεια εξέτασης: 5:00-8:00 Έστω ότι
Σήματα και Συστήματα. Διάλεξη 9: Μελέτη ΓΧΑ Συστημάτων με τον Μετασχηματισμό Fourier. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής
Σήματα και Συστήματα Διάλεξη 9: Μελέτη ΓΧΑ Συστημάτων με τον Μετασχηματισμό Fourier Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής 1 Μελέτη ΓΧΑ Συστημάτων με τον Μετασχηματισμό Fourier 1. Μετασχηματισμός Fourier
ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ
ΘΕΜΑ ο (2.5 µονάδες) ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 26 Ιανουαρίου 2004 ιάρκεια: 2 ώρες (9:00-:00) Στην παρακάτω
Θέματα Προγραμματισμού Η/Υ
Πρόγραμμα Μεταπτυχιακών Σπουδών Πληροφορική και Υπολογιστική Βιοϊατρική Θέματα Προγραμματισμού Η/Υ Ενότητα 1: Εισαγωγή Θεματική Ενότητα: Εισαγωγή στον Προγραμματισμό ΘΕΜΑΤΑ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΥ Η/Υ Θεματική
όπου Η μήτρα ή πίνακας του συστήματος
Έστω το γραμμικό σύστημα: Το ίδιο σύστημα σε μορφή πινάκων: 3 5 7 3 2 y x y x B X y x 3 7 5 3 2 όπου Η μήτρα ή πίνακας του συστήματος B Η μήτρα ή πίνακας των σταθερών όρων X Η μήτρα ή πίνακας των αγνώστων
HY213. ΑΡΙΘΜΗΤΙΚΗ ΑΝΑΛΥΣΗ ΕΛΑΧΙΣΤΑ ΤΕΤΡΑΓΩΝΑ AΝΑΛΥΣΗ ΙΔΙΑΖΟΥΣΩΝ ΤΙΜΩΝ
HY3. ΑΡΙΘΜΗΤΙΚΗ ΑΝΑΛΥΣΗ ΕΛΑΧΙΣΤΑ ΤΕΤΡΑΓΩΝΑ AΝΑΛΥΣΗ ΙΔΙΑΖΟΥΣΩΝ ΤΙΜΩΝ Π. ΤΣΟΜΠΑΝΟΠΟΥΛΟΥ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΙΑΣ ΤΜΗΜΑ ΗΛΕΚΤΡΟΛΟΓΩΝ ΜΗΧΑΝΙΚΩΝ & ΜΗΧΑΝΙΚΩΝ ΥΠΟΛΟΓΙΣΤΩΝ Μέθοδος ελαχίστων τετραγώνων Τα σφάλματα
οµή δικτύου ΣΧΗΜΑ 8.1
8. ίκτυα Kohonen Το µοντέλο αυτό των δικτύων προτάθηκε το 1984 από τον Kοhonen, και αφορά διαδικασία εκµάθησης χωρίς επίβλεψη, δηλαδή δεν δίδεται καµία εξωτερική επέµβαση σχετικά µε τους στόχους που πρέπει
1. ΕΙΣΑΓΩΓΗ ΣΤΟ MATLAB... 13
ΠΙΝΑΚΑΣ ΠΕΡΙΕΧΟΜΕΝΩΝ 1. ΕΙΣΑΓΩΓΗ ΣΤΟ MATLAB... 13 1.1. Τι είναι το Matlab... 13 1.2. Περιβάλλον εργασίας... 14 1.3. Δουλεύοντας με το Matlab... 16 1.3.1. Απλές αριθμητικές πράξεις... 16 1.3.2. Σχόλια...
Εισαγωγή στην Στατιστική (ΔΕ200Α-210Α)
Τμήμα Διοίκησης Επιχειρήσεων (Αγ. Νικόλαος), Τ.Ε.Ι. Κρήτης Σελίδα 1 από 13 5η Εργαστηριακή Άσκηση Σκοπός: Η παρούσα εργαστηριακή άσκηση στοχεύει στην εκμάθηση κατασκευής γραφημάτων που θα παρουσιάζουν
ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ 2012
ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ Δίνονται τα εξής πρότυπα: [ ] [ ] [ ] [ ] Άσκηση η (3 μονάδες) Χρησιμοποιώντας το κριτήριο της ομοιότητας να απορριφθεί ένα χαρακτηριστικό με βάση το συντελεστή συσχέτισης. (γράψτε ποιο
Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα
KEΣ 3 Αναγνώριση Προτύπων και Ανάλυση Εικόνας Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα ΤµήµαΕπιστήµης και Τεχνολογίας Τηλεπικοινωνιών Πανεπιστήµιο Πελοποννήσου Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος
Εφαρμοσμένα Μαθηματικά ΙΙ 9ο Σετ Ασκήσεων (Λύσεις) Διανυσματικοί Χώροι
Εφαρμοσμένα Μαθηματικά ΙΙ 9ο Σετ Ασκήσεων (Λύσεις) Διανυσματικοί Χώροι Επιμέλεια: Ι. Λυχναρόπουλος. Δείξτε ότι ο V R εφοδιασμένος με τις ακόλουθες πράξεις (, a b) + (, d) ( a+, b+ d) και k ( ab, ) ( kakb,
PROJECT ΣΤΟ ΜΑΘΗΜΑ "ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟΔΟΥΣ"
ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ Η/Υ ΚΑΙ ΠΛΗΡΟΦΟΡΙΚΗΣ PROJECT ΣΤΟ ΜΑΘΗΜΑ "ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟΔΟΥΣ" ΜΕΡΟΣ ΤΡΙΤΟ Υπεύθυνος Καθηγητής Λυκοθανάσης Σπυρίδων Ακαδημαικό Έτος: 2011-2012
Οι Εξελικτικοί Αλγόριθμοι (ΕΑ) είναι καθολικοί στοχαστικοί αλγόριθμοι βελτιστοποίησης, εμπνευσμένοι από τις βασικές αρχές της φυσικής εξέλιξης.
Οι Εξελικτικοί Αλγόριθμοι (ΕΑ) είναι καθολικοί στοχαστικοί αλγόριθμοι βελτιστοποίησης, εμπνευσμένοι από τις βασικές αρχές της φυσικής εξέλιξης. Ένα από τα γνωστότερα παραδείγματα των ΕΑ είναι ο Γενετικός
ΣΗΜΑΤΑ ΚΑΙ ΣΥΣΤΗΜΑΤΑ Ι
ΣΗΜΑΤΑ ΚΑΙ ΣΥΣΤΗΜΑΤΑ Ι Προσέγγιση και Ομοιότητα Σημάτων Επιμέλεια: Πέτρος Π. Γρουμπός Καθηγητής Γεώργιος Α. Βασκαντήρας Υπ. Διδάκτορας Τμήμα Ηλεκτρολόγων Μηχανικών & Τεχνολογίας Υπολογιστών Άδειες Χρήσης
Στοχαστικές Στρατηγικές. διαδρομής (1)
Στοχαστικές Στρατηγικές η ενότητα: Το γενικό πρόβλημα ελάχιστης διαδρομής () Τμήμα Μαθηματικών, ΑΠΘ Ακαδημαϊκό έτος 08-09 Χειμερινό Εξάμηνο Παπάνα Αγγελική Μεταδιδακτορική ερευνήτρια, ΑΠΘ & Πανεπιστήμιο
ΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ
ηµήτρης Ψούνης ΠΛΗ3, Απαντήσεις Quiz σε ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ Μάθηµα 3. ΕΡΩΤΗΜΑ Ένας αισθητήρας µπορεί να µάθει: a. εδοµένα που ανήκουν σε 5 διαφορετικές κλάσεις. b. εδοµένα που ανήκουν
ΚΑΤΗΓΟΡΙΕΣ ΤΑΞΙΝΟΜΗΣΗΣ
ΚΑΤΗΓΟΡΙΕΣ ΤΑΞΙΝΟΜΗΣΗΣ Κατευθυνόμενη ταξινόμηση (supervsed cassfcaton) Μη-κατευθυνόμενη ταξινόμηση (unsupervsed cassfcaton) Γραμμική: Lnear Dscrmnant Anayss Μη- Γραμμική: Νευρωνικά δίκτυα κλπ. Ιεραρχική
Αριθμητικές Μέθοδοι σε Προγραμματιστικό Περιβάλλον
Τμήμα Μηχανικών Πληροφορικής Αριθμητικές Μέθοδοι σε Προγραμματιστικό Περιβάλλον Δρ. Δημήτρης Βαρσάμης Επίκουρος Καθηγητής Οκτώβριος 2014 Δρ. Δημήτρης Βαρσάμης Οκτώβριος 2014 1 / 42 Αριθμητικές Μέθοδοι
I. ΜΙΓΑΔΙΚΟΙ ΑΡΙΘΜΟΙ. math-gr
I ΜΙΓΑΔΙΚΟΙ ΑΡΙΘΜΟΙ i e ΜΕΡΟΣ Ι ΟΡΙΣΜΟΣ - ΒΑΣΙΚΕΣ ΠΡΑΞΕΙΣ Α Ορισμός Ο ορισμός του συνόλου των Μιγαδικών αριθμών (C) βασίζεται στις εξής παραδοχές: Υπάρχει ένας αριθμός i για τον οποίο ισχύει i Το σύνολο
Λύσεις θεμάτων εξεταστικής περιόδου Ιανουαρίου Φεβρουαρίου 2015
Λύσεις θεμάτων εξεταστικής περιόδου Ιανουαρίου Φεβρουαρίου 205 ΘΕΜΑ Ο (2,0 μονάδες) Ο ηλεκτρικός θερμοσίφωνας χρησιμοποιείται για τη θέρμανση νερού σε μια προκαθορισμένη επιθυμητή θερμοκρασία (θερμοκρασία
Τεχνητά Νευρωνικά Δίκτυα
Τεχνητά Νευρωνικά Δίκτυα & εφαρμογή τους στην πρόγνωση καιρού Πτυχιακή Εργασία Όνομα: Ανδρέας Φωτέας ΑΜ: 200600226 Επιβλέπων: Εμμανουήλ Τσίλης 2 Περιεχόμενα 1. Αρχές Λειτουργίας...7 1.1 Η δομή ενός νευρωνικού