ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ HOPFIELD ΚΑΙ KOHONEN

Μέγεθος: px
Εμφάνιση ξεκινά από τη σελίδα:

Download "ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ HOPFIELD ΚΑΙ KOHONEN"

Transcript

1 ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΗΛΕΚΤΡΟΝΙΚΩΝ ΥΠΟΛΟΓΙΣΤΩΝ ΚΑΙ ΠΛΗΡΟΦΟΡΙΚΗΣ ΕΡΓΑΣΤΗΡΙΟ ΑΝΑΓΝΩΡΙΣΗΣ ΠΡΟΤΥΠΩΝ ΣΥΜΠΛΗΡΩΜΑΤΙΚΕΣ ΣΗΜΕΙΩΣΕΙΣ ΓΙΑ ΤΟ ΜΑΘΗΜΑ ΥΠΟΛΟΓΙΣΤΙΚΗ ΝΟΗΜΟΣΥΝΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ HOPFIELD ΚΑΙ KOHONEN Σπυρίδων Λυκοθανάσης Καθηγητής, Τμήμα Μηχανικών Η/Υ και Πληροφορικής Πανεπιστημίου Πατρών ΠΑΤΡΑ 2007

2 2 5. Δίκτυα Hopfield Τα δίκτυα Hopfield ανήκουν στην κατηγορία των αναδρομικών Νευρωνικά Δικτύων. Ένα αναδρομικό Νευρωνικό Δίκτυο έχει εκτός από τις προς τα εμπρός και προς τα πίσω συνδέσεις. Έχει δηλαδή βρόγχους αναδρομής από τις εξόδους του προς τις εισόδους του. Η παρουσία τέτοιων βρόγχων έχει ισχυρή επίπτωση στην ικανότητα μάθησης του δικτύου. Ένα αναδρομικό Νευρωνικό Δίκτυο, λοιπόν, μαθαίνει ως εξής: αφού εφαρμοστεί μια είσοδος υπολογίζεται η έξοδος του δικτύου η οποία στη συνέχεια ανατροφοδοτείται ως είσοδος στο δίκτυο. Υπολογίζεται η νέα έξοδος του δικτύου και η διαδικασία επαναλαμβάνεται έως ότου η έξοδος του δικτύου γίνει σταθερή (πάψει να μεταβάλλεται). Βέβαια δεν γίνεται πάντα η έξοδος του δικτύου σταθερή. Η παραπάνω διαδικασία που περιγράψαμε δεν εξασφαλίζει πάντα ότι σε κάθε επανάληψη οι μεταβολές στην έξοδο του δικτύου θα είναι ολοένα και μικρότερες έτσι ώστε σε κάποια χρονική στιγμή η έξοδος να πάψει να μεταβάλλεται. Αντιθέτως, είναι πολύ πιθανόν να οδηγήσει σε μια χαοτική συμπεριφορά του δικτύου. Στην περίπτωση αυτή η έξοδος του δικτύου δεν γίνεται ποτέ σταθερή και τότε λέμε ότι το δίκτυο είναι ασταθές. Η ευστάθεια των αναδρομικών Νευρωνικών Δικτύων αποτέλεσε αντικείμενο έρευνας πολλών ερευνητών του χώρου στις δεκαετίες του 960 και 970. Παρόλα αυτά, κανείς δεν κατάφερε να προβλέψει πιο αναδρομικό δίκτυο θα μπορούσε να ήταν ευσταθές, με αποτέλεσμα πολλοί από αυτούς να εκφράζουν μια απαισιοδοξία για το εάν τελικά θα μπορούσε να βρεθεί μια λύση σε αυτό το πρόβλημα. Η λύση όμως ήρθε το 982, όταν ο John Hopfield διατύπωσε τη φυσική αρχή της αποθήκευσης πληροφορίας σε ένα δυναμικά ευσταθές δίκτυο [Hopfield, 982]. Στο σχήμα 5. απεικονίζεται ένα δίκτυο Hopfield ενός επιπέδου το οποίο αποτελείται από n υπολογιστικούς νευρώνες. Η έξοδος κάθε νευρώνα ανατροφοδοτείται ως είσοδος σε όλους τους υπόλοιπους νευρώνες (στα δίκτυα Hopfield δεν υπάρχει αυτό ανατροφοδότηση). Οι υπολογιστικοί νευρώνες που χρησιμοποιούνται ακολουθούν συνήθως το μοντέλο McCulloch Pitts με συνάρτηση ενεργοποίησης την συνάρτηση προσήμου (sign function).

3 3 y x y 2 x 2 y i x i y n x n Σχήμα 5. Ένα Δίκτυο Hopfield ενός επιπέδου με n νευρώνες Η λειτουργία ενός νευρώνα k που χρησιμοποιεί τη συνάρτηση προσήμου περιγράφεται από τις ακόλουθες σχέσεις: m υ = wx (5.) k k = 0 y k +, υk > 0 = ϕυ ( k) =, υk < 0, (5.2) yk, υk = 0 Δηλαδή, η έξοδος του νευρώνα γίνεται + (ο νευρώνας μεταβαίνει σε κατάσταση +) εάν το δυναμικό ενεργοποίησης υk του νευρώνα είναι μεγαλύτερο του 0, - (μετάβαση σε κατάσταση -) εάν το υk είναι μικρότερο του μηδέν και παραμένει αμετάβλητη (ο νευρώνας παραμένει στην προηγούμενή του κατάσταση) εάν το υk είναι ίσο με το μηδέν. Μια άλλη συνάρτηση ενεργοποίησης που μπορεί να χρησιμοποιηθεί αντί της συνάρτησης προσήμου είναι η κορεσμένη γραμμική συνάρτηση (saturated linear function), η οποία συμπεριφέρεται ως καθαρά γραμμική συνάρτηση στο διάστημα (, +) και ως συνάρτηση προσήμου οπουδήποτε αλλού. Στην περίπτωση αυτή η έξοδος του δικτύου δίνεται από τη σχέση: +, υk + = ϕυ ( ) =, υk υk, -< υk < + y k k (5.3)

4 4 Η τρέχουσα κατάσταση του δικτύου καθορίζεται από τις τρέχουσες εξόδους όλων των νευρώνων y, y 2,, y n του δικτύου. Έτσι, για την περίπτωση ενός δικτύου Hopfield ενός επιπέδου που αποτελείται από n νευρώνες η κατάσταση περιγράφεται από το ακόλουθο διάνυσμα κατάστασης (state vector): Y y y M yn 2 = (5.4) Στα δίκτυα Hopfield τα βάρη μεταξύ των νευρώνων συνηθίζεται να αναπαριστώνται με τη μορφή πινάκων. Έτσι, ο πίνακας των βαρών ενός δικτύου Hopfield υπολογίζεται ως εξής: M m= W= Y Y -M I, (5.5) m T m Όπου M είναι ο αριθμός των καταστάσεων που θα απομνημονευθούν από το δίκτυο, Y m είναι το n-διάστατο δυαδικό διάνυσμα και I είναι ο (n x n) ταυτοτικός πίνακας (Identity Matrix). Σχήμα 5.2 Αναπαράσταση των δυνατών καταστάσεων ενός δικτύου Hopfield με τρεις νευρώνες Η λειτουργία ενός δικτύου Hopfield μπορεί να αναπαρασταθεί γεωμετρικά. Στο σχήμα 5.2 απεικονίζονται οι δυνατές καταστάσεις που μπορεί να πάρει ένα δίκτυο με 3 νευρώνες και οι οποίες αναπαρίστανται στον τρισδιάστατο χώρο ως κύβος. Γενικά, ένα

5 5 δίκτυο Hopfield με n νευρώνες μπορεί να βρεθεί σε 2 n δυνατές καταστάσεις και να αναπαρασταθεί με ένα n-διάστατο υπέρ-κύβο. Όπως μπορούμε να δούμε στο σχήμα 5.2 κάθε κατάσταση του δικτύου απεικονίζεται από μια κορυφή του υπέρ-κύβου. Όταν εφαρμόζεται ένα νέο διάνυσμα εισόδου, τότε το δίκτυο μετακινείται από μία κατάσταση κορυφή σε μία άλλη έως ότου σταθεροποιηθεί. Η σταθερή κατάσταση κορυφή καθορίζεται από τον πίνακα των βαρών W, το τρέχον διάνυσμα εισόδου Χ και από τον πίνακα των κατωφλίων θ. Εάν στο δίκτυο εισάγουμε ένα διάνυσμα το οποίο είναι μερικώς λανθασμένο ή κατεστραμμένο τότε το δίκτυο θα συγκλίνει σε μία σταθερή κατάσταση μετά από έναν αριθμό επαναλήψεων. Οι σταθερές καταστάσεις πολλές φορές ονομάζονται και βασικές μνήμες (fundamental memories). Αφού αποθηκεύσουμε τα διανύσματα που επιθυμούμε να απομνημονεύσει το δίκτυο, στη συνέχεια μπορούμε να το δοκιμάσουμε. Αυτό γίνεται ως εξής: Αρχικά ενεργοποιούμε το δίκτυο εισάγοντας το διάνυσμα εισόδου Χ. Στη συνέχεια υπολογίζουμε το διάνυσμα εξόδου Y. Y =sign( W X -θ), m=,2,...,m, (5.6) m m όπου θ είναι ο πίνακας των κατωφλίων. Τέλος συγκρίνουμε το αποτέλεσμα (δηλαδή το διάνυσμα εξόδου Y) με το διάνυσμα X στην είσοδο. Στη συνέχεια θα παρουσιάσουμε μια σύνοψη του αλγορίθμου εκπαίδευσης των δικτύων Hopfield [Negnevitsky, 2002]. Σύνοψη του αλγορίθμου εκπαίδευση του δικτύου Hopfield Βήμα ο : Αποθήκευση Έστω ότι έχουμε ένα δίκτυο Hopfield με n νευρώνες στο οποίο επιθυμούμε να αποθηκεύσουμε ένα σύνολο από M διανύσματα σταθερές καταστάσεις (βασικές μνήμες): Y, Y 2,, Y M. Τα συναπτικά βάρη από τον νευρώνα i στον νευρώνα υπολογίζονται ως εξής: M y y, i mi, m, w i = m=, (5.7) 0, i = όπου y m,i και y m, είναι τα i-οστο και -οστό στοιχείο του διανύσματος Y m, αντίστοιχα. Σε μορφή πίνακα τα συναπτικά βάρη μπορούν να αναπαρασταθούν ως εξής:

6 6 M m= W= Y Y -M I (5.8) m T m Το δίκτυο Hopfield μπορεί να αποθηκεύσει ένα σύνολο από βασικές μνήμες (διανύσματα) εάν ο πίνακας των βαρών του είναι συμμετρικός και όλα τα στοιχεία της κύριας διαγωνίου του είναι ίσα με το μηδέν. Δηλαδή ο πίνακας των βαρών του δικτύου Hopfield θα πρέπει να έχει τη μορφή: 0 w2 L w i L w n w2 0 w2i w L L 2n M M M M M M W =, (5.9) wi wi2 L 0 L win M M M M M M wn wn2 L wni L 0 w = w. όπου i i Στο δίκτυο Hopfield τα βάρη υπολογίζονται μόνο μία φορά, κατά τη φάση της αποθήκευσης. Από τη στιγμή που υπολογιστούν δεν μεταβάλλονται και παραμένουν σταθερά. Βήμα 2 ο : Δοκιμή Αφού αποθηκεύσουμε τις βασικές μνήμες, στη συνέχεια, είναι απαραίτητο να επιβεβαιώσουμε ότι το δίκτυο Hopfield είναι ικανό να ανακαλέσει από τη «μνήμη» όλες τις βασικές μνήμες. Με άλλα λόγια, το δίκτυο θα πρέπει να είναι ικανό να ανακαλέσει κάθε διάνυσμα (βασική μνήμη) Y m, όταν αυτό παρουσιάζεται στην είσοδό του. Δηλαδή: x = y mi, mi,, i=,2,...,n και m=,2,...,m n ym, = sign wi xm, i θ, (5.0) i= όπου το y m, είναι το -στο στοιχείο του διανύσματος εξόδου Y m και το x m,i είναι το i-οστό στοιχείο του διανύσματος εισόδου X m. Οι παραπάνω σχέσεις σε μορφή πινάκων γίνονται: X m =Y m, m=,2,...,m m ( ) Y =sign W X -θ (5.) m Εάν όλες οι βασικές μνήμες ανακαλούνται τέλεια τότε μπορούμε να συνεχίσουμε με το επόμενο βήμα.

7 7 Βήμα 3 ο : Ανάκτηση Παρουσιάζουμε ένα άγνωστο n-διάστατο διάνυσμα X στο δίκτυο και ανακαλούμε μια σταθερή κατάσταση. Συνήθως το διάνυσμα αυτό είναι μία «φθαρμένη» ή ατελής εκδοχή μιας βασικής μνήμης. Δηλαδή: X Y m, m=,2,...,m a. Αρχικοποιούμε τον αλγόριθμο ανάκλησης του δικτύου Hopfield θέτοντας: x i ( ) 0 = x, i=,2,...,n (5.2) i και υπολογίζουμε την αρχική κατάσταση κάθε νευρώνα: όπου ( 0) i n y( 0) = sign wi xi( 0 ) θ, =,2,...,n (5.3) i= x είναι το i-οστό στοιχείο του διανύσματος X στην επανάληψη p=0, και y ( 0) είναι η κατάσταση του νευρώνα στην επανάληψη p=0. Σε μορφή πινάκων το διάνυσμα κατάστασης στην επανάληψη p=0 υπολογίζεται ως εξής: Y(0) = sign( W X(0) - θ ) (5.4) όπου X(0)=X. b. Ενημερώνουμε τα στοιχεία του διανύσματος κατάστασης Y(p), σύμφωνα με τον ακόλουθο κανόνα: n y( p+ ) = sign wi xi( p) θ, =,2,...,n (5.5) i= όπου x ( p) = y ( p), i=,2,...,n i i Σε μορφή πινάκων η σχέση γίνεται: Y(p +) = sign( W X(p) - θ ), (5.6) όπου X(p)=Y(p) Οι νευρώνες προς ενημέρωση επιλέγονται ασύγχρονα, δηλαδή τυχαία και ένας κάθε φορά. Η διαδικασία επαναλαμβάνεται έως ότου το διάνυσμα κατάστασης πάψει να μεταβάλλεται, δηλαδή έως ότου επιτευχθεί μια σταθερή κατάσταση. Η συνθήκη για την ισορροπία (ευστάθεια σταθερότητα) του δίκτυου μπορεί να ορισθεί ως εξής:

8 8 ( ) ( ) y p+ = y p, =,2,...,n (5.7) i Ή σε μορφή πίνακα ως εξής: Y(p +) = Y(p) (5.8) Περιορισμοί των δικτύων Hopfield Το δίκτυο Hopfield θα συγκλίνει πάντα σε μια σταθερή κατάσταση (κατάσταση ισορροπίας) εάν η ανάκτηση γίνεται ασύγχρονα [Haykin, 994]. Ωστόσο, τίποτα δεν εξασφαλίζει ότι αυτή η σταθερή κατάσταση θα είναι μία από τις βασικές μνήμες που έχουν αποθηκευτεί στο δίκτυο και ακόμα και αν είναι βασική μνήμη δεν θα είναι αναγκαστικά η πλησιέστερη προς το διάνυσμα εισόδου. Παράδειγμα Έστω ότι θέλουμε να αποθηκεύσουμε τις παρακάτω βασικές μνήμες σε ένα δίκτυο Hopfield με 5 νευρώνες. X X X 2 3 [ ] [ ] [ ] = = = + + Χρησιμοποιώντας την εξίσωση 3 Τ Τ Τ W= X X -M I= X X + X X + X X M I m= m T T T T m υπολογίζουμε τον πίνακα των βαρών, που είναι: W = Έστω ότι στην είσοδο του δικτύου παρουσιάζεται το διάνυσμα: X [ ] = , Τ Συγκρίνοντας το διάνυσμα Χ με τη βασική μνήμη Χ παρατηρούμε ότι διαφέρουν μόλις σε ένα ψηφίο. Οπότε αναμένουμε ότι εισάγοντας το διάνυσμα Χ στο δίκτυο Hopfield αυτό θα συγκλίνει στην κατάσταση Χ. Ωστόσο εφαρμόζοντας τον αλγόριθμο

9 9 εκπαίδευσης που περιγράψαμε παραπάνω παρατηρούμε ότι το δίκτυο ανακαλεί τη βασική μνήμη Χ 3, η οποία διαφέρει σε 2 ψηφία από το Χ και όχι το Χ όπως αναμενόταν. Το παραπάνω παράδειγμα αποκάλυψε ένα από τα προβλήματα που είναι εγγενή στα δίκτυα Hopfield. Ένα άλλο πρόβλημα που αντιμετωπίζουμε όταν εφαρμόζουμε τα δίκτυα Hopfield είναι η αποθηκευτική χωρητικότητα (storage capacity), ο μέγιστος, δηλαδή, αριθμός διανυσμάτων που μπορούν να αποθηκευτούν και να ανακληθούν χωρίς σφάλμα. Ο Hopfield έδειξε πειραματικά [Hopfield, 982] ότι ο μέγιστος αριθμός βασικών μνημών M max που μπορούν να αποθηκευτούν σε ένα αναδρομικό δίκτυο με n νευρώνες δίνεται από τη σχέση (δεν μας ενδιαφέρει αν στην ανάκληση έχουμε λάθη): M max = 0.5 n (5.9) Η μέγιστη αποθηκευτική χωρητικότητα των δικτύων Hopfield μπορεί να ορισθεί και στη βάση του ότι επιθυμούμε οι περισσότερες από της βασικές μνήμες να μπορεί να ανακληθούν χωρίς σφάλμα [Amit, 989; Negnevitsky, 2002]: M max n = (5.20) 2ln n Στην περίπτωση, τώρα, που επιθυμούμε όλες οι βασικές μνήμες, που έχουν αποθηκευτεί σε ένα δίκτυο Hopfield με n νευρώνες, να μπορούν να ανακληθούν τέλεια (χωρίς κανένα σφάλμα) τότε το M max γίνεται [Amit, 989; Negnevitsky, 2002]: M max n = (5.2) 4ln n Παρατηρούμε, λοιπόν, ότι η αποθηκευτική χωρητικότητα ενός δικτύου Hopfield πρέπει να κρατιέται αρκετά χαμηλά προκειμένου να μπορούμε να ανακαλέσουμε χωρίς σφάλμα τις βασικές μνήμες. Αυτό αποτελεί ένα πολύ σημαντικό περιορισμό των δικτύων Hopfield. Από τη συζήτηση που κάναμε έως τώρα παρατηρούμε ότι ένα δίκτυο Hopfield αντιπροσωπεύει, βασικά, ένα τύπο αυτοσυσχετιστικής (auto-associative) μνήμης. Με άλλα λόγια, ένα δίκτυο Hopfield μπορεί να ανακαλέσει μια φθαρμένη ή ατελή μνήμη αλλά δεν μπορεί να συσχετίσει μια μνήμη με κάποια άλλη διαφορετική. Σε αντίθεση με τα δίκτυα Hopfield, η ανθρώπινη μνήμη είναι βασικά συσχετιστική: ένα πράγμα μπορεί να μας θυμίσει κάποιο άλλο, και αυτό κάποιο άλλο κ.ο.κ. Αυτή τη λειτουργία την επιτελεί μια άλλη κατηγορία αναδρομικών δικτύων που αποκαλείται Συσχετιστική

10 0 Μνήμη Διπλής Κατεύθυνσης (Bidirectional Associative Memory) [Kosko, 987; 988] και η οποία βασίζεται στη φιλοσοφία λειτουργίας των δικτύων Hopfield. Άσκηση αυτοαξιολόγησης : Έστω ότι θέλουμε να αποθηκεύσουμε τα ακόλουθα διανύσματα (βασικές μνήμες): + X και = + X 2 = + σε ένα δίκτυο Hopfield. Θεωρείστε ότι τα κατώφλια είναι ίσα με το μηδέν. a. Ποια πρέπει να είναι η αρχιτεκτονική του δικτύου Hopfield που θα χρησιμοποιηθεί; b. Υπολογίστε τον πίνακα των βαρών αυτού του δικτύου. c. Εξακριβώστε αν τα δύο διανύσματα έχουν αποθηκευτεί σωστά. Απάντηση a. Εφόσον τα διανύσματα που θέλουμε να αποθηκεύσουμε έχουν διάσταση 3, το δίκτυο Hopfield που θα χρησιμοποιηθεί θα πρέπει να αποτελείται από 3 νευρώνες. b. Ο πίνακας των βαρών του δικτύου υπολογίζεται ως εξής: 2 T T T m m 2 2 m= W= X X -M I=X X +X X -2 I W = [ ] [ ] = c. Στη συνέχεια δοκιμάζουμε αν τα δύο διανύσματα έχουν αποθηκευτεί σωστά. Έτσι έχουμε: Y ( ) = sign( ) sign( 4 ) = sign W X -θ + = = + = X και Y ( 2 ) sign( ) sign( 2 = sign W X -θ = = 4 ) = = X

11 6. Δίκτυα Kohonen Οι αλγόριθμοι για τους οποίους έχουμε μιλήσει έως τώρα ανήκουν στην κατηγορία της επιβλεπόμενης μάθησης (supervised learning), δηλαδή της εκπαίδευσης με τη χρήση «δασκάλου» (για κάθε είσοδο στο σύνολο εκπαίδευσης γνωρίζουμε και την αντίστοιχη έξοδο). Στο κεφάλαιο αυτό θα αναφερθούμε σε μια κατηγορία δικτύων και σε έναν αλγόριθμο που ανήκουν στην κατηγορία της μη-επιβλεπόμενης μάθησης (un-supervised learning), δηλαδή της μάθησης χωρίς την παρουσία «δασκάλου». Αυτά τα δίκτυα είναι ιδιαίτερα χρήσιμα στην περίπτωση κατηγοριοποίησης προτύπων σε γενικές κατηγορίες (pattern clustering) όταν δεν γνωρίζουμε από πριν ποιες ακριβώς είναι αυτές οι κατηγορίες. Δηλαδή αφήνουμε το Νευρωνικό Δίκτυο να «αποφασίσει» ποιες είναι οι κατηγορίες και να αντιστοιχήσει τα δείγματα εισόδου σε κάθε μία από αυτές. Ειδικότερα, θα αναφερθούμε σε ένα συγκεκριμένο είδος μη-επιβλεπόμενης μάθησης, την ανταγωνιστική μάθηση (competitive learning). Στην ανταγωνιστική μάθηση οι νευρώνες ανταγωνίζονται μεταξύ τους για το ποιος θα ενεργοποιηθεί. Ενώ σε άλλα είδη μάθησης (για παράδειγμα στη μάθηση Hebb) μπορούν να ενεργοποιούνται ταυτόχρονα περισσότεροι του ενός νευρώνες, στην ανταγωνιστική μάθηση μόνο ένας νευρώνας μπορεί να είναι ενεργός κάθε φορά. Ο νευρώνας αυτός που «κερδίζει τον ανταγωνισμό» ονομάζεται «winner-takes-all neuron». Η βασική ιδέα της ανταγωνιστικής μάθησης έχει της «ρίζες» της στη δεκαετία του 970, όμως για πρώτη φορά έτυχε της προσοχής της ακαδημαϊκής και ερευνητικής κοινότητας στα τέλη της δεκαετίας του 980, όταν ο Teuvo Kohonen παρουσίασε μια ειδική τάξη τεχνητών Νευρωνικών Δικτύων τα οποία ονόμασε αυτό-οργανωμένους χάρτες χαρακτηριστικών (self-organizing feature maps) [Kohonen, 989]. Τα δίκτυα αυτά βασίζονται στην ανταγωνιστική μάθηση. Τι είναι το Self-Organizing feature map Ο ανθρώπινος εγκέφαλος «κυριαρχείται» από τον εγκεφαλικό φλοιό, ο οποίος είναι μια πολύ πολύπλοκη δομή από δισεκατομμύρια νευρώνες και εκατοντάδες δισεκατομμύρια συνάψεις. Ο φλοιός στην οργάνωσή του δεν παρουσιάζει ούτε ομοιομορφία ούτε και ομοιογένεια. Περιλαμβάνει περιοχές που χαρακτηρίζονται από το «πάχος» των επιπέδων τους και τον τύπο των νευρώνων που υπάρχουν σε αυτές. Κάθε μία από τις περιοχές αυτές είναι υπεύθυνη και για μια διαφορετική ανθρώπινη λειτουργία, όπως για

12 2 παράδειγμα την όραση, την κίνηση, την ακοή κ.λπ., και κάθε μια σχετίζεται και με διαφορετικά αισθητήρια όργανα. Δηλαδή, μπορούμε να πούμε ότι κάθε διαφορετικό αισθητήριο όργανο απεικονίζεται σε μια αντίστοιχη περιοχή στον εγκεφαλικό φλοιό. Με άλλα λόγια ο φλοιός είναι ένας αυτό-οργανωμένος υπολογιστικός χάρτης (self-organizing computational map) στον ανθρώπινο εγκέφαλο. Μοντελοποίηση των αυτό-οργανωμένων χαρτών Ο Kohonen διατύπωσε την αρχή του σχηματισμού τοπογραφικού χάρτη (principle of topographic map formation) [Kohonen, 990]. Σύμφωνα με την αρχή αυτή η θέση ενός νευρώνα εξόδου σε ένα τοπογραφικό χάρτη αντιστοιχεί σε ένα συγκεκριμένο χαρακτηριστικό του προτύπου εισόδου. Ο Kohonen πρότεινε επίσης το μοντέλο της αντιστοίχησης των χαρακτηριστικών το οποίο φαίνεται στο σχήμα 6. [Kohonen, 982]. Το μοντέλο αυτό «συλλαμβάνει» τα βασικά χαρακτηριστικά των αυτό-οργανωμένων χαρτών του εγκεφάλου, παρόλα αυτά όμως μπορεί να αναπαρασταθεί και να υλοποιηθεί εύκολα σε έναν υπολογιστή. Σχήμα 6. Το δίκτυο Kohonen Το μοντέλο του Kohonen κάνει μια τοπογραφική απεικόνιση ενός συγκεκριμένου σταθερού αριθμού προτύπων εισόδου (που παρουσιάζονται στο επίπεδο εισόδου) σε ένα μεγαλύτερης διάστασης επίπεδο εξόδου, το οποίο ονομάζεται και επίπεδο Kohonen. Στο σχήμα 6. για παράδειγμα το επίπεδο Kohonen αποτελείται από ένα πλέγμα που σχηματίζεται από 4x4 νευρώνες, με κάθε νευρώνα να έχει δύο εισόδους. Ο νικητής νευρώνας απεικονίζεται με μαύρο χρώμα ενώ οι γείτονές του με γκρι. Οι γείτονες νευρώνες του νικητή νευρώνα είναι νευρώνες που βρίσκονται σε κοντινή φυσική γειτνίαση με τον νικητή νευρώνα.

13 3 Το πόσο κοντινή είναι αυτή η φυσική γειτνίαση εξαρτάται από το σχεδιαστή του δικτύου. Έτσι η γειτονιά του νικητή νευρώνα μπορεί να περιλαμβάνει νευρώνες που βρίσκονται σε ακτίνα ενός, δύο ή τριών θέσεων από αυτόν. Στο σχήμα 6. για παράδειγμα η γειτονιά του νικητή νευρώνα έχει ακτίνα (ή μέγεθος). Γενικά, κατά την εκπαίδευση ενός δικτύου Kohonen ξεκινάμε με μια γειτονιά μεγάλου μεγέθους (μεγάλη ακτίνα) και όσο προχωρά η διαδικασία της εκπαίδευσης το μέγεθος της γειτονιάς βαθμιαία μικραίνει. Αυτό μπορεί να γίνει με μια ποικιλία μεθόδων. Το δίκτυο Kohonen αποτελείται από το επίπεδο εισόδου (οι νευρώνες εισόδου δεν κάνουν καμία επεξεργασία) και από ένα επίπεδο υπολογιστικών νευρώνων, το επίπεδο Kohonen. Στο δίκτυο Kohonen, επίσης, υπάρχουν δύο είδη συνάψεων συνδέσεων:. Οι συνδέσεις προς τα εμπρός (forward connections) από τους νευρώνες εισόδου προς τους νευρώνες του επιπέδου Kohonen, και 2. Οι παράπλευρες συνδέσεις (lateral connections) μεταξύ των νευρώνων του επιπέδου εξόδου (επιπέδου Kohonen). Αυτό απεικονίζεται στο σχήμα 6.2. Οι παράπλευρες συνδέσεις χρησιμοποιούνται για να δημιουργήσουν τον ανταγωνισμό μεταξύ των νευρώνων του επιπέδου Kohonen. Ο νευρώνας με το μεγαλύτερο δυναμικό ενεργοποίησης μεταξύ όλων των νευρώνων του επιπέδου εξόδου «στέφεται» νικητής (winner-takes-all neuron). Αυτό ο νευρώνας είναι ο μόνος νευρώνας που παράγει έξοδο. Η δραστηριότητα όλων των άλλων νευρώνων καταπνίγεται μέσω του ανταγωνισμού. Σχήμα 6.2 Το δίκτυο Kohonen Όταν παρουσιάζεται στις εισόδους του δικτύου ένα δείγμα, κάθε νευρώνας στο επίπεδο Kohonen λαμβάνει ένα πλήρες αντίγραφο του δείγματος, τροποποιημένο φυσικά

14 4 από τις αντίστοιχες τιμές των βαρών στις συνδέσεις μεταξύ του επιπέδου εισόδου και του επιπέδου εξόδου. Οι παράπλευρες συνδέσεις έχουν είτε διεγερτική είτε κατασταλτική δράση ανάλογα με την απόστασή τους από τον νικητή νευρώνα. Αυτό μπορεί να επιτευχθεί με τη χρήση της συνάρτησης Mexican Hat, η οποία περιγράφει τα παράπλευρα συναπτικά βάρη μεταξύ των νευρώνων στο επίπεδο Kohonen. Η συνάρτηση Mexican Hat υπολογίζει τις τιμές των βαρών των παράπλευρων συνδέσεων συναρτήσει της απόστασης των νευρώνων από τον νικητή νευρώνα. Έτσι σύμφωνα με τη συνάρτηση αυτή η κοντινή γειτονιά γύρω από το νικητή νευρώνα έχει ισχυρή διεγερτική επίδραση, η απομακρυσμένη γειτονιά έχει μια ήπια ανασταλτική επίδραση και η πολύ απομακρυσμένη γειτονιά έχει μια αδύναμη διεγερτική επίδραση που συνήθως αγνοείται. Η συνάρτηση Mexican Hat σχηματικά αναπαρίσταται όπως φαίνεται στο σχήμα 6.3. Σχήμα 6.3 Η συνάρτηση Mexican Hat Στο δίκτυο Kohonen ένας νευρώνας μαθαίνει μετατοπίζοντας τα βάρη του από τις μη ενεργές συνδέσεις προς τις ενεργές. Μόνο ο νικητής νευρώνας και η γειτονιά του έχουν το δικαίωμα να μαθαίνουν. Εάν ένας νευρώνας δεν ανταποκρίνεται στο δείγμα στην είσοδο τότε δεν μπορεί να «μάθει». Η έξοδος του νικητή νευρώνα είναι ίση με το και όλων των υπολοίπων με το 0. Ο στάνταρντ κανόνας ανταγωνιστικής μάθησης (standard competitive learning rule) [Haykin, 994], καθορίζει τη μεταβολή Δwi του συναπτικού βάρους wi σύμφωνα με τη σχέση: Δ w i α ( xi wi), εάν ο νευρώνας κερδίσει το διαγωνισμό = 0, εάν ο νευρώνας χάσει το διαγωνισμό (6.)

15 5 Όπου x i είναι το σήμα στο νευρώνα εισόδου i, και το α είναι ο ρυθμός μάθησης, που παίρνει τιμές μεταξύ 0 και. Η συνολική επίδραση, λοιπόν, του κανόνα της ανταγωνιστικής μάθησης είναι να «μετακινεί» το διάνυσμα των βαρών του νικητή νευρώνα w προς το διάνυσμα εισόδου x. Πως όμως καθορίζεται ποιος είναι ο νικητής νευρώνας; Όταν παρουσιάζεται ένα διάνυσμα στην είσοδο του Kohonen υπολογίζεται το πόσο «ταιριάζει» το διάνυσμα των βαρών κάθε νευρώνα του επιπέδου Kohonen με το διάνυσμα αυτό. Ο νευρώνας το διάνυσμα των βαρών του οποίου «ταιριάζει» περισσότερο με το διάνυσμα εισόδου είναι ο νικητής. Η εκτίμηση του «ταιριάσματος» μπορεί να γίνει με διάφορους τρόπους, ο πιο συνηθισμένος είναι με τον υπολογισμό της Ευκλείδειας απόστασης (Euclidean Distance). Στην περίπτωση αυτή δηλαδή νικητής είναι ο νευρώνας το διάνυσμα των βαρών του οποίου έχει τη μικρότερη Ευκλείδεια απόσταση από το διάνυσμα εισόδου. Η Ευκλείδεια απόσταση μεταξύ δύο διανυσμάτων x και w διάστασης n δίνεται από τη σχέση: n 2 2 x-w ( i i) (6.2) i= d = = x w όπου x i και w i είναι τα i-οστά στοιχεία των διανυσμάτων x και w αντίστοιχα. Έτσι, στην περίπτωση αυτή ο νικητής νευρώνας x, που ταιριάζει καλύτερα με το διάνυσμα εισόδου x είναι αυτός με τη μικρότερη Ευκλείδεια απόσταση, δηλαδή [Haykin, 994]: = x min x-w, =,2,...,m (6.3) όπου m είναι ο αριθμός των νευρώνων στο επίπεδο Kohonen (ή επίπεδο εξόδου). Σύνοψη του αλγορίθμου εκπαίδευσης του δικτύου Kohonen Στη συνέχεια θα παρουσιάσουμε μια σύνοψη του αλγορίθμου εκπαίδευσης του δικτύου του Kohonen [Kohonen 989]: Βήμα ο :Αρχικοποίηση Αρχικοποίησε τα συναπτικά βάρη δίνοντας τους μικρές τυχαίες αρχικές τιμές, για παράδειγμα στο διάστημα [0, ] (με ομοιόμορφη κατανομή). Αρχικοποίησε το ρυθμό μάθησης α δίνοντας του μια μικρή θετική τιμή.

16 6 Βήμα 2 ο : Ενεργοποίηση Ενεργοποίησε το δίκτυο Kohonen εφαρμόζοντας στην είσοδό του ένα διάνυσμα εκπαίδευσης x και βρίσκοντας το νικητή νευρώνα (winner-takes-all neuron) x για την επανάληψη p, χρησιμοποιώντας ως κριτήριο την ελάχιστη Ευκλείδεια απόσταση: n 2 ( p) min ( p) xi wi( p) x = x-w =, =,2,...,m (6.4) i= όπου n είναι ο αριθμός των νευρώνων στο επίπεδο εισόδου, και m είναι ο αριθμός των νευρώνων στο επίπεδο εξόδου ή επίπεδο Kohonen. 2 Βήμα 3 ο : Εκπαίδευση Ενημέρωσε τις τιμές των βαρών σύμφωνα με τη σχέση: ( ) ( ) ( ) w p+ = w p +Δ w p (6.5) i i i όπου w ( p) Δ είναι η διόρθωση στην τιμή του βάρους στην επανάληψη p. i Η διόρθωση του λάθους w ( p) ανταγωνιστικής μάθησης: Δ καθορίζεται από τον κανόνα της ( ) Λ ( ) Λ ( p) α xi - wi p, p Δ wi ( p ) = 0, όπου α είναι ο ρυθμός μάθησης και Λ ( p) i (6.6) είναι η γειτονιά του νικητή νευρώνα (winner-takes-all-neuron) x στην επανάληψη p. Ο ρυθμός μάθησης α μπορεί: Είτε να είναι σταθερός καθ όλη τη διάρκεια της διαδικασίας εκπαίδευσης. Είτε να μεταβάλλεται. Σε αυτή την περίπτωση, συνήθως, ξεκινάμε με μια μεγάλη τιμή του ρυθμού μάθησης για p=0 και εν συνεχεία κατά τη διάρκεια της εκπαίδευσης την ελαττώνουμε με γραμμικό ή μηγραμμικό τρόπο [Callan, 999]. Μια σχέση που μπορούμε να χρησιμοποιήσουμε, για παράδειγμα, είναι η εξής [Αργυράκης, 200]: α p = 0 P ( p) α( ) (6.7)

17 7 Η γειτονιά Όπου α(0) είναι η αρχική τιμή (συνήθεις τιμές για την περίπτωση αυτή είναι στο διάστημα (0.2, 0.5)) του ρυθμού μάθησης, p είναι ο τρέχον κύκλος (επανάληψη) εκπαίδευσης και P είναι ο συνολικός αριθμός των κύκλων εκπαίδευσης του δικτύου Kohonen. Λ του νικητή νευρώνα μπορεί: Να είναι σταθερή, καθ όλη την εκπαιδευτική διαδικασία. Να ξεκινά η εκπαίδευση με μια μεγάλη γειτονιά γύρω από το νικητή νευρώνα η οποία στη συνέχεια να ελαττώνεται όσο προχωρούν οι κύκλοι εκπαίδευσης μέχρις ότου να πάρει τελικά την τιμή, να περιλαμβάνει δηλαδή μόνο το νικητή νευρώνα. Στην περίπτωση αυτή δίνουμε στη γειτονιά ένα αρχικό πλάτος d(0) (συνήθως θα πρέπει να είναι περίπου το ½ του μεγέθους του επιπέδου Kohonen) το οποίο και μειώνουμε κατά τη διάρκεια της εκπαίδευσης. Αυτή η μείωση μπορεί να γίνει με γραμμικό και μη-γραμμικό τρόπο. Μια σχέση, για παράδειγμα, που μπορούμε να χρησιμοποιήσουμε είναι η ακόλουθη [Αργυράκης, 200]: p d( p) = d( 0) (6.8) P Όπου d(0) είναι το αρχικό πλάτος (ακτίνα) της γειτονιάς, p είναι ο τρέχον κύκλος εκπαίδευσης και P είναι ο συνολικός αριθμός των κύκλων εκπαίδευσης του δικτύου Kohonen. Όλοι οι νευρώνες που βρίσκονται μέσα στην τοπολογική γειτονιά ενεργοποιούνται ταυτόχρονα και η σχέση ανάμεσα σε αυτούς τους νευρώνες είναι ανεξάρτητη από την απόστασή τους από τον νικητή νευρώνα x. Για τους νευρώνες του επιπέδου Kohonen (επίπεδο εξόδου) η έξοδος τους δίνεται από τη σχέση: y ( p), Λ = 0, Λ ( p) ( p) (6.9) Βήμα 4 ο : Επανάληψη Αύξησε τον μετρητή επανάληψης p κατά, πήγαινε στο βήμα 2 και συνέχισε την εκπαίδευση μέχρις ότου να ικανοποιηθεί το κριτήριο της ελάχιστης

18 8 Ευκλείδεια απόστασης ή μέχρις ότου να μη συμβαίνει κάποια αξιοσημείωτη μεταβολή στον χάρτη χαρακτηριστικών (feature map). Θα ολοκληρώσουμε τη συζήτησή μας για τα δίκτυα Kohonen με μερικές ασκήσεις όπου θα δούμε την εφαρμογή των δικτύων σε κάποια πολύ μικρά πρακτικά προβλήματα. Άσκηση αυτοαξιολόγησης 2: Υποθέστε ότι έχουμε ένα δίκτυο Kohonen με δύο εισόδους και τρεις νευρώνες (στο επίπεδο Kohonen), όπως φαίνεται στο παρακάτω σχήμα. Έστω ότι τα αντίστοιχα βάρη (υποθέστε ότι δεν υπάρχουν συνδέσεις μεταξύ των κρυφών νευρώνων) που συνδέουν τους νευρώνες εισόδου με τους νευρώνες του επιπέδου Kohonen είναι: W και και = = = 0.8 W W a. Βρείτε το νικητή νευρώνα στην περίπτωση που στην είσοδο του δικτύου παρουσιαστεί το διάνυσμα: 0.52 Χ = 0.2 χρησιμοποιώντας το κριτήριο της ελάχιστης Ευκλείδειας απόστασης. b. Υπολογίστε τις μεταβολές στα συναπτικά βάρη, υποθέτοντας ότι ο ρυθμός μάθησης α έχει τιμή 0.. c. Υπολογίστε τη νέα τιμή του διανύσματος των βαρών του νικητή νευρώνα.

19 9 Απάντηση a. Υπολογίζουμε τις Ευκλείδειες αποστάσεις κάθε νευρώνα από το διάνυσμα εισόδου. Έτσι έχουμε: d = ( x w ) + ( x w ) = ( ) + ( ) = d = ( x w ) + ( x w ) = ( ) + ( ) = d = ( x w ) + ( x w ) = ( ) + ( ) = Παρατηρούμε ότι ο νευρώνας 3 είναι αυτός με τη μικρότερη Ευκλείδεια απόσταση από το διάνυσμα εισόδου Χ. b. Σύμφωνα με τον αλγόριθμο εκπαίδευσης, θα μεταβληθούν μόνο τα συναπτικά βάρη του νικητή νευρώνα. Έτσι θα έχουμε: ( ) ( ) Δ w3 = α x w3 = = ( ) ( ) Δ w32 = α x2 w32 = = c. Μόνο το διάνυσμα βαρών του νικητή νευρώνα θα ενημερωθεί. Οπότε θα έχουμε: ( ) ( ) ( ) W p+ = W p +ΔW p = = ενώ τα διανύσματα των βαρών των υπολοίπων νευρώνων θα μείνουν ως έχουν: ( ) ( ) 0.27 και ( ) ( ) 0.42 W p+ =W p = 0.8 W2 p+ =W2 p = 0.70

20 20 7. Μελέτη Περίπτωσης: Επίλυση του TSP με τη χρήση δικτύου Hopfield Στο κεφάλαιο αυτό θα ασχοληθούμε με μια εφαρμογή των Τεχνητών Νευρωνικών Δικτύων σε ένα πολύ γνωστό πρόβλημα βελτιστοποίησης, το πρόβλημα του περιοδεύοντος πωλητή (Traveling Salesman Problem TSP). Το πρόβλημα αυτό επιλέχθηκε, αν και δεν είναι ένα από τα «κλασικά» πεδία εφαρμογής των Τεχνητών Νευρωνικών Δικτύων, επειδή αποτελεί ένα από τα πλέον διάσημα (και με πολλές εφαρμογές) προβλήματα βελτιστοποίησης το οποίο έχει αντιμετωπιστεί με μια πλειάδα μεθόδων οι περισσότερες από τις οποίες ανήκουν στη γενικότερη περιοχή της Τεχνητής Νοημοσύνης, που αποτελεί και το αντικείμενο μελέτης της θεματικής ενότητας «Τεχνητής Νοημοσύνη - Εφαρμογές» του προγράμματος σπουδών Πληροφορικής του Ελληνικού Ανοικτού Πανεπιστημίου. Έτσι για λόγους ομοιομορφίας (αντιμετώπιση του TSP με διαφορετικές μεθόδους) επιλέχθηκε το συγκεκριμένο πρόβλημα. Το TSP είναι ένα διάσημο πρόβλημα, για λόγους όμως πληρότητας της συζήτησης θα δώσουμε μια σύντομη περιγραφή του. Το TSP ορίζεται ως εξής: Δεδομένων των εξόδων μεταφοράς (αυτό μπορεί να είναι είτε το κόστος μετακίνησης, είτε η απόσταση, είτε κάτι άλλο) μεταξύ διαφόρων πόλεων, το TSP συνίσταται στην προσπάθεια του πλανόδιου πωλητή να επισκεφτεί όλες τις πόλεις, μία μόνο φορά την καθεμιά, και να επιστρέψει στην πόλη από την οποία ξεκίνησε με το ελάχιστο δυνατό κόστος. Το TSP ανήκει στην κατηγορία των συνδυαστικών προβλημάτων βελτιστοποίησης και εμφανίζεται σε ένα πολύ μεγάλο αριθμό εφαρμογών. Υπάρχουν αρκετοί προσεγγιστικοί και ευρετικοί αλγόριθμοι που προσπαθούν να επιλύσουν το πρόβλημα. Στην ενότητα αυτή θα παρουσιάσουμε μια προσπάθεια επίλυσης του προβλήματος με τη χρήση δικτύων Hopfield. Τα δίκτυα Hopfield, στα οποία αναφερθήκαμε σε προηγούμενο κεφάλαιο, είναι μια κατηγορία αναδρομικών Τεχνητών Νευρωνικών Δικτύων που βρίσκει εφαρμογή και σε προβλήματα συνδυαστικής βελτιστοποίησης. Το TSP είναι το πρώτο πρόβλημα συνδυαστικής βελτιστοποίησης που αντιμετωπίστηκε με τη χρήση των δικτύων Hopfield. Η επίλυση του TSP με δίκτυα Hopfield παρουσιάζεται στην εργασία των Hopfield και Tank [Hopfield και Tank, 985] και είναι αυτή που θα παρουσιάσουμε σε αυτή τη μελέτη περίπτωσης.

21 2 Έστω λοιπόν ότι έχουμε ένα δίκτυο από Ν πόλεις, οι οποίες συνδέονται όλες μεταξύ τους και τις οποίες θέλουμε να επισκεφτούμε (μία φορά κάθε πόλη) με το μικρότερο δυνατό κόστος (διανύοντας την μικρότερη απόσταση, για παράδειγμα). Οι δυνατές λύσεις ενός τέτοιου TSP με Ν πόλεις είναι Ν!. Για να επιλύσουμε αυτό το TSP με ένα δίκτυο Hopfield θα πρέπει να ακολουθήσουμε την παρακάτω διαδικασία [Hopfield και Tank, 985]:. Το TSP μπορεί να αναπαρασταθεί με τη μορφή ενός πίνακα ΝxΝ όπου οι γραμμές αναπαριστούν τις πόλεις και οι στήλες τη σειρά με την οποία επισκεπτόμαστε κάθε πόλη. Για παράδειγμα, για ένα TSP με 5 πόλεις μια πιθανή αναπαράσταση του προβλήματος σε μορφή πίνακα (5x5) θα είναι: A B C D E Από τον πίνακα αυτό βλέπουμε ότι η σειρά επίσκεψης των πόλεων θα είναι: D=>A=>C=>B=>E. Κάθε στοιχείο του πίνακα περιγράφεται από δύο συντεταγμένες, μια που καθορίζει την πόλη και μια που καθορίζει την σειρά επίσκεψης. Σύμφωνα με αυτή την αναπαράσταση σε κάθε γραμμή και σε κάθε στήλη του πίνακα θα πρέπει να υπάρχει μόνο ένα και ο συνολικός αριθμός των σε όλο τον πίνακα θα πρέπει να είναι ίσος με τον αριθμό των πόλεων, δηλαδή ίσος με Ν. 2. Θα δημιουργήσουμε ένα δίκτυο Hopfield το οποίο θα αποτελείται από Ν 2 νευρώνες. Το δίκτυο θα αναπαρίσταται σαν ένας πίνακας ΝxΝ όπου κάθε στοιχείο του πίνακα θα είναι και ένας νευρώνας. Η έξοδος κάθε νευρώνα θα ανατροφοδοτείται ως είσοδος σε όλους τους άλλους νευρώνες, ενώ δεν θα υπάρχει αυτό-ανατροφοδότηση. Το δίκτυο Hopfield που θα χρησιμοποιηθεί θα είναι το συνεχές και όχι το διακριτό που περιγράψαμε σε προηγούμενο κεφάλαιο. Το συνεχές Hopfield δουλεύει με τον ίδιο τρόπο με το διακριτό με μόνη διαφορά ότι χρησιμοποιεί νευρώνες συνάρτηση ενεργοποίησης που είναι συνεχής (για παράδειγμα την λογιστική ή την υπερβολική εφαπτομένη). Για την συγκεκριμένη

22 22 υλοποίηση η συνάρτηση ενεργοποίησης που θα χρησιμοποιήσουμε είναι η [Hopfield και Tank, 985]: uxi sxi = sgm0, λ ( uxi ) = + tanh 2 λ όπου sxi είναι η κατάσταση (state) το νευρώνα xi, (7.) uxi είναι το δυναμικό ενεργοποίησης του νευρώνα xi και λ είναι μια παράμετρος που καθορίζει την κλίση της υπερβολικής εφαπτομένης (tanh). Στο δίκτυο αυτό, κάθε νευρώνας θα χαρακτηρίζεται από δύο δείκτες όπου ο πρώτος θα καθορίζει την πόλη και ο δεύτερος τη σειρά με την οποία επισκεπτόμαστε την πόλη, έτσι για παράδειγμα ένας νευρώνας V x,i καθορίζει ότι η πόλη x είναι i-στη στη σειρά επίσκεψης. Θέλουμε, λοιπόν, «εκπαιδεύοντας» το δίκτυο Hopfield να καταλήγουμε στο τέλος σε μια κατάσταση ισορροπίας όπου όλοι οι νευρώνες θα έχουν κατάσταση 0 εκτός από Ν όπου θα βρίσκονται σε μη-μηδενική κατάσταση (θα είναι ενεργοί). Οι ενεργοί νευρώνες (με τις συντεταγμένες τους) είναι αυτοί που καθορίζουν τη σειρά επίσκεψης των πόλεων. Έτσι για το παράδειγμα του TSP των 5 πόλεων και για την συγκεκριμένη λύση που είδαμε παραπάνω η κατάσταση στην οποία θα ισορροπεί το δίκτυο θα είναι η εξής: Δηλαδή όλοι οι νευρώνες θα είναι σε κατάσταση 0, εκτός από τους V 4,, V,2, V 3,3, V 2,4, V 5,5 που είναι ενεργοί και καθορίζουν ότι η σειρά επίσκεψης των πόλεων θα είναι: D=>A=>C=>B=>E. 3. Στη συνέχεια υπολογίζουμε τα συναπτικά βάρη του δικτύου Hopfield. Τα βάρη υπολογίζονται σύμφωνα με τη σχέση [Hopfield και Tank, 985]: w = A δ ( δ ) B δ ( δ ) C D d ( δ + δ ), xi, y xy i i xy xy, i+, i xi,, y,, Όπου το: [ N] (7.2)

23 23 w xi, y είναι το βάρος της σύνδεσης του νευρώνα xi με τον νευρώνα y (κάθε νευρώνας, όπως είπαμε και παραπάνω, εξαιτίας του τρόπου αναπαράστασης του δικτύου καθορίζεται από δύο δείκτες)., αν i = δi =, (Kronecker) 0,αν i d xy είναι η απόσταση (το κόστος μετακίνησης) ανάμεσα στις πόλεις x και y A, B, C, D: είναι παράμετροι για τις οποίες θα μιλήσουμε παρακάτω. Η σχέση αυτή για τον υπολογισμό των βαρών προκύπτει από την σχέση που υπολογίζει την ενέργεια του δικτύου. Έτσι λοιπόν, η ενέργεια του δικτύου Hopfield για την επίλυση του TSP, όπως αυτή διαμορφώνεται από τους περιορισμούς που επιβάλει το συγκεκριμένο πρόβλημα έχει τη μορφή [Hopfield και Tank, 985]: E = E+ E2 + E3+ E4, A E = sxi sx 2 x i i B E2 = sxi syi 2 i x y x 2 C E3 = sxi N 2 x i D E = d s ( s + s ) 4 xy xi yi, + yi, 2 x y x i Όπου: (7.3) Το Ε εκφράζει τον περιορισμό ότι κάθε γραμμή του πίνακα δεν πρέπει να περιέχει περισσότερους από έναν άσους (). Το Ε 2 εκφράζει τον περιορισμό ότι κάθε στήλη δεν πρέπει να περιέχει περισσότερους από έναν άσους (). Το Ε 3 εκφράζει τον περιορισμό ότι θα πρέπει να υπάρχουν ακριβώς Ν άσοι () σε ολόκληρο τον πίνακα (με διάσταση ΝxΝ). Το Ε 4 εκφράζει τον περιορισμό ότι θα πρέπει να ευνοείται η συντομότερη (με το μικρότερο κόστος μετάβασης) διαδρομή Συγκρίνοντας τη συνάρτηση (7.3) με την συνάρτηση: E = s s w s I 2 (7.4) i i i i i i i

24 24 που δίνει γενικά την ενέργεια ενός δικτύου Hopfield προκύπτει η σχέση (7.2) για τον υπολογισμό των βαρών για την επίλυση του TSP. Στον υπολογισμό των βαρών θα πρέπει να προσέξουμε, επειδή στα δίκτυα Hopfield δεν υπάρχει ανατροφοδότηση, το βάρος της σύνδεσης ενός νευρώνα με τον εαυτό του να είναι μηδέν, δηλαδή: w xi, xi = Αφού ολοκληρώσουμε τον υπολογισμό των βαρών του δικτύου στη συνέχεια αρχικοποιούμε τις καταστάσεις των νευρώνων σε μικρές τυχαίες τιμές, που τις επιλέγουμε ομοιόμορφα από ένα διάστημα τιμών. 5. Τέλος ενημερώνουμε με τυχαίο τρόπο τις καταστάσεις των νευρώνων του δικτύου μέχρις ότου αυτό φτάσει σε μια κατάσταση ισορροπίας. Η ενημέρωση της κατάστασης κάθε νευρώνα γίνεται ως εξής: Υπολογίζουμε το δυναμικό ενεργοποίησης του νευρώνα [Hopfield και Tank, 985]: uxi = wxi, y sy + Ixi, y (7.5) I = C N xi όπου I xi είναι η πόλωση (bias) του νευρώνα x,i. Υπολογίζουμε τη νέα κατάσταση του νευρώνα ως εξής [Hopfield και Tank, 985]: s xi u tanh xi = + 2 λ (7.6) Μετά από έναν αριθμό ενημερώσεων των καταστάσεων το δίκτυο Hopfield θα ισορροπήσει σε μία κατάσταση που θα είναι και η λύση του προβλήματος. Από τα πειράματα που έγιναν με διάφορα προβλήματα TSP προέκυψε ότι τα δίκτυα Hopfield μπορούν να δώσουν λύση σε μικρά σχετικά προβλήματα (μέχρι 30 πόλεις όπως υποστηρίζεται στο [Hopfield και Tank, 985], ενώ άλλοι ερευνητές υποστηρίζουν ότι τα προβλήματα που μπορούν να επιλυθούν με αυτή τη μέθοδο είναι ακόμη μικρότερα). Επίσης οι λύσεις που προκύπτουν δεν είναι πάντα οι βέλτιστες, ενώ πολλές φορές το δίκτυο μπορεί να μην καταλήξει σε κάποια «νόμιμη» λύση. Αυτό συμβαίνει επειδή αυτή η μέθοδος είναι πολύ ευαίσθητη στην επιλογή των τιμών των παραμέτρων A, B, C, D. Οι παράμετροι αυτοί καθορίζουν σε πολύ μεγάλο βαθμό τη σύγκλιση της μεθόδου και έως σήμερα δεν έχει βρεθεί κάποιος συστηματικός τρόπος για την επιλογή τους (για την επιλογή των τιμών τους ακολουθείται η μέθοδος της δοκιμής και του λάθους trial and

25 25 error method). Παρ όλο όμως ότι η μέθοδος της επίλυσης του TSP με τη χρήση δικτύων Hopfield δεν είναι η καλύτερη για συγκεκριμένο πρόβλημα, είχαμε την ευκαιρία, μέσα από αυτή τη μελέτη περίπτωσης, να δούμε ένα ενδιαφέρον πεδίο εφαρμογής των Νευρωνικών Δικτύων, όχι και τόσο διαδεδομένο.

26 26 ΒΙΒΛΙΟΓΡΑΦΙΑ. Amit, D. J. (989), Modeling Brain Functions: The World of Attractor Neural Networks, Cambridge University Press, New York. 2. Callan, R. (999), The essence of Neural Networks, Prentice Hall Europe. 3. Fausett, L. (994). Fundamentals of Neural Networks: Architectures, Algorithms and Applications. Prentice Hall International. 4. Golden, R. (996). Mathematical Methods for Neural Network Analysis and Design. MIT Press. 5. Hagan, M. Demuth, H. and Beale M. (995). Neural Network Design. International Thomson Publishing Company. 6. Hassoun, M. (995). Fundamentals of Artificial neural Networks. MIT Press. 7. Haykin S. (994). Neural Networks, A Comprehensive Foundation. Macmillan College Publishing Company Inc. 8. Haykin S. (999). Neural Networks, A Comprehensive Foundation. 2 nd edition Prentice Hall international. 9. Hopfield, J. J. (982), Neural Networks and physical systems with emergent collective computational abilities, Proceedings of the National Academy of Sciences of the USA, 79, Hopfield, J. J. and Tank, D. W. (985), Neural computations of decisions in optimization problems, Biological Cybernetics, 52, 4.. Kohonen, T. (982), Self-Organized formation of topologically correct feature maps, Biological Cybernetics, 43, Kohonen, T. (989), Self-Organization and Associative Memory, 3 rd edition, Springer-Verlag, Berlin, Heidelberg. 3. Kohonen, T. (989), The self-organizing map, Proceedings of the IEEE, 78, Kosko, B. (987), Adaptive Bidirectional associative memories, Applied Optics, 26(23), Kosko, B. (988), Bidirectional associative memories, IEEE Transactions on Systems Man and Cybernetics, SMC-8,

27 27 6. Kramer, A. H. και Sangiovanni-Vincentelli, A. (989), Efficient parallel learning algorithms for Neural Networks, Advances in Neural Information Processing Systems, vol., pp , an Mateo, CA: Morgan Kaufmann. 7. Minsky, M. L. και Papert, S. A. (969), Perceptrons, MIT Press, Cambridge, MA. 8. Negnevitsky, M. (2002), Artificial Intelligence: A Guide to Intelligent Systems, Addison Wesley. 9. Patterson D. (996), Artificial Neural Networks, Theory and Applications. Prentice Hall. 20. Rumelhart, D. E., Hinton, G. E. & Williams, R. J. (986), Learning Representations by Back-Propagating Errors. Nature 323, Rumelhart, D. E. and J. L. McClelland, eds (986), Parallel Distributed Processing: Explorations in the Microstructure of Cognition, Cambridge, MA: MIT Press. 22. Αργυράκης Π. (200). Νευρωνικά Δίκτυα και Εφαρμογές Έντυπο Εκπαιδευτικό Υλικό για τη Θεματική Ενότητα «Τεχνητή Νοημοσύνη Εφαρμογές», Ελληνικό Ανοικτό Πανεπιστήμιο.

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοηµοσύνη Ι» 7ο Φροντιστήριο 15/1/2008

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοηµοσύνη Ι» 7ο Φροντιστήριο 15/1/2008 Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοηµοσύνη Ι» 7ο Φροντιστήριο 5//008 Πρόβληµα ο Στα παρακάτω ερωτήµατα επισηµαίνουµε ότι perceptron είναι ένας νευρώνας και υποθέτουµε, όπου χρειάζεται, τη χρήση δικτύων

Διαβάστε περισσότερα

ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΜΑΘΗΣΗ ΔΙΚΤΥA LVQ και SOM. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΜΑΘΗΣΗ ΔΙΚΤΥA LVQ και SOM. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΜΑΘΗΣΗ ΔΙΚΤΥA LVQ και SOM Μάθηση χωρίς επίβλεψη (unsupervised learning) Σύνολο εκπαίδευσης D={(x n )}, n=1,,n. x n =(x n1,, x nd ) T, δεν υπάρχουν τιμές-στόχοι t n. Προβλήματα μάθησης χωρίς

Διαβάστε περισσότερα

ΠΡΟΣΟΜΟΙΩΣΗ ΤΟΥ ΑΝΘΡΩΠΙΝΟΥ ΕΓΚΕΦΑΛΟΥ ΑΡΧΙΤΕΚΤΟΝΙΚΕΣ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ ΚΑΙ ΕΦΑΡΜΟΓΕΣ. Πλέρου Αντωνία

ΠΡΟΣΟΜΟΙΩΣΗ ΤΟΥ ΑΝΘΡΩΠΙΝΟΥ ΕΓΚΕΦΑΛΟΥ ΑΡΧΙΤΕΚΤΟΝΙΚΕΣ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ ΚΑΙ ΕΦΑΡΜΟΓΕΣ. Πλέρου Αντωνία ΠΡΟΣΟΜΟΙΩΣΗ ΤΟΥ ΑΝΘΡΩΠΙΝΟΥ ΕΓΚΕΦΑΛΟΥ ΑΡΧΙΤΕΚΤΟΝΙΚΕΣ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ ΚΑΙ ΕΦΑΡΜΟΓΕΣ Πλέρου Αντωνία Email:tplerou@gmail.com ΠΕΡΙΛΗΨΗ Ή παρούσα εργασία πραγματεύεται τον κλάδο της επιστήμης που

Διαβάστε περισσότερα

Υπολογιστική Νοημοσύνη. Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks

Υπολογιστική Νοημοσύνη. Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks Υπολογιστική Νοημοσύνη Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks Γενικά Ένα νευρωνικό δίκτυο λέγεται αναδρομικό, εάν υπάρχει έστω και μια σύνδεση από έναν νευρώνα επιπέδου i προς έναν νευρώνα επιπέδου

Διαβάστε περισσότερα

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο Ασκήσεις Φροντιστηρίου 4 o Φροντιστήριο Πρόβλημα 1 ο Ο πίνακας συσχέτισης R x του διανύσματος εισόδου x( στον LMS αλγόριθμο 1 0.5 R x = ορίζεται ως: 0.5 1. Ορίστε το διάστημα των τιμών της παραμέτρου μάθησης

Διαβάστε περισσότερα

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ ΤΕΙ Δυτικής Μακεδονίας ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ 2015-2016 Τεχνητή Νοημοσύνη Νευρώνας Perceptron Διδάσκων: Τσίπουρας Μάρκος Εκπαιδευτικό Υλικό: Τσίπουρας Μάρκος Τζώρτζης Γρηγόρης Περιεχόμενα Εισαγωγή

Διαβάστε περισσότερα

Συσχετιστικές Μνήμες Δίκτυο Hopfield. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Συσχετιστικές Μνήμες Δίκτυο Hopfield. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων Συσχετιστικές Μνήμες Δίκτυο Hopfield Συσχετιστική Μνήμη Η ανάκληση ενός γεγονότος σε μία χρονική στιγμή προκαλείται από τη συσχέτιση αυτού του γεγονότος με κάποιο ερέθισμα. Πολλές φορές επίσης καλούμαστε

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ ο 2.5 µονάδες ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 2 Οκτωβρίου 23 ιάρκεια: 2 ώρες Έστω το παρακάτω γραµµικώς

Διαβάστε περισσότερα

Τεχνητά νευρωνικά δίκτυα προσομοίωσης του ανθρωπίνου εγκεφάλου. Artificial neural networks simulating human brain

Τεχνητά νευρωνικά δίκτυα προσομοίωσης του ανθρωπίνου εγκεφάλου. Artificial neural networks simulating human brain Τεχνητά νευρωνικά δίκτυα προσομοίωσης του ανθρωπίνου εγκεφάλου Artificial neural networks simulating human brain Αντωνία Πλέρου Ελληνικό Ανοικτό Πανεπιστήμιο Σχολή Θετικών Επιστημών και Τεχνολογίας Υποψήφια

Διαβάστε περισσότερα

Το μοντέλο Perceptron

Το μοντέλο Perceptron Το μοντέλο Perceptron Αποτελείται από έναν μόνο νευρώνα McCulloch-Pitts w j x x 1, x2,..., w x T 1 1 x 2 w 2 Σ u x n f(u) Άνυσμα Εισόδου s i x j x n w n -θ w w 1, w2,..., w n T Άνυσμα Βαρών 1 Το μοντέλο

Διαβάστε περισσότερα

Α.Τ.ΕΙ ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΠΟΛΥΜΕΣΩΝ. ΕΡΓΑΣΤΗΡΙΟ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ

Α.Τ.ΕΙ ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΠΟΛΥΜΕΣΩΝ. ΕΡΓΑΣΤΗΡΙΟ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ Α.Τ.ΕΙ ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΠΟΛΥΜΕΣΩΝ. ΕΡΓΑΣΤΗΡΙΟ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΕΚΜΑΘΗΣΗ ΤΑ ΔΙΚΤΥΑ KOHONEN A. ΕΙΣΑΓΩΓΗ Στα προβλήματα που έχουμε αντιμετωπίσει μέχρι τώρα

Διαβάστε περισσότερα

Υπολογιστική Νοημοσύνη. Μάθημα 10: Ομαδοποίηση με Ανταγωνιστική Μάθηση - Δίκτυα Kohonen

Υπολογιστική Νοημοσύνη. Μάθημα 10: Ομαδοποίηση με Ανταγωνιστική Μάθηση - Δίκτυα Kohonen Υπολογιστική Νοημοσύνη Μάθημα 10: Ομαδοποίηση με Ανταγωνιστική Μάθηση - Δίκτυα Kohonen Ανταγωνιστικοί Νευρώνες Ένα στρώμα με ανταγωνιστικούς νευρώνες λειτουργεί ως εξής: Όλοι οι νευρώνες δέχονται το σήμα

Διαβάστε περισσότερα

ΧΑΡΟΚΟΠΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΜΑΤΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ. Καραγιώργου Σοφία

ΧΑΡΟΚΟΠΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΜΑΤΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ. Καραγιώργου Σοφία ΧΑΡΟΚΟΠΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΜΑΤΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Καραγιώργου Σοφία Εισαγωγή Προσομοιώνει βιολογικές διεργασίες (π.χ. λειτουργία του εγκεφάλου, διαδικασία

Διαβάστε περισσότερα

ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ

ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΘΕΜΑ ο (.5 µονάδες) ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις Πέµπτη 7 Ιανουαρίου 8 5:-8: Σχεδιάστε έναν αισθητήρα (perceptron)

Διαβάστε περισσότερα

Πληροφοριακά Συστήματα & Περιβάλλον

Πληροφοριακά Συστήματα & Περιβάλλον ΑΡΙΣΤΟΤΕΛΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΟΝΙΚΗΣ ΑΝΟΙΧΤΑ ΑΚΑΔΗΜΑΙΚΑ ΜΑΘΗΜΑΤΑ Πληροφοριακά Συστήματα & Περιβάλλον Ενότητα 8: Τεχνητά Νευρωνικά Δίκτυα Παναγιώτης Λεφάκης Δασολογίας & Φυσικού Περιβάλλοντος Άδειες Χρήσης

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ 1 ο (2.5 µονάδες) ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 21 Σεπτεµβρίου 2004 ιάρκεια: 3 ώρες Το παρακάτω σύνολο

Διαβάστε περισσότερα

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON 3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPRON 3. ΕΙΣΑΓΩΓΗ: Το Perceptron είναι η απλούστερη μορφή Νευρωνικού δικτύου, το οποίο χρησιμοποιείται για την ταξινόμηση ενός ειδικού τύπου προτύπων, που είναι γραμμικά διαχωριζόμενα.

Διαβάστε περισσότερα

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο Πρόβλημα ο Ασκήσεις Φροντιστηρίου 5 o Φροντιστήριο Δίνεται το παρακάτω σύνολο εκπαίδευσης: # Είσοδος Κατηγορία 0 0 0 Α 2 0 0 Α 0 Β 4 0 0 Α 5 0 Β 6 0 0 Α 7 0 Β 8 Β α) Στον παρακάτω κύβο τοποθετείστε τα

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ ο 2.5 µονάδες ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 7 Ιανουαρίου 2005 ιάρκεια εξέτασης: 5:00-8:00 Έστω ότι

Διαβάστε περισσότερα

Τεχνητά Νευρωνικά Δίκτυα. Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης

Τεχνητά Νευρωνικά Δίκτυα. Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης Τεχνητά Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης Ο Βιολογικός Νευρώνας Δενδρίτες Συνάψεις Πυρήνας (Σώμα) Άξονας 2 Ο Βιολογικός Νευρώνας 3 Βασικά Χαρακτηριστικά

Διαβάστε περισσότερα

PROJECT ΣΤΟ ΜΑΘΗΜΑ "ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟΔΟΥΣ"

PROJECT ΣΤΟ ΜΑΘΗΜΑ ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟΔΟΥΣ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ Η/Υ ΚΑΙ ΠΛΗΡΟΦΟΡΙΚΗΣ PROJECT ΣΤΟ ΜΑΘΗΜΑ "ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟΔΟΥΣ" ΜΕΡΟΣ ΤΡΙΤΟ Υπεύθυνος Καθηγητής Λυκοθανάσης Σπυρίδων Ακαδημαικό Έτος: 2011-2012

Διαβάστε περισσότερα

Τεχνητά Νευρωνικά Δίκτυα-Εξελικτική Προσέγγιση της Ανθρώπινης Νοημοσύνης

Τεχνητά Νευρωνικά Δίκτυα-Εξελικτική Προσέγγιση της Ανθρώπινης Νοημοσύνης Τεχνητά Νευρωνικά Δίκτυα-Εξελικτική Προσέγγιση της Ανθρώπινης Νοημοσύνης Πλέρου Αντωνία Τμήμα Μαθηματικών Α.Π.Θ. Μεταπτυχιακές Σπουδές στα Μαθηματικά Ε.Α.Π. Email:tplerou@gmail.com Abstract This work deals

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ ο (.5 µονάδες) ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις Τετάρτη Ιουνίου 7 :-4: Κατασκευάστε έναν αισθητήρα (perceptron)

Διαβάστε περισσότερα

Το Πρόβλημα του Περιοδεύοντος Πωλητή - The Travelling Salesman Problem

Το Πρόβλημα του Περιοδεύοντος Πωλητή - The Travelling Salesman Problem Το Πρόβλημα του Περιοδεύοντος Πωλητή - The Travelling Salesman Problem Έλενα Ρόκου Μεταδιδακτορική Ερευνήτρια ΕΜΠ Κηρυττόπουλος Κωνσταντίνος Επ. Καθηγητής ΕΜΠ Άδεια Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ ο 2.5 µονάδες ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 2 Σεπτεµβρίου 2005 5:00-8:00 Σχεδιάστε έναν αισθητήρα ercetro

Διαβάστε περισσότερα

Κεφάλαιο 2. Ιστορική αναδροµή

Κεφάλαιο 2. Ιστορική αναδροµή Κεφάλαιο 2. Ιστορική αναδροµή Σκοπός: Στο κεφάλαιο αυτό γίνεται µία σύντοµη ιστορική ανασκόπηση της περιοχής των νευρωνικών δικτύων. Παρουσιάζονται επιγραµµατικά τα έργα που σηµάδευσαν την περιοχή αυτή,

Διαβάστε περισσότερα

ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΔΙΚΤΥO RBF. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων ΔΙΚΤΥO RBF Αρχιτεκτονική δικτύου RBF Δίκτυα RBF: δίκτυα συναρτήσεων πυρήνα (radial basis function networks). Πρόσθιας τροφοδότησης (feedforward) για προβλήματα μάθησης με επίβλεψη. Εναλλακτικό του MLP.

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ ο (2.5 µονάδες) ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 26 Ιανουαρίου 2004 ιάρκεια: 2 ώρες (9:00-:00) Στην παρακάτω

Διαβάστε περισσότερα

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #12: Εισαγωγή στα Nευρωνικά Δίκτυα. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #12: Εισαγωγή στα Nευρωνικά Δίκτυα. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε. ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ Ανώτατο Εκπαιδευτικό Ίδρυμα Πειραιά Τεχνολογικού Τομέα ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ Ενότητα #12: Εισαγωγή στα Nευρωνικά Δίκτυα Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε. Άδειες Χρήσης Το

Διαβάστε περισσότερα

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης Ελαχιστοποίηση συνάρτησης σφάλματος Εκπαίδευση ΤΝΔ: μπορεί να διατυπωθεί ως πρόβλημα ελαχιστοποίησης μιας συνάρτησης σφάλματος E(w)

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ ο (2.5 µονάδες) ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις Παρασκευή 9 Ιανουαρίου 2007 5:00-8:00 εδοµένου ότι η

Διαβάστε περισσότερα

Συνήθεις διαφορικές εξισώσεις προβλήματα οριακών τιμών

Συνήθεις διαφορικές εξισώσεις προβλήματα οριακών τιμών Συνήθεις διαφορικές εξισώσεις προβλήματα οριακών τιμών Οι παρούσες σημειώσεις αποτελούν βοήθημα στο μάθημα Αριθμητικές Μέθοδοι του 5 ου εξαμήνου του ΤΜΜ ημήτρης Βαλουγεώργης Καθηγητής Εργαστήριο Φυσικών

Διαβάστε περισσότερα

4.3. Γραµµικοί ταξινοµητές

4.3. Γραµµικοί ταξινοµητές Γραµµικοί ταξινοµητές Γραµµικός ταξινοµητής είναι ένα σύστηµα ταξινόµησης που χρησιµοποιεί γραµµικές διακριτικές συναρτήσεις Οι ταξινοµητές αυτοί αναπαρίστανται συχνά µε οµάδες κόµβων εντός των οποίων

Διαβάστε περισσότερα

Matrix Algorithms. Παρουσίαση στα πλαίσια του μαθήματος «Παράλληλοι. Αλγόριθμοι» Γ. Καούρη Β. Μήτσου

Matrix Algorithms. Παρουσίαση στα πλαίσια του μαθήματος «Παράλληλοι. Αλγόριθμοι» Γ. Καούρη Β. Μήτσου Matrix Algorithms Παρουσίαση στα πλαίσια του μαθήματος «Παράλληλοι Αλγόριθμοι» Γ. Καούρη Β. Μήτσου Περιεχόμενα παρουσίασης Πολλαπλασιασμός πίνακα με διάνυσμα Πολλαπλασιασμός πινάκων Επίλυση τριγωνικού

Διαβάστε περισσότερα

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP) Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP) x -0,5 a x x 2 0 0 0 0 - -0,5 y y 0 0 x 2 -,5 a 2 θ η τιμή κατωφλίου Μία λύση του προβλήματος XOR Multi Layer Perceptron (MLP) x -0,5 Μία

Διαβάστε περισσότερα

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων Εισηγητής: ρ Ηλίας Ζαφειρόπουλος Εισαγωγή Ιατρικά δεδοµένα: Συλλογή Οργάνωση Αξιοποίηση Data Mining ιαχείριση εδοµένων Εκπαίδευση

Διαβάστε περισσότερα

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 2ο Φροντιστήριο

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 2ο Φροντιστήριο Ασκήσεις Φροντιστηρίου 2ο Φροντιστήριο Πρόβλημα ο Ο κανόνας δέλτα που περιγράφεται από την παρακάτω ισότητα n) ηe n)x και ο κανόνας του Hebb που περιγράφεται από την επόμενη ισότητα n) ηy x αποτελούν δύο

Διαβάστε περισσότερα

6. Στατιστικές μέθοδοι εκπαίδευσης

6. Στατιστικές μέθοδοι εκπαίδευσης 6. Στατιστικές μέθοδοι εκπαίδευσης Μία διαφορετική μέθοδος εκπαίδευσης των νευρωνικών δικτύων χρησιμοποιεί ιδέες από την Στατιστική Φυσική για να φέρει τελικά το ίδιο αποτέλεσμα όπως οι άλλες μέθοδοι,

Διαβάστε περισσότερα

Ανταγωνιστική Εκμάθηση Δίκτυα Kohonen. Κυριακίδης Ιωάννης 2013

Ανταγωνιστική Εκμάθηση Δίκτυα Kohonen. Κυριακίδης Ιωάννης 2013 Ανταγωνιστική Εκμάθηση Δίκτυα Kohonen Κυριακίδης Ιωάννης 2013 Εισαγωγή Στα προβλήματα που έχουμε αντιμετωπίσει μέχρι τώρα, υπήρχε μια διαδικασία εκπαίδευσης του δικτύου, κατά την οποία είχαμε διανύσματα

Διαβάστε περισσότερα

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron Βιολογικός Νευρώνας Δενδρίτες, που αποτελούν τις γραμμές εισόδου των ερεθισμάτων (βιολογικών σημάτων) Σώμα, στο οποίο γίνεται η συσσώρευση των ερεθισμάτων και

Διαβάστε περισσότερα

Matrix Algorithms. Παρουσίαση στα πλαίσια του μαθήματος «Παράλληλοι Αλγόριθμοι» Γ. Καούρη Β. Μήτσου

Matrix Algorithms. Παρουσίαση στα πλαίσια του μαθήματος «Παράλληλοι Αλγόριθμοι» Γ. Καούρη Β. Μήτσου Matrix Algorithms Παρουσίαση στα πλαίσια του μαθήματος «Παράλληλοι Αλγόριθμοι» Γ. Καούρη Β. Μήτσου Περιεχόμενα παρουσίασης Πολλαπλασιασμός πίνακα με διάνυσμα Πολλαπλασιασμός πινάκων Επίλυση τριγωνικού

Διαβάστε περισσότερα

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή Τμήμα Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών ΗΜΜΥ 795: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ Ακαδημαϊκό έτος 2010-11 Χειμερινό Εξάμηνο Practice final exam 1. Έστω ότι για

Διαβάστε περισσότερα

Εισαγωγή στη Γνωστική Ψυχολογία. επ. Κωνσταντίνος Π. Χρήστου

Εισαγωγή στη Γνωστική Ψυχολογία. επ. Κωνσταντίνος Π. Χρήστου Εισαγωγή στη Γνωστική Ψυχολογία Inside the black box για µια επιστήµη του Νου Επιστροφή στο Νου Γνωστική Ψυχολογία / Γνωσιακή Επιστήµη Inside the black box για µια επιστήµη του Νου Επιστροφή στο Νου Γνωστική

Διαβάστε περισσότερα

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή Τµήµα Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών ΗΜΜΥ 795: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ Ακαδηµαϊκό έτος 2010-11 Χειµερινό Εξάµηνο Τελική εξέταση Τρίτη, 21 εκεµβρίου 2010,

Διαβάστε περισσότερα

Δύο είναι οι κύριες αιτίες που μπορούμε να πάρουμε από τον υπολογιστή λανθασμένα αποτελέσματα εξαιτίας των σφαλμάτων στρογγυλοποίησης:

Δύο είναι οι κύριες αιτίες που μπορούμε να πάρουμε από τον υπολογιστή λανθασμένα αποτελέσματα εξαιτίας των σφαλμάτων στρογγυλοποίησης: Ορολογία bit (binary digit): δυαδικό ψηφίο. Τα δυαδικά ψηφία είναι το 0 και το 1 1 byte = 8 bits word: η θεμελιώδης μονάδα σύμφωνα με την οποία εκπροσωπούνται οι πληροφορίες στον υπολογιστή. Αποτελείται

Διαβάστε περισσότερα

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2) Υπολογιστική Νοημοσύνη Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2) Ο κανόνας Δέλτα για συνεχείς συναρτήσεις ενεργοποίησης (1/2) Για συνεχείς συναρτήσεις ενεργοποίησης, θα θέλαμε να αλλάξουμε περισσότερο

Διαβάστε περισσότερα

Τεχνητή Νοημοσύνη. 19η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 19η διάλεξη ( ) Ίων Ανδρουτσόπουλος. Τεχνητή Νοημοσύνη 19η διάλεξη (2016-17) Ίων Ανδρουτσόπουλος http://www.aueb.gr/users/ion/ 1 Οι διαφάνειες αυτές βασίζονται σε ύλη των βιβλίων: Artificia Inteigence A Modern Approach των S. Russe και P.

Διαβάστε περισσότερα

Υπολογιστική Νοημοσύνη. Μάθημα 12: Παραδείγματα Ασκήσεων 2

Υπολογιστική Νοημοσύνη. Μάθημα 12: Παραδείγματα Ασκήσεων 2 Υπολογιστική Νοημοσύνη Μάθημα 12: Παραδείγματα Ασκήσεων 2 Δίκτυα Πολλών Επιπέδων Με μη γραμμικούς νευρώνες Έστω ένα πρόβλημα κατηγοριοποίησης, με δύο βαθμούς ελευθερίας (x, y) και δύο κατηγορίες (A, B).

Διαβάστε περισσότερα

Πληροφοριακά Συστήματα Διοίκησης

Πληροφοριακά Συστήματα Διοίκησης Πληροφοριακά Συστήματα Διοίκησης Τρεις αλγόριθμοι μηχανικής μάθησης ΠΜΣ Λογιστική Χρηματοοικονομική και Διοικητική Επιστήμη ΤΕΙ Ηπείρου @ 2018 Μηχανική μάθηση αναγνώριση προτύπων Η αναγνώριση προτύπων

Διαβάστε περισσότερα

Προσομοίωση Νευρωνικού Δικτύου στο MATLAB. Κυριακίδης Ιωάννης 2013

Προσομοίωση Νευρωνικού Δικτύου στο MATLAB. Κυριακίδης Ιωάννης 2013 Προσομοίωση Νευρωνικού Δικτύου στο MATLAB Κυριακίδης Ιωάννης 2013 Εισαγωγή Ένα νευρωνικό δίκτυο αποτελεί μια πολύπλοκη δομή, όπου τα βασικά σημεία που περιλαμβάνει είναι τα εξής: Πίνακες με τα βάρη των

Διαβάστε περισσότερα

οµή δικτύου ΣΧΗΜΑ 8.1

οµή δικτύου ΣΧΗΜΑ 8.1 8. ίκτυα Kohonen Το µοντέλο αυτό των δικτύων προτάθηκε το 1984 από τον Kοhonen, και αφορά διαδικασία εκµάθησης χωρίς επίβλεψη, δηλαδή δεν δίδεται καµία εξωτερική επέµβαση σχετικά µε τους στόχους που πρέπει

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΙΑΣ ΤΜΗΜΑ ΠΟΛΙΤΙΚΩΝ ΜΗΧΑΝΙΚΩΝ ΤΟΜΕΑΣ ΥΔΡΑΥΛΙΚΗΣ ΚΑΙ ΠΕΡΙΒΑΛΛΟΝΤΙΚΗΣ ΤΕΧΝΙΚΗΣ. Διάλεξη 3: Περιγραφή αριθμητικών μεθόδων (συνέχεια)

ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΙΑΣ ΤΜΗΜΑ ΠΟΛΙΤΙΚΩΝ ΜΗΧΑΝΙΚΩΝ ΤΟΜΕΑΣ ΥΔΡΑΥΛΙΚΗΣ ΚΑΙ ΠΕΡΙΒΑΛΛΟΝΤΙΚΗΣ ΤΕΧΝΙΚΗΣ. Διάλεξη 3: Περιγραφή αριθμητικών μεθόδων (συνέχεια) ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΙΑΣ ΤΜΗΜΑ ΠΟΛΙΤΙΚΩΝ ΜΗΧΑΝΙΚΩΝ ΤΟΜΕΑΣ ΥΔΡΑΥΛΙΚΗΣ ΚΑΙ ΠΕΡΙΒΑΛΛΟΝΤΙΚΗΣ ΤΕΧΝΙΚΗΣ Διάλεξη 3: Περιγραφή αριθμητικών μεθόδων (συνέχεια) Χειμερινό εξάμηνο 2008 Προηγούμενη παρουσίαση... Εξετάσαμε

Διαβάστε περισσότερα

PROJECT ΣΤΟ ΜΑΘΗΜΑ ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟ ΟΥΣ

PROJECT ΣΤΟ ΜΑΘΗΜΑ ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟ ΟΥΣ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ Η/Υ ΚΑΙ ΠΛΗΡΟΦΟΡΙΚΗΣ PROJECT ΣΤΟ ΜΑΘΗΜΑ ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟ ΟΥΣ ΜΕΡΟΣ ΤΡΙΤΟ Πολίτη Όλγα Α.Μ. 4528 Εξάµηνο 8ο Υπεύθυνος Καθηγητής Λυκοθανάσης

Διαβάστε περισσότερα

Ασκήσεις μελέτης της 19 ης διάλεξης

Ασκήσεις μελέτης της 19 ης διάλεξης Οικονομικό Πανεπιστήμιο Αθηνών, Τμήμα Πληροφορικής Μάθημα: Τεχνητή Νοημοσύνη, 2016 17 Διδάσκων: Ι. Ανδρουτσόπουλος Ασκήσεις μελέτης της 19 ης διάλεξης 19.1. Δείξτε ότι το Perceptron με (α) συνάρτηση ενεργοποίησης

Διαβάστε περισσότερα

Βασίλειος Μαχαιράς Πολιτικός Μηχανικός Ph.D.

Βασίλειος Μαχαιράς Πολιτικός Μηχανικός Ph.D. Βασίλειος Μαχαιράς Πολιτικός Μηχανικός Ph.D. Μη γραμμικός προγραμματισμός: βελτιστοποίηση χωρίς περιορισμούς Πανεπιστήμιο Θεσσαλίας Σχολή Θετικών Επιστημών ΤμήμαΠληροφορικής Διάλεξη 7-8 η /2017 Τι παρουσιάστηκε

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΧΑΡΤΟΓΡΑΦΗΣΗ ΤΟΥ ΧΩΡΟΥ ΤΩΝ ΤΑΞΙΝΟΜΗΤΩΝ Ταξινομητές Ταξινομητές συναρτ. διάκρισης Ταξινομητές επιφανειών απόφ. Παραμετρικοί ταξινομητές Μη παραμετρικοί

Διαβάστε περισσότερα

Αναγνώριση Προτύπων Ι

Αναγνώριση Προτύπων Ι Αναγνώριση Προτύπων Ι Ενότητα 1: Μέθοδοι Αναγνώρισης Προτύπων Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται

Διαβάστε περισσότερα

ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ Αίθουσα Νέα Κτίρια ΣΗΜΜΥ Ε.Μ.Π. Ανάλυση Κυρίων Συνιστωσών (Principal-Component Analysis, PCA)

ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ Αίθουσα Νέα Κτίρια ΣΗΜΜΥ Ε.Μ.Π. Ανάλυση Κυρίων Συνιστωσών (Principal-Component Analysis, PCA) ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ Αίθουσα 005 - Νέα Κτίρια ΣΗΜΜΥ Ε.Μ.Π. Ανάλυση Κυρίων Συνιστωσών (Principal-Coponent Analysis, PCA) καθ. Βασίλης Μάγκλαρης aglaris@netode.ntua.gr www.netode.ntua.gr

Διαβάστε περισσότερα

ΣΧΕΔΙΑΣΜΟΣ ΚΙΝΗΣΗΣ ΚΑΙ ΧΡΟΝΟΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ ΕΡΓΑΣΙΩΝ ΣΕ ΒΙΟΜΗΧΑΝΙΚΑ ΠΕΡΙΒΑΛΛΟΝΤΑ

ΣΧΕΔΙΑΣΜΟΣ ΚΙΝΗΣΗΣ ΚΑΙ ΧΡΟΝΟΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ ΕΡΓΑΣΙΩΝ ΣΕ ΒΙΟΜΗΧΑΝΙΚΑ ΠΕΡΙΒΑΛΛΟΝΤΑ ΣΧΕΔΙΑΣΜΟΣ ΚΙΝΗΣΗΣ ΚΑΙ ΧΡΟΝΟΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ ΕΡΓΑΣΙΩΝ ΣΕ ΒΙΟΜΗΧΑΝΙΚΑ ΠΕΡΙΒΑΛΛΟΝΤΑ Ηλίας Κ. Ξυδιάς 1, Ανδρέας Χ. Νεάρχου 2 1 Τμήμα Μηχανικών Σχεδίασης Προϊόντων & Συστημάτων, Πανεπιστήμιο Αιγαίου, Σύρος

Διαβάστε περισσότερα

Κεφ. 6Β: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών

Κεφ. 6Β: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών Κεφ. 6Β: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών. Εισαγωγή (ορισμός προβλήματος, αριθμητική ολοκλήρωση ΣΔΕ, αντικατάσταση ΣΔΕ τάξης n με n εξισώσεις ης τάξης). Μέθοδος Euler 3. Μέθοδοι

Διαβάστε περισσότερα

Νευρωνικά ίκτυα και Εξελικτικός. Σηµερινό Μάθηµα. επανάληψη Γενετικών Αλγορίθµων 1 η εργασία Επανάληψη νευρωνικών δικτύων Ασκήσεις εφαρµογές

Νευρωνικά ίκτυα και Εξελικτικός. Σηµερινό Μάθηµα. επανάληψη Γενετικών Αλγορίθµων 1 η εργασία Επανάληψη νευρωνικών δικτύων Ασκήσεις εφαρµογές Νευρωνικά ίκτυα και Εξελικτικός Προγραµµατισµός Σηµερινό Μάθηµα επανάληψη Γενετικών Αλγορίθµων η εργασία Επανάληψη νευρωνικών δικτύων Ασκήσεις εφαρµογές Κωδικοποίηση Αντικειµενική Συνάρτ Αρχικοποίηση Αξιολόγηση

Διαβάστε περισσότερα

Κεφ. 7: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών

Κεφ. 7: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών Κεφ. 7: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών 7. Εισαγωγή (ορισμός προβλήματος, αριθμητική ολοκλήρωση ΣΔΕ, αντικατάσταση ΣΔΕ τάξης n με n εξισώσεις ης τάξης) 7. Μέθοδος Euler 7.3

Διαβάστε περισσότερα

21 a 22 a 2n. a m1 a m2 a mn

21 a 22 a 2n. a m1 a m2 a mn Παράρτημα Α Βασική γραμμική άλγεβρα Στην ενότητα αυτή θα παρουσιαστούν με συνοπτικό τρόπο βασικές έννοιες της γραμμικής άλγεβρας. Ο στόχος της ενότητας είναι να αποτελέσει ένα άμεσο σημείο αναφοράς και

Διαβάστε περισσότερα

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης Μάθημα 5 ο Δρ. Ανέστης Γ. Χατζημιχαηλίδης Τμήμα Μηχανικών Πληροφορικής Τ.Ε. ΤΕΙ Ανατολικής Μακεδονίας και Θράκης 2016-2017 Διευρυμένη Υπολογιστική Νοημοσύνη (ΥΝ) Επεκτάσεις της Κλασικής ΥΝ. Μεθοδολογίες

Διαβάστε περισσότερα

ΚΕΦΑΛΑΙΟ 18. 18 Μηχανική Μάθηση

ΚΕΦΑΛΑΙΟ 18. 18 Μηχανική Μάθηση ΚΕΦΑΛΑΙΟ 18 18 Μηχανική Μάθηση Ένα φυσικό ή τεχνητό σύστηµα επεξεργασίας πληροφορίας συµπεριλαµβανοµένων εκείνων µε δυνατότητες αντίληψης, µάθησης, συλλογισµού, λήψης απόφασης, επικοινωνίας και δράσης

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson 2 1 ΧΑΡΤΟΓΡΑΦΗΣΗ ΤΟΥ ΧΩΡΟΥ ΤΩΝ ΤΑΞΙΝΟΜΗΤΩΝ Ταξινομητές Ταξινομητές συναρτ. διάκρισης Ταξινομητές επιφανειών απόφ. Παραμετρικοί ταξινομητές Μη παραμετρικοί

Διαβάστε περισσότερα

ΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ

ΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ ηµήτρης Ψούνης ΠΛΗ3, Απαντήσεις Quiz σε ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ Μάθηµα 3. ΕΡΩΤΗΜΑ Ένας αισθητήρας µπορεί να µάθει: a. εδοµένα που ανήκουν σε 5 διαφορετικές κλάσεις. b. εδοµένα που ανήκουν

Διαβάστε περισσότερα

Ειδικά θέματα Αλγορίθμων και Δομών Δεδομένων (ΠΛΕ073) Απαντήσεις 1 ου Σετ Ασκήσεων

Ειδικά θέματα Αλγορίθμων και Δομών Δεδομένων (ΠΛΕ073) Απαντήσεις 1 ου Σετ Ασκήσεων Ειδικά θέματα Αλγορίθμων και Δομών Δεδομένων (ΠΛΕ073) Απαντήσεις 1 ου Σετ Ασκήσεων Άσκηση 1 α) Η δομή σταθμισμένης ένωσης με συμπίεση διαδρομής μπορεί να τροποποιηθεί πολύ εύκολα ώστε να υποστηρίζει τις

Διαβάστε περισσότερα

1. Τι είναι η Κινηματική; Ποια κίνηση ονομάζεται ευθύγραμμη;

1. Τι είναι η Κινηματική; Ποια κίνηση ονομάζεται ευθύγραμμη; ΚΕΦΑΛΑΙΟ 2 ο ΚΙΝΗΣΗ 2.1 Περιγραφή της Κίνησης 1. Τι είναι η Κινηματική; Ποια κίνηση ονομάζεται ευθύγραμμη; Κινηματική είναι ο κλάδος της Φυσικής που έχει ως αντικείμενο τη μελέτη της κίνησης. Στην Κινηματική

Διαβάστε περισσότερα

Εξομοίωση Τηλεπικοινωνιακού Συστήματος Βασικής Ζώνης

Εξομοίωση Τηλεπικοινωνιακού Συστήματος Βασικής Ζώνης Πανεπιστήμιο Πατρών Τμήμα Μηχ. Η/Υ & Πληροφορικής Ακαδημαϊκό Έτος 009-010 Ψ Η Φ Ι Α Κ Ε Σ Τ Η Λ Ε Π Ι Κ Ο Ι Ν Ω Ν Ι ΕΣ η Εργαστηριακή Άσκηση: Εξομοίωση Τηλεπικοινωνιακού Συστήματος Βασικής Ζώνης Στην άσκηση

Διαβάστε περισσότερα

Κίνηση ΚΕΦΑΛΑΙΟ 2 Β ΓΥΜΝΑΣΙΟΥ

Κίνηση ΚΕΦΑΛΑΙΟ 2 Β ΓΥΜΝΑΣΙΟΥ Κίνηση ΚΕΦΑΛΑΙΟ 2 Β ΓΥΜΝΑΣΙΟΥ 2.1 Περιγραφή της Κίνησης 1. Τι είναι η Κινηματική; Ποια κίνηση ονομάζεται ευθύγραμμη; Κινηματική είναι ο κλάδος της Φυσικής που έχει ως αντικείμενο τη μελέτη της κίνησης.

Διαβάστε περισσότερα

Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Το Πολυεπίπεδο Perceptron. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων Το Πολυ Perceptron Δίκτυα Πρόσθιας Τροφοδότησης (feedforward) Tο αντίστοιχο γράφημα του δικτύου δεν περιλαμβάνει κύκλους: δεν υπάρχει δηλαδή ανατροφοδότηση της εξόδου ενός νευρώνα προς τους νευρώνες από

Διαβάστε περισσότερα

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Μάθηση και Γενίκευση. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων Μάθηση και Γενίκευση Το Πολυεπίπεδο Perceptron (MultiLayer Perceptron (MLP)) Έστω σύνολο εκπαίδευσης D={(x n,t n )}, n=1,,n. x n =(x n1,, x nd ) T, t n =(t n1,, t np ) T Θα πρέπει το MLP να έχει d νευρώνες

Διαβάστε περισσότερα

ΑΚΕΡΑΙΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ & ΣΥΝΔΥΑΣΤΙΚΗ ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ ΚΕΦΑΛΑΙΟ 1

ΑΚΕΡΑΙΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ & ΣΥΝΔΥΑΣΤΙΚΗ ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ ΚΕΦΑΛΑΙΟ 1 ΑΚΕΡΑΙΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ & ΣΥΝΔΥΑΣΤΙΚΗ ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ ΚΕΦΑΛΑΙΟ 1 1 Βελτιστοποίηση Στην προσπάθεια αντιμετώπισης και επίλυσης των προβλημάτων που προκύπτουν στην πράξη, αναπτύσσουμε μαθηματικά μοντέλα,

Διαβάστε περισσότερα

Αριθμητική Ανάλυση & Εφαρμογές

Αριθμητική Ανάλυση & Εφαρμογές Αριθμητική Ανάλυση & Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 2017-2018 Υπολογισμοί και Σφάλματα Παράσταση Πραγματικών Αριθμών Συστήματα Αριθμών Παράσταση Ακέραιου

Διαβάστε περισσότερα

Το άθροισµα των εισερχόµενων σηµάτων είναι:

Το άθροισµα των εισερχόµενων σηµάτων είναι: 7. ίκτυα Hopfeld Σε µία πολύ γνωστή εργασία το 982 ο Hopfeld παρουσίασε µια νέα κατηγορία δικτύων, τα οποία έχουν µεγάλες υπολογιστικές ικανότητες και είναι χρήσιµα σε δύο κατηγορίες προβληµάτων. Πρώτα,

Διαβάστε περισσότερα

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ Θ.Ε. ΠΛΗ31 (2004-5) ΓΡΑΠΤΗ ΕΡΓΑΣΙΑ #3 Στόχος Στόχος αυτής της εργασίας είναι η απόκτηση δεξιοτήτων σε θέματα που αφορούν τα Τεχνητά Νευρωνικά Δίκτυα και ποιο συγκεκριμένα θέματα εκπαίδευσης και υλοποίησης.

Διαβάστε περισσότερα

Υλοποιώντας λογικές πύλες χρησιμοποιώντας perceptrons

Υλοποιώντας λογικές πύλες χρησιμοποιώντας perceptrons Υλοποιώντας λογικές πύλες χρησιμοποιώντας perceptrons Ένας μικρός οδηγός Λευτέρης Ασλάνογλου Προπτυχιακός Φοιτητής Μηχανικών Η/Υ & Πληροφορικής Πάτρας Τρίτη, 5 Ιουνίου 2012 Το παρακάτω είναι ένα tutorial

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16 HMY 795: Αναγνώριση Προτύπων Διαλέξεις 15-16 Νευρωνικά Δίκτυα(Neural Networks) Fisher s linear discriminant: Μείωση διαστάσεων (dimensionality reduction) y Τ =w x s + s =w S w 2 2 Τ 1 2 W ( ) 2 2 ( ) m2

Διαβάστε περισσότερα

Ανασκόπηση θεωρίας ελαχίστων τετραγώνων και βέλτιστης εκτίμησης παραμέτρων

Ανασκόπηση θεωρίας ελαχίστων τετραγώνων και βέλτιστης εκτίμησης παραμέτρων Τοπογραφικά Δίκτυα και Υπολογισμοί 5 ο εξάμηνο, Ακαδημαϊκό Έτος 2016-2017 Ανασκόπηση θεωρίας ελαχίστων τετραγώνων και βέλτιστης εκτίμησης παραμέτρων Χριστόφορος Κωτσάκης Τμήμα Αγρονόμων Τοπογράφων Μηχανικών

Διαβάστε περισσότερα

ΜΑΘΗΜΑ: Εισαγωγή στις Αρχές της Επιστήμης των Η/Υ. 1 η ΘΕΜΑΤΙΚΗ ΕΝΟΤΗΤΑ: ΒΑΣΙΚΕΣ ΕΝΝΟΙΕΣ

ΜΑΘΗΜΑ: Εισαγωγή στις Αρχές της Επιστήμης των Η/Υ. 1 η ΘΕΜΑΤΙΚΗ ΕΝΟΤΗΤΑ: ΒΑΣΙΚΕΣ ΕΝΝΟΙΕΣ ΜΑΘΗΜΑ: Εισαγωγή στις Αρχές της Επιστήμης των Η/Υ 1 η ΘΕΜΑΤΙΚΗ ΕΝΟΤΗΤΑ: ΒΑΣΙΚΕΣ ΕΝΝΟΙΕΣ Στόχος Θεματικής Ενότητας Οι μαθητές να περιγράφουν τους βασικούς τομείς της Επιστήμης των Υπολογιστών και να μπορούν

Διαβάστε περισσότερα

Ανασκόπηση θεωρίας ελαχίστων τετραγώνων και βέλτιστης εκτίμησης παραμέτρων

Ανασκόπηση θεωρίας ελαχίστων τετραγώνων και βέλτιστης εκτίμησης παραμέτρων Τοπογραφικά Δίκτυα και Υπολογισμοί 5 ο εξάμηνο, Ακαδημαϊκό Έτος 2017-2018 Ανασκόπηση θεωρίας ελαχίστων τετραγώνων και βέλτιστης εκτίμησης παραμέτρων Χριστόφορος Κωτσάκης Τμήμα Αγρονόμων και Τοπογράφων

Διαβάστε περισσότερα

ΜΑΘΗΜΑΤΑ ΜΑΘΗΜΑΤΙΚΑ ΘΕΤΙΚΟΥ ΠΡΟΣΑΝΑΤΟΛΙΣΜΟΥ Β ΛΥΚΕΙΟΥ

ΜΑΘΗΜΑΤΑ ΜΑΘΗΜΑΤΙΚΑ ΘΕΤΙΚΟΥ ΠΡΟΣΑΝΑΤΟΛΙΣΜΟΥ Β ΛΥΚΕΙΟΥ ΜΑΘΗΜΑΤΑ ΜΑΘΗΜΑΤΙΚΑ ΘΕΤΙΚΟΥ ΠΡΟΣΑΝΑΤΟΛΙΣΜΟΥ Β ΛΥΚΕΙΟΥ ΚΕΦΑΛΑΙΟ 1 ο : ΔΙΑΝΥΣΜΑΤΑ 1 ΜΑΘΗΜΑ 1 ο +2 ο ΕΝΝΟΙΑ ΔΙΑΝΥΣΜΑΤΟΣ Διάνυσμα ορίζεται ένα προσανατολισμένο ευθύγραμμο τμήμα, δηλαδή ένα ευθύγραμμο τμήμα

Διαβάστε περισσότερα

Q 12. c 3 Q 23. h 12 + h 23 + h 31 = 0 (6)

Q 12. c 3 Q 23. h 12 + h 23 + h 31 = 0 (6) Εθνικό Μετσόβιο Πολυτεχνείο Σχολή Πολιτικών Μηχανικών Τοµέας Υδατικών Πόρων Μάθηµα: Τυπικά Υδραυλικά Έργα Μέρος 2: ίκτυα διανοµής Άσκηση E0: Μαθηµατική διατύπωση µοντέλου επίλυσης απλού δικτύου διανοµής

Διαβάστε περισσότερα

Βέλτιστη παρεμβολή και πρόγνωση άγνωστης συνάρτησης με τη μέθοδο της σημειακής προσαρμογής

Βέλτιστη παρεμβολή και πρόγνωση άγνωστης συνάρτησης με τη μέθοδο της σημειακής προσαρμογής Ειδικά Θέματα Συνορθώσεων & Εφαρμογές 8 ο εξάμηνο, Ακαδημαϊκό έτος 2016-2017 Βέλτιστη παρεμβολή και πρόγνωση άγνωστης συνάρτησης με τη μέθοδο της σημειακής προσαρμογής (Least squares collocation) Χριστόφορος

Διαβάστε περισσότερα

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος. Τεχνητή Νοημοσύνη 18η διάλεξη (2016-17) Ίων Ανδρουτσόπουλος http://www.aueb.gr/users/ion/ 1 Οι διαφάνειες αυτής της διάλεξης βασίζονται: στο βιβλίο Machine Learning του T. Mitchell, McGraw- Hill, 1997,

Διαβάστε περισσότερα

Πανεπιστήμιο Πατρών Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών. Διάλεξη 13

Πανεπιστήμιο Πατρών Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών. Διάλεξη 13 Πανεπιστήμιο Πατρών Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Τομέας Συστημάτων και Αυτομάτου Ελέγχου ΠΡΟΣΑΡΜΟΣΤΙΚΟΣ ΕΛΕΓΧΟΣ Διάλεξη 13 Πάτρα 28 Προσαρμοστικός έλεγχος με μοντέλο αναφοράς

Διαβάστε περισσότερα

Για παράδειγμα η αρχική και η τελική κατάσταση αναπαριστώνται ως εξής: (ένα λίτρο)

Για παράδειγμα η αρχική και η τελική κατάσταση αναπαριστώνται ως εξής: (ένα λίτρο) 8 1 η ΕΡΓΑΣΙΑ ΣΤΟ ΜΑΘΗΜΑ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ Απάντηση 1ης άσκησης Κατάσταση (κόμβοι): Αναπαριστούμε μια κατάσταση του προβλήματος με ένα διατεταγμένο ζεύγος (X,Y) όπου X είναι τα λίτρα στο βάζο Α (χωρητικότητα

Διαβάστε περισσότερα

1. Ποια μεγέθη ονομάζονται μονόμετρα και ποια διανυσματικά;

1. Ποια μεγέθη ονομάζονται μονόμετρα και ποια διανυσματικά; ΚΕΦΑΛΑΙΟ 2 ο ΚΙΝΗΣΗ 2.1 Περιγραφή της Κίνησης 1. Ποια μεγέθη ονομάζονται μονόμετρα και ποια διανυσματικά; Μονόμετρα ονομάζονται τα μεγέθη τα οποία, για να τα προσδιορίσουμε πλήρως, αρκεί να γνωρίζουμε

Διαβάστε περισσότερα

Μηχανουργική Τεχνολογία ΙΙ

Μηχανουργική Τεχνολογία ΙΙ Μηχανουργική Τεχνολογία ΙΙ Χαρακτηριστικά διεργασιών - Παραμετροποίηση-Μοντελοποίηση Associate Prof. John Kechagias Mechanical Engineer, Ph.D. Παραμετροποίηση - Μοντελοποίηση Στο κεφάλαιο αυτό γίνεται

Διαβάστε περισσότερα

Τεχνικές Μείωσης Διαστάσεων. Ειδικά θέματα ψηφιακής επεξεργασίας σήματος και εικόνας Σ. Φωτόπουλος- Α. Μακεδόνας

Τεχνικές Μείωσης Διαστάσεων. Ειδικά θέματα ψηφιακής επεξεργασίας σήματος και εικόνας Σ. Φωτόπουλος- Α. Μακεδόνας Τεχνικές Μείωσης Διαστάσεων Ειδικά θέματα ψηφιακής επεξεργασίας σήματος και εικόνας Σ. Φωτόπουλος- Α. Μακεδόνας 1 Εισαγωγή Το μεγαλύτερο μέρος των δεδομένων που καλούμαστε να επεξεργαστούμε είναι πολυδιάστατα.

Διαβάστε περισσότερα

ΜΕΘΟΔΟΙ ΑΕΡΟΔΥΝΑΜΙΚΗΣ

ΜΕΘΟΔΟΙ ΑΕΡΟΔΥΝΑΜΙΚΗΣ ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ Εργαστήριο Θερμικών Στροβιλομηχανών Μονάδα Παράλληλης ης Υπολογιστικής Ρευστοδυναμικής & Βελτιστοποίησης ΜΕΘΟΔΟΙ ΑΕΡΟΔΥΝΑΜΙΚΗΣ ΒΕΛΤΙΣΤΟΠΟΙΗΣΗΣ (7 ο Εξάμηνο Σχολής Μηχ.Μηχ. ΕΜΠ)

Διαβάστε περισσότερα

Ψηφιακή Επεξεργασία Σημάτων

Ψηφιακή Επεξεργασία Σημάτων Ψηφιακή Επεξεργασία Σημάτων Ενότητα 3: Συστήματα Διακριτού Χρόνου Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής 1 Συστήματα Διακριτού Χρόνου Εισαγωγή στα Συστήματα Διακριτού Χρόνου Ταξινόμηση Συστημάτων ΔΧ

Διαβάστε περισσότερα

1. Εισαγωγή Βάση δεδομένων Μεθοδολογία Νευρωνικών Δικτύων Αποτελέσματα Βιβλιογραφια Παραρτήμα Ι...

1. Εισαγωγή Βάση δεδομένων Μεθοδολογία Νευρωνικών Δικτύων Αποτελέσματα Βιβλιογραφια Παραρτήμα Ι... ΣΥΣΤΗΜΑ ΠΑΡΑΚΟΛΟΥΘΗΣΗΣ ΑΕΡΟΣΩΜΑΤΙ ΙΑΚΗΣ ΡΥΠΑΝΣΗΣ ΣΕ ΣΧΕ ΟΝ ΠΡΑΓΜΑΤΙΚΟ ΧΡΟΝΟ ΠΑΡΑ ΟΤΕΟ 7 ΜΕΘΟ ΟΛΟΓΙΑ ΓΙΑ ΚΑΤΗΓΟΡΙΟΠΟΙΗΣΗ ΣΥΝΟΠΤΙΚΩΝ ΚΑΤΑΣΤΑΣΕΩΝ ΚΑΙ ΗΜΙΟΥΡΓΙΑ ΣΥΝΟΠΤΙΚΩΝ ΠΡΟΤΥΠΩΝ Συγγραφείς: Φίλιππος Τύµβιος

Διαβάστε περισσότερα

Συστήματα συντεταγμένων

Συστήματα συντεταγμένων Κεφάλαιο. Για να δημιουργήσουμε τρισδιάστατα αντικείμενα, που μπορούν να παρασταθούν στην οθόνη του υπολογιστή ως ένα σύνολο από γραμμές, επίπεδες πολυγωνικές επιφάνειες ή ακόμη και από ένα συνδυασμό από

Διαβάστε περισσότερα

Ακαδημαϊκό Έτος , Χειμερινό Εξάμηνο Διδάσκων Καθ.: Νίκος Τσαπατσούλης

Ακαδημαϊκό Έτος , Χειμερινό Εξάμηνο Διδάσκων Καθ.: Νίκος Τσαπατσούλης ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΛΟΠΟΝΝΗΣΟΥ, ΤΜΗΜΑ ΤΕΧΝΟΛΟΓΙΑΣ ΤΗΛΕΠΙΚΟΙΝΩΝΙΩΝ ΚΕΣ 3: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΚΑΙ ΑΝΑΛΥΣΗ ΕΙΚΟΝΑΣ Ακαδημαϊκό Έτος 7 8, Χειμερινό Εξάμηνο Καθ.: Νίκος Τσαπατσούλης ΕΡΩΤΗΣΕΙΣ ΕΠΑΝΑΛΗΨΗΣ Το παρόν

Διαβάστε περισσότερα

E[ (x- ) ]= trace[(x-x)(x- ) ]

E[ (x- ) ]= trace[(x-x)(x- ) ] 1 ΦΙΛΤΡΟ KALMAN ΔΙΑΚΡΙΤΟΥ ΧΡΟΝΟΥ Σε αυτό το μέρος της πτυχιακής θα ασχοληθούμε λεπτομερώς με το φίλτρο kalman και θα δούμε μια καινούρια έκδοση του φίλτρου πάνω στην εφαρμογή της γραμμικής εκτίμησης διακριτού

Διαβάστε περισσότερα

1 ο ΦΥΛΛΑΔΙΟ ΑΣΚΗΣΕΩΝ - ΑΛΓΟΡΙΘΜΟΙ

1 ο ΦΥΛΛΑΔΙΟ ΑΣΚΗΣΕΩΝ - ΑΛΓΟΡΙΘΜΟΙ Δ.Π.Θ. - Πολυτεχνική Σχολή Τμήμα Μηχανικών Παραγωγής & Διοίκησης Ακαδ. έτος 2017-2018 Τομέας Συστημάτων Παραγωγής Εξάμηνο A Αναπληρωτής Καθηγητής Στέφανος Δ. Κατσαβούνης 03 ΟΚΤ 2017 ΜΑΘΗΜΑ : ΕΙΣΑΓΩΓΗ ΣΤΗΝ

Διαβάστε περισσότερα

Κεφάλαιο 5 Κριτήρια απόρριψης απόμακρων τιμών

Κεφάλαιο 5 Κριτήρια απόρριψης απόμακρων τιμών Κεφάλαιο 5 Κριτήρια απόρριψης απόμακρων τιμών Σύνοψη Στο κεφάλαιο αυτό παρουσιάζονται δύο κριτήρια απόρριψης απομακρυσμένων από τη μέση τιμή πειραματικών μετρήσεων ενός φυσικού μεγέθους και συγκεκριμένα

Διαβάστε περισσότερα

Πανεπιστήμιο Πατρών Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών. Διάλεξη 11

Πανεπιστήμιο Πατρών Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών. Διάλεξη 11 Πανεπιστήμιο Πατρών Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Τομέας Συστημάτων και Αυτομάτου Ελέγχου ΠΡΟΣΑΡΜΟΣΤΙΚΟΣ ΕΛΕΓΧΟΣ Διάλεξη 11 Πάτρα 2008 Προσαρμοστικός LQ έλεγχος για μη ελαχίστης

Διαβάστε περισσότερα