Νευρωνικά ίκτυα και Εξελικτικός Προγραµµατισµός Σηµερινό Μάθηµα επανάληψη Γενετικών Αλγορίθµων η εργασία Επανάληψη νευρωνικών δικτύων Ασκήσεις εφαρµογές
Κωδικοποίηση Αντικειµενική Συνάρτ Αρχικοποίηση Αξιολόγηση Γενετική διαδικασία Μετάλαξη Επιλογή 2 η διάλεξη ιασταύρωση Προβλ βελτιστοποίησης δ3 Σχήµατα δ4 Άσκηση Χρησιµοποιήστε Γενετικούς Αλγορίθµους για να βρείτε την ελάχιστη τιµήτουz αν τα x και y παίρνουν ακέραιες τιµές από έως 7 z = x 2 2y + 3 2
Άσκηση 2 Υποθέστε σχήµαη, το οποίο όταν υπάρχει σε ένα άτοµο, µειώνει την απόδοση του κατά % σε σχέση µετηµέση απόδοση του πληθυσµού Υποθέστε ότι το θεώρηµα ισχύει ως ισότητα αντί ανισότητα και αγνοήστε τις πιθανότητες καταστροφής του σχήµατος για διασταύρωση ή µετάλλαξη Αν υπάρχουν 6% άτοµατου αρχικού πληθυσµού µετοσχήµαηστη γενιά υπολογίστε πότε θα εξαφανιστεί το σχήµα (ποια γενιά) για αρχικό πληθυσµό 5 ατόµων Άσκηση 3 Χρησιµοποιήστε Γενετικούς Αλγορίθµους για να ελαχιστοποιήστε τη συνάρτηση: 2 f ( x) = 256( x ), x [,) 2 για βήµα /32 3
Άσκηση 4 Μαγικό τετράγωνο τάξης n είναι ένας nxn πίνακας που περιέχει όλους τους ακεραίους από το έως το n 2, µια φορά τον καθένα, έτσι ώστε κάθε γραµµή, στήλη και κύρια διαγώνιο, να δίνουν το ίδιο άθροισµα ηµιουργήστε µαγικά τετράγωνα χρησιµοποιώντας γενετικούς αλγορίθµους Πως θα κάνατε την κωδικοποίηση και ποια συνάρτηση απόδοσης θα χρησιµοποιούσατε; LMS Back propagation Υβριδική Μάθηση RBF δ8 Perceptron δ6 Νευρωνικά ίκτυα δ5 Επιβλεπόµενη Μάθηση MLPs δ6 Hopfield δ7 Ανταγωνιστική Μάθηση Kohonen δ7 Leader-follower K-means 4
Άσκηση Ένα δίκτυο perceptron έχει 3 νευρώνες εισόδου και θ = Το διάνυσµα εισόδου είναι s = (,,7, 6) και τα αντίστοιχα βάρη είναι w = (,5,,5,,) Υπολογίστε την έξοδο Άσκηση 2 Αποδείξτε ότι σε ένα δίκτυο Ν νευρώνων µεπλήρη συνδεσµολογία ο αριθµός των συνδέσεων δίδεται από την σχέση Ν(Ν )/2 5
Άσκηση 3 Έστω ένα δίκτυο (2 2 ) µεπλήρη συνδεσµολογία από επίπεδο σε επίπεδο ίνονται είσοδοι, και,9 και ο στόχος στην έξοδο είναι,9 Τα βάρη αρχικά είναι όλα,3 από την είσοδο στο κρυµµένο επίπεδο και,2 από το κρυµµένο επίπεδο στην έξοδο Η συνάρτηση µεταφοράς είναι γνωστή σιγµοειδής συνάρτηση και η =,25 Βρείτε τις τιµές των βαρών µετά από ένα πέρασµα οπισθοδιάδοσης Άσκηση 4 Ένα δίκτυο Kohonen έχει στην έξοδο του ένα πλέγµα µεδιαστάσεις x, και αρχικά η ακτίνα είναι 6 Έστω ότι η µονάδα που υπερισχύει ότι βρίσκεται στην άκρη κάτω δεξιά στο πλέγµακαιότιηακτίνα αναπροσαρµόζεται σύµφωνα µετον κανόνα: R = R εάν τρέχων κύκλος mod2 =, δηλ αναπροσαρµόζεται κάθε 2 κύκλους Πόσες µονάδες θα έχουν αναπροσαρµοσθεί µετά από κύκλους; 6
ΕΞΕΛΙΚΤΙΚΑ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Σπύρος Λυκοθανάσης, Καθηγητής ιευθυντής Εργαστηρίου Αναγνώρισης Προτύπων Τµήµα Μηχανικών Η/Υ & Πληροφορικής Πανεπιστηµίου Πατρών Το πρόβληµα Η εξέλιξη της αρχιτεκτονικής (τοπολογίας - δοµής) και η ταυτόχρονη εκπαίδευση ενός τεχνητού Νευρωνικού ικτύου Η αρχιτεκτονική ενός δικτύου παίζει πολύ σηµαντικό ρόλο τόσο στην ικανότητα του να µαθαίνει όσο και να γενικεύει Το πρόβληµα αυτό είναι γνωστό ως πρόβληµα εύρεσης της βέλτιστης αρχιτεκτονικής 7
Μέθοδοι επίλυσης Η µέθοδος της δοκιµής και του λάθους Οι κατασκευαστικοί (constructive) και οι καταστροφικοί (destructive) αλγόριθµοι ή αλγόριθµοι ψαλιδίσµατος (pruning) Ειδικά σχεδιασµένοι Εξελικτικοί Αλγόριθµοι, οι οποίοι: Είτε εξελίσσουν τη δοµή καιταυτόχρονα εκπαιδεύουν το Νευρωνικό ίκτυο, Είτε εξελίσσουν τη δοµή και για την εκπαίδευση χρησιµοποιούν έναν «κλασικό» αλγόριθµο εκπαίδευσης Πως εµπλέκονταιοιγα Το πρόβληµα της εύρεσης της βέλτιστης αρχιτεκτονικής µπορούµε πολύεύκολανατοσχηµατοποιήσουµε σαν ένα πρόβληµα αναζήτησης στο χώρο των αρχιτεκτονικών, όπου κάθε σηµείο του χώρου αντιπροσωπεύει και µια αρχιτεκτονική Το πρόβληµα της εκπαίδευσης ενός Νευρωνικού ικτύου, µπορεί να διατυπωθεί ως πρόβληµα αναζήτησης στο χώρο των βαρών οθέντων κάποιων κριτηρίων απόδοσης, όπως για παράδειγµα, το λάθος, η ικανότητα γενίκευσης, ο χρόνος για την εκπαίδευση, η πολυπλοκότητα της αρχιτεκτονικής κα, για την αρχιτεκτονική του δικτύου, σχηµατίζεται µια επιφάνεια στο χώρο των αρχιτεκτονικών Έτσι η βέλτιστη αρχιτεκτονική αντιστοιχεί στην εύρεση του µέγιστου αυτής της επιφάνειας Το αντίστοιχο ισχύει και για την εκπαίδευση 8
Η «δική» µας προσέγγιση Στη συνέχεια θα παρουσιάσουµε έναν τροποποιηµένο Γενετικό Αλγόριθµο (ή Εξελικτικό Πρόγραµµα) για την ταυτόχρονη εκπαίδευση και βελτιστοποίηση της δοµής Νευρωνικού ικτύου Ο αλγόριθµος αυτός θα εφαρµοστεί στην επίλυση του προβλήµατος XOR και Even Parity Το «µοντέλο» του Ν x x2 xn o op Input Layer First Hidden Layer Second Hidden Layer Output Layer 9
Βήµα ο : Αρχικοποίηση ηµιουργείται ένας πληθυσµός από νευρωνικά δίκτυα, µε τυχαία δοµή Εδώ, ενδιαφερόµαστε µόνο για τον αριθµό των κρυφών νευρώνων και όχι για τη συνδεσµολογία και τον αριθµό των κρυφών επιπέδων Χρησιµοποιούµε δίκτυαµε έναµόνο κρυφό επίπεδο Η ελεύθερες παράµετροι του δικτύου, δηλαδή τα βάρη και τα κατώφλια, αρχικοποιούνται τυχαία, µε οµοιόµορφη κατανοµή σεέναµικρό διάστηµα τιµών γύρω από το (πχ [-, ]) Βήµα 2 ο : Επιλογή Χρησιµοποιούµε ρουλέτα µε ελιτισµό (Elitism Roulette Wheel Selection) H συνάρτηση αξιολόγησης (Fitness Function) είναι µια συνάρτηση του λάθους στην έξοδο του δικτύου: Fitness = /(+ERROR) Όπου το ERROR είναι ένα µέτρο του λάθους (πχ Mean Square Error - MSE) του δικτύου και παίρνει διάφορες τιµές ανάλογα µε τοπρόβληµα
Βήµα 3 ο : ιασταύρωση Ο τελεστής της διασταύρωσης επιλέγει τυχαία, µε µια δοσµένη πιθανότητα, έναν άρτιο αριθµό από δίκτυα από τον πληθυσµό Στη συνέχεια ζευγαρώνει τα επιλεγµένα δίκτυα µε τυχαίο τρόπο και από κάθε ζευγάρι γονέων παράγει δύο νέα δίκτυα απογόνους που παίρνουν τη θέση των γονέων τους στον πληθυσµό Για παράδειγµα, έστω: γονέας : I H H 2 H 3 O παιδί : I H H 2 H 2 H 3 H 4 O γονέας 2 : I H H 2 H 3 H 4 O παιδί 2 : I H H 3 O Τα βάρη των νέων συνδέσεων που θα δηµιουργηθούν στους απογόνους παίρνουν τυχαίες τιµές (όπωςστηφάσητηςαρχικοποίησης) Βήµα 4 ο : Μετάλλαξη Επιλέγει τυχαία, έναν αριθµό από δίκτυα από τον πληθυσµό πάνω στα οποία και εφαρµόζεται Έχουν υλοποιηθεί τρεις τελεστές µετάλλαξης: hidden_mutation: µεταβάλει τη δοµή του επιλεγµένου δικτύου αφαιρώντας ή προσθέτοντας έναν τυχαίο αριθµό από κρυφούς νευρώνες uniform_weight_mutation: αντικαθιστά τις τιµές ενός ποσοστού των ελευθέρων παραµέτρων του επιλεγµένου δικτύου (βάρη και κατώφλια) µε άλλες τυχαίες, χρησιµοποιώντας οµοιόµορφη κατανοµή πιθανότητας non_uniform_weight_mutation: αλλάζει τις τιµές ενός ποσοστού των ελευθέρων παραµέτρων του επιλεγµένου δικτύου µε τέτοιο τρόπο ώστε οι νέες τιµές να είναι σηµαντικά διαφορετικές από τις παλιές στην αρχή της εξελικτικής διαδικασίας ενώ όσο η διαδικασία προχωρά η διαφορά αυτή να ελαττώνεται
ιάγραµµα Ροής (Αρχικοποίηση) ηµιούργησε έναν αρχικό πληθυσµό από δίκτυα µε τυχαία δοµή στο κρυφό επίπεδο Αξιολόγησε κάθε δίκτυο του πληθυσµού χρησιµοποιώντας σαν fitness function την: fitness = /(+ERROR) Ελεξε αν ικανοποιείται κάποια από τις συνθήκες τερµατισµού του αλγορίθµου Ναι Τέλος Οχι ηµιούργησε το νέο πληθυσµό εφαρµόζοντας τους ακόλουθους γενετικούς τελεστές: Επιλογή (Selection) ιασταύρωση (Crossover) Μετάλαξη (Mutation) Εφαρµογές Το πρόβληµα XOR Το πρόβληµα άρτιας ισοτιµίας (3 bit) X X2 Y X X2 X3 Y 2
Εφαρµογές - XOR Μέγεθος Πληθυσµού Μέσος Αριθµός Γενεών Μέσος Αριθµός Κρυφών Νευρώνων Μέση Τιµή MSE 2 279 8 6248-5 5 94 6 37-5 75 4 7 689-5 8 25 8 6636-5 97 488-5 Population Size = 2 Population Size = 5 - Population Size = 8 Population Size = -2 Mean Square Error -3-4 -5-6 -7-8 -9-2 3 4 5 Number of Generations Εφαρµογές - XOR,2 input -,565 -,945 input2 -,329 -,656 output,634,743 -,659 Input Layer Hidden Layer Output Layer Σχήµα 63 Ένα γενετικά παραγόµενο νευρωνικό δίκτυο που επιλύει το XOR πρόβληµα [Likothanassis et al, 997] 3
Εφαρµογές - Parity 2 - Population Size = 5 Population Size = Mean Square Error 2-2 2-3 2-4 2 4 6 8 2 4 Number of Generations Εφαρµογές Μαγνητο-Εγκεφαλογράφηµα Επιληπτικών Ασθενών Actual Sample 6 5 4 3 2 5 5 2 25 Predicted 6 5 4 3 2 5 5 2 25 Time Αποτελέσµατα στο training set για ορίζοντα πρόβλεψης ίσο µε (αρχιτεκτονική παραγόµενου δικτύου 4-3-) 4
Εφαρµογές Μαγνητο-Εγκεφαλογράφηµα Επιληπτικών Ασθενών Actual 7 Sample 6 5 4 5 5 2 25 Predicted 7 6 5 4 5 5 2 25 Time Αποτελέσµατα στο test set για ορίζοντα πρόβλεψης ίσο µε (αρχιτεκτονική παραγόµενου δικτύου 4-3-) Επίλογος Είδαµε ότι είναι δυνατή η εξέλιξη της δοµής και η εκπαίδευση Τεχνητών Νευρωνικών ικτύων χρησιµοποιώντας αποκλειστικά Γενετικούς Αλγορίθµουςκαιχωρίςτην παρέµβαση κάποιου «κλασικού» αλγορίθµου εκπαίδευσης Γεγονός που δείχνει τη µεγάλη ευελιξία και την ισχύ των Γενετικών Αλγορίθµων, αλλά και γενικότερα των εξελικτικών τεχνικών 5