ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Σχετικά έγγραφα
ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΠΜΣΕ ΣΤΗΝ ΕΦΑΡΜΟΣΜΕΝΗ ΠΛΗΡΟΦΟΡΙΚΗ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΚΑΙ ΕΞΕΛΙΚΤΙΚΟΙ ΑΛΓΟΡΙΘΜΟΙ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Υπολογιστική Νοημοσύνη. Μάθημα 10: Ομαδοποίηση με Ανταγωνιστική Μάθηση - Δίκτυα Kohonen

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Υπολογιστική Νοημοσύνη. Μάθημα 9: Γενίκευση

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοηµοσύνη Ι» 7ο Φροντιστήριο 15/1/2008

οµή δικτύου ΣΧΗΜΑ 8.1

Μη Συµβολικές Μέθοδοι

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)

Νευρωνικά ίκτυα και Εξελικτικός. Σηµερινό Μάθηµα. επανάληψη Γενετικών Αλγορίθµων 1 η εργασία Επανάληψη νευρωνικών δικτύων Ασκήσεις εφαρµογές

ΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ

Υπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

PROJECT ΣΤΟ ΜΑΘΗΜΑ ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟ ΟΥΣ

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

Υπολογιστική Νοημοσύνη. Μάθημα 12: Παραδείγματα Ασκήσεων 2

ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΜΑΘΗΣΗ ΔΙΚΤΥA LVQ και SOM. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Κεφάλαιο 7. Γενετικοί Αλγόριθµοι. Τεχνητή Νοηµοσύνη - Β' Έκδοση Ι. Βλαχάβας, Π. Κεφαλάς, Ν. Βασιλειάδης, Φ. Κόκκορας, Η.

Οι Εξελικτικοί Αλγόριθμοι (ΕΑ) είναι καθολικοί στοχαστικοί αλγόριθμοι βελτιστοποίησης, εμπνευσμένοι από τις βασικές αρχές της φυσικής εξέλιξης.

Νευρωνικά ίκτυα και Εξελικτικός

Τεχνητή Νοημοσύνη (ΥΠ23) 6 ο εξάμηνο Τμήμα Πληροφορικής και Τηλεματικής Χαροκόπειο Πανεπιστήμιο Ουρανία Χατζή

Ασκήσεις μελέτης της 19 ης διάλεξης

Υπολογιστική Νοημοσύνη. Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks

Τεχνητή Νοημοσύνη. 5η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

PROJECT ΣΤΟ ΜΑΘΗΜΑ "ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟΔΟΥΣ"

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Ε ανάληψη. Α ληροφόρητη αναζήτηση

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΘΕΩΡΙΑ ΠΑΙΓΝΙΩΝ

ΚΕΦΑΛΑΙΟ Μηχανική Μάθηση

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα

ΙΑΧΥΣΗ. Σχήµα 1: Είδη διάχυσης

Προσαρµοστικοί Αλγόριθµοι Υλοποίησης Βέλτιστων Ψηφιακών Φίλτρων: Ο αναδροµικός αλγόριθµος ελάχιστων τετραγώνων (RLS Recursive Least Squares)

Θεωρία Αποφάσεων ο. 4 Φροντιστήριο. Λύσεις των Ασκήσεων

4 η ΕΝΟΤΗΤΑ ΜΕΤΑΕΥΡΕΤΙΚΟΙ ΑΛΓΟΡΙΘΜΟΙ ΕΠΙΛΥΣΗΣ ΠΡΟΒΛΗΜΑΤΩΝ ΕΝΟΣ ΚΡΙΤΗΡΙΟΥ

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 2ο Φροντιστήριο

QR είναι ˆx τότε x ˆx. 10 ρ. Ποιά είναι η τιµή του ρ και γιατί (σύντοµη εξήγηση). P = [X. 0, X,..., X. (n 1), X. n] a(n + 1 : 1 : 1)

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

4. Ο αισθητήρας (perceptron)

ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

Τυπικά θέματα εξετάσεων. ΠΡΟΣΟΧΗ: Οι ερωτήσεις που παρατίθενται ΔΕΝ καλύπτουν την πλήρη ύλη του μαθήματος και παρέχονται απλά ενδεικτικά

Α.Τ.ΕΙ ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΠΟΛΥΜΕΣΩΝ. ΕΡΓΑΣΤΗΡΙΟ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ

ΟΙΚΟΝΟΜΙΚΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΦΡΟΝΤΙΣΤΗΡΙΟ ΑΛΓΟΡΙΘΜΩΝ ΒΟΗΘΟΣ: ΒΑΓΓΕΛΗΣ ΔΟΥΡΟΣ

ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

Μεθοδολογίες παρεµβολής σε DTM.

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΡΟΓΡΑΜΜΑ ΣΠΟΥ ΩΝ «ΠΛΗΡΟΦΟΡΙΚΗ» ΜΑΘΗΜΑΤΙΚΑ Ι (ΘΕ ΠΛΗ 12) ΕΡΓΑΣΙΑ 4

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή

Γραµµικοί Ταξινοµητές

5. Μέθοδοι αναγνώρισης εκπαίδευση χωρίς επόπτη

Τεχνητά Νευρωνικά Δίκτυα. Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης

Θεωρία Λήψης Αποφάσεων

Ρεφανίδης Γιάννης. Οκτώβριος

ΚΕΦΑΛΑΙΟ 3 ΑΡΙΘΜΗΤΙΚΗ ΕΠΙΛΥΣΗ ΓΡΑΜΜΙΚΩΝ ΣΥΣΤΗΜΑΤΩΝ. nn n n

Το μοντέλο Perceptron

KEΦΑΛΑΙΟ 5 ΨΗΦΙΑΚΑ ΚΡΥΠΤΟΣΥΣΤΗΜΑΤΑ

Τυχαιοκρατικοί Αλγόριθμοι

Case 04: Επιλογή Χαρτοφυλακίου IΙ «Null Risk Securities» ΣΕΝΑΡΙΟ

Προσοµοίωση λειτουργίας επικοινωνίας δεδοµένων (µόντεµ)

Ακαδηµαϊκό Έτος , Εαρινό Εξάµηνο ιδάσκων Καθ.: Νίκος Τσαπατσούλης

Τεχνητή Νοημοσύνη. 19η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

προβλήµατος Το φίλτρο Kalman διαφέρει από τα συνηθισµένα προβλήµατα ΜΕΤ σε δύο χαρακτηριστικά: παραµέτρων αγνώστων

Αλγόριθμοι και Πολυπλοκότητα

Πανεπιστήµιο Πειραιώς Τµήµα Πληροφορικής. Εξόρυξη Γνώσης από εδοµένα (Data Mining) Συσταδοποίηση. Γιάννης Θεοδωρίδης

Μέθοδοι Μηχανικής Μάθησης στην επεξεργασία Τηλεπισκοπικών Δεδομένων. Δρ. Ε. Χάρου

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

Επαναληπτικές Διαδικασίες

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

4.3. Γραµµικοί ταξινοµητές

Εργαστήριο Μαθηµατικών & Στατιστικής. 1 η Πρόοδος στο Μάθηµα Στατιστική 5/12/08 Α ΣΕΙΡΑ ΘΕΜΑΤΩΝ. 3 ο Θέµα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο

ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΛΟΠΟΝΝΗΣΟΥ

ΜΑΘΗΜΑΤΙΚΑ & ΣΤΟΙΧΕΙΑ ΣΤΑΤΙΣΤΙΚΗΣ ΓΕΝΙΚΗΣ ΠΑΙ ΕΙΑΣ 2015 ΕΚΦΩΝΗΣΕΙΣ

ΕΡΩΤΗΜΑΤΑ σε ΓΕΝΕΤΙΚΟΥΣ

ΜΑΘΗΜΑΤΙΚΑ Β ΤΑΞΗΣ ΕΝΙΑΙΟΥ ΛΥΚΕΙΟΥ ΘΕΤΙΚΗΣ ΚΑΙ ΤΕΧΝΟΛΟΓΙΚΗΣ ΚΑΤΕΥΘΥΝΣΗΣ 2003

ΑΠΑΝΤΗΣΕΙΣ - ΥΠΟ ΕΙΞΕΙΣ ΣΤΙΣ ΕΡΩΤΗΣΕΙΣ

Ανάλυση των Γενετικών Αλγορίθµων

squared error, Mean absolute error, Root mean squared error) µεγάλωσαν,

ΜΑΘΗΜΑΤΙΚΑ ΓΕΝΙΚΗΣ ΠΑΙ ΕΙΑΣ

Το άθροισµα των εισερχόµενων σηµάτων είναι:

ΙΙΙ. ΕΠΩΝΥΜΟΙ ΝΟΜΟΙ ΘΝΗΣΙΜΟΤΗΤΑΣ Α. ΓΕΝΙΚΑ. x Ο πρώτος νόµος θνησιµότητας οφείλεται στον De Moivre, είναι γραµµικός, s(x)

Συστήματα Επιχειρηματικής Ευφυίας

Αναγνώριση Προτύπων Ι

ΒΙΟΛΟΓΙΑ Γ ΛΥΚΕΙΟΥ ΚΑΤΕΥΘΥΝΣΗΣ 2007 ΕΚΦΩΝΗΣΕΙΣ

Επιλογή και επανάληψη. Λογική έκφραση ή συνθήκη

Γ. Κορίλη Αλγόριθµοι ροµολόγησης

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΦΥΣΙΚΗ Α ΛΥΚΕΙΟΥ ΣΕΙΡΑ: Α (ΛΥΣΕΙΣ) ΗΜΕΡΟΜΗΝΙΑ: 13/10/2013

Transcript:

ΘΕΜΑ ο (2.5 µονάδες) ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 26 Ιανουαρίου 2004 ιάρκεια: 2 ώρες (9:00-:00) Στην παρακάτω εικόνα φαίνεται ένα νευρωνικό δίκτυο 2 επιπέδων, µη-αναδροµικό, το οποίο εκπαιδεύεται µε τη µέθοδο της ανάστροφης διάδοσης λάθους. Έστω ότι το τρέχον παράδειγµα εκπαίδευσης είναι το [ 0 ], για το οποίο η έξοδος πρέπει να είναι. Οι νευρώνες D, E και F λειτουργούν µε τη σιγµοειδή συνάρτηση ενεργοποίησης (οι είσοδοι A, Β και C απλά µεταφέρουν το σήµα εισόδου στους νευρώνες D και E). α) Υπολογείστε την έξοδο του δικτύου. β) Υπολογείστε το (προσαρµοσµένο) σφάλµα για τον νευρώνα εξόδου F. γ) Υπολογείστε τα (προσαρµοσµένα) σφάλµατα των νευρώνων του κρυφού επιπέδου D και E. δ) Υπολογείστε τις µεταβολές όλων των βαρών του δικτύου. Θεωρείστε ότι ο ρυθµός µάθησης είναι d=0.25. A B C 0-0 ίνονται οι παρακάτω τύποι: Σιγµοειδής συνάρτηση ενεργοποίησης: Φ( Si ) = S + e i Μεταβολή βάρους (από τον νευρώνα στον νευρώνα i): w i =-d δ i α, όπου δ i =(α i -o i )Φ'(S i ) για τους νευρώνες εξόδου (α i η τρέχουσα έξοδος και o i η επιθυµητή έξοδος του νευρώνα εξόδου i). Επιµερισµός σφάλµατος στους κρυφούς νευρώνες: δ = Φ' ( S ) δ w Παράγωγος της σιγµοειδούς συνάρτησης ενεργοποίησης: Φ '( S ) = Φ( S )[ Φ( S )] ίνονται επίσης οι παρακάτω τιµές της εκθετικής συνάρτησης: Φ(-)=0.2689, Φ()=0.73, Φ(-0.462)=0.3865 - D E - k k k F ΑΠΑΝΤΗΣΗ: α) Υπολογίζουµε πρώτα τις συνολικές εισόδους των νευρώνων D και E. Έχουµε λοιπόν: S D = (-)+0 + 0=- S E = 0+0 (-)+ = Οι έξοδοι των νευρώνων D και E υπολογίζονται από τη σιγµοειδή συνάρτηση ενεργοποίησης:

α D =Φ(S D )=/(+e - )=0.2689 α E =Φ(S E )=/(+e )=0.73 Η συνολική είσοδος του νευρώνα F είναι: S F = 0.2689+(-) 0.73=-0.462 Τέλος η έξοδος του νευρώνα F είναι: α F =Φ(S F )=/(+e-0.462)=0.3865 β) Το προσαρµοσµένο σφάλµα του F είναι: δ F =(α F -o F )Φ'(S F )= (α F -o F )Φ(S F )[- Φ(S F )]=(0.3865-) 0.3865 (-0.3865)=-0.455 γ) Τα προσαρµοσµένα σφάλµατα για τους D και E είναι αντίστοιχα: δ D =δ C w DC Φ'(S D )= δ C w DC Φ(S D ) (-Φ(S D ))=-0.455 0.2689 (-0.2689)=-0.0286 δ E =δ C w EC Φ'(S E )= δ C w EC Φ(S E ) (-Φ(S E ))=-0.455 (-) 0.73 (-0.73)=0.0286 δ) Όλα τα βάρη αλλάζουν σύµφωνα µε τη σχέση w i =-d δ i α. Έχουµε λοιπόν: w AD =-d δ D α Α =-0.25 (-0.0286) =0.007 w AE =-d δ Ε α Α =-0.25 0.0286 =-0.007 w BD =-d δ D α Β =-0.25 (-0.0286) 0=0 w BE =-d δ Ε α Β =-0.25 0.0286 0=0 w CD =-d δ D α C =-0.25 (-0.0286) =0.007 w CE =-d δ Ε α C =-0.25 0.0286 =0.007 w DF =-d δ F α D =-0.25 (-0.455) 0.2689=0.0098 w EF =-d δ F α E =-0.25 (-0.455) 0.73=0.0266 ΘΕΜΑ 2 ο (2.5 µονάδες) Περιγράψτε τη µέθοδο του πρόωρου τερµατισµού. Ποιο πρόβληµα της εκπαίδευσης των νευρωνικών δικτύων προσπαθεί να αντιµετωπίσει; Σύµφωνα µε τη µέθοδο πρόωρου τερµατισµού, τα διαθέσιµα δεδοµένα διαιρούνται σε τρεις οµάδες:! Τα δεδοµένα εκπαίδευσης (training data)! Τα δεδοµένα επαλήθευσης (validation data)! Τα δεδοµένα ελέγχου (test data) - προαιρετικά Ένας συνήθης ποσοστιαίος διαχωρισµός είναι 50-25-25. Η εκπαίδευση γίνεται µόνο µε τα δεδοµένα εκπαίδευσης. Κατά την εκπαίδευση παρακολουθείται και το σφάλµα στα δεδοµένα επαλήθευσης. Εάν κατά την εκπαίδευση συµβεί το σφάλµα στα δεδοµένα επαλήθευσης να αυξηθεί για συγκεκριµένο αριθµό συνεχόµενων εποχών, η εκπαίδευση διακόπτεται και επιστρέφονται οι παράµετροι που αντιστοιχούσαν στο µικρότερο σφάλµα των δεδοµένων επαλήθευσης. Τα δεδοµένα ελέγχου χρησιµοποιούνται για να ελέγχουν την ισοκατανοµή των δεδοµένων επαλήθευσης. Εάν τα δεδοµένα ελέγχου παρουσιάσουν ελάχιστο σφάλµα σε αρκετά διαφορετικό σηµείο της εκπαίδευσης σε σχέση µε τα δεδοµένα επαλήθευσης, πραγµατοποιείται νέος χωρισµός των δεδοµένων σε κατηγορίες. Η τεχνική πρόωρου τερµατισµού δεν έχει ως αποτέλεσµα την κατασκευή καλύτερου νευρωνικού δικτύου, αλλά την ανίχνευση προβληµάτων γενίκευσης κατά την εκπαίδευση µε οποιαδήποτε

µέθοδο, άρα µπορεί να αποτελέσει ένδειξη για την επιλογή µιας άλλης µεθόδου (π.χ. της TRAINBR). Η µέθοδος του πρόωρου τερµατισµού προσπαθεί να αντιµετωπίσει το πρόβληµα του υπερβολικού ταιριάσµατος κατά την εκπαίδευση νευρωνικών δικτύων. Το πρόβληµα του υπερβολικού ταιριάσµατος έχει να κάνει µε την ελαχιστοποίηση του σφάλµατος ενός νευρωνικού δικτύου στα δεδοµένα εκπαίδευσης, ενώ την ίδια στιγµή παρουσιάζει πολύ µεγάλα σφάλµατα σε νέα δεδοµένα που διαφέρουν λίγο από τα δεδοµένα εκπαίδευσης. Το πρόβληµα εµφανίζεται σε νευρωνικά δίκτυα µε πολύ µεγάλους αριθµούς νευρώνων στο κρυφό επίπεδο, τα οποία εκπαιδεύονται µέχρι να ελαχιστοποιηθεί το συνολικό σφάλµα σε πολύ µεγάλο βαθµό. ΘΕΜΑ 3 ο (2.5 µονάδες) Περιγράψτε τη δοµή και τον τρόπο εκπαίδευσης των δικτύων αυτοοργάνωσης (Self-Organizing Feature Maps). Τα δίκτυα αυτοοργάνωσης είναι µια παραλλαγή των ανταγωνιστικών δικτύων. Οι νευρώνες του ανταγωνιστικού επιπέδου θεωρείται ότι σχηµατίζουν ένα νοητό πλέγµα (συνήθη πλέγµατα: Ορθογώνιο, Εξαγωνικό, Τυχαίο). Για κάθε παράδειγµα εκπαίδευσης, εκτός από τα βάρη του νευρώνα-νικητή, αλλάζουν τα βάρη και για τους νευρώνες της "γειτονιάς" στο πλέγµα του νευρώνα-νικητή. Έτσι τα δίκτυα αυτοοργάνωσης καταφέρνουν να µάθουν, εκτός από τις κατηγορίες, και την τοπολογία αυτών, δηλαδή ποιες κατηγορίες είναι γειτονικές. Τα πλέγµατα είναι "νοητά", δηλαδή δεν υπάρχει σύνδεση των νευρώνων του ανταγωνιστικού δικτύου µε οποιονδήποτε τρόπο πάνω στο δίκτυο. Αρχικά τα βάρη για κάθε νευρώνα στο δίκτυο είναι τυχαία, ενώ τα βάρη "γειτονικών" νευρώνων στο πλέγµα µπορεί να είναι εντελώς άσχετα µεταξύ τους. Κατά την εκπαίδευση, για κάθε παράδειγµα επιλέγεται ο νευρώνας εκείνος τα βάρη του οποίου βρίσκονται κοντινότερα στο παράδειγµα. Τα βάρη του νευρώνα αυτού αλλάζουν, σύµφωνα µε τον κανόνα µάθησης Kohonen. Επιπλέον όµως επιλέγονται και οι γειτονικοί του νευρώνες στο πλέγµα, τα βάρη των οποίων επίσης αλλάζουν, χρησιµοποιώντας όµως το ήµισυ του ρυθµού µάθησης (κανόνας µάθησης Kohonen). Ως "γειτονιά" ενός νευρώνα θεωρούνται όλοι οι "γειτονικοί" του νευρώνες που βρίσκονται πάνω στο πλέγµα σε απόσταση το πολύ d από αυτόν (υπάρχουν διάφοροι τρόποι ορισµού της απόστασης). Η απόσταση d που ορίζει το εύρος κάθε γειτονιάς ξεκινά συνήθως από µια µεγάλη τιµή και προοδευτικά µειώνεται. Η εµπειρία έχει δείξει ότι στο τέλος τα διανύσµατα βαρών των νευρώνων έχουν ισοκατανεµηθεί µεταξύ των παραδειγµάτων εκπαίδευσης, καλύπτοντας τον χώρο κατά τρόπο οµοιόµορφο προς αυτόν των διανυσµάτων εκπαίδευσης. Επιπλέον, νευρώνες γειτονικοί στο πλέγµα έχουν "γειτονικά" διανύσµατα βαρών, δηµιουργώντας έτσι µια τοπολογία αντίστοιχη αυτής των διανυσµάτων εκπαίδευσης. Η εκπαίδευση των δικτύων αυτοοργάνωσης γίνεται σε δύο φάσεις:! Φάση διάταξης (ordering phase)! Φάση συντονισµού (tuning phase) Στη φάση διάταξης τα διανύσµατα βαρών των νευρώνων αλλάζουν έντονα, ώστε γειτονικοί νευρώνες να αποκτήσουν "γειτονικά" διανύσµατα βαρών. Στη φάση συντονισµού τα διανύσµατα βαρών µεταβάλλονται αργά, ώστε να προσαρµοστούν µε τον καλύτερο τρόπο ανάµεσα στα παραδείγµατα εκπαίδευσης.

ΘΕΜΑ 4 ο (2.5 µονάδες) Κατασκευάστε ένα συσχετιστικό δίκτυο (associative network), το οποίο για είσοδο [ - ] δίνει έξοδο [ -]. Καταγράψτε τη συµπεριφορά του δικτύου εάν στην είσοδό του εµφανιστεί το διάνυσµα [ ]. Προφανώς το συσχετιστικό δίκτυο θα αποτελείται από δύο στρώµατα νευρώνων. Στο πρώτο στρώµα θα υπάρχουν τρεις νευρώνες, ενώ στο δεύτερο δυο. Πρώτα υπολογίζουµε τα βάρη των συνδέσεων: W = [ ] = Το δίκτυο λοιπόν, µαζί µε τα βάρη του, είναι το παρακάτω. D E - - - Α Β C Έστω ότι στο δίκτυο παρουσιάζεται η είσοδος X=[ ]. Αυτή θεωρείται καταρχήν έξοδος για τους νευρώνες Α, Β και C. Η συνολική είσοδος στον νευρώνα D είναι: S D =[ ] [ - ]= Η έξοδος του νευρώνα D θα είναι λοιπόν: α D =Φ(S D )=Φ()= Παρόµοια για τον νευρώνα E έχουµε: S E =[ ] [- -]=- α E =Φ(S E )=Φ(-)= Υπολογίζουµε στη συνέχεια τις νέες εισόδους για τους νευρώνες A, B και C. Η νέα συνολική είσοδος για τον Α είναι: S A =[ -] [ -]=2 και άρα η νέα έξοδος για τον A είναι: α A =Φ(2)= Παρόµοια για τους B και C: S Β =[ -] [- ]=-2 α Β =Φ(-2)=- S C =[ -] [ -]=2 α C =Φ(2)= Με βάση τις νέες εξόδους των νευρώνων A, B και C υπολογίζουµε τις νέες εξόδους των D και E: S D =[ - ] [ - ]=3 α D =Φ(S D )=Φ(3)= S E =[ - ] [- -]=-3

α E =Φ(S E )=Φ(-3)=- Βλέπουµε ότι οι εξόδοι των D και E δεν άλλαξαν. Άρα το δίκτυο έχει ισορροπήσει, και µάλιστα µε εξόδους στα δύο επίπεδα τα διανύσµατα µε τα οποία εκπαιδεύτηκε. ΘΕΜΑ 5 ο (2.5 µονάδες) Περιγράψτε τον τρόπο επιλογής γονέων για τη δηµιουργία απογόνων στους γενετικούς αλγορίθµους. Τι είναι το χάσµα γενεών; Η διαδικασία επιλογής γονέων έχει να κάνει µε τον τρόπο που επιλέγονται τα χρωµοσώµατα για αναπαραγωγή. Η πιθανότητα να επιλεγεί ένα χρωµόσωµα προς αναπαραγωγή συνδέεται άµεσα µε την καταλληλότητά του. Σε κάθε γενιά, ο αριθµός των χρωµοσωµάτων που επιλέγονται για αναπαραγωγή δεν είναι απαραίτητα ίσος µε τον πληθυσµό τους. Είναι µάλιστα δυνατόν, µέσα στην ίδια γενιά, ένα χρωµόσωµα να επιλεγεί περισσότερες από µια φορές, ενώ κάποιο άλλο να µην επιλεγεί καθόλου. Μια τεχνική επιλογής χρωµοσωµάτων προς αναπαραγωγή, µε πιθανότητα ανάλογη της καταλληλότητάς τους, είναι αυτή της ρουλέτας:. Παράγεται το άθροισµα S όλων των τιµών αξιολόγησης των υποψηφίων λύσεων. 2. Επιλέγεται ένας τυχαίος αριθµός n, από το 0 µέχρι το S, χρησιµοποιώντας συνάρτηση οµοιόµορφης κατανοµής για τη δηµιουργία των τυχαίων αριθµών. Θέτουµε Κ=0. 3. Εξετάζεται η επόµενη υποψήφια λύση (ξεκινώντας από την πρώτη) και η τιµή της προστίθεται στον καταχωρητή Κ. 4. Αν η τιµή του Κ γίνει µεγαλύτερη ή ίση του n, η λύση επιλέγεται. Στην αντίθετη περίπτωση εκτελείται πάλι το 3. 5. Εάν συµπληρώθηκε ο επιθυµητός αριθµός επιλεγµένων υποψηφίων λύσεων ο αλγόριθµος τερµατίζει, αλλιώς συνεχίσει µε το βήµα 2. Χάσµα γενεών ονοµάζουµε το ποσοστό των χρωµοσωµάτων που ανανεώνονται σε κάθε γενιά, προς το σύνολο των χρωµοσωµάτων της γενιάς. Στην αρχική εκδοχή των γενετικών αλγορίθµων το παραπάνω ποσοστό ισούται µε τη µονάδα. Σε νέωτερες υλοποιήσεις συνηθίζεται σε κάθε γενιά να ανανεώνεται ένα µόνο µέρος των χρωµοσωµάτων (µέθοδος µερικής ανανέωσης). Σε αυτή την περίπτωση τίθεται πλέον και θέµα επιλογής των χρωµοσωµάτων που θα "πεθάνουν". Στην περίπτωση µερικής ανανέωσης του πληθυσµού των χρωµοσωµάτων, υπάρχουν οι εξής προσεγγίσεις:! Επιλογή των γονέων προς αναπαραγωγή µε πιθανότητα ανάλογη προς την καταλληλότητά τους και τυχαία επιλογή των γονέων που θα αποχωρήσουν.! Επιλογή των γονέων προς αναπαραγωγή τυχαία και επιλογή των γονέων που θα αποχωρήσουν µε πιθανότητα αντιστρόφως ανάλογη προς την καταλληλότητά τους.! Επιλογή των γονέων προς αναπαραγωγή µε πιθανότητα ανάλογη προς την καταλληλότητά τους και επιλογή των γονέων που θα αποχωρήσουν µε πιθανότητα αντιστρόφως ανάλογη προς την καταλληλότητά τους. Όπως φαίνεται από τα παραπάνω, δεν υπάρχει καµία περίπτωση να θεωρηθεί ότι τα χρωµοσώµατα που θα αποχωρήσουν είναι αυτά που επελέγησαν για αναπαραγωγή. ΑΠΑΝΤΗΣΤΕ 4 ΑΠΟ ΤΑ ΠΑΡΑΠΑΝΩ 5 ΘΕΜΑΤΑ