ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Σχετικά έγγραφα
ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Υπολογιστική Νοημοσύνη. Μάθημα 10: Ομαδοποίηση με Ανταγωνιστική Μάθηση - Δίκτυα Kohonen

ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΠΜΣΕ ΣΤΗΝ ΕΦΑΡΜΟΣΜΕΝΗ ΠΛΗΡΟΦΟΡΙΚΗ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΚΑΙ ΕΞΕΛΙΚΤΙΚΟΙ ΑΛΓΟΡΙΘΜΟΙ

Υπολογιστική Νοημοσύνη. Μάθημα 12: Παραδείγματα Ασκήσεων 2

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

οµή δικτύου ΣΧΗΜΑ 8.1

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοηµοσύνη Ι» 7ο Φροντιστήριο 15/1/2008

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)

ΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Το μοντέλο Perceptron

Επίλυση Γραµµικών Συστηµάτων

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

προβλήµατος Το φίλτρο Kalman διαφέρει από τα συνηθισµένα προβλήµατα ΜΕΤ σε δύο χαρακτηριστικά: παραµέτρων αγνώστων

Γραµµική Άλγεβρα. Εισαγωγικά. Μέθοδος Απαλοιφής του Gauss

Α.Τ.ΕΙ ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΠΟΛΥΜΕΣΩΝ. ΕΡΓΑΣΤΗΡΙΟ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ

ΚΕΦΑΛΑΙΟ 3 ΑΡΙΘΜΗΤΙΚΗ ΕΠΙΛΥΣΗ ΓΡΑΜΜΙΚΩΝ ΣΥΣΤΗΜΑΤΩΝ. nn n n

Υπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ

ΘΕΩΡΙΑ: Έστω η οµογενής γραµµική διαφορική εξίσωση τάξης , (1)

Οι πράξεις που χρειάζονται για την επίλυση αυτών των προβληµάτων (αφού είναι απλές) µπορούν να τεθούν σε µια σειρά και πάρουν µια αλγοριθµική µορφή.

4.2 Μέθοδος Απαλοιφής του Gauss

ΕΠΑΝΑΛΗΠΤΙΚΕΣ ΕΡΩΤΗΣΕΙΣ ΣΤΗΝ ΟΙΚΟΝΟΜΕΤΡΙΑ II ΗΜΗΤΡΙΟΣ ΘΩΜΑΚΟΣ

Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΘΕΩΡΙΑ ΠΑΙΓΝΙΩΝ

{ } ΠΛΗ 12: ΜΑΘΗΜΑΤΙΚΑ ΓΙΑ ΤΗ ΠΛΗΡΟΦΟΡΙΚΗ Ι 2 η ΓΡΑΠΤΗ ΕΡΓΑΣΙΑ. Απαντήσεις. 1. (15 µονάδες)

Υπολογιστική Νοημοσύνη. Μάθημα 9: Γενίκευση

2.0 ΔΙΑΝΥΣΜΑΤΙΚΟΙ ΧΩΡΟΙ ΚΑΙ ΓΡΑΜΜΙΚΑ ΣΥΣΤΗΜΑΤΑ

ΚΕΦΑΛΑΙΟ 4 ΑΡΙΘΜΗΤΙΚΕΣ ΜΕΘΟ ΟΙ ΕΥΡΕΣΗΣ ΠΡΑΓΜΑΤΙΚΩΝ Ι ΙΟΤΙΜΩΝ. 4.1 Γραµµικοί µετασχηµατισµοί-ιδιοτιµές-ιδιοδιανύσµατα

Ακαδηµαϊκό Έτος , Εαρινό Εξάµηνο ιδάσκων Καθ.: Νίκος Τσαπατσούλης

Υπολογιστική Νοημοσύνη. Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks

Μηχανική ΙI Ροή στο χώρο των φάσεων, θεώρηµα Liouville

Ανταγωνιστική Εκμάθηση Δίκτυα Kohonen. Κυριακίδης Ιωάννης 2013

Τσάπελη Φανή ΑΜ: Ενισχυτική Μάθηση για το παιχνίδι dots. Τελική Αναφορά

6. ΔΙΑΝΥΣΜΑΤΙΚΟΙ ΧΩΡΟΙ ΚΑΙ ΑΝΤΙΣΤΡΟΦΑ ΠΡΟΒΛΗΜΑΤΑ

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

ΛΥΣΕΙΣ 6 ης ΕΡΓΑΣΙΑΣ - ΠΛΗ 12,

Κ. Ι. ΠΑΠΑΧΡΗΣΤΟΥ. Τοµέας Φυσικών Επιστηµών Σχολή Ναυτικών οκίµων ΟΡΙΖΟΥΣΕΣ. Ιδιότητες & Εφαρµογές

Τεχνητά Νευρωνικά Δίκτυα. Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

Μέθοδοι πολυδιάστατης ελαχιστοποίησης

Σ 1 γράφεται ως. διάνυσµα στο Σ 2 γράφεται ως. Σ 2 y Σ 1

Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

Θεωρείστε το σύστηµα του ανεστραµµένου εκκρεµούς-οχήµατος του Σχ. 1 το οποίο περιγράφεται από το δυναµικό µοντέλο

Προσαρµοστικοί Αλγόριθµοι Υλοποίησης Βέλτιστων Ψηφιακών Φίλτρων: Ο αναδροµικός αλγόριθµος ελάχιστων τετραγώνων (RLS Recursive Least Squares)

Μετασχηµατισµοί Laplace, Αναλογικά Συστήµατα, ιαφορικές Εξισώσεις

Νευρωνικά ίκτυα και Εξελικτικός

Άσκηση 1. i) ============================================================== Α n ( 3 n 1 ) A ) 5 4. Α n 1 2 ( n n 2.

ΓΡΑΜΜΙΚΗ ΑΛΓΕΒΡΑ Ι (ΑΡΤΙΟΙ) Λυσεις Ασκησεων - Φυλλαδιο 2

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 2ο Φροντιστήριο

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΦΥΣΙΚΗΣ. ΕΞΕΤΑΣΗ ΣΤΗ ΜΗΧΑΝΙΚΗ Ι Σεπτέµβριος 2004

( ) Κλίση και επιφάνειες στάθµης µιας συνάρτησης. x + y + z = κ ορίζει την επιφάνεια µιας σφαίρας κέντρου ( ) κ > τότε η

Ανδρέας Παπαζώης. Τμ. Διοίκησης Επιχειρήσεων

ΓΡΑΜΜΙΚΗ ΑΛΓΕΒΡΑ Ι (ΠΕΡΙΤΤΟΙ) Λυσεις Ασκησεων - Φυλλαδιο 3

Υλοποιήσεις Ψηφιακών Φίλτρων

Γραµµικός Προγραµµατισµός - Μέθοδος Simplex

Αριθµητική Ολοκλήρωση

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

Παραδείγματα Διανυσματικοί Χώροι Ι. Λυχναρόπουλος

ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ

( ) Κλίση και επιφάνειες στάθµης µιας συνάρτησης. x + y + z = κ ορίζει την επιφάνεια µιας σφαίρας κέντρου ( ) κ > τότε η

QR είναι ˆx τότε x ˆx. 10 ρ. Ποιά είναι η τιµή του ρ και γιατί (σύντοµη εξήγηση). P = [X. 0, X,..., X. (n 1), X. n] a(n + 1 : 1 : 1)

ΑΠΑΝΤΗΣΕΙΣ - ΥΠΟ ΕΙΞΕΙΣ ΣΥΝΤΟΜΕΣ ΛΥΣΕΙΣ ΣΤΙΣ ΕΡΩΤΗΣΕΙΣ

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 3ο Φροντιστήριο

(2) Θεωρούµε µοναδιαία διανύσµατα α, β, γ R 3, για τα οποία γνωρίζουµε ότι το διάνυσµα

Στατιστική περιγραφή τουπεδίουβαρύτητας

4. Ο αισθητήρας (perceptron)

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΘΕΩΡΙΑ ΠΑΙΓΝΙΩΝ

Κανονικ ες ταλαντ ωσεις

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΜΑΘΗΣΗ ΔΙΚΤΥA LVQ και SOM. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

/5

ΛΥΣΕΙΣ ΑΣΚΗΣΕΩΝ ΕΞΕΤΑΣΤΙΚΗΣ ΠΕΡΙΟ ΟΥ ΙΟΥΝΙΟΥ 2004., η οποία όµως µπορεί να γραφεί µε την παρακάτω µορφή: 1 e

Ανάλυση Ηλεκτρικών Κυκλωμάτων

Μη Συµβολικές Μέθοδοι

Φίλτρα Kalman. Αναλυτικές μέθοδοι στη Γεωπληροφορική. ιατύπωση του βασικού προβλήματος. προβλήματος. μοντέλο. Πρωτεύων μοντέλο

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

Γραµµικη Αλγεβρα Ι Επιλυση Επιλεγµενων Ασκησεων Φυλλαδιου 3

x 2 = x x 2 2. x 2 = u 2 + x 2 3 Χρησιµοποιώντας το συµβολισµό του ανάστροφου, αυτό γράφεται x 2 = x T x. = x T x.

ΣΗΜΕΙΩΣΕΙΣ ΜΑΘΗΜΑΤΙΚΗΣ ΑΝΑΛΥΣΗΣ Ι ( )

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΘΕΩΡΙΑ ΠΑΙΓΝΙΩΝ

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΡΟΓΡΑΜΜΑ ΣΠΟΥ ΩΝ «ΠΛΗΡΟΦΟΡΙΚΗ» ΜΑΘΗΜΑΤΙΚΑ Ι (ΘΕ ΠΛΗ 12) ΕΡΓΑΣΙΑ 4

============================================================== Σχηµατίζουµε τον πίνακα µε στήλες τα διανύσµατα v1,v2,v3,u1,u2:

Εισαγωγή στους Νευρώνες. Κυριακίδης Ιωάννης 2013

Επιστηµονικός Υπολογισµός Ι Ενότητα 1 - Εισαγωγή. Ευστράτιος Γαλλόπουλος

ΓΡΑΜΜΙΚΗ ΑΛΓΕΒΡΑ Ι (ΠΕΡΙΤΤΟΙ) Λυσεις Ασκησεων - Φυλλαδιο 2

3. ΕΠΙΛΥΣΗ ΓΡΑΜΜΙΚΟΥ ΑΝΤΙΣΤΡΟΦΟΥ ΠΡΟΒΛΗΜΑΤΟΣ ΜΕ ΤΗ ΜΕΘΟΔΟ ΜΗΚΩΝ

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΡΟΓΡΑΜΜΑ ΣΠΟΥ ΩΝ ΣΤΗΝ ΠΛΗΡΟΦΟΡΙΚΗ ΜΑΘΗΜΑΤΙΚΑ Ι (ΘΕ ΠΛΗ 12)

Transcript:

ΘΕΜΑ ο 2.5 µονάδες ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 2 Οκτωβρίου 23 ιάρκεια: 2 ώρες Έστω το παρακάτω γραµµικώς διαχωρίσιµο σύνολο εκπαίδευσης: Είσοδος Χρησιµοποιείστε το παραπάνω σύνολο για να εκπαιδεύσετε έναν γραµµικό νευρώνα µε βηµατική συνάρτηση:, αν >, αν Για την εκπαίδευση χρησιµοποιείστε τον κανόνα δέλτα, w j,i w j,i-new -w j,i-old -da i -o i a j, όπου a i η τρέχουσα έξοδος του νευρώνα i και o i η επιθυµητή έξοδος του νευρώνα i. Μπορείτε να χρησιµοποιήσετε οποιαδήποτε θετική τιµή θέλετε για την σταθερά d, π.χ. d. Παρατήρηση: Ο νευρώνας πρέπει να έχει τρεις εισόδους, δύο κανονικές και µια για την τάση πόλωσης. Θεωρείστε ότι η τάση πόλωσης ισούται µε. ώστε αρχικές τιµές στα βάρη ίσες µε µηδέν. Υπόδειξη: Παρουσιάστε τη διαδικασία εκπαίδευσης συµπληρώνοντας τον παρακάτω πίνακα, για καλύτερη παρουσίαση της διαδικασίας µάθησης. επανάληψης παραδεί -γµατος Είσοδος Βάρη Επιθυµη τή έξοδος 2 2 3 3 4 4 5 6 2 7 3 8 4 9.................. Μεταβολές βαρών Θα παρουσιάζουµε κυκλικά τα παραδείγµατα εκπαίδευσης στις εισόδους του νευρώνα µαζί µε τη σταθερή τάση πόλωσης, θα υπολογίζουµε κάθε φορά την έξοδο και θα τη συγκρίνουµε µε την επιθυµητή έξοδο για το εκάστοτε τρέχον παράδειγµα. Όταν η τρέχουσα και η επιθυµητή έξοδος συµπίπτουν δεν χρειάζεται να κάνουµε αλλαγή βαρών. Όταν όµως η τρέχουσα και η επιθυµητή

έξοδος διαφέρουν, υπολογίζουµε τη µεταβολή του βάρους για κάθε µια από τις µη-µηδενικές εισόδους. Τη διαδικασία αυτή θα την εκτελέσουµε πολλές φορές, µέχρι τα βάρη να πάρουν τέτοιες τιµές ώστε να προκύπτει σωστή έξοδος για όλα τα παραδείγµατα εκπαίδευσης. Παρακάτω φαίνεται ο πίνακας συµπληρωµένος. επανάληψης παραδεί -γµατος Είσοδος Βάρη Επιθυµη τή έξοδος Μεταβολές βαρών 2 2 3 3 4 4 5 2 - - 6 2 7 3 - - 8 4 - - 9 - - 2 - - 3-2 4-3 2 - - 4 2-2 - 5 3-2 - - 6 4-2 - -3 7-8 2 - - 9 3 - - 2 4-2 2 2 - - 22 2 - - 23 3-24 4-25 - ΘΕΜΑ 2 ο 2.5 µονάδες Ορίστε το πρόβληµα του υπερβολικού ταιριάσµατος overfitting κατά την εκπαίδευση νευρωνικών δικτύων. Περιγράψτε δύο µεθόδους για την αντιµετώπισή του. Το πρόβληµα του υπερβολικού ταιριάσµατος έχει να κάνει µε την ελαχιστοποίηση του σφάλµατος ενός νευρωνικού δικτύου στα δεδοµένα εκπαίδευσης, ενώ την ίδια στιγµή παρουσιάζει πολύ µεγάλα σφάλµατα σε νέα δεδοµένα που διαφέρουν λίγο από τα δεδοµένα εκπαίδευσης. Το πρόβληµα εµφανίζεται σε νευρωνικά δίκτυα µε πολύ µεγάλους αριθµούς νευρώνων στο κρυφό επίπεδο, τα οποία εκπαιδεύονται µέχρι να ελαχιστοποιηθεί το συνολικό σφάλµα σε πολύ µεγάλο βαθµό. Μερικές µέθοδοι αντιµετώπισης του προβλήµατος είναι οι εξής: α Τροποποίηση της συνάρτησης σφάλµατος, έτσι ώστε να προτιµούνται οι µικροί συντελεστές βαρύτητας. N n 2 2 MEREG γ ai oi + γ w j N i N j β Χρήση στατιστικών µεθόδων για εκτίµηση του πλήθους των εσωτερικών συνδέσεων που χρειάζονται για την εκπαίδευση του δικτύου.

γ Μέθοδος του πρόωρου τερµατισµού, µε καταµερισµό των διαθέσιµων δεδοµένων σε δεδοµένα εκπαίδευσης, δεδοµένα επαλήθευσης και δεδοµένα ελέγχου. ΘΕΜΑ 3 ο 2.5 µονάδες Εξηγείστε τη λογική λειτουργίας των ανταγωνιστικών νευρώνων. Περιγράψτε τον τρόπο εκπαίδευσής τους κανόνας µάθησης Kohonen. Υποδείξτε δύο τρόπους αντιµετώπισης του φαινοµένου των νεκρών νευρώνων dead neurons. Ένα στρώµα µε ανταγωνιστικούς νευρώνες λειτουργεί ως εξής: Όλοι οι νευρώνες δέχονται το σήµα από τους νευρώνες του προηγούµενου επιπέδου συνήθως το επίπεδο εισόδου. Κάθε νευρώνας υπολογίζει την ευκλείδια απόσταση του διανύσµατος εισόδου Χ από το διάνυσµα των βαρών των εισόδων του Wi: d X-Wi. Ο νευρώνας µε τη µικρότερη απόσταση παράγει έξοδο, ενώ όλοι οι υπόλοιποι παράγουν έξοδο. Γενικά δεν υπάρχει επόµενο επίπεδο µετά το επίπεδο µε ανταγωνιστικούς νευρώνες. Η µάθηση σε ένα επίπεδο ανταγωνιστικών νευρώνων γίνεται χωρίς επίβλεψη. Τα παραδείγµατα εκπαίδευσης µόνο είσοδοι παρουσιάζονται στο δίκτυο διαδοχικά και µε τυχαία σειρά. Για κάθε παράδειγµα εκπαίδευσης βρίσκεται ο νευρώνας i µε την µικρότερη ευκλείδια απόσταση d Wi-X και τα βάρη του αλλάζουν ώστε να πλησιάσουν περισσότερο το τρέχον παράδειγµα, σύµφωνα µε τη σχέση: Wi'Wi+aX-Wi ΚΑΝΟΝΑΣ ΜΑΘΗΣΗΣ KOHONEN όπου i ο νευρώνας που κέρδισε, Wi Το προηγούµενο διάνυσµα βαρών του νευρώνα i, Wi' Το νέο διάνυσµα βαρών του νευρώνα i, Χ το τρέχον διάνυσµα εισόδου και a ο ρυθµός εκπαίδευσης. Τα βάρη των υπολοίπων νευρώνων παραµένουν αµετάβλητα. Ένα πρόβληµα που εµφανίζουν τα δίκτυα ανταγωνιστικής µάθησης είναι ότι κάποιοι νευρώνες ενδέχεται να µην κερδίσουν ποτέ! ειδικά εάν έχουµε πολλούς νευρώνες. Οι νευρώνες αυτοί θα κρατήσουν τα αρχικά τους βάρη τα οποία τους έχουν αποδοθεί τυχαία. Για να αποφύγουµε νεκρούς νευρώνες χρησιµοποιούµε τα βάρη εισόδου της σταθερής τάσης πόλωσης bias. Η τάση πόλωση έχει τιµή για όλους τους νευρώνες στο Matlab. Τα αρχικά βάρη της τάσης πόλωσης παίρνουν µια µεγάλη τιµή, ίδια για όλους τους νευρώνες, δηµιουργώντας έτσι µια µεγάλη απόσταση από την τιµή της τάσης πόλωσης. Η αλλαγή των βαρών της τάσης πόλωσης γίνεται µε τέτοιον τρόπο, ώστε να δίνονται µικρότερα βάρη στην τάση πόλωσης στους νευρώνες που δεν κερδίζουν συχνά. Ένας δεύτερος τρόπος αντιµετώπισης του φαινοµένου των νεκρών νευρώνων είναι τα δίκτυα αυτοοργάνωσης. Σε αυτά, οι νευρώνες του ανταγωνιστικού επιπέδου θεωρείται ότι σχηµατίζουν ένα νοητό πλέγµα π.χ. ορθογώνιο, εξαγωνικό, τυχαίο. Για κάθε παράδειγµα εκπαίδευσης, εκτός από τα βάρη του νευρώνα-νικητή, αλλάζουν τα βάρη και για τους νευρώνες της "γειτονιάς" στο πλέγµα του νευρώνα-νικητή. ΘΕΜΑ 4 ο 2.5 µονάδες Κατασκευάστε ένα δίκτυο Hopfield για την αποθήκευση του διανύσµατος X [ - ]. Πώς συµπεριφέρεται το δίκτυο εάν εµφανιστεί στην είσοδό του το διάνυσµα Χ 2 [- - ];

Προφανώς το δίκτυο Hopfield θα αποτελείται από τέσσερις νευρώνες, κάθε ένας από τους οποίους συνδέεται µε όλους τους άλλους, εκτός από τον εαυτό του. Πρώτα υπολογίζουµε τα βάρη των συνδέσεων: [ ] W Επειδή όµως δεν υπάρχουν συνδέσεις από κάθε νευρώνα στον εαυτό του, τα διαγώνια στοιχεία του παραπάνω πίνακα µηδενίζονται: W Έστω ότι στο δίκτυο παρουσιάζεται η είσοδος X 2 [- - ], η οποία διαφέρει από το αρχικό διάνυσµα σε ένα στοιχείο. Θα υπολογίσουµε τις νέες εξόδους των νευρώνων µε τυχαία σειρά, έστω µε τη σειρά 3, 4,, 2. Νέα έξοδος 3ου νευρώνα: [ ], 3 3 Το διάνυσµα παραµένει [- - ]. Νέα έξοδος 4ου νευρώνα: [ ], 4 4 Το διάνυσµα παραµένει [- - ]. Νέα έξοδος του ου νευρώνα: [ ] 3, Το διάνυσµα αλλάζει σε [ - ]. Τέλος ενηµέρωση του 2ου νευρώνα: [ ] 3, 2 2 Έχει λοιπόν παραχθεί το αρχικό διάνυσµα. Αν συνεχίσουµε τις "ενηµερώσεις", η κατάσταση αυτή δεν θα αλλάξει. ΘΕΜΑ 5 ο 2.5 µονάδες Περιγράψτε τον τρόπο λειτουργίας ενός ακτινικού δικτύου. Ποια τα πλεονεκτήµατα/µειονεκτήµατα των ακτινικών δικτύων σε σχέση µε τα feed-forward νευρωνικά δίκτυα;

Ένα ακτινικό δίκτυο radial basis network µοιάζει στη λειτουργία του µε ένα ανταγωνιστικό δίκτυο. Ο βαθµός ενεργοποίησης ενός ακτινικού νευρώνα εξαρτάται από την απόσταση του σήµατος εισόδου από τα βάρη εισόδου του νευρώνα, i w-x, όπου w τα βάρη στην είσοδο του νευρώνα και x η τρέχουσα είσοδος. Ενεργοποιούνται όλοι οι νευρώνες, όµως ο βαθµός της ενεργοποίησης είναι µεγαλύτερος για τους νευρώνες εκείνους, τα βάρη εισόδου των οποίων βρίσκονται πιο κοντά στην τρέχουσα είσοδο. Η ακτινική συνάρτηση ενεργοποίησης είναι η εξής:.8326 2 i σ i e Στη γενική του µορφή ένα ακτινικό δίκτυο έχει την παρακάτω δοµή: Ακτινικοί νευρώνες Γραµµικοί νευρώνες Οι νευρώνες του ακτινικού επιπέδου είναι τόσοι όσα και τα παραδείγµατα εκπαίδευσης. Κάθε ακτινικός νευρώνας λοιπόν αντιστοιχεί σε ένα παράδειγµα εκπαίδευσης. Τα βάρη στις εισόδους κάθε νευρώνα του ακτινικού επιπέδου είναι ίδια µε τις τιµές του αντίστοιχου παραδείγµατος εκπαίδευσης. Οι έξοδοι των νευρώνων του ακτινικού επιπέδου πολλαπλασιάζονται µε τα βάρη στις εισόδους των νευρώνων του γραµµικού επιπέδου και τελικά δίνουν τις εξόδους του δικτύου. Το ακτινικό δίκτυο δεν χρειάζεται εκπαίδευση. Τα βάρη µπορούν να υπολογιστούν αυτόµατα από τα παραδείγµατα εκπαίδευσης. Ειδικότερα, τα βάρη στις εισόδους των ακτινικών νευρώνων αντιστοιχούν στις εισόδους των παραδειγµάτων εκπαίδευσης ένα παράδειγµα για κάθε νευρώνα. Στη συνέχεια τα βάρη στις εξόδους των ακτινικών νευρώνων υπολογίζονται έτσι ώστε το ακτινικό δίκτυο να απαντά απολύτως σωστά σε όλα τα παραδείγµατα εκπαίδευσης. Ο υπολογισµός των βαρών αυτών βασίζεται στην επίλυση συστηµάτων Ν γραµµικών εξισώσεων µε Ν αγνώστους, όπου Ν το πλήθος των παραδειγµάτων και άρα και των ακτινικών νευρώνων αλλά και το πλήθος των βαρών στις εισόδους κάθε γραµµικού νευρώνα. Σε σχέση µε ένα απλό νευρωνικό δίκτυο feed-forward, ένα ακτινικό δίκτυο πλεονεκτεί γιατί: εν χρειάζεται εκπαίδευση Παρουσιάζει καλύτερη συµπεριφορά σε προβλήµατα µε πάρα πολλά παραδείγµατα Και µειονεκτεί γιατί: Έχει περισσότερους νευρώνες Έχει µεγαλύτερο χρόνο υπολογισµού κατά τη λειτουργία του λόγω ακριβώς των περισσότερων νευρώνων. ΑΠΑΝΤΗΣΤΕ 4 ΑΠΟ ΤΑ ΠΑΡΑΠΑΝΩ 5 ΘΕΜΑΤΑ