Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοηµοσύνη Ι» 7ο Φροντιστήριο 15/1/2008



Σχετικά έγγραφα
ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ

ΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΠΜΣΕ ΣΤΗΝ ΕΦΑΡΜΟΣΜΕΝΗ ΠΛΗΡΟΦΟΡΙΚΗ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΚΑΙ ΕΞΕΛΙΚΤΙΚΟΙ ΑΛΓΟΡΙΘΜΟΙ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

4. Ο αισθητήρας (perceptron)

ΑΠΑΝΤΗΣΕΙΣ - ΥΠΟ ΕΙΞΕΙΣ ΣΤΙΣ ΕΡΩΤΗΣΕΙΣ

οµή δικτύου ΣΧΗΜΑ 8.1

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Συσχετιστικές Μνήμες Δίκτυο Hopfield. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Αριθµητική Ανάλυση 1 εκεµβρίου / 43

/5

Ακρότατα υπό συνθήκη και οι πολλαπλασιαστές του Lagrange

1 Πολυωνυµική Παρεµβολή

Αριθµητική Γραµµική ΑλγεβραΚεφάλαιο 4. Αριθµητικός Υπολογισµός Ιδιοτιµών 2 Απριλίου και2015 Ιδιοδιανυσµάτων 1 / 50

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο

PROJECT ΣΤΟ ΜΑΘΗΜΑ ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟ ΟΥΣ

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Επίλυση Γραµµικών Συστηµάτων

Ασκήσεις μελέτης της 19 ης διάλεξης

ΚΕΦΑΛΑΙΟ 4 ΑΡΙΘΜΗΤΙΚΕΣ ΜΕΘΟ ΟΙ ΕΥΡΕΣΗΣ ΠΡΑΓΜΑΤΙΚΩΝ Ι ΙΟΤΙΜΩΝ. 4.1 Γραµµικοί µετασχηµατισµοί-ιδιοτιµές-ιδιοδιανύσµατα

Ακαδημαϊκό Έτος , Χειμερινό Εξάμηνο Διδάσκων Καθ.: Νίκος Τσαπατσούλης

αx αx αx αx 2 αx = α e } 2 x x x dx καλείται η παραβολική συνάρτηση η οποία στο x

ιακριτά Μαθηµατικά και Μαθηµατική Λογική ΠΛΗ20 Ε ρ γ α σ ί α 3η Θεωρία Γραφηµάτων

Περίληψη ιπλωµατικής Εργασίας

ΣΕΙΡΕΣ TAYLOR. Στην Ενότητα αυτή θα ασχοληθούµε µε την προσέγγιση συναρτήσεων µέσω πολυωνύµων. Πολυώνυµο είναι κάθε συνάρτηση της µορφής:

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΚΕΦΑΛΑΙΟ 3 ΑΡΙΘΜΗΤΙΚΗ ΕΠΙΛΥΣΗ ΓΡΑΜΜΙΚΩΝ ΣΥΣΤΗΜΑΤΩΝ. nn n n

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΡΟΓΡΑΜΜΑ ΣΠΟΥ ΩΝ «ΠΛΗΡΟΦΟΡΙΚΗ» ΜΑΘΗΜΑΤΙΚΑ Ι (ΘΕ ΠΛΗ 12) ΕΡΓΑΣΙΑ 4

Φυλλάδιο 1 - Σημεία Προσοχής στις Παραγράφους 1.1, 1.2 και 1.3

Το θεώρηµα πεπλεγµένων συναρτήσεων

1. ** Αν F είναι µια παράγουσα της f στο R, τότε να αποδείξετε ότι και η

Μαθηµατικό Παράρτηµα 2 Εξισώσεις Διαφορών

Σηµειώσεις στις σειρές

Κεφάλαιο 2ο (α) Αµιγείς Στρατηγικές (β) Μεικτές Στρατηγικές (α) Αµιγείς Στρατηγικές. Επαναλαµβάνουµε:

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

ÖÑÏÍÔÉÓÔÇÑÉÏ ÈÅÌÅËÉÏ ÇÑÁÊËÅÉÏ ÊÑÇÔÇÓ

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON

2η Οµάδα Ασκήσεων. 250 km db/km. 45 km 0.22 db/km 1:2. T 75 km 0.22 db/km 1:2. 75 km db/km. 1:2 225 km 0.22 db/km

Γραµµική Αλγεβρα Ι. Ενότητα: ιανυσµατικοί χώροι. Ευάγγελος Ράπτης. Τµήµα Μαθηµατικών

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

1. ** α) Αν η f είναι δυο φορές παραγωγίσιµη συνάρτηση, να αποδείξετε ότι. β α. = [f (x) ηµx] - [f (x) συνx] β α. ( )

Μάθημα 5 ο : Μετάδοση Μηνυμάτων

Ανάλυση Δεδοµένων µε χρήση του Στατιστικού Πακέτου R

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Ολοκληρωµένο Περιβάλλον Σχεδιασµού Και Επίδειξης Φίλτρων

ΕΛΕΓΧΟΙ ΠΡΟΣΑΡΜΟΓΗΣ & ΥΠΟΘΕΣΕΩΝ

Εισαγωγή στον Προγραµµατισµό. Ανάλυση (ή Επιστηµονικοί8 Υπολογισµοί)

Το μοντέλο Perceptron

Αριθµητική Ανάλυση. Ενότητα 4 Αριθµητικός Υπολογισµός Ιδιοτιµών και Ιδιοδιανυσµάτων. Ν. Μ. Μισυρλής. Τµήµα Πληροφορικής και Τηλεπικοινωνιών,

QR είναι ˆx τότε x ˆx. 10 ρ. Ποιά είναι η τιµή του ρ και γιατί (σύντοµη εξήγηση). P = [X. 0, X,..., X. (n 1), X. n] a(n + 1 : 1 : 1)

ΜΑΘΗΜΑΤΙΚΑ Β ΤΑΞΗΣ ΕΝΙΑΙΟΥ ΛΥΚΕΙΟΥ ΘΕΤΙΚΗΣ ΚΑΙ ΤΕΧΝΟΛΟΓΙΚΗΣ ΚΑΤΕΥΘΥΝΣΗΣ 2003

MEΤΑΣΧΗΜΑΤΙΣΜΟΙ ΤΗΣ ΜΟΡΦΗΣ Y= g( X1, X2,..., Xn)

Γενική Ισορροπία-Ευηµερία. 2ο Θεµελιώδες Θεώρηµα των Οικονοµικών της ευηµερίας. Notes. Notes. Notes. Notes. Κώστας Ρουµανιάς.

1. Εισαγωγή Ο έλεγχος υποθέσεων αναφέρεται στις ιδιότητες µιας άγνωστης παραµέτρους του πληθυσµού: Ο κατηγορούµενος είναι αθώος

ΜΑΘΗΜΑΤΙΚΑ ΚΑΤΕΥΘΥΝΣΗΣ 2011 ΕΚΦΩΝΗΣΕΙΣ

ΠΑΡΑΛΛΗΛΗ ΕΠΕΞΕΡΓΑΣΙΑ

ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 3ο Φροντιστήριο

Γνωριµία µε τη Microsoft Access

Εισαγωγή στον Προγραµµατισµό. Ανάλυση (ή Επιστηµονικοί8 Υπολογισµοί)

Γ ΓΕΝΙΚΟΥ ΛΥΚΕΙΟΥ ΜΑΘΗΜΑΤΙΚΑ ΚΑΤΕΥΘΥΝΣΗΣ ΕΚΦΩΝΗΣΕΙΣ ΘΕΜΑ Α

ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΑΤΡΩΝ ΙΑΤΜΗΜΑΤΙΚΟ ΠΜΣ «ΜΑΘΗΜΑΤΙΚΑ ΤΩΝ ΥΠΟΛΟΓΙΣΤΩΝ & ΤΩΝ ΑΠΟΦΑΣΕΩΝ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ η Σειρά Ασκήσεων ΑΠΑΝΤΗΣΕΙΣ

Ασκήσεις για το µάθηµα «Ανάλυση Ι και Εφαρµογές» (ε) Κάθε συγκλίνουσα ακολουθία άρρητων αριθµών συγκλίνει σε άρρητο αριθµό.

ΣΤΟΧΑΣΤΙΚΑ ΣΗΜΑΤΑ ΚΑΙ ΕΦΑΡΜΟΓΕΣ

Γραµµικοί Ταξινοµητές

Κλασικη ιαφορικη Γεωµετρια

400 = t2 (2) t = 15.1 s (3) 400 = (t + 1)2 (5) t = 15.3 s (6)

ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ

ΚΕΦΑΛΑΙΟ 3: Συνθήκες Αλυσίδων

Κώδικας σχεδίασης Λογισµικής ιαγραµµατικής Οντολογίας

4.3. Γραµµικοί ταξινοµητές

Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα

Πρόβληµα 2 (15 µονάδες)

ΕΠΑΝΑΛΗΠΤΙΚΑ ΘΕΜΑΤΑ 2016 Β ΦΑΣΗ Γ ΓΕΝΙΚΟΥ ΛΥΚΕΙΟΥ ΠΡΟΣΑΝΑΤΟΛΙΣΜΟΣ: ΘΕΤΙΚΩΝ ΣΠΟΥ ΩΝ / ΣΠΟΥ ΩΝ ΟΙΚΟΝΟΜΙΑΣ & ΠΛΗΡΟΦΟΡΙΚΗΣ

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΔΕ. 11 ΙΟΥΝΙΟΥ 2012

Φύλλο Εργασίας «Προσέγγιση της γραφής Braille µέσω Scratch»

Ακαδηµαϊκό Έτος , Εαρινό Εξάµηνο ιδάσκων Καθ.: Νίκος Τσαπατσούλης

Εισαγωγή. Οπως είδαµε για την εκκίνηση της Simplex χρειαζόµαστε µια Αρχική Βασική Εφικτή Λύση. υϊσµός

Φροντιστήριο 4. Άσκηση 1. Λύση. Πανεπιστήµιο Κρήτης, Τµήµα Επιστήµης Υπολογιστών HY463 - Συστήµατα Ανάκτησης Πληροφοριών Εαρινό Εξάµηνο

Ειδικά Θέµατα Υπολογιστικής Όρασης & Γραφικής. Εµµανουήλ Ζ. Ψαράκης & Αθανάσιος Τσακαλίδης Πολυτεχνική Σχολή Τµήµα Μηχανικών Η/Υ & Πληροφορικής

5.1 Θεωρητική εισαγωγή

Παρουσίαση 1 ΙΑΝΥΣΜΑΤΑ

ΘΕΜΑΤΑ ΕΞΕΤΑΣΗΣ ΚΑΙ ΑΠΑΝΤΗΣΕΙΣ ΕΞΕΤΑΣΤΙΚΗ ΠΕΡΙΟ ΟΣ:

f x = f a + Df a x a + R1 x, a, x U και από τον ορισµό της 1 h f a h f a h a h h a R h a i i j

Λύσεις 1 ης Σειράς Ασκήσεων (Αξιολόγηση της Αποτελεσµατικότητας της Ανάκτησης)

Physics by Chris Simopoulos

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ 2012

Αριθµητική Ανάλυση. 27 Οκτωβρίου Αριθµητική Ανάλυση 27 Οκτωβρίου / 72

ΚΕΦΑΛΑΙΟ Μηχανική Μάθηση

ΜΑΘΗΜΑΤΙΚΑ ΚΑΤΕΥΘΥΝΣΗΣ Γ ΛΥΚΕΙΟΥ & ΕΠΑ.Λ. Β 16 ΜΑΪΟΥ 2011 ΑΠΑΝΤΗΣΕΙΣ

Οδηγίες χρήσης του λογισµικού "Πολλαπλασιασµός"

ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ HOPFIELD ΚΑΙ KOHONEN

ΕΠΙΤΑΧΥΝΣΗ- ΕΠΙΤΑΧΥΝΟΜΕΝΗ ΚΙΝΗΣΗ

Transcript:

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοηµοσύνη Ι» 7ο Φροντιστήριο 5//008 Πρόβληµα ο Στα παρακάτω ερωτήµατα επισηµαίνουµε ότι perceptron είναι ένας νευρώνας και υποθέτουµε, όπου χρειάζεται, τη χρήση δικτύων από perceptrons µε ένα κρυµµένο επίπεδο. Επιπλέον, διαφορετικά σχέδια σηµαίνουν διαφορετικές κλάσεις δεδοµένων (π.χ. άσπρα, µαύρα, γκρι, κλπ). ίνεται το ακόλουθο σύνολο δεδοµένων. Χ α. Πόσα perceptrons χρειαζόµαστε στο κρυµµένο επίπεδο και γιατί; Χ β. Αν χρησιµοποιήσουµε δύο () perceptrons στο επίπεδο εξόδου µπορούµε να κάνουµε διαχωρισµό και γιατί; γ. Ας υποθέσουµε πως µας ενηµερώνουν «µυστικά» ότι είµαστε υποχρεωµένοι να χρησιµοποιήσουµε 7 perceptrons στο κρυµµένο επίπεδο. Πόσο αλλάζει αυτό το σχεδιασµό µας για το επίπεδο εξόδου; Λύση α. (αφού µε γραµµές επιτυγχάνουµε διαχωρισιµότητα χρειάζεται βέβαια προσοχή στη σχεδίαση). β. Ναι, αφού έχουµε κλάσεις δεδοµένων, και perceptrons µπορούν να συνδυαστούν µε τροπους. γ. εν το αλλάζει. Κατά ένα σενάριο, πάντα µετά από εκπαίδευση, µπορούµε να καταλήξουµε σε perceptrons του κρυµµένου επιπέδου που θα συνδέονται µε µεγάλα βάρη (κατ απόλυτη τιµή) µε το επίπεδο εξόδου (ενώ τα υπόλοιπα 4 perceptrons µάλλον θα έχουν σχεδόν µηδενικές τιµές). Πάτρα 5//008

Πρόβληµα ο Έστω ότι θέλουµε να αποθηκεύσουµε τις παρακάτω βασικές µνήµες σε ένα δίκτυο Hopfiel µε 5 νευρώνες. [ ] [ ] [ ] Θεωρείστε ότι τα κατώφλια είναι ίσα µε το µηδέν. a. Εφαρµόστε τα βήµατα του αλγορίθµου εκπαίδευσης του δικτύου Hopfiel προκειµένου να αποθηκεύσετε τα παραπάνω διανύσµατα. b. Προσπαθήστε να ανακαλέσετε τη βασική µνήµη που αντιστοιχεί στο φθαρµένο διάνυσµα [ ] Τ και επαληθεύστε το αποτέλεσµα του παραδείγµατος. c. Ποιος είναι ο µέγιστος αριθµός διανυσµάτων που µπορούµε να αποθηκεύσουµε σε ένα τέτοιο δίκτυο Hopfiel µε 5 νευρώνες (δεν ενδιαφερόµαστε για την ικανότητα ανάκλασης).. Ποιος είναι ο µέγιστος αριθµός διανυσµάτων που µπορούµε να αποθηκεύσουµε στο δίκτυο αυτό εάν επιθυµούµε τα αποθηκευµένα διανύσµατα (βασικές µνήµες) να ανακαλούνται τέλεια χωρίς κανένα σφάλµα. Τ Τ Τ Λύση a. Αρχικά υπολογίζουµε τον πίνακα των βαρών του δικτύου Hopfiel: - M I I m m T T T T m Πάτρα 5//008

[ ] [ ] 0 0 0 0 0 0 0 0 [ ] 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Εν συνεχεία ελέγχουµε αν τα τρία διανύσµατα αποθηκεύτηκαν σωστά: Εισάγουµε το διάνυσµα Χ : η Επανάληψη: 0 4 0 0 0 Y (0) sign (0) sign( 0. ) sign( 4) ( -θ) 0 0 0 0 4 η επανάληψη: 0 6 0 0 Y () sign () sign( 0. ) sign( 6) ( -θ) 0 0 0 6 Εισάγουµε το διάνυσµα Χ : η επανάληψη: Πάτρα 5//008

0 8 0 6 Y (0) sign (0) sign( 0 ) sign( 8) ( -θ) 0 6 0 8 Εισάγουµε το διάνυσµα Χ : η επανάληψη: 0 8 0 6 Y (0) sign (0) sign( 0 ) sign( 8) ( -θ) 0 6 0 8 Παρατηρούµε ότι το δεν αποθηκεύτηκε σωστά αφού βάζοντας το ως είσοδο παράγεται το Χ. Αντίθετα τα Χ και Χ αποθηκεύτηκαν σωστά. b. Εισάγουµε στο δίκτυο το ΧΧ(0) και υπολογίζουµε τη βασική µνήµη στην οποία καταλήγει το δίκτυο. 0 0 Y (0) sign( (0) -θ) sign( 0. ) sign( 4) 0 0 0 0 4 Y () sign( () -θ) sign( 0. ) sign( 8) 0 4 0 Πάτρα 5//008 4

Παρατηρούµε ότι το δίκτυο ισορροπεί στην κατάσταση Χ και όχι στη Χ όπως αναµενόταν. Όπως όµως είδαµε και στο προηγούµενο ερώτηµα το διάνυσµα Χ δεν αποθηκεύτηκε σωστά. c. Ο µέγιστος αριθµός διανυσµάτων (βασικές µνήµες) που µπορούµε να αποθηκεύσουµε σε ένα δίκτυο Hopfiel 5 νευρώνων χωρίς να ενδιαφερόµαστε για την ικανότητα ανάκλησης (αν έχουµε λάθη ή όχι) είναι: n 5 M max 0.5 n 0.5 5 0.75. Ο µέγιστος αριθµός διανυσµάτων (βασικές µνήµες) που µπορούµε να αποθηκεύσουµε σε ένα δίκτυο Hopfiel 5 νευρώνων εξασφαλίζοντας τέλεια ανάκληση (χωρίς κανένα λάθος) είναι: M max n n 5 5 0.7767 4 ln n 4 ln 5 Πρόβληµα ο Θεωρείστε ένα δίκτυο Kohonen µε τρεις εισόδους και δύο νευρώνες Kohonen. Θεωρείστε ότι υπάρχουν συνδέσεις µόνο µεταξύ των εισόδων και των νευρώνων Kohonen. Η δοµή του δικτύου αυτού απεικονίζεται στο παρακάτω σχήµα. Έστω ότι θέλουµε να εκπαιδεύσουµε το δίκτυο χρησιµοποιώντας τα ακόλουθα τέσσερα διανύσµατα εκπαίδευσης: 0.8 0.6 0. 0. 0.7, 0.9, 0.4, 0. 4 0.4 0.9 0. 0. Έστω, επίσης, ότι τα αρχικά βάρη που ενώνουν τους νευρώνες εισόδου µε τους νευρώνες Kohonen είναι: 0.4 0.6 και 0. 0.8 0.5 Θεωρείστε επίσης ότι η ακτίνα της γειτονιάς του νικητή νευρώνα είναι 0 (η γειτονιά περιλαµβάνει µόνο το νικητή νευρώνα) και ο ρυθµός µάθησης είναι 0.5. Πάτρα 5//008 5

Υπολογίστε τις µεταβολές και τις τιµές των συναπτικών βαρών κατά τη διάρκεια του πρώτου κύκλου εκπαίδευσης χρησιµοποιώντας τα διανύσµατα εισόδου µε τη σειρά µε την οποία δίνονται. Λύση Για το διάνυσµα υπολογίζουµε τις Ευκλείδειες αποστάσεις. Για τον ο νευρώνα Kohonen: Για τον ο νευρώνα Kohonen: (0.5 0.8) (0.6 0.7) (0.8 0.4) 0.5 (0.4 0.8) (0. 0.7) (0.5 0.4) 0.65 Παρατηρούµε ότι ο νευρώνας είναι πλησιέστερα (µε βάση την Ευκλείδεια απόσταση) στο διάνυσµα Χ, οπότε αυτός είναι και ο νικητής νευρώνας σε αυτή την πρώτη φάση. Οπότε: 0.8 0 0.5 ( 0 ) 0.6 0.5 ( 0.7 0.6 () ( ) - ( ) ) 0.8 0.4 0.8 0.65 0.6 0.05 0.65 0.8 0. 0.60 Οπότε µετά την παρουσίαση του διανύσµατος Χ τα συναπτικά βάρη του δικτύου έχουν ως εξής: Πάτρα 5//008 6

0.65 0.4 () 0.65 και () 0. 0.60 0.5 Παρουσιάζουµε το διάνυσµα Χ και υπολογίζουµε τις Ευκλείδειες αποστάσεις. Για τον ο νευρώνα Kohonen: Για τον ο νευρώνα Kohonen: (0.65 0.6) (0.65 0.9) (0.60 0.9) 0.9 (0.4 0.6) (0. 0.9) (0.5 0.9) 0.8 Παρατηρούµε ότι ο νευρώνας είναι πλησιέστερα (µε βάση την Ευκλείδεια απόσταση) στο διάνυσµα Χ, οπότε αυτός είναι και ο νικητής νευρώνας σε αυτή τη δεύτερη φάση. Οπότε: 0.65 0.6 0.65 0.5 ( ) 0.65 0.5 ( 0.9 0.65 ( ) ( ) - ( ) ) 0.60 0.9 0.60 0.65 0.05 0.65 0.65 0.5 0.775 0.60 0.5 0.750 Οπότε µετά την παρουσίαση και του διανύσµατος Χ τα συναπτικά βάρη του δικτύου έχουν ως εξής: 0.65 0.4 () 0.775 και () 0. 0.750 0.5 Παρουσιάζουµε το διάνυσµα Χ και υπολογίζουµε τις Ευκλείδειες αποστάσεις. Για τον ο νευρώνα Kohonen: (0.65 0.) (0.775 0.4) (0.75 0.) 0.8 Για τον ο νευρώνα Kohonen: (0.4 0.) (0. 0.4) (0.5 0.) 0.46 Πάτρα 5//008 7

Παρατηρούµε ότι αυτή τη φορά ο νευρώνας είναι αυτός που είναι πλησιέστερα (µε βάση την Ευκλείδεια απόσταση) στο διάνυσµα Χ, οπότε αυτός είναι και ο νικητής νευρώνας σε αυτή την τρίτη φάση. Οπότε: 0.4 0. 0.4 ( ) ( ) 0.5 ( - ( ) ) 0. 0.5 ( 0.4 0. ) 0.5 0. 0.5 0.4 0.05 0. 0. 0.0 0.5 0. 0.0 Οπότε µετά την παρουσίαση και του διανύσµατος Χ τα συναπτικά βάρη του δικτύου έχουν ως εξής: 0.65 () 0.775 και () 0.0 0.750 0.0 Παρουσιάζουµε το διάνυσµα Χ 4 και υπολογίζουµε τις Ευκλείδειες αποστάσεις. Για τον ο νευρώνα Kohonen: (0.65 0.) (0.775 0.) (0.75 0.) 0.96 Για τον ο νευρώνα Kohonen: (0.5 0.) (0. 0.) (0. 0.) 0. Παρατηρούµε ότι ο νευρώνας είναι αυτός που είναι πλησιέστερα (µε βάση την Ευκλείδεια απόσταση) στο διάνυσµα Χ 4, οπότε αυτός είναι και ο νικητής νευρώνας σε αυτή την τέταρτη φάση. Οπότε: 0. ( 4) ( ) 0.5 ( 4 - ( ) ) 0.0 0.5 ( 0. 0.0 ) 0.0 0. 0.0 0.0 0. 0.00 0.0 0 0.00 Οπότε µετά την παρουσίαση και του διανύσµατος Χ 4 (οπότε και έχουµε συµπληρώσει έναν κύκλο εκπαίδευσης) τα συναπτικά βάρη του δικτύου έχουν ως εξής: Πάτρα 5//008 8

0.65 (4) 0.775 και (4) 0.00 0.750 0.00 Πρόβληµα 4 ο Θεωρείστε ένα δίκτυο Kohonen µε δύο εισόδους και έξι νευρώνες Kohonen, στο οποίο υπάρχουν συνδέσεις µεταξύ των εισόδων και των νευρώνων Kohonen αλλά και πλήρεις παράπλευρες συνδέσεις. Η δοµή του δικτύου αυτού απεικονίζεται στο σχήµα. Σχήµα Έστω ότι θέλουµε να εκπαιδεύσουµε το δίκτυο χρησιµοποιώντας τα ακόλουθα τρία διανύσµατα εκπαίδευσης: 0.8, 0.7, 0.8 0.4 0. Έστω, επίσης, ότι τα αρχικά βάρη που ενώνουν τους νευρώνες εισόδου µε τους νευρώνες Kohonen είναι:, 0.6 0., 0. 0., 0.5 0.6, 0.7 0.4, 0.7 4 5 6 0. 0.6 Θεωρείστε επίσης ότι η ακτίνα της γειτονιάς του νικητή νευρώνα καθορίζεται από τη σχέση (), όπου p είναι ο τρέχοντας κύκλος εκπαίδευσης και P ο συνολικός αριθµός των κύκλων εκπαίδευσης και (0). Επίσης ο ρυθµός µάθησης του δικτύου Kohonen καθορίζεται από τη σχέση () µε α(0)0.5. Πάτρα 5//008 9

p ( p) (0) * ( ) (σχέση ) P p a( p) a(0) * ( ) (σχέση ) P Υπολογίστε τις µεταβολές και τις τιµές των συναπτικών βαρών κατά τη διάρκεια των τριών κύκλων εκπαίδευσης χρησιµοποιώντας τα διανύσµατα εισόδου µε τη σειρά µε την οποία δίνονται και θεωρώντας ότι: κάθε διάνυσµα εισόδου αντιστοιχεί σε έναν κύκλο εκπαίδευσης και ότι η εκπαίδευση του δικτύου τερµατίζεται µε την παρουσίαση των διανυσµάτων. Λύση ο διάνυσµα ος κύκλος εκπαίδευσης (σύµφωνα µε εκφώνηση) Υπολογίζω,,., 6 µε βάση την Ευκλείδεια απόσταση του µε τα αρχικά βάρη: x w n i ( x i w ji ) Οπότε: (0.5 0.8) (0.6 0.7) 0.6 Οµοίως και τα υπόλοιπα. 0.806 0.6 4 0.00 5 0.400 6 0.608 Προκύπτει ότι το 4 είναι το µικρότερο, οπότε ενεργοποιείται ο νευρώνας 4 στο επίπεδο Kohonen. Βρίσκω την γειτονιά που θα ενεργοποιήσει τις παράπλευρες συνδέσεις µε τη σχέση (): (όπου p,p και (0)) ()(0)*(-/)*/. Άρα η ακτίνα της γειτονιάς είναι. Συνεπώς µεταβάλλονται τα βάρη του νευρώνα 4 και των γειτονικών του εκατέρωθεν (5,6 και,) Υπολογίζω και το α() µε τη σχέση (): α()α(0)*(-/)0. (όπου α(0)0.5) Πάτρα 5//008 0

Μένει να υπολογίσω τις ανανεώσεις των βαρών για τους νευρώνες,,4,5 και 6. ( ) (0) (το βάρος του νευρώνα παραµένει αναλλοίωτο) 0.6 0. 0.8 0. 0. ( ) (0) a() * ( (0)) 0. * ( ) 0. 0.7 0. 0.4 Οµοίως υπολογίζονται και τα υπόλοιπα: () 0.4 0.667, 0.567 () 4, 0.7 () 0.4 5, 0.7 () 6 0.6 ο διάνυσµα ος κύκλος εκπαίδευσης (σύµφωνα µε εκφώνηση) Υπολογίζω,,., 6 µε βάση την Ευκλείδεια απόσταση του µε τα ανανεωµένα βάρη (του κύκλου, δηλ. (), () κτλ: x w Προκύπτει: 0.00 0.40 0.54 4 0.94 5 0.05 6 0.94 n i ( x i w ji ) Προκύπτει λοιπόν ότι το 5 είναι το µικρότερο, οπότε ενεργοποιείται ο νευρώνας 4 στο επίπεδο Kohonen. Βρίσκω την γειτονιά που θα ενεργοποιήσει τις παράπλευρες συνδέσεις µε τη σχέση (): (όπου p,p και (0)) ()(0)*(-/)*/. Άρα η ακτίνα της γειτονιάς είναι. Συνεπώς µεταβάλλονται τα βάρη του νευρώνα 5 και των αµέσως γειτονικών του (6 και 4). Υπολογίζω και το α() µε τη σχέση (): α()α(0)*(-/)0.67 (όπου α(0)0.5) Μένει να υπολογίσω τις ανανεώσεις των βαρών για τους νευρώνες 4,5 και 6. Πάτρα 5//008

( ) (), 0.6 0. ( ) () 0.4 0.4 ( ) () 0.567 Και αρχίζω τον υπολογισµό του νευρώνα 4. 0.667 0.667 0.69 4( ) 4 () a()*( 4 ()) 0.67 *( ) 0.7 0.8 0.7 0.77 Οµοίως υπολογίζονται και τα υπόλοιπα: () 0.58 0.46 5, 0.77 () 6 0.66 ο διάνυσµα ος κύκλος εκπαίδευσης (σύµφωνα µε εκφώνηση) Υπολογίζω,,., 6 µε βάση την Ευκλείδεια απόσταση του µε τα ανανεωµένα βάρη (του κύκλου, δηλ. (), () κτλ: x w Προκύπτει: 0.6 0.49 0.67 4 0.480 5 0.46 6 0.6 n i ( x i w ji ) Προκύπτει λοιπόν ότι το είναι το µικρότερο, οπότε ενεργοποιείται ο νευρώνας στο επίπεδο Kohonen. Βρίσκω την γειτονιά που θα ενεργοποιήσει τις παράπλευρες συνδέσεις µε τη σχέση (): (όπου p,p και (0)) ()(0)*(-/)*00. Άρα η ακτίνα της γειτονιάς είναι 0. Συνεπώς µεταβάλλονται τα βάρη του νευρώνα µόνο. Υπολογίζω και το α() µε τη σχέση (): α()α(0)*(-/)0 (όπου α(0)0.5) Πάτρα 5//008

Συνεπώς αν και κανονικά έπρεπε να µεταβληθεί το βάρος του νευρώνα, αφού ο ρυθµός εκπαίδευσης µηδενίστηκε, δεν θα µεταβληθεί ούτε αυτό το βάρος. Άρα τα βάρη των νευρώνων στον κύκλο είναι τα ίδια µε αυτά του κύκλου. Πάτρα 5//008