Ανταγωνιστική Εκμάθηση Δίκτυα Kohonen. Κυριακίδης Ιωάννης 2013

Σχετικά έγγραφα
Α.Τ.ΕΙ ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΠΟΛΥΜΕΣΩΝ. ΕΡΓΑΣΤΗΡΙΟ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ

Αρχιτεκτονική Νευρωνικών Δικτύων

Προσομοίωση Νευρωνικού Δικτύου στο MATLAB. Κυριακίδης Ιωάννης 2013

Εισαγωγή στους Νευρώνες. Κυριακίδης Ιωάννης 2013

Δίκτυα Perceptron. Κυριακίδης Ιωάννης 2013

Α.Σ.Ε.Ι ΚΡΗΣΗ ΣΜΗΜΑ ΕΦΑΡΜΟΜΕΝΗ ΠΛΗΡΟΦΟΡΙΚΗ & ΠΟΛΤΜΕΩΝ ΕΡΓΑΣΗΡΙΟ ΝΕΤΡΩΝΙΚΩΝ ΔΙΚΣΤΩΝ 2

Υπολογιστική Νοημοσύνη. Μάθημα 12: Παραδείγματα Ασκήσεων 2

Υπολογιστική Νοημοσύνη. Μάθημα 10: Ομαδοποίηση με Ανταγωνιστική Μάθηση - Δίκτυα Kohonen

Backpropagation Multilayer Feedforward Δίκτυα. Κυριακίδης Ιωάννης 2013

Α.Τ.Ε.Ι ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΠΟΛΥΜΕΣΩΝ ΕΡΓΑΣΤΗΡΙΟ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ 4

Μετασχηματισμός Z. Κυριακίδης Ιωάννης 2011

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Α.Τ.Ε.Ι ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΠΟΛΥΜΕΣΩΝ ΕΡΓΑΣΤΗΡΙΟ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ. Σχήμα 1 Η λειτουργία του νευρώνα

Α. ΤΕΙ ΚΡΗΤΗΣ Τµήµα Εφαρµοσµένης Πληροφορικής και Πολυµέσων Εργαστήριο Νευρωνικών Δικτύων

ΔΙΑΝΥΣΜΑΤΙΚΟΙ ΧΩΡΟΙ. Διανυσματικός χώρος

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή

Το μοντέλο Perceptron

Σχεδιασμός Φίλτρων. Κυριακίδης Ιωάννης 2011

Συστήματα Διακριτού Χρόνου (Discrete-Time Systems) Κυριακίδης Ιωάννης 2011

Συνδυαστική Βελτιστοποίηση Εισαγωγή στον γραμμικό προγραμματισμό (ΓΠ)

ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΜΑΘΗΣΗ ΔΙΚΤΥA LVQ και SOM. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

Αναγνώριση Προτύπων Ι

Εφαρμοσμένα Μαθηματικά ΙΙ 9ο Σετ Ασκήσεων (Λύσεις) Διανυσματικοί Χώροι

ΘΕΩΡΙΑ ΑΠΟΦΑΣΕΩΝ 3 ο ΦΡΟΝΤΙΣΤΗΡΙΟ ΛΥΣΕΙΣ ΤΩΝ ΑΣΚΗΣΕΩΝ

Υποβολή Προσωρινής Δήλωσης ΦΜΥ μέσω Εξουσιοδοτήσεων.

Παραδείγματα Ιδιοτιμές Ιδιοδιανύσματα

2 Ο ΚΕΦΑΛΑΙΟ Ενότητα 5.

ΕΚΤΙΜΙΣΗ ΜΕΓΙΣΤΗΣ ΠΙΘΑΝΟΦΑΝΕΙΑΣ

Ψηφιακά Φίλτρα. Κυριακίδης Ιωάννης 2011

ΕΙΔΗ ΕΡΕΥΝΑΣ I: ΠΕΙΡΑΜΑΤΙΚΗ ΕΡΕΥΝΑ & ΠΕΙΡΑΜΑΤΙΚΟΙ ΣΧΕΔΙΑΣΜΟΙ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Περιεχόμενα. Πρόλογος... 9 Δύο λόγια για το νέο ερευνητή Δύο λόγια για το Διδάσκοντα Ένα κβαντικό παιχνίδι... 15

Γραμμικός Προγραμματισμός Μέθοδος Simplex

ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΙΑΣ ΤΜΗΜΑ ΠΟΛΙΤΙΚΩΝ ΜΗΧΑΝΙΚΩΝ ΤΟΜΕΑΣ ΥΔΡΑΥΛΙΚΗΣ ΚΑΙ ΠΕΡΙΒΑΛΛΟΝΤΙΚΗΣ ΤΕΧΝΙΚΗΣ. Διάλεξη 16: O αλγόριθμος SIMPLE (συνέχεια)

ΜΑΘΗΜΑ Α.Ο.Θ ΣΤΟΙΧΕΙΑ ΜΑΘΗΤΗ

Θεωρία Παιγνίων και Αποφάσεων. Ενότητα 3: Παίγνια με περισσότερους παίκτες και μέθοδοι απλοποίησης παιγνίων. Ε. Μαρκάκης. Επικ.

Τετραγωνικά μοντέλα. Τετραγωνικό μοντέλο συνάρτησης. Παράδειγμα τετραγωνικού μοντέλου #1. Παράδειγμα τετραγωνικού μοντέλου #1

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

3.4.2 Ο Συντελεστής Συσχέτισης τ Του Kendall

Τετραγωνικά μοντέλα. Τετραγωνικό μοντέλο συνάρτησης. Παράδειγμα τετραγωνικού μοντέλου #1. Παράδειγμα τετραγωνικού μοντέλου #1

Φίλτρα Kalman. Αναλυτικές μέθοδοι στη Γεωπληροφορική. ιατύπωση του βασικού προβλήματος. προβλήματος. μοντέλο. Πρωτεύων μοντέλο

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ 2012

Τμήμα Λογιστικής και Χρηματοοικονομικής. Θεωρία Πιθανοτήτων. Δρ. Αγγελίδης Π. Βασίλειος

Άσκηση 1: Λύση: Για το άθροισμα ισχύει: κι επειδή οι μέσες τιμές των Χ και Υ είναι 0: Έτσι η διασπορά της Ζ=Χ+Υ είναι:

Θεωρία Αποφάσεων ο. 4 Φροντιστήριο. Λύσεις των Ασκήσεων

Ασκήσεις μελέτης της 8 ης διάλεξης

8. Σύνθεση και ανάλυση δυνάμεων

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

PROJECT ΣΤΟ ΜΑΘΗΜΑ "ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟΔΟΥΣ"

ΑΝΑΛΥΣΗ ΔΙΑΚΥΜΑΝΣΗΣ. Επικ. Καθ. Στέλιος Ζήμερας. Τμήμα Μαθηματικών Κατεύθυνση Στατιστικής και Αναλογιστικά Χρηματοοικονομικά Μαθηματικά

Αναγνώριση Προτύπων Ι

Υλοποιώντας λογικές πύλες χρησιμοποιώντας perceptrons

Εργαστήριο 6 ο 7 ο / Ερωτήματα Ι

Σφαίρα σε ράγες: Η συνάρτηση Lagrange. Ν. Παναγιωτίδης

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοηµοσύνη Ι» 7ο Φροντιστήριο 15/1/2008

ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ

ΜΑΘΗΜΑΤΙΚΑ ΠΡΟΣΑΝΑΤΟΛΙΣΜΟΥ. Ημερομηνία: Πέμπτη 12 Απριλίου 2018 Διάρκεια Εξέτασης: 3 ώρες ΕΚΦΩΝΗΣΕΙΣ

Ομαδοποίηση ΙΙ (Clustering)

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΔΕ. 11 ΙΟΥΝΙΟΥ 2012

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

Εισαγωγικές έννοιες. Κατηγορίες προβλημάτων (σε μια διάσταση) Προβλήματα εύρεσης μεγίστου. Συμβολισμοί

E [ -x ^2 z] = E[x z]

Παραδείγματα Διανυσματικοί Χώροι (3)

ΛΕΙΤΟΥΡΓΙΑ ΟΠΛΙΣΗΣ ΚΑΙ ΑΦΟΠΛΙΣΗΣ ΣΥΝΑΓΕΡΜΟΥ ΜΕ ΧΡΟΝΟΚΑΘΗΣΤΕΡΗΣΗ.

Δημιουργία Κανόνα Απόσβεσης

ΕΠΑΝΑΛΗΠΤΙΚΗ ΤΕΛΙΚΗ ΕΞΕΤΑΣΗ 3 Ιουλίου 2010

ΕΡΓΑΣΤΗΡΙΑΚΗ ΑΣΚΗΣΗ 12 ΣΤΡΟΒΙΛΟΚΙΝΗΤΗΡΩΝ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΥΠΡΟΥ Τ Μ Η Μ Α Π Λ Η Ρ Ο Φ Ο Ρ Ι Κ Η Σ

Άριστες κατά Pareto Κατανομές και το Πρώτο Θεώρημα Ευημερίας

Συνδυαστική Βελτιστοποίηση Εισαγωγή στον γραμμικό προγραμματισμό (ΓΠ)

Εφαρμοσμένα Μαθηματικά ΙΙ Τελική Εξέταση Ι. Λυχναρόπουλος

9. Συστολικές Συστοιχίες Επεξεργαστών

A. ΣΥΧΝΕΣ ΕΡΩΤΗΣΕΙΣ ΓΙΑ ΤΗΝ ΥΠΟΒΟΛΗ ΠΡΟΣΦΟΡΩΝ

ΜΕΤΡΗΣΗ ΤΑΣΗΣ ΣΦΑΛΜΑΤΑ

Στατιστική. Εκτιμητική

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

1. ΣΤΑΤΙΚΗ ΑΡΙΣΤΟΠΟΙΗΣΗ

Ανασκόπηση θεωρίας ελαχίστων τετραγώνων και βέλτιστης εκτίμησης παραμέτρων

Διακριτός Μετασχηματισμός Fourier

Τεχνικές Μείωσης Διαστάσεων. Ειδικά θέματα ψηφιακής επεξεργασίας σήματος και εικόνας Σ. Φωτόπουλος- Α. Μακεδόνας

3. α) Να λύσετε την εξίσωση x 2 = 3. β) Να σχηματίσετε εξίσωση δευτέρου βαθμού με ρίζες, τις ρίζες της εξίσωσης του α) ερωτήματος.

Ανασκόπηση θεωρίας ελαχίστων τετραγώνων και βέλτιστης εκτίμησης παραμέτρων

HY213. ΑΡΙΘΜΗΤΙΚΗ ΑΝΑΛΥΣΗ ΕΛΑΧΙΣΤΑ ΤΕΤΡΑΓΩΝΑ AΝΑΛΥΣΗ ΙΔΙΑΖΟΥΣΩΝ ΤΙΜΩΝ

Ασκήσεις μελέτης της 16 ης διάλεξης

ΚΕΦΑΛΑΙΟ 3ο ΤΥΧΑΙΟΙ ΑΡΙΘΜΟΙ ΕΛΕΓΧΟΣ ΤΥΧΑΙΟΤΗΤΑΣ

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

ΒΑΣΙΚΑ ΣΤΟΙΧΕΙΑ ΘΕΩΡΙΑΣ ΤΗΣ ΜΕΘΟΔΟΥ SIMPLEX

ΑΝΑΛΥΣΗ ΔΕΔΟΜΕΝΩΝ. Δρ. Βασίλης Π. Αγγελίδης Τμήμα Μηχανικών Παραγωγής & Διοίκησης Δημοκρίτειο Πανεπιστήμιο Θράκης

ΕΡΓΑΣΤΗΡΙΟ ΣΤΑΤΙΣΤΙΚΗΣ

4.3. Γραµµικοί ταξινοµητές

Αναλυτικά Λυμένες Βασικές Ασκήσεις κατάλληλες για την 1 η επανάληψη στα Μαθηματικά Κατεύθυνσης της Β ΛΥΚΕΙΟΥ

Συνδυαστική Βελτιστοποίηση Εισαγωγή στον γραμμικό προγραμματισμό (ΓΠ)

Εξομοίωση Τηλεπικοινωνιακού Συστήματος Βασικής Ζώνης

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

2.0 ΔΙΑΝΥΣΜΑΤΙΚΟΙ ΧΩΡΟΙ ΚΑΙ ΓΡΑΜΜΙΚΑ ΣΥΣΤΗΜΑΤΑ

ΠΙΘΑΝΟΤΗΤΕΣ -ΤΥΧΑΙΕΣ ΜΕΤΑΒΛΗΤΕΣ(τελικές εξετάσεις πλη12)

Ανάκληση Πληροφορίας. Διδάσκων Δημήτριος Κατσαρός

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Transcript:

Ανταγωνιστική Εκμάθηση Δίκτυα Kohonen Κυριακίδης Ιωάννης 2013

Εισαγωγή Στα προβλήματα που έχουμε αντιμετωπίσει μέχρι τώρα, υπήρχε μια διαδικασία εκπαίδευσης του δικτύου, κατά την οποία είχαμε διανύσματα για τα οποία γνωρίζαμε εκ' των προτέρων την κλάση στην οποία ανήκουν (εκπαίδευση με επίβλεψη). Χρησιμοποιήθηκαν με τέτοιο τρόπο αυτά τα διανύσματα ώστε το νευρωνικό δίκτυο να μάθει από αυτά τα χαρακτηριστικά της κατηγορίας τους.

Ανταγωνιστική Εκπαίδευση Στην πραγματικότητα δεν έχουμε πάντα την πολυτέλεια να εκπαιδεύσουμε το δίκτυο μας με πρότυπα για τα οποία γνωρίζουμε εξαρχής την κατηγορία τους. Αυτό συμβαίνει πολύ απλά διότι μπορεί: Να μην έχουμε αυτά τα διανύσματα Να μην ξέρουμε ακόμη και το αριθμό των κατηγοριών που πρέπει να τα χωρίσουμε. Στην περίπτωση αυτή τα δίκτυα θα πρέπει να εκπαιδευτούν με τέτοιο τρόπο ώστε να γνωρίσουν τις ομοιότητες και ανομοιότητες των διανυσμάτων ώστε να κτίσουν στη συνέχεια τις κατηγορίες (εκπαίδευση χωρίς επίβλεψη).

Δίκτυα Kohonen Αποτελούνται από ένα επίπεδο. Έχουμε πλήρη σύνδεση. Το δίκτυο αυτό έχει κάποιες βασικές διαφορές στη λειτουργία του σε σχέση με τα επίπεδα ενός επιπέδου που έχουμε ήδη μελετήσει: Χρησιμοποιεί την ανταγωνιστική συνάρτηση μεταφοράς (C) Υπολογίζει αποστάσεις (ευκλείδεια) για την σύγκριση των χαρακτηριστικών τιμών του κάθε προτύπου με τα βάρη.

Δίκτυα Kohonen (βάρη) Ας υποθέσουμε ότι στην είσοδο του δικτύου παρουσιάζεται ένα διάνυσμα p το οποίο έχει διάσταση R Επίσης υποθέτουμε ότι το νευρωνικό δίκτυο διαθέτει S νευρώνες στο μοναδικό του επίπεδο. Εφόσον έχουμε πλήρη σύνδεση μεταξύ των χαρακτηριστικών τιμών των προτύπων, και των νευρώνων, ο πίνακας των βαρών IW που σχηματίζεται είναι διάστασης S x R.

Δίκτυα Kohonen (βάρη) Κάθε γραμμή του πίνακα αυτού αντιπροσωπεύει τα βάρη που ξεκινούν από έναν νευρώνα και συναντούν τις χαρακτηριστικές τιμές των προτύπων. Μπορούμε να υποθέσουμε λοιπόν ότι κάθε γραμμή του πίνακα των βαρών είναι από μόνο της ένα διάνυσμα το οποίο έχει διάσταση R (όσες δηλαδή και οι χαρακτηριστικές τιμές των προτύπων που εισάγονται).

Δίκτυα Kohonen (βάρη) Η είσοδος ενός προτύπου στο δίκτυο έχει ως αποτέλεσμα να συγκριθούν οι χαρακτηριστικές του τιμές με κάθε γραμμή του πίνακα των βαρών. Η σύγκριση αυτή γίνεται υπολογίζοντας την (ευκλείδεια) απόσταση τους. Ο νευρώνας που αντιπροσωπεύει τη γραμμή αυτή ονομάζεται νικητής και έχει έξοδο 1 ενώ όλοι οι υπόλοιποι βγάζουν έξοδο 0.

Εκπαίδευση δικτύου Kohonen Γενικά για την εκπαίδευση του δικτύου θα χρησιμοποιηθούν πάρα πολλά πρότυπα (τα οποία θα ανήκουν σε διάφορες ομάδες). Η εκπαίδευση του δικτύου αποτελείται από δύο βήματα: Την αναπροσαρμογή των βαρών. Την αναπροσαρμογή των biases. Και οι δύο έχουν ως τελικό στόχο την εκπαίδευση του δικτύου, θεωρητικά όμως κάθε μια εξυπηρετεί διαφορετικό σκοπό.

Αναπροσαρμογή των βαρών Μετά την σύγκριση των αποστάσεων με τις γραμμές του πίνακα των βαρών, θα έχει βρεθεί ο νικητής νευρώνας. Στην συνέχεια θα τροποποιηθούν τα βάρη μόνο της γραμμής που ανήκει το συγκεκριμένο πρότυπο (γραμμή βαρών του νικητή νευρώνα), έτσι ώστε να κάνουμε τον νικητή νευρώνα να μοιάζει ακόμα περισσότερο με το διάνυσμα εισόδου. Με αυτόν τον τρόπο υποθέτουμε ότι όταν στην είσοδο του νευρωνικού έρθει ξανά το ίδιο πρότυπο θα ενεργοποιηθεί ο ίδιος νευρώνας νικητής, άρα θα έχει αναγνωρίσει το πρότυπο.

Αναπροσαρμογή των βαρών Γενικεύοντας, μπορούμε να υποθέσουμε ότι όταν παρουσιάζονται στο δίκτυο πρότυπα τα οποία ανήκουν στην ίδια ομάδα, ενεργοποιείται πάντα ο ίδιος νευρώνας με την λογική ότι: Τα πρότυπα αφού ανήκουν στην ίδια κατηγορία βρίσκονται κοντά μεταξύ τους και μακριά από άλλα που ανήκουν σε διαφορετικές ομάδες. Όταν εισάγουμε μεγάλο αριθμό προτύπων ο νικητής νευρώνας ρυθμίζεται με τέτοιο τρόπο ώστε να βρίσκεται όσο το δυνατό κοντά σε όλα τα πρότυπα της ομάδας αυτής. Με άλλα λόγια βρίσκεται κοντά στα χαρακτηριστικά της ομάδας και δεν απομνημονεύει ξεχωριστά διανύσματα.

Αναπροσαρμογή των bias Υπάρχει περίπτωση κάποιος από τους νευρώνες να βρίσκεται μακριά από τα πρότυπα οποιασδήποτε κατηγορίας. Έτσι, δεν θα ικανοποιήσει ποτέ το κριτήριο της μικρότερης απόστασης από κάποιο πρότυπο Άρα, δεν θα γίνει ποτέ νικητής (νεκρός νευρώνας) και τα βάρη του δεν θα ρυθμιστούν ποτέ ώστε να αλλάξει αυτή η κατάσταση.

Αναπροσαρμογή των bias Στην περίπτωση που αντιληφθεί το δίκτυο ότι κάποιος από τους νευρώνες παραμένει ανενεργός για μεγάλο διάστημα ή δεν ενεργοποιείται ποτέ, τότε θα ρυθμίσει ανάλογα το bias. Την επόμενη φορά που θα υπολογιστεί η απόστασή του, από κάποιο διάνυσμα εισόδου, αφαιρεί από αυτήν την απόσταση μια τιμή ίση με το συντελεστή bias (τυχαία τιμή). Ουσιαστικά τον πριμοδοτεί έτσι ώστε να γίνει νικητής και να αναπροσαρμόσει τα βάρη του ώστε να μοιάζει με κάποιο από τα διανύσματα της εισόδου.

Αναπροσαρμογή των bias Τα πλεονεκτήματα της μεθόδου αυτής είναι: Ενεργοποιούνται οι όλοι οι νευρώνες ώστε να πιάσουν μια κατηγορία προτύπων. Αν έχουμε μια ομάδα που αποτελείται από πολλά πρότυπα τα οποία μπορεί να σχηματίζουν και απομακρυσμένες υπό-ομάδες αφιερώνονται δύο ή και περισσότεροι νευρώνες ώστε να αποτυπώσουν καλύτερα τα χαρακτηριστικά της ομάδας αυτής.

Η συνάρτηση newc Η συνάρτηση newc() δημιουργεί ένα δίκτυο ανταγωνιστικής εκμάθησης απαιτώντας δύο παραμέτρους για να καθορίσει την δομή του δικτύου. Η σύνταξη της συνάρτησης είναι: Όπου: net = newc (F, S) F = Είναι ένας πίνακας 2 στηλών. Σε κάθε γραμμή του πίνακα θα πρέπει να υπάρχει η ελάχιστη και η μέγιστη τιμή για κάθε χαρακτηριστική τιμή του διανύσματος εισόδου. S = Ο αριθμός των νευρώνων.

Παράδειγμα (με σετ δεδομένων fisheriris ) Το σετ δεδομένων του fisher ως γνωστό μας δίνει το πίνακα meas ο οποίος έχει τις μετρήσεις των λουλουδιών της ίριδας καθώς και τον πίνακα species ο οποίος μας δίνει την ταυτότητα του κάθε προτύπου (την κατηγορία δηλαδή που ανήκει). Στο συγκεκριμένο πρόβλημα που έχουμε να αντιμετωπίσουμε ο δεύτερος πίνακας μας χρειάζεται μόνο για να αξιολογήσουμε τα αποτελέσματα του δικτύου kohonen και δεν διεκδικεί κανένα ρόλο στην εκπαίδευση του δικτύου.

Παράδειγμα (με σετ δεδομένων fisheriris )

Παράδειγμα (με σετ δεδομένων fisheriris ) Τα αποτελέσματα της συνάρτησης sim() θα είναι η κατηγοριοποίηση των προτύπων της εισόδου. Επειδή όμως η εμφάνιση των αποτελεσμάτων δεν μας βοηθά πολύ σε σχέση με την επεξεργασία τους τα μορφοποιούμε με την συνάρτηση vec2ind().

Παράδειγμα (με σετ δεδομένων fisheriris )

Παράδειγμα (με σετ δεδομένων fisheriris ) Σημειώσουμε ότι στην προηγούμενη υλοποίηση δεν αποτελεί ορθή τακτική το να δοκιμάζουμε την απόδοση ενός δικτύου με διανύσματα που πρωτύτερα το είχαμε εκπαιδεύσει. Κανονικά θα πρέπει να χωρίσουμε τα δεδομένα σε δύο ομάδες. Το ένα για εκπαίδευση και το άλλο για αξιολόγηση (πχ. Εκπαίδευση με το 80% των δειγμάτων και έλεγχος με το υπόλοιπο 20%).

Απορίες - Ερωτήσεις ;

Ασκήσεις για το σπίτι Οι ασκήσεις είναι ατομικές!!! 1. Συμπιέστε όλα τα αρχεία m-file σε ένα αρχείο με όνομα: lab06_ομx_yyyy (όπου X ο αριθμός ομάδας εργαστηρίου και YYYY το ΑΜ σας) 2. Υποβάλετε το αρχείο στην αντίστοιχη άσκηση στο eclass

Δεν θα έχετε