ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΜΑΘΗΣΗ ΔΙΚΤΥA LVQ και SOM. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Σχετικά έγγραφα
ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Υπολογιστική Νοημοσύνη. Μάθημα 10: Ομαδοποίηση με Ανταγωνιστική Μάθηση - Δίκτυα Kohonen

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Το δίκτυο SOM. Νευρωνικά Δίκτυα

Νευρωνικά ίκτυα και Εξελικτικός

ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ Αίθουσα Νέα Κτίρια ΣΗΜΜΥ Ε.Μ.Π. Ανάλυση Κυρίων Συνιστωσών (Principal-Component Analysis, PCA)

Μέτρα της οργάνωσης και της ποιότητας για τον Self-Organizing Hidden Markov Model Map (SOHMMM)

Ομαδοποίηση ΙΙ (Clustering)

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Αναγνώριση Προτύπων Ι

Θεωρία Αποφάσεων ο. 4 Φροντιστήριο. Λύσεις των Ασκήσεων

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Εισαγωγή στα Τεχνητά Νευρωνικά Δίκτυα. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Χεμπιανά Μοντέλα Μάθησης με Επίβλεψη

Προσομοίωση Νευρωνικού Δικτύου στο MATLAB. Κυριακίδης Ιωάννης 2013

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #12: Εισαγωγή στα Nευρωνικά Δίκτυα. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

ΚΕΦΑΛΑΙΟ Μηχανική Μάθηση

Υπολογιστική Νοημοσύνη. Μάθημα 12: Παραδείγματα Ασκήσεων 2

Μέθοδοι Μηχανικής Μάθησης στην επεξεργασία Τηλεπισκοπικών Δεδομένων. Δρ. Ε. Χάρου

Τεχνικές Μείωσης Διαστάσεων. Ειδικά θέματα ψηφιακής επεξεργασίας σήματος και εικόνας Σ. Φωτόπουλος- Α. Μακεδόνας

οµή δικτύου ΣΧΗΜΑ 8.1

Αναγνώριση Προτύπων Ι

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Αναγνώριση Προτύπων Ι

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Το μοντέλο Perceptron

Συσχετιστικές Μνήμες Δίκτυο Hopfield. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ

Συστήματα Markov Ένα σύστημα Markov διαγράμματος μετάβασης καταστάσεων

Α.Τ.ΕΙ ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΠΟΛΥΜΕΣΩΝ. ΕΡΓΑΣΤΗΡΙΟ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ

Τεχνητά Νευρωνικά Δίκτυα. Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Πληροφοριακά Συστήματα Διοίκησης

Εφαρμογή και Συγκριτική Ανάλυση Μεθόδων Ταξινόμησης για Ενεργειακή και Περιβαλλοντική Κατάταξη Κτιρίων Γραφείων ΜΕΤΑΠΤΥΧΙΑΚΗ ΔΙΑΤΡΙΒΗ

Νευρωνικά ίκτυα και Εξελικτικός. Σηµερινό Μάθηµα. επανάληψη Γενετικών Αλγορίθµων 1 η εργασία Επανάληψη νευρωνικών δικτύων Ασκήσεις εφαρµογές

Ανταγωνιστική Εκμάθηση Δίκτυα Kohonen. Κυριακίδης Ιωάννης 2013

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

Clustering. Αλγόριθµοι Οµαδοποίησης Αντικειµένων

Αλγόριθμος Ομαδοποίησης

ΟΜΑΔΕΣ. Δημιουργία Ομάδων

Γραμμικός Προγραμματισμός Μέθοδος Simplex

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Αναλογικές και Ψηφιακές Επικοινωνίες

Αρχιτεκτονική Νευρωνικών Δικτύων

Εισαγωγή στους Νευρώνες. Κυριακίδης Ιωάννης 2013

Συμπίεση Δεδομένων

Παράλληλοι Αλγόριθμοι: Ανάλυση Εικόνας και Υπολογιστική Γεωμετρία. Πέτρος Ποτίκας CoReLab 4/5/2006

4.3. Γραµµικοί ταξινοµητές

ΣΗΜΑΤΑ ΚΑΙ ΣΥΣΤΗΜΑΤΑ Ι

Μεταπτυχιακό Πρόγραμμα «Γεωχωρικές Τεχνολογίες» Ψηφιακή Επεξεργασία Εικόνας. Εισηγητής Αναστάσιος Κεσίδης

11 Ανάλυση Συστάδων

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

Πανεπιστήµιο Πειραιώς Τµήµα Πληροφορικής. Εξόρυξη Γνώσης από εδοµένα (Data Mining) Συσταδοποίηση. Γιάννης Θεοδωρίδης

ΠΡΟΣΟΜΟΙΩΣΗ ΤΟΥ ΑΝΘΡΩΠΙΝΟΥ ΕΓΚΕΦΑΛΟΥ ΑΡΧΙΤΕΚΤΟΝΙΚΕΣ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ ΚΑΙ ΕΦΑΡΜΟΓΕΣ. Πλέρου Αντωνία

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοηµοσύνη Ι» 7ο Φροντιστήριο 15/1/2008

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΕΞΟΡΥΞΗ ΔΕΔΟΜΕΝΩΝ. Εξόρυξη Δεδομένων. Ανάλυση Δεδομένων. Η διαδικασία εύρεσης κρυφών (ήκαλύτεραμηεμφανών) ιδιοτήτων από αποθηκευμένα δεδομένα,

Κεφάλαιο 18. Μηχανική Μάθηση (Machine Learning) - 1 -

Η Μηχανική Μάθηση στο Σχολείο: Μια Προσέγγιση για την Εισαγωγή της Ενισχυτικής Μάθησης στην Τάξη

Παρεμβολή & πρόγνωση άγνωστης συνάρτησης μέσω σημειακής προσαρμογής

Κεφάλαιο 5: Στρατηγική χωροταξικής διάταξης

Ψηφιακή Επεξεργασία και Ανάλυση Εικόνας Ενότητα 2 η : Δισδιάστατα Σήματα & Συστήματα Μέρος 2

ΧΑΡΟΚΟΠΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΜΑΤΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ. Καραγιώργου Σοφία

ΚΙΝΔΥΝΟΥ ΤΩΝ ΚΑΤΟΛΙΣΘΗΣΕΩΝ ΜΕ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ ΣΕ ΠΕΡΙΒΑΛΛΟΝ ΓΕΩΓΡΑΦΙΚΩΝ ΠΛΗΡΟΦΟΡΙΑΚΩΝ ΣΥΣΤΗΜΑΤΩΝ ΕΚΤΙΜΗΣΗ ΔΙΑΤΡΙΒΗ

Πληροφοριακά Συστήματα & Περιβάλλον

Βέλτιστη παρεμβολή και πρόγνωση άγνωστης συνάρτησης με τη μέθοδο της σημειακής προσαρμογής

Ψηφιακή Επεξεργασία και Ανάλυση Εικόνας. Παρουσίαση Νο. 3. Δισδιάστατα σήματα και συστήματα #2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Αποθήκες Δεδομένων και Εξόρυξη Δεδομένων:

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

Ψηφιακές Τηλεπικοινωνίες. Θεωρία Ρυθμού Παραμόρφωσης

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης. ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

Υπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning

ΔΙΑΧΕΙΡΙΣΗ ΕΦΟΔΙΑΣΤΙΚΗΣ ΑΛΥΣΙΔΑΣ

Ψηφιακή Επεξεργασία και Ανάλυση Εικόνας Ενότητα 8 η : Κατάτμηση Εικόνας

Θεωρία Λήψης Αποφάσεων

Συγκριτική Μελέτη Μεθόδων Κατηγοριοποίησης σε Ιατρικά Δεδομένα

Πιθανότητες & Τυχαία Σήματα. Διγαλάκης Βασίλης

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ 2012

Τεχνητή Νοημοσύνη. 19η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Ανάκτηση πολυμεσικού περιεχομένου

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #8: Βελτιστοποίηση Συστημάτων Ασαφούς Λογικής. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

Εισαγωγικά για την αναγνώριση έκφρασης προσώπου (Facial Expression Recognition)

Μέτρα της οργάνωσης και της ποιότητας για το υβριδικό νευρωνικό δίκτυο Self-Organizing Hidden Markov Model Map ΔΙΠΛΩΜΑΤΙΚΗ ΕΡΓΑΣΙΑ

DIP_05 Τμηματοποίηση εικόνας. ΤΕΙ Κρήτης

Αποθήκες Δεδομένων και Εξόρυξη Δεδομένων

ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ. Ενότητα 5: Παραδείγματα. Ρεφανίδης Ιωάννης Τμήμα Εφαρμοσμένης Πληροφορικής

Αναγνώριση Προτύπων. Baysian Θεωρία Αποφάσεων ΕΠΙΣΚΟΠΗΣΗ-ΑΣΚΗΣΕΙΣ

ΒΑΣΙΚΑ ΣΤΟΙΧΕΙΑ ΘΕΩΡΙΑΣ ΤΗΣ ΜΕΘΟΔΟΥ SIMPLEX

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Γραµµικοί Ταξινοµητές

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON

Transcript:

ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΜΑΘΗΣΗ ΔΙΚΤΥA LVQ και SOM

Μάθηση χωρίς επίβλεψη (unsupervised learning) Σύνολο εκπαίδευσης D={(x n )}, n=1,,n. x n =(x n1,, x nd ) T, δεν υπάρχουν τιμές-στόχοι t n. Προβλήματα μάθησης χωρίς επίβλεψη: Ομαδοποίηση (clustering) Κατασκευή χάρτη δεδομένων (data map) Εκτίμηση πυκνότητας πιθανότητας (probability density function estimation) Μείωση της διάστασης των δεδομένων (dimensionality reduction). Θα ασχοληθούμε με ΤΝΔ ανταγωνιστικής μάθησης (competitive learning)

ΤΝΔ Ανταγωνιστικής Μάθησης Ανταγωνιστική μάθηση υλοποιείται με ένα ΤΝΔ που περιλαμβάνει το επίπεδο εισόδου ένα επίπεδο από ανταγωνιστικούς νευρώνες, το οποίο ονομάζεται ανταγωνιστικό επίπεδο (competitive layer). Τύποι δικτύων: LVQ, SOM x 1 x 2 ο 1 x d ο Μ επίπεδο είσοδου ανταγωνιστικό επίπεδο

ΤΝΔ Ανταγωνιστικής Μάθησης Κάθε ανταγωνιστικός νευρώνας i Έχει διάνυσμα βαρών w i =(w i1,,w id ) T που αντιστοιχεί σε κάποιο σημείο του χώρου των δεδομένων υπολογίζει ένα μέτρο ομοιότητας (ή απόστασης) ανάμεσα στο δεδομένου εισόδου x=(x 1,,x d ) T και στο διάνυσμα w i. Για διάνυσμα εισόδου x: 'ανταγωνισμός' μεταξύ των νευρώνων του ανταγωνιστικού επιπέδου νικητής-νευρώνας: το διάνυσμα βαρών του είναι πλησιέστερα προς το διάνυσμα εισόδου x. o νικητής νευρώνας m θέτει την έξοδό του ο m =1, ενώ οι υπόλοιποι νευρώνες i δίνουν έξοδο o i =0.

ΤΝΔ Ανταγωνιστικής Μάθησης Εκπαίδευση: ο νικητής-νευρώνας είναι αυτός ο οποίος συνήθως μεταβάλει τις τιμές των βαρών του περισσότερο (ή και αποκλειστικά) σε σύγκριση με τους υπόλοιπους ανταγωνιστικούς νευρώνες (βασική αρχή της ανταγωνιστικής μάθησης). Eπίτευξη αυτό-οργάνωσης (self-organization): συγκεκριμένοι νευρώνες μαθαίνουν να ανταποκρίνονται σε συγκεκριμένα ερεθίσματα (διανύσματα εισόδου). Mέτρο απόστασης: συνήθως ευκλείδεια ( x-w i ). Για είσοδο x, ο νικητής-νευρώνας m είναι αυτός με τη μικρότερη απόσταση x-w m 2. Η εκπαίδευση επιτυγχάνεται μετακινώντας το διάνυσμα βαρών w m του νικητή-νευρώνα προς το διάνυσμα εισόδου x.

ΤΝΔ Ανταγωνιστικής Μάθησης Ερώτηση: Έστω ένα ΤΝΔ ανταγωνιστικής μάθησης με τρεις ανταγωνιστικούς νευρώνες και αντίστοιχα διανύσματα βαρών: w 1 =(0,0,0) T, w 2 =(1,1,1) T, w 3 =(-1,-1,-1) T α) Ποια είναι η διάσταση d των δεδομένων εισόδου; β) Αν η είσοδος στο ΤΝΔ είναι το παράδειγμα x=(-0.3,0.1,-0.2) T ποιος θα είναι ο νικητής-νευρώνας με βάση την ευκλείδεια απόσταση;

Ομαδοποίηση (clustering) Διαμερισμός του συνόλου παραδειγμάτων σε υποσύνολα που ονομάζονται ομάδες (clusters): θέλουμε τα δεδομένα της ίδιας ομάδας είναι 'κοντά' μεταξύ τους (σύμφωνα με κάποια νόρμα απόστασης) και μακριά από τα δεδομένα των άλλων ομάδων. Συνήθως ο αριθμός των ομάδων δίνεται από τον χρήστη. Κάθε ομάδα μπορεί περιγράφεται από ένα αντιπρόσωπο: συνήθως το κέντρο της ομάδας (κεντροειδές) μέσος όρος των παραδειγμάτων της ομάδας.

Αλγόριθμος k-μέσων (k-means) Σύνολο εκπαίδευσης D={(x n )}, x n =(x n1,, x nd ) T, n=1,,n. Αριθμός ομάδων Μ. Δίνεται από τον χρήστη. Kατάλληλος για την εύρεση ομάδων σε μορφή νεφών. Χρησιμοποιεί ως αντιπρόσωπο για κάθε ομάδα Ο j ένα διάνυσμα w j =(w j1,, w jd ) T που περιέχει τις συντεταγμένες του κέντρου της ομάδας. O αλγόριθμος k-μέσων είναι πολύ διαδεδομένος κυρίως λόγω της απλότητας και της ευκολίας στην υλοποίησή του.

Αλγόριθμος k-μέσων (k-means) Aρχικοποίηση: αρχικοποίηση του μετρητή επαναλήψεων t:=0 και των M κέντρων w j (0) j=1,,m. Σε κάθε επανάληψη t Για όλα τα δεδομένα εκπαίδευσης x n (n=1,..n) Yπολογισμός της Ευκλείδειας απόστασης d(x n,w m ) του x n από όλα τα κέντρα w m. Τοποθέτηση του x n στο σύνολο O j με τη μικρότερη απόσταση από το κέντρο w j της αντίστοιχης ομάδας, δηλαδή για την οποία ισχύει: d(x n,w j )=min m d(x n,w m ) Για κάθε ομάδα j υπολογισμός των νέων κέντρων w j (t+1) ως το μέσο όρο των στοιχείων του συνόλου Ο j. Έλεγχος τερματισμού: έχουν τα διανύσματα w j μεταβληθεί μεταξύ δύο επαναλήψεων; Εάν ναι, τότε t:=t+1 και έναρξη νέας επανάληψης, αλλιώς τερματισμός.

Αλγόριθμος k-μέσων (k-means) Ο αλγόριθμος ελαχιστοποιεί την συνολική διασπορά των ομάδων M S(w,...,w )= x -w n 2 1 M j j=1 n x O Διασπορά μιας ομάδας j ονομάζουμε το άθροισμα των αποστάσεων των παραδειγμάτων από το κέντρο w j της ομάδας. Ο αλγόριθμος k-means εξαρτάται από την αρχικοποίηση των κέντρων. Τα κέντρα συνήθως αρχικοποιούνται επιλέγοντας τυχαία Μ παραδείγματα. Μία προσέγγιση: Πολλές επανεκτελέσεις και διατήρηση της καλύτερης λύσης (αυτής με την μικρότερη συνολική διασπορά). j

Αλγόριθμος LVQ για ομαδοποίηση Learning Vector Quantization (LVQ) (Εκπαιδευόμενος Διανυσματικός Κβαντιστής) Σειριακή (on-line) έκδοση του k-means Υλοποιείται με ΤΝΔ ανταγωνιστικής μάθησης Δίνεται σύνολο εκπαίδευσης D={(x n )}, x n =(x n1,, x nd ) T, n=1,,n. Αριθμός ομάδων Μ. Δίνεται από τον χρήστη. ΤΝΔ ανταγωνιστικής μάθησης με Μ ανταγωνιστικούς νευρώνες. Το διάνυσμα βαρών w j =(w j1,, w jd ) T του ανταγωνιστικού νευρώνα j περιέχει τις συντεταγμένες του κέντρου της ομάδας Ο j.

Αλγόριθμος LVQ για ομαδοποίηση Aρχικοποίηση των M κέντρων w i (0) (i=1,,m). Αρχικοποίηση του ρυθμού μάθησης, του μετρητή εποχών t:=0 και του μετρητή επαναλήψεων τ:=0. Σε κάθε εποχή t, για n=1,,n: Eφαρμογή του παραδείγματος x n ως εισόδου στο ΤΝΔ. Εύρεση του νικητή-νευρώνα m: με το ελάχιστο d(x n,w m ) Eνημέρωση των βαρών μόνο του νικητή-νευρώνα m, ώστε το w m να πλησιάσει στο παράδειγμα x n τ:=τ+1 w (τ+1)=w (τ) + (x w ), j=1,...,d mj mj nj mj w(τ+1)=w (τ), i m, j=1,...,d ij ij Έλεγχος τερματισμού. Εάν όχι t:=t+1 και έναρξη νέας εποχής.

Αλγόριθμος LVQ για ομαδοποίηση Ελαχιστοποιείται η συνολική διασπορά των ομάδων (όπως και στον k-means). Eξαρτάται από την αρχικοποίηση των κέντρων: συνήθως αρχικοποιούνται επιλέγοντας τυχαία Μ παραδείγματα. Μία προσέγγιση: Πολλές επανεκτελέσεις και διατήρηση της καλύτερης λύσης (αυτής με την μικρότερη συνολική διασπορά). τοπικό ελάχιστο Βέλτιστη λύση

Διανυσματικός Κβαντισμός Εικόνας Η εικόνα χωρίζεται σε παράθυρα (π.χ. 8x8). Οι τιμές των pixels σε κάθε παράθυρο συνιστούν ένα διάνυσμα διάστασης d. Τα διανύσματα των παραθύρων ομαδοποιούνται σε Μ ομάδες. Τελικά κάθε παράθυρο της εικόνας αναπαρίσταται από το κέντρο της ομάδας στην οποία ανήκει. Αρχική εικόνα Συμπιεσμένη εικόνα

Αλγόριθμος LVQ για ταξινόμηση Υλοποιείται με ΤΝΔ ανταγωνιστικής μάθησης Σύνολο εκπαίδευσης D={(x n ), C(x n )}, x n =(x n1,, x nd ) T, n=1,,n. Αριθμός ομάδων Μ. Δίνεται από τον χρήστη. ΤΝΔ ανταγωνιστικής μάθησης με Μ ανταγωνιστικούς νευρώνες. Το διάνυσμα βαρών w j =(w j1,, w jd ) T του ανταγωνιστικού νευρώνα j περιέχει τις συντεταγμένες του κέντρου της ομάδας Ο j. Κάθε ανταγωνιστικός νευρώνας j έχει επίσης και κατηγορία C(j) (την αναθέτει ο χρήστης). Η αρχικοποίηση γίνεται θέτοντας το διάνυσμα βαρών ενός νευρώνα που τον αντιστοιχίζουμε στην κατηγορία C i ίσο με κάποιο παράδειγμα εκπαίδευσης της κατηγορίας C i.

Αλγόριθμος LVQ για ταξινόμηση Σε κάθε βήμα εφαρμόζουμε ως είσοδο ένα παράδειγμα x n και βρίσκουμε τον νικητή-νευρώνα m. Τα βάρη των υπόλοιπων νευρώνων δεν μεταβάλλονται. Τα βάρη του νικητή νευρώνα m μεταβάλλονται ως εξής: Αν η κατηγορία του x n και του νικητή νευρώνα m συμπίπτουν, το διάνυσμα βαρών w m μετακινείται προς το πρότυπο x n : w (τ+1)=w (τ) + (x w ), j=1,...,d mj mj nj mj Αν η κατηγορία του x n και του νικητή νευρώνα m διαφέρουν, το διάνυσμα βαρών w m απομακρύνεται από το πρότυπο x n : w (τ+1)=w (τ) - (x w ), j=1,...,d mj mj nj mj Μετά το τέλος της εκπαίδευσης, ταξινόμηση νέου παραδείγματος: κατηγορία του νικητή-νευρώνα.

Αλγόριθμος LVQ για ταξινόμηση Eρώτηση: Έστω ένα δίκτυο LVQ για ταξινόμηση δύο κατηγοριών με τρεις ανταγωνιστικούς νευρώνες και αντίστοιχα διανύσματα βαρών: w 1 =(0,0,0) T, w 2 =(1,1,1) T, w 3 =(-1,-1,-1) T. Ο νευρώνας 1 είναι κατηγορίας C 1 και οι υπόλοιποι κατηγορίας C 2. Σε ποια κατηγορία θα ταξινομηθούν τα παραδείγματα x 1 =(0.2,0.1,-0.3) T και x 2 =(1.2,0.9,0.7) T ;

To δίκτυο SOM (Self-Organizing Map) Προτάθηκε από τον T. Kohonen στα μέσα της δεκαετίας του 1980, σε μια προσπάθεια μοντελοποίησης της διαδικασίας αυτο-οργάνωσης που παρατηρείται στον εγκέφαλο. Οι νευρώνες στον φλοιό του εγκεφάλου είναι οργανωμένοι σε πολλές περιοχές οι οποίες σχηματίζουν το χάρτη του εγκεφάλου.

To δίκτυο SOM (Self-Organizing Map) Το χαρακτηριστικό της οργάνωσης σε περιοχές είναι ότι διαφορετικά εξωτερικά ερεθίσματα (από τα αισθητήρια όργανα) διεγείρουν τους νευρώνες σε διαφορετικές περιοχές στον εγκέφαλο. Συγκεκριμένα, αισθήσεις όπως της αφής, της όρασης και της ακοής, απεικονίζονται σε διαφορετικές περιοχές του εγκεφαλικού φλοιού. Στην ουσία ο χάρτης ορίζεται από έναν πλέγμα νευρώνων οι οποίοι είναι συντονισμένοι με τέτοιο τρόπο ώστε γειτονικοί νευρώνες να αντιδρούν σε παρόμοια ερεθίσματα. Τα σήματα εισόδου απεικονίζονται στα σημεία του χάρτη, ανάλογα με τα ιδιαίτερα χαρακτηριστικά τους.

To δίκτυο SOM (Self-Organizing Map) Δίκτυο SOM: τεχνητό ανάλογο του βιολογικού χάρτη. Είναι ΤΝΔ ανταγωνιστικής μάθησης με ένα επιπλέον χαρακτηριστικό: θεωρούμε ότι οι ανταγωνιστικοί νευρώνες είναι τοποθετημένοι στους κόμβους ενός πλέγματος μιας ή δύο (συνήθως) διαστάσεων. Κάθε ανταγωνιστικός νευρώνας χαρακτηρίζεται από δύο ποσότητες: α) το διάνυσμα βαρών (σημείο στο χώρο R d ) και β) τις συντεταγμένες της θέσης του στο πλέγμα. Οι νευρώνες εκπαιδεύονται ώστε η θέση τους στο πλέγμα να συσχετίζεται με συγκεκριμένα χαρακτηριστικά των προτύπων εισόδου.

To δίκτυο SOM (Self-Organizing Map) Yλοποιείται ένας τοπογραφικός χάρτης (topographic map) των δεδομένων εισόδου: oι θέσεις στο πλέγμα των νευρώνων που είναι νικητές κατά τον ανταγωνισμό για κάποιο παράδειγμα εισόδου είναι ενδεικτικές των χαρακτηριστικών αυτού του παραδείγματος. έξοδοι πλέγμα ανταγωνιστικών νευρώνων x 1 x d

Εκπαίδευση του δικτύου SOM Πρέπει πρώτα να οριστεί η γειτονιά στο πλέγμα Γ i κάθε νευρώνα i: το σύνολο των νευρώνων που περιβάλλουν στο πλέγμα τον νευρώνα i. Mπορεί να έχει οποιαδήποτε μορφή (τετραγωνική, σφαιρική, εξαγωνική κλπ). Συνήθως η γειτονιά Γ i είναι συμμετρική γύρω από τον νευρώνα i και περιλαμβάνει τον i.

Εκπαίδευση SOM με διακριτή γειτονιά Δίνεται σύνολο εκπαίδευσης D={(x n )}, x n =(x n1,, x nd ) T, n=1,,n. Καθορισμός του αριθμού M=M 1 x M 2 των ανταγωνιστικών νευρώνων των διαστάσεων Μ 1 και Μ 2 του διδιάστατου πλέγματος. Aρχικοποίηση των M κέντρων w i (0) (i=1,,m), του ρυθμού μάθησης, της έκτασης της γειτονιάς, του μετρητή εποχών t:=0 και του μετρητή επαναλήψεων τ:=0. Σε κάθε εποχή t εφαρμογή των παρακάτω βημάτων για n=1,,n Eφαρμογή του x n ως εισόδου στο ΤΝΔ, εύρεση του νικητή νευρώνα m. Eνημέρωση των βαρών μόνο του νικητή-νευρώνα m και των γειτονικών του, δηλαδή των νευρώνων του συνόλου Γ m (τ): τ:=τ+1 w(τ+1)=w ij ij(τ)+ ( )(xnj w ij(τ)), i m(τ), j=1,...,d w(τ+1)=w (τ), i ij ij m (τ), j=1,...,d Σταδιακή αργή μείωση του ρυθμού μάθησης και της γειτονιάς Γ(t). Έλεγχος τερματισμού. Εάν όχι τότε t:=t+1 και εκτέλεση νέας εποχής.

Εκπαίδευση SOM με συνεχή γειτονιά Συνεχής γειτονιά: οποιοσδήποτε νευρώνας j ανήκει στη γειτονιά Γ i του νευρώνα i με κάποιο βαθμό συμμετοχής h ij που είναι αντιστρόφως ανάλογος απόστασης d ij = r i r j 2 στο πλέγμα μεταξύ των δύο νευρώνων. h(τ)=exp - dij ij 2σ 2 (τ) h

Εκπαίδευση SOM με διακριτή γειτονιά Σε κάθε εποχή t, εφαρμογή των παρακάτω για n=1,,n Eφαρμογή του x n ως εισόδου στο ΤΝΔ, εύρεση του νικητή νευρώνα m. Eνημέρωση των βαρών όλων των νευρώνων με συντελεστή βαρύτητας το βαθμό συμμετοχής h mi στη γειτονιά του νικητή-νευρώνα m ως εξής: τ:=τ+1 rm r i h mi(τ)=exp - 2 2σ h(τ) w(τ+1)=w (τ)+ (τ)h (τ)(x ij ij mi nj ij Σταδιακή αργή μείωση του η(τ) και του σ h (τ). Έλεγχος τερματισμού. Εάν όχι τότε t:=t+1 και έναρξη νέας εποχής. 2, i=1,...,m w (τ)), j=1,...,d

Εφαρμογή: WebSOM Χάρτης κειμένων (ευρετήριο)

Εφαρμογή: neural phonetic typewriter Χάρτης φωνημάτων