ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Σχετικά έγγραφα
Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Το μοντέλο Perceptron

Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

4.3. Γραµµικοί ταξινοµητές

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)

Τεχνητά Νευρωνικά Δίκτυα. Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης

Συσχετιστικές Μνήμες Δίκτυο Hopfield. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Ασκήσεις μελέτης της 19 ης διάλεξης

ΧΑΡΟΚΟΠΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΜΑΤΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ. Καραγιώργου Σοφία

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #12: Εισαγωγή στα Nευρωνικά Δίκτυα. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

Τεχνητή Νοημοσύνη. TMHMA ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΕΧΝΟΛΟΓΙΑΣ ΥΠΟΛΟΓΙΣΤΩΝ. Εξάμηνο 5ο Οικονόμου Παναγιώτης & Ελπινίκη Παπαγεωργίου. Νευρωνικά Δίκτυα.

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Τεχνητή Νοημοσύνη. 19η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Υπολογιστική Νοημοσύνη. Μάθημα 12: Παραδείγματα Ασκήσεων 2

Εισαγωγή στους Νευρώνες. Κυριακίδης Ιωάννης 2013

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο

Αναγνώριση Προτύπων Ι

Μέθοδοι πολυδιάστατης ελαχιστοποίησης

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Αναγνώριση Προτύπων Ι

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Επαναληπτικές μέθοδοι

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΜΑΘΗΣΗ ΔΙΚΤΥA LVQ και SOM. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΔΕ. 11 ΙΟΥΝΙΟΥ 2012

Μάθημα 1: Εισαγωγή στην. Υπολογιστική Νοημοσύνη

Πληροφοριακά Συστήματα Διοίκησης

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Υπολογιστική Νοημοσύνη. Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Αναγνώριση Προτύπων Ι

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης. ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ 2012

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 2ο Φροντιστήριο

Υπολογιστική Νοημοσύνη. Μέρος Β Εισαγωγή στα Τεχνητά Νευρωνικά Δίκτυα (ΤΝΔ) Αναστάσιος Ντούνης, Καθηγητής 1

Υπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning

Εισαγωγή στα Τεχνητά Νευρωνικά Δίκτυα. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ

num(m(w 1 ;... ; w k )) = f(num(w 1 ),..., num(w k ))

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 3ο Φροντιστήριο

Πληροφοριακά Συστήματα & Περιβάλλον

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοηµοσύνη Ι» 7ο Φροντιστήριο 15/1/2008

Κινητά Δίκτυα Επικοινωνιών. Συμπληρωματικό υλικό. Προσαρμοστική Ισοστάθμιση Καναλιού

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Αριθμητική εύρεση ριζών μη γραμμικών εξισώσεων

Προσομοίωση Νευρωνικού Δικτύου στο MATLAB. Κυριακίδης Ιωάννης 2013

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Κεφάλαιο 2. Ιστορική αναδροµή

2x 1 + x 2 x 3 + x 4 = 1. 3x 1 x 2 x 3 +2x 4 = 3 x 1 +2x 2 +6x 3 x 4 = 4

Ανδρέας Παπαζώης. Τμ. Διοίκησης Επιχειρήσεων

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Μη Συµβολικές Μέθοδοι

Α.Τ.Ε.Ι ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΠΟΛΥΜΕΣΩΝ ΕΡΓΑΣΤΗΡΙΟ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ. Σχήμα 1 Η λειτουργία του νευρώνα

Non Linear Equations (2)

Matrix Algorithms. Παρουσίαση στα πλαίσια του μαθήματος «Παράλληλοι. Αλγόριθμοι» Γ. Καούρη Β. Μήτσου

Εφαρμοσμένα Μαθηματικά ΙΙ

Κεφ. 7: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών

Τεχνητά Νευρωνικά Δίκτυα

Αναγνώριση Προτύπων Ι

Υλοποίηση Συστήματος Ανίχνευσης Εισβολών σε Περιβάλλον Android για Ασύρματα Δίκτυα Πρόσβασης

ΤΕΧΝΟΛΟΓΙΑ ΛΟΓΙΣΜΙΚΟΥ Ι

Συγκριτική Μελέτη Μεθόδων Κατηγοριοποίησης σε Ιατρικά Δεδομένα

Υφαλμύρινση Παράκτιων Υδροφορέων - προσδιορισμός και αντιμετώπιση του φαινομένου με συνδυασμό μοντέλων προσομοίωσης και μεθόδων βελτιστοποίησης

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος

Matrix Algorithms. Παρουσίαση στα πλαίσια του μαθήματος «Παράλληλοι Αλγόριθμοι» Γ. Καούρη Β. Μήτσου

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

PROJECT ΣΤΟ ΜΑΘΗΜΑ "ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟΔΟΥΣ"

Κεφ. 6Β: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών

Κεφάλαιο 19 Τεχνητά Νευρωνικά ίκτυα (Artificial Neural Nets)

Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα

Τεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

ΓΡΑΜΜΙΚΟΣ & ΔΙΚΤΥΑΚΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ

ΧΡΟΝΙΚΗ ΟΛΟΚΛΗΡΩΣΗ. Για την επίλυση χρονομεταβαλλόμενων προβλημάτων η διακριτοποίηση στο χώρο γίνεται με πεπερασμένα στοιχεία και είναι της μορφής:

Ατομική Διπλωματική Εργασία. Πρόβλεψη ποδοσφαιρικών αποτελεσμάτων με την χρήση τεχνητών νευρωνικών δικτύων. Αντρέας Ιακώβου ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΥΠΡΟΥ

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

Γραµµικοί Ταξινοµητές

Αριστοτέλειο Πανεπιστήμιο Θεσσαλονίκης

ΤΕΧΝΟΛΟΓΙΑ ΛΟΓΙΣΜΙΚΟΥ Ι

PROJECT ΣΤΟ ΜΑΘΗΜΑ ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟ ΟΥΣ

Συνήθεις Διαφορικές Εξισώσεις Ι Ασκήσεις - 19/10/2017. Ακριβείς Διαφορικές Εξισώσεις-Ολοκληρωτικοί Παράγοντες. Η πρώτης τάξης διαφορική εξίσωση

ΠΡΟΣΕΓΓΙΣΗ ΚΑΙ ΑΝΑΠΑΡΑΣΤΑΣΗ ΔΕΔΟΜΕΝΩΝ ΜΙΑΣ ΔΙΑΣΤΑΣΗΣ ΜΕ ΣΥΝΔΥΑΣΜΟ MLP ΚΑΙ RBF ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ Η ΜΕΤΑΠΤΥΧΙΑΚΗ ΕΡΓΑΣΙΑ ΕΞΕΙΔΙΚΕΥΣΗΣ.

Π Τ Υ Χ Ι Α Κ Η /ΔΙ Π Λ Ω Μ ΑΤ Ι Κ Η Ε Ρ ΓΑ Σ Ι Α

6. Στατιστικές μέθοδοι εκπαίδευσης

Κεφάλαιο 5. Το Συμπτωτικό Πολυώνυμο

ΓΡΑΜΜΙΚΟΣ & ΔΙΚΤΥΑΚΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή

Εισαγωγικές έννοιες. Κατηγορίες προβλημάτων (σε μια διάσταση) Προβλήματα εύρεσης μεγίστου. Συμβολισμοί

Δίκτυα Perceptron. Κυριακίδης Ιωάννης 2013

Εργαστήριο Υπολογιστικής Νοημοσύνης Ευφυούς Ελέγχου. Αναστάσιος Ντούνης, Καθηγητής

Εφαρμοσμένα Μαθηματικά ΙΙ

Αριθμητικές Μέθοδοι σε Προγραμματιστικό Περιβάλλον

Transcript:

ΤΕΙ Δυτικής Μακεδονίας ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ 2015-2016 Τεχνητή Νοημοσύνη Νευρώνας Perceptron Διδάσκων: Τσίπουρας Μάρκος Εκπαιδευτικό Υλικό: Τσίπουρας Μάρκος Τζώρτζης Γρηγόρης

Περιεχόμενα Εισαγωγή Αρχική Ιδέα Βασικές Αρχές Ιστορικά Στοιχεία Νευρώνας Perceptron Ορισμός Τεχνητός Νευρώνας Γραμμικά Διαχωρίσιμο Πρόβλημα Ιδιότητες Αρχιτεκτονική Εκπαίδευση

Αρχική Ιδέα Οι αρχές και λειτουργίες τους βασίζονται στο νευρικό σύστημα των ζώντων οργανισμών Έχουν ως στόχο να προσομοιώσουν τους νευρώνες του ανθρώπινου εγκεφάλου Οι βιολογικοί νευρώνες έχουν ρυθμιζόμενες παραμέτρους Μεγάλο πλήθος νευρώνων: 10 11 Κάθε νευρώνας έχει περίπου 1000 συνάψεις

Βασικές Αρχές Η λειτουργία τους προσπαθεί να συνδυάσει τον τρόπο σκέψης του ανθρώπινου εγκεφάλου με τον αφηρημένο μαθηματικό τρόπο σκέψης Τα τεχνητά νευρωνικά δίκτυα (artfcal neural networks) χρησιμοποιούνται για να λύσουν προβλήματα με ηλεκτρονικό υπολογιστή Κάθε νευρωνικό δίκτυο αποτελείται από ένα μεγάλο αριθμό μονάδων, που λέγονται νευρώνες (neurons) Ο νευρώνας είναι η πιο μικρή ανεξάρτητη μονάδα του δικτύου

Ορισμός Αρχιτεκτονική δομή αποτελούμενη από ένα πλήθος διασυνδεδεμένων μονάδων. Κάθε μονάδα χαρακτηρίζεται από εισόδους και εξόδους και υλοποιεί τοπικά κάποιον απλό υπολογισμό Κάθε σύνδεση μεταξύ μονάδων χαρακτηρίζεται από μία τιμή βάρους. Οι τιμές των βαρών αποτελούν την γνώση που είναι αποθηκευμένη στο δίκτυο Η έξοδος κάθε μονάδας καθορίζεται από τις εισόδους της, τον τρόπο διασύνδεσης με τις άλλες μονάδες και τον τύπο της

Ιστορικά Στοιχεία [1] 1943 McCulloch & Ptts: πρώτο μοντέλο νευρωνικού δικτύου προτείνει ότι οι νευρώνες είναι η βασική μονάδα 1947 McCulloch & Ptts: εξελιγμένο πρότυπο για την αναγνώριση σχημάτων Ο νευρώνας μπορεί να έχει δύο μόνον καταστάσεις λειτουργία μνήμης: ύπαρξη κλειστών διαδρομών του σήματος μέσα στο δίκτυο

Ιστορικά Στοιχεία [2] 1949 D. Hebb: κανόνας μάθησης του Hebb κάθε φορά που το δίκτυο χρησιμοποιεί τις νευρωνικές του συνδέσεις, οι συνδέσεις αυτές ενισχύονται και το δίκτυο πλησιάζει περισσότερο στο να μάθει το πρότυπο το οποίο παρουσιάζεται όταν ο νευρώνας επανειλημμένα διεγείρει τον νευρώνα j, τότε συμβαίνει να αναπτύσσεται μια μεταβολική σύνδεση στον ένα ή και στους δύο νευρώνες, έτσι ώστε η απόδοση του φαινομένου (το διεγείρει το j) να αυξάνεται 50 J. von Neumann: παράδειγμα για υπολογιστικές μηχανές και πρώτα τεχνητά δίκτυα

Ιστορικά Στοιχεία [3] 1957 F. Rosenblatt: μοντέλο perceptron απλό μοντέλο δύο επιπέδων (είσοδος έξοδος) 1959 Wdrow & Hoff: μοντέλα Adalne και Madalne, τα πρώτα μοντέλα που χρησιμοποιήθηκαν επιτυχώς για πρακτικά προβλήματα (φίλτρα για εξάλειψη της ηχούς σε τηλεφωνικές γραμμές) 1969 Mnsky και Papert: βιβλίο «Perceptrons» συνολική εκτίμηση της χρησιμότητας του perceptron

Ιστορικά Στοιχεία [4] 1982 J. Hopfeld: νευρωνικό δίκτυο ως αποθηκευτικός χώρος 1986 McClelland & Rumelhart: βιβλίο «Parallel Dstrbuted Processng» νευρωνικό δίκτυο ως παράλληλος επεξεργαστής εσωτερική δομή του δικτύου (κρυμμένα επίπεδα) νευρώνων, εκτός από την είσοδο και την εκπαίδευση με την μέθοδο της οπισθοδιάδοσης (back propagaton)

Νευρώνας Perceptron Ο νευρώνας perceptron είναι το απλούστερο ΤΝΔ Χρησιμοποιείται σε προβλήματα με 2 κατηγορίες Επιλύει μόνο γραμμικά διαχωρίσιμα προβλήματα

Τεχνητός Νευρώνας Ο νευρώνας δέχεται ως είσοδο ένα δεδομένο: Το δεδομένο αναπαρίσταται με ένα διάνυσμα x=[x 1,,x d ] Τα x 1,,x d ονομάζονται χαρακτηριστικά Ο τεχνητός νευρώνας έχει τόσες εισόδους όση και η διάσταση των δεδομένων (d) + μία είσοδο Η τιμή κάθε εισόδου είναι η τιμή του αντίστοιχου χαρακτηριστικού x Η επιπλέον τιμή εισόδου είναι πάντα 1 (x o =1) Το [x o,x 1,,x d ] ονομάζεται επαυξημένο διάνυσμα εισόδου Σε κάθε είσοδο αντιστοιχεί μία παράμετρος w (=0,1,,d) Τα w αποκαλούνται βάρη το w 0 αποκαλείται και πόλωση Τα βάρη αναπαρίστανται με ένα διάνυσμα w=[w 0,w 1,,w d ]

Αρχιτεκτονική x 0 =1 w 0 Βηματική συνάρτηση 1 αν u 0 (u) 0 αν u 0 x 1 x 2. w 1 w 2 Σ φ(u) y(x) w d x d y y x φ w x φ w x w x... w x φ u 1, 0, w w 0 0 x x 0 0 d 0 w1x w x 1 1 1... w... w d d 0 x x d d 0 0 0 1 1 d d

Λειτουργία 1. Υπολογίζεται το Σ (γραμμικός συνδυασμός της εισόδου με τα βάρη) 2. Υπολογίζεται η Συνάρτηση ενεργοποίησης (με βάση το Σ)

Γραμμικά Διαχωρίσιμο Πρόβλημα Υπάρχει υπερεπίπεδο που διαχωρίζει τα δεδομένα των δύο κατηγοριών Στις δύο διαστάσεις το υπερεπίπεδο είναι η ευθεία d Εξίσωση υπερεπιπέδου στον d : g x) w w x ( 0 w 0 w1x1... w dx d 1 6 4 2 0-2 -4-6 -6-4 -2 0 2 4 6

Γραμμικά Διαχωρίσιμα Προβλήματα Λογικό AND x 1 x 2 AND 0 0 0 0 1 0 1 0 0 1 1 1 Λογικό OR Κατηγορία C 1 Κατηγορία C 2 o o x o x 1 x 2 OR 0 0 0 0 1 1 1 0 1 1 1 1 Κατηγορία C 1 Κατηγορία C 2 x o x x

Ιδιότητες Η ταξινόμηση ενός δεδομένου x γίνεται ως εξής: Είσοδος του x στο perceptron Υπολογισμός του y(x ) Αν y(x )=1 ταξινόμηση στην κατηγορία 1 Αν y(x )=0 ταξινόμηση στην κατηγορία 0 H εκπαίδευση έχει ως στόχο την εύρεση των τιμών των βαρών ώστε να διαχωρίζονται σωστά τα δεδομένα στις 2 κατηγορίες

Εκπαίδευση Θεωρούμε το σύνολο εκπαίδευσης X={(x,t(x ))} =1,..,N Τα x είναι τα δεδομένα εκπαιδεύσεις και x =[x 1,,x d] δηλαδή x d Το t(x ) είναι η κατηγορία του δεδομένου x Με την εκπαίδευση επιθυμούμε να βρούμε τις κατάλληλες τιμές για τα βάρη ώστε το υπερεπίπεδο που αντιστοιχεί σε αυτά να διαχωρίζει ορθά όλα τα δεδομένα του συνόλου εκπαίδευσης, δηλαδή y(x )=t(x ) x X

Αλγόριθμός Εκπαίδευσης [1] Επαυξημένο διάνυσμα δεδομένων Στο διάνυσμα όλων των δεδομένων του συνόλου εκπαίδευσης προσθέτουμε και τη συνιστώσα x 0 =1 που αντιστοιχεί στην είσοδο με τιμή 1 του perceptron To επαυξημένο διάνυσμα για το x είναι: x e=[x 0 =1, x 1,,x d] Παρέχει ευκολία στη διατύπωση του αλγορίθμου εκπαίδευσης Βήμα 1-Αρχικοποίηση Αρχικοποίησε τα βάρη του perceptron w (0) =[w 0 (0),w 1 (0),,w d (0) ] Η αρχικοποίηση γίνεται συνήθως τυχαία π.χ. επιλέγοντας τιμές στο διάστημα (-1,1)

Αλγόριθμός Εκπαίδευσης [2] Βήμα 2-Ενημέρωση βαρών Θέσε ως είσοδο τα πρότυπα x του συνόλου εκπαίδευσης (ένα την φορά) Για κάθε x υπολόγισε το y(x ) και άλλαξε τα βάρη με βάση τον εξής κανόνα (ο κανόνας περιέχει πράξεις με διανύσματα!): ( t) w ( t 1) w w w ( t) ( t) nx nx e e αν y( x αν y( x ) 0 & t( x ) 1& t( x αν y( x ) t( x ) ) 1 ) 0 Στη συνέχεια προχώρησε στο επόμενο πρότυπο Όταν τα πρότυπα εξαντληθούν άρχισε από την αρχή Κάθε κυκλική επανάληψη όλων των προτύπων καλείται εποχή Ορθή ταξινόμηση τα βάρη δεν αλλάζουν

Αλγόριθμός Εκπαίδευσης [3] Τερματισμός Επανέλαβε το βήμα 2 εωσότου όλα τα πρότυπα ταξινομηθούν σωστά, δηλαδή y(x )=t(x ) x X Το παραπάνω είναι ισοδύναμο με το να μη γίνει αλλαγή στα βάρη σε μία εποχή Ρυθμός μάθησης n Πρόκειται για σταθερά του αλγορίθμου εκπαίδευσης Καθορίζει πόσο έντονα μεταβάλλονται τα βάρη σε κάθε ανανέωση Ισχύει: n>0 και n (0,1]

Αλγόριθμός Εκπαίδευσης [4] t=0 -Αρχικοποίησε τα βάρη do{ for =1 to N { -Υπολόγισε το y(x ) με χρήση των βαρών w (t) ( t) -Ανανέωσε τα βάρη w nxe αν y( x t=t+1 ( t 1) ( t) w w nxe αν y( x } ( t) }untl y(x )=t(x ) x w αν y( x X ) 0 & t( x ) 1& t( x ) t( x ) ) 1 ) 0

Αλγόριθμός Εκπαίδευσης [5] Ο αλγόριθμος τερματίζει μόνον όταν y(x )=t(x ) x X Τερματισμός μόνο για γραμμικά διαχωρίσιμα προβλήματα Μη γραμμικά διαχωρίσιμο άπειρες επαναλήψεις Θεώρημα Αν το πρόβλημα είναι γραμμικά διαχωρίσιμο αποδεικνύεται ότι ο αλγόριθμος συγκλίνει Άγνωστος ο αριθμός επαναλήψεων εωσότου συγκλίνει Η σύγκλιση επηρεάζεται από το ρυθμό μάθησης n πολύ μεγάλο πιθανή ταλάντωση γύρω από τη λύση n πολύ μικρό ο αλγόριθμος συγκλίνει αργά

Αλγόριθμός Εκπαίδευσης [6] Η τελική λύση (τελικές τιμές των βαρών) εξαρτάται από: Τις αρχικές τιμές των βαρών Τη σειρά παρουσίασης των δεδομένων στον αλγόριθμο Την τιμή του ρυθμού μάθησης Ο αλγόριθμος βρίσκει ένα από τα άπειρα υπερεπίπεδα που διαχωρίζουν το σύνολο εκπαίδευσης (εφόσον είναι γραμμικά διαχωρίσιμο)

x = [0.7,-0.5;... -0.5,-0.2;... 0.8,0.6;... -0.1,0.3]; t = [0,0,1,1]; w = [0.3-0.2 0.3]; n = 1; 2 1.5 1 0.5 0-0.5-1 -1 0 1 2

- Perceptron - - Πρώτυπα : 4 - Αρχικά w: (0.300,-0.200,0.300) ------------------- ---- Εποχή 1 ---- ------------------- - Πρώτυπο:( 0.70,-0.50) u(x)=1* 0.30 + 0.70*-0.20 + -0.50* 0.30 = 0.01 φ(u)=1 t=0 ---> Ανανέωση w: w = w - 1*x = ( 0.30,-0.20, 0.30) - 1*( 1.00, 0.70,- 0.50) = (-0.70,-0.90, 0.80) - Πρώτυπο:(-0.50,-0.20) u(x)=1*-0.70 + -0.50*-0.90 + -0.20* 0.80 = -0.41 φ(u)=0 t=0 - Πρώτυπο:( 0.80, 0.60) u(x)=1*-0.70 + 0.80*-0.90 + 0.60* 0.80 = -0.94 φ(u)=0 t=1 ---> Ανανέωση w: w = w + 1*x = (-0.70,-0.90, 0.80) + 1*( 1.00, 0.80, 0.60) = ( 0.30,-0.10, 1.40) - Πρώτυπο:(-0.10, 0.30) u(x)=1* 0.30 + -0.10*-0.10 + 0.30* 1.40 = 0.73 φ(u)=1 t=1

------------------- ---- Εποχή 2 ---- ------------------- - Πρώτυπο:( 0.70,-0.50) u(x)=1* 0.30 + 0.70*-0.10 + -0.50* 1.40 = -0.47 φ(u)=0 t=0 - Πρώτυπο:(-0.50,-0.20) u(x)=1* 0.30 + -0.50*-0.10 + -0.20* 1.40 = 0.07 φ(u)=1 t=0 ---> Ανανέωση w: w = w - 1*x = ( 0.30,-0.10, 1.40) - 1*( 1.00,-0.50,- 0.20) = (-0.70, 0.40, 1.60) - Πρώτυπο:( 0.80, 0.60) u(x)=1*-0.70 + 0.80* 0.40 + 0.60* 1.60 = 0.58 φ(u)=1 t=1 - Πρώτυπο:(-0.10, 0.30) u(x)=1*-0.70 + -0.10* 0.40 + 0.30* 1.60 = -0.26 φ(u)=0 t=1 ---> Ανανέωση w: w = w + 1*x = (-0.70, 0.40, 1.60) + 1*( 1.00,-0.10, 0.30) = ( 0.30, 0.30, 1.90) ------------------- ---- Εποχή 3 ---- ------------------- - Πρώτυπο:( 0.70,-0.50) u(x)=1* 0.30 + 0.70* 0.30 + -0.50* 1.90 = -0.44 φ(u)=0 t=0 - Πρώτυπο:(-0.50,-0.20) u(x)=1* 0.30 + -0.50* 0.30 + -0.20* 1.90 = -0.23 φ(u)=0 t=0 - Πρώτυπο:( 0.80, 0.60) u(x)=1* 0.30 + 0.80* 0.30 + 0.60* 1.90 = 1.68 φ(u)=1 t=1 - Πρώτυπο:(-0.10, 0.30) u(x)=1* 0.30 + -0.10* 0.30 + 0.30* 1.90 = 0.84 φ(u)=1 t=1

2 1.5 1 0.5 0-0.5-1 2-1 0 1 2