Τεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Σχετικά έγγραφα
Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 19η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Ασκήσεις μελέτης της 19 ης διάλεξης

Τεχνητή Νοημοσύνη. 16η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 4η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 2η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 3η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 5η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 14η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 6η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 7η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Ασκήσεις μελέτης της 4 ης διάλεξης. ), για οποιοδήποτε μονοπάτι n 1

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

Τεχνητή Νοημοσύνη. 21η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 5η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη ( )

Ασκήσεις μελέτης της 16 ης διάλεξης

Τεχνητή Νοημοσύνη. 8η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Ασκήσεις μελέτης της 8 ης διάλεξης

Τεχνητή Νοημοσύνη. 9η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)

Βασίλειος Μαχαιράς Πολιτικός Μηχανικός Ph.D.

Το μοντέλο Perceptron

Μέθοδοι πολυδιάστατης ελαχιστοποίησης

Κινητά Δίκτυα Επικοινωνιών. Συμπληρωματικό υλικό. Προσαρμοστική Ισοστάθμιση Καναλιού

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Τεχνητή Νοημοσύνη. 15η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

1 ο ΦΥΛΛΑΔΙΟ ΑΣΚΗΣΕΩΝ - ΑΛΓΟΡΙΘΜΟΙ

Αναγνώριση Προτύπων Ι

Υπολογιστική Νοημοσύνη. Μάθημα 12: Παραδείγματα Ασκήσεων 2

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON

3 η ΕΝΟΤΗΤΑ ΜΗ ΓΡΑΜΜΙΚΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ ΕΝΟΣ ΚΡΙΤΗΡΙΟΥ

ΕΛΕΓΧΟΣ ΠΑΡΑΓΩΓΙΚΩΝ ΔΙΕΡΓΑΣΙΩΝ

Τμήμα Διοίκησης Επιχειρήσεων (Γρεβενά) Μάθημα: Οικονομετρία Διάλεξη 2η: Απλή Γραμμική Παλινδρόμηση. Διδάσκουσα: Κοντογιάννη Αριστούλα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Αριθμητική εύρεση ριζών μη γραμμικών εξισώσεων

Απλή Γραμμική Παλινδρόμηση και Συσχέτιση 19/5/2017

Αναγνώριση Προτύπων Ι

Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος

Αριθμητικές Μέθοδοι σε Προγραμματιστικό Περιβάλλον

Γραµµικοί Ταξινοµητές

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

Αριθμητικές Μέθοδοι σε Προγραμματιστικό Περιβάλλον

Υπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning

Βασίλειος Μαχαιράς Πολιτικός Μηχανικός Ph.D.

ΜΑΘΗΜΑΤΙΚΑ & ΣΤΟΙΧΕΙΑ ΣΤΑΤΙΣΤΙΚΗΣ ΓΕΝΙΚΗΣ ΠΑΙ ΕΙΑΣ 2010 ΕΚΦΩΝΗΣΕΙΣ

Αναγνώριση Προτύπων Ι

HMY 795: Αναγνώριση Προτύπων

f(x) = και στην συνέχεια

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

Αριθμητική Ανάλυση & Εφαρμογές

Τσάπελη Φανή ΑΜ: Ενισχυτική Μάθηση για το παιχνίδι dots. Τελική Αναφορά

Τμήμα Διοίκησης Επιχειρήσεων (Γρεβενά) Μάθημα: Οικονομετρία Διάλεξη 3η: Απλή Γραμμική Παλινδρόμηση. Διδάσκουσα: Κοντογιάννη Αριστούλα

ΧΡΟΝΙΚΕΣ ΣΕΙΡΕΣ. Παπάνα Αγγελική

ΠΑΝΕΛΛΗΝΙΕΣ ΕΞΕΤΑΣΕΙΣ ΗΜΕΡΗΣΙΩΝ ΓΕΝΙΚΩΝ ΛΥΚΕΙΩΝ. f ( x) 0 0 2x 0 x 0

ΤΟΠΟΓΡΑΦΙΚΑ ΔΙΚΤΥΑ ΚΑΙ ΥΠΟΛΟΓΙΣΜΟΙ ΑΝΑΣΚΟΠΗΣΗ ΘΕΩΡΙΑΣ ΣΥΝΟΡΘΩΣΕΩΝ

ΠΕΡΙΕΧΟΜΕΝΑ. ΠΡΟΛΟΓΟΣ... vii ΠΕΡΙΕΧΟΜΕΝΑ... ix ΓΕΝΙΚΗ ΒΙΒΛΙΟΓΡΑΦΙΑ... xv. Κεφάλαιο 1 ΓΕΝΙΚΕΣ ΕΝΝΟΙΕΣ ΑΠΟ ΤΗ ΣΤΑΤΙΣΤΙΚΗ

Σημειώσεις διαλέξεων: Βελτιστοποίηση πολυδιάστατων συνεχών συναρτήσεων 1 / 20

ΤΕΧΝΟΛΟΓΙΑ ΛΟΓΙΣΜΙΚΟΥ Ι

ΠΡΟΓΡΑΜΜΑ ΣΠΟΥΔΩΝ ΣΤΗΝ ΠΛΗΡΟΦΟΡΙΚΗ ΜΑΘΗΜΑΤΙΚΑ Ι (ΘΕ ΠΛΗ 12) ΕΡΓΑΣΙΑ 1 η Ημερομηνία Αποστολής στον Φοιτητή: 17 Οκτωβρίου 2011

Επαναληπτικές μέθοδοι

Μέρος V. Ανάλυση Παλινδρόμηση (Regression Analysis)

Ασκήσεις μελέτης της 6 ης διάλεξης

Διαδικασιακός Προγραμματισμός

ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΤΕΧΝΟΛΟΓΙΚΟ ΕΚΠΑΙΔΕΥΤΙΚΟ ΙΔΡΥΜΑ ΚΕΝΤΡΙΚΗΣ ΜΑΚΕΔΟΝΙΑΣ ΣΧΟΛΗ ΤΜΗΜΑ. Μαθηματικά 2. Σταύρος Παπαϊωάννου

Εισόδημα Κατανάλωση

Θέμα 1. με επαυξημένο 0 1 1/ 2. πίνακα. και κλιμακωτή μορφή αυτού

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΧΡΟΝΙΚΕΣ ΣΕΙΡΕΣ. Παπάνα Αγγελική

Προσαρμογή καμπύλης με τη μέθοδο των ελαχίστων τετραγώνων

Πολλαπλή παλινδρόμηση (Multivariate regression)

Μοντέλα Παλινδρόμησης. Άγγελος Μάρκος, Λέκτορας ΠΤ Ε, ΠΘ

Βασίλειος Μαχαιράς Πολιτικός Μηχανικός Ph.D.

ΕΦΑΡΜΟΣΜΕΝΗ ΣΤΑΤΙΣΤΙΚΗ Ι Συμπληρωματικές Σημειώσεις Δημήτριος Παντελής

Κατανομή συνάρτησης τυχαίας μεταβλητής Y=g(X) Πιθανότητες & Στατιστική 2017 Τμήμα Μηχανικών Η/Υ & Πληροφορικής, Παν. Ιωαννίνων Δ13 ( 1 )

ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ. Ενότητα 5: Παραδείγματα. Ρεφανίδης Ιωάννης Τμήμα Εφαρμοσμένης Πληροφορικής

ΜΗ ΓΡΑΜΜΙΚΗ ΠΑΛΙΝΔΡΟΜΙΣΗ

ΟΙΚΟΝΟΜΕΤΡΙΑ. Ενότητα 2: Παλινδρόμηση. Αναπλ. Καθηγητής Νικόλαος Σαριαννίδης Τμήμα Διοίκησης Επιχειρήσεων (Γρεβενά)

Θερμοδυναμική - Εργαστήριο

Y Y ... y nx1. nx1

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Εφαρμοσμένη Στατιστική

HY213. ΑΡΙΘΜΗΤΙΚΗ ΑΝΑΛΥΣΗ ΕΛΑΧΙΣΤΑ ΤΕΤΡΑΓΩΝΑ AΝΑΛΥΣΗ ΙΔΙΑΖΟΥΣΩΝ ΤΙΜΩΝ

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

είναι πρόβλημα μεγιστοποίησης όλοι οι περιορισμοί είναι εξισώσεις με μη αρνητικούς του σταθερούς όρους όλες οι μεταβλητές είναι μη αρνητικές

Αριθμητική Ανάλυση και Εφαρμογές

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο

Μια από τις σημαντικότερες δυσκολίες που συναντά ο φυσικός στη διάρκεια ενός πειράματος, είναι τα σφάλματα.

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #8: Βελτιστοποίηση Συστημάτων Ασαφούς Λογικής. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

Κ Ε Φ Α Λ Α Ι Ο 3 ο : Ε ξ ι σ ώ σ ε ι ς. 3.1 Εξισώσεις 1 ου Βαθμού. 3.2 Η εξίσωση x. 3.3 Εξισώσεις 2 ου Βαθμού. ρωτήσεις αντικειμενικού τύπουθέμα Α1-

Προσαρμογή καμπύλης με τη μέθοδο των ελαχίστων τετραγώνων

E [ -x ^2 z] = E[x z]

A. ΣΥΝΕΧΕΙΑ ΣΥΝΑΡΤΗΣΗΣ

Μ Α Θ Η Μ Α Τ Α Γ Λ Υ Κ Ε Ι Ο Υ

Transcript:

Τεχνητή Νοημοσύνη 17η διάλεξη (2016-17) Ίων Ανδρουτσόπουλος http://.aueb.gr/users/ion/ 1

Οι διαφάνειες αυτής της διάλεξης βασίζονται: στο βιβλίο Artificia Inteigence A Modern Approach των S. Russe και P. Norvig, 2η έκδοση, Prentice Ha, 2003, στο βιβλίο Machine Learning του T. Mitche, McGra- Hi, 1997, σε ύλη των διαλέξεων του μαθήματος Μηχανικής Μάθησης του A. Ng στο Πανεπιστήμιο Stanford (βλ. http://cs229.stanford.edu/). Τα σχήματα των διαφανειών 5 και 6 προέρχονται από τις διαφάνειες εκπαιδευτή του πρώτου βιβλίου. 2

Τι θα ακούσετε σήμερα Συλλογική μάθηση (ensebe earning). Ενδυνάμωση (boosting) και αλγόριθμος ADABOOST. Γραμμική παλινδρόμηση. Κατάβαση κλίσης. 3

Συλλογική μάθηση (ensebe earning) Μαθαίνουμε πολλές διαφορετικές υποθέσεις π.χ. με διαφορετικούς αλγόριθμους μάθησης ή με διαφορετικές παραμέτρους του ίδιου αλγορίθμου ή με διαφορετικά δεδομένα εκπαίδευσης. Συνδυάζουμε τις αποκρίσεις τους. Π.χ. ακολουθούμε την άποψη της πλειοψηφίας. Αν τα λάθη των υποθέσεων είναι ανεξάρτητα και κάθε υπόθεση κάνει λάθος με πιθανότητα p, τότε π.χ. με συνδυασμό 3 υποθέσεων και p = 0.1, ο πλειοψηφικός συνδυασμός κάνει λάθος με p' = p 3 + 3 p 2 (1 p) (πρέπει να κάνουν λάθος και οι τρεις ή δύο από τις τρεις) = 0.028 < 0.1. Στην πράξη μπορεί να κάνουν τα ίδια λάθη, οπότε δεν έχουμε ανεξαρτησία. Αν τα λάθη, όμως, που κάνουν διαφέρουν σε κάποιο βαθμό και πάλι έχουμε βελτίωση. 4

Γραμμική διαχωρισιμότητα Έστω ότι έχουμε δύο κατηγορίες (+ και -) και δύο ιδιότητες (x, y). Το πρόβλημα μάθησης λέγεται γραμμικά διαχωρίσιμο ανν υπάρχει ευθεία που χωρίζει τα παραδείγματα των δύο κατηγοριών. Για περισσότερες ιδιότητες, ανν υπάρχει υπερ-επίπεδο που τα διαχωρίζει. Υπάρχουν αλγόριθμοι μάθησης που ο χώρος αναζήτησής τους περιέχει μόνο γραμμικούς διαχωριστές. Μαθαίνουν συναρτήσεις της μορφής: Κατατάσσουν ανάλογα με το πρόσημο του f( x). f ( x) ixi b x b Με γραμμικούς διαχωριστές δεν μπορούμε να διαχωρίσουμε τα παραδείγματα του σχήματος, αλλά με συνδυασμό τους μπορούμε. i 5

Βάρη των παραδειγμάτων εκπαίδευσης στην 1η επανάληψη. Ενδυνάμωση (boosting) Στην επόμενη επανάληψη αυξάνει το βάρος των παραδειγμάτων που κατετάγησαν πριν λανθασμένα. Δεν είναι απαραίτητο κάποια από τις υποθέσεις να είναι απολύτως συνεπής. Το μέγεθος των υποθέσεων (εδώ δέντρων) αναλογεί στο βάρος που έχουν στην τελική ψηφοφορία. 6

Ενδυνάμωση (boosting) Κάθε παράδειγμα εκπαίδευσης φέρει ένα βάρος j 0. Παριστάνει τη σπουδαιότητα που έχει το παράδειγμα. Καμία σχέση με τα βάρη των γραμμικών διαχωριστών... Οι περισσότεροι αλγόριθμοι επεκτείνονται εύκολα, ώστε να υποστηρίζουν παραδείγματα εκπαίδευσης με βάρη. Ή αντιμετωπίζουμε κάθε παράδειγμα σαν να εμφανίζεται j φορές στα δεδομένα εκπαίδευσης. Εκπαίδευση: μαθαίνουμε διαδοχικά Μ υποθέσεις: Την πρώτη φορά, όλα τα παραδείγματα έχουν ίσο βάρος. Συνήθως πριν κάθε επανάληψη, τα βάρη των παραδειγμάτων που κατέταξε λάθος η τελευταία υπόθεση αυξάνονται και αυτών που κατέταξε σωστά μειώνονται. Δίνουμε έμφαση στα παραδείγματα που κατετάγησαν λάθος. Κατά τη χρήση: ψηφοφορία μεταξύ των Μ υποθέσεων. Οι υποθέσεις που ήταν συνεπείς με περισσότερα παραδείγματα εκπαίδευσης έχουν ψήφους με μεγαλύτερα βάρη. 7

Αλγόριθμος ADABOOST Ένας από τους πιο γνωστούς αλγορίθμους ενδυνάμωσης. συνάρτηση adaboost(παραδείγματα, L, M) είσοδοι: παραδείγματα: σύνολο {(x 1, y 1 ),..., (x N, y N )} παραδειγμάτων x i με τις ορθές αποκρίσεις τους y i. L: βασικός αλγόριθμος μάθησης M: αριθμός επαναλήψεων τοπικές μεταβλητές: : διάνυσμα με τα βάρη των N παραδειγμάτων, αρχικά όλα 1/N h : διάνυσμα όπου εισάγουμε τις M υποθέσεις που μαθαίνουμε z : διάνυσμα όπου εισάγουμε τα βάρη των M υποθέσεων... συνεχίζεται... 8

Αλγόριθμος ADABOOST (συνέχεια) για = 1 ως M h[] L(παραδείγματα, ) λάθος 0 για j = 1 ως N αν h[](x j ) y j τότε λάθος λάθος + [j] για j = 1 ως Ν Μαθαίνουμε μια νέα υπόθεση (ένα νέο μέλος της επιτροπής). Υπολογίζουμε το συνολικό σφάλμα της νέας υπόθεσης. Το άθροισμα των βαρών των παραδειγμάτων είναι 1. Για λάθος < 0.5, τα βάρη των παραδειγμάτων που κατετάγησαν σωστά μειώνονται. αν h[](x j ) = y j τότε [j] [j] λάθος / (1 λάθος) noraize() z[] og[(1 λάθος) / λάθος] επίστρεψε eighted-ajority(h, z) Ώστε να έχουν πάλι άθροισμα 1. Δίνουμε μεγάλο βάρος σε μια υπόθεση αν τα πήγε καλά. Κατασκευάζει μια συνάρτηση που επιστρέφει την άποψη της πλειοψηφίας των Μ υποθέσεων του h, με βάρη ψήφων εκείνα του z. 9

Χαρακτηριστικά ADABOOST Αν ο βασικός αλγόριθμος L επιτυγχάνει πάντα λάθος < 0.5, η συνολική επιστρεφόμενη υπόθεση γίνεται συνεπής με τα δεδομένα εκπαίδευσης για μεγάλα M. Αν δεν υπάρχουν ασυνεπή παραδείγματα. (Η απόδειξη παραλείπεται.) Άρα μπορούμε να μάθουμε οποιαδήποτε συνάρτηση για μεγάλα M (π.χ. μη γραμμικούς διαχωριστές). Συχνά χρησιμοποιούνται απλοϊκοί βασικοί αλγόριθμοι, π.χ. δέντρα απόφασης ενός μόνο επιπέδου (decision stups). Καθώς το Μ αυξάνει, η συνολική υπόθεση κάποια στιγμή γίνεται συνεπής με τα δεδομένα εκπαίδευσης. Αλλά αν αυξήσουμε το Μ περαιτέρω (πιο περίπλοκη υπόθεση), συνήθως επιτυγχάνουμε ακόμα υψηλότερα ποσοστά ορθότητας στα δεδομένα αξιολόγησης (καλύτερη γενίκευση). Αντίθετα από ό,τι προτείνει το ξυράφι του Ockha! Πιθανή εξήγηση: με μεγαλύτερα Μ, η συνολική υπόθεση μαθαίνει να διαχωρίζει τις κατηγορίες με μεγαλύτερο περιθώριο, που τη βοηθά να κατατάσσει ακριβέστερα νέες περιπτώσεις. 10

Τα σημεία πάνω από τη γραμμή της f(x) έχουν: y > 1 x + 0. Τα σημεία κάτω από τη γραμμή της f(x) έχουν: y < 1 x + 0. Γραμμική παλινδρόμηση f(x) x Πηγή εικόνας: http://en.ikipedia.org/iki/ Linear_regression Θέλουμε να μάθουμε την f(x) από ένα δείγμα (τελείες). Περιοριζόμαστε σε γραμμικές υποθέσεις (συναρτήσεις): y f ( x) x, 1 0 1 0 Άρα ψάχνουμε τα καλύτερα:, 1 0

Γραμμική παλινδρόμηση συνέχεια Αν έχουμε δύο ιδιότητες x1, x2, οι γραμμικές μας υποθέσεις αντιστοιχούν σε επίπεδα του τριδιάστατου χώρου: y f ( x, x ) x x,, 1 2 2 2 1 1 0 2 1 0 Γενικότερα, αν έχουμε ιδιότητες x1, x2,, xn, οι γραμμικές μας υποθέσεις αντιστοιχούν σε υπερ-επίπεδα του (n+1)-διάστατου χώρου: y f ( x,, x ) x x n,, 0 1 n n n 1 1 0 n x,,, x, x, x 0 0 1 n 0 1 n T f( x) x W X Θεωρούμε ότι πάντα x 0 = 1. και ψάχνουμε το καλύτερο. Αν θεωρήσουμε κάθε διάνυσμα ως πίνακα μιας στήλης.

Συνάρτηση αξιολόγησης Ο χώρος αναζήτησης περιλαμβάνει τα δυνατά. Για να αξιολογήσουμε κάθε κατάσταση χρησιμοποιήσουμε τη συνάρτηση: όπου: ( i) ( i) ( x, y ) y () i i1, θα 1 E( ) [ f( x ) y ] 2 ( i) ( i) 2 τα παραδείγματα εκπαίδευσης (δείγμα), η ορθή απόκριση για είσοδο. «Γραμμική παλινδρόμηση ελαχίστων τετραγώνων». Αξιολογούμε αθροίζοντας τα τετράγωνα των διαφορών των αποκρίσεων από τις επιθυμητές τιμές. x () i

Παράσταση της Ε για διαφορετικά 1 E( ) [ f( x ) y ] 2 Η επιφάνεια που προκύπτει είναι κυρτή, άρα δεν έχει τοπικά ελάχιστα. 1 i1 ( i) ( i) 2 Ψάχνουμε το διάνυσμα βαρών για το οποίο το συνολικό σφάλμα E ( ) στα παραδείγματα εκπαίδευσης είναι ελάχιστο. 0 Πηγή εικόνας: http://en.ikipedia.org/iki/ 14 Gradient_descent

Κατάβαση κλίσης (gradient descent) Ξεκινώ με τυχαία βάρη. Μετράω σφάλμα E ( ) στα παραδείγματα εκπαίδευσης με τα τρέχοντα βάρη. Προς τα πού να μεταβάλω τα βάρη; 1 1 E( ) [ f( x ) y ] 2 i1 E( ) ( i) ( i) 2 Η κλίση είναι ένα διάνυσμα που δείχνει προς την κατεύθυνση μεταβολής των βαρών που οδηγεί στη μεγαλύτερη αύξηση του E ( ). Το E( ) δείχνει προς την μεγαλύτερη μείωση. E ( ) E ( ) E ( ) E ( ) 0 Σε κάθε βήμα, τροποποιούμε τo κατά η προς την κατεύθυνση που προκαλεί τη μεγαλύτερη μείωση του σφάλματος: E( ) Κατάβαση λόφου με συνάρτηση αξιολόγησης 15 Ε.

Κανόνας ενημέρωσης βαρών E( ) E( ) E( ) E( ) E ( ),,...,,, E ( ) i1 1 E( ) [ f( x ) y ] 2 i1 0 1 ( i) ( i) [ f ( x ) y ] i1 ( i) ( i) [ f ( x ) y ] ( i) ( i) 2 n j0 n ( i) ( i) ( f ( x ) y ) ( i) y ( i) j ( x ) j

Κανόνας ενημέρωσης βαρών συνέχεια Άρα: 1 E( ) [ f( x ) y ] 2 E ( ) i1 i1 i1 ( i) ( i) ( i) [ f ( x ) y ] x ( i) ( i) 2 E( ) E( ) E( ) E( ) E ( ),,...,,, E( ) [ f ( x ) y ] x, x,, x ( i) ( i) ( i) ( i) ( i) 1 n [ f ( x ) y ] x i1 0 1 ( i) ( i) ( i) n

Κανόνας ενημέρωσης βαρών συνέχεια Άρα ο κανόνας ενημέρωσης βαρών: γίνεται: E( ) [ f ( x ) y ] x i1 και κάθε βάρος ενημερώνεται ως εξής: ( i) ( i) ( i) [ ( ( i) ) ( i) ] ( i) i1 f x y x 18

Αλγόριθμος κατάβασης κλίσης (batch gradient descent) 1. Ξεκίνα με τυχαία βάρη. E ( ) 2. Όσο το δεν έχει συγκλίνει: 3. Ενημέρωσε τα βάρη: 4. Πήγαινε στο βήμα 2. ( i) ( i) ( i) [ ( ) ] i1 f x y x Το η είναι μικρή θετική σταθερά. Εναλλακτικά προσαρμόζεται σε κάθε επανάληψη.

Στοχαστική κατάβαση κλίσης 1. Ξεκίνα με τυχαία βάρη. 2. Θέσε και. 1 i i 3. Υπολόγισε το Ei( ) [ f( x ) y ] 2 μόνο στο τρέχον (i-στό) παράδειγμα εκπαίδευσης. 4. i 1 5. Ενημέρωσε τα βάρη: 6. Αν υπάρχει (i+1)-στό παράδειγμα, θέσε και πήγαινε στο βήμα 3. s 0 7. Αν το s δεν έχει συγκλίνει και δεν υπερβήκαμε το μέγιστο αριθμό επαναλήψεων, πήγαινε στο βήμα 2. ( ) ( ) 2 s s Ei ( ) E ( ) δηλαδή: f x y x ii1 Προκύπτει υπολογίζοντας τις μερικές παραγώγους... i ( i) ( i) ( i) [ ( ) ]

Στοχαστική κατάβαση κλίσης συνέχεια Μικρότερο υπολογιστικό κόστος. Το σφάλμα υπολογίζεται κάθε φορά σε ένα μόνο παράδειγμα εκπαίδευσης. Προτιμάται όταν έχουμε πάρα πολλά παραδείγματα. Τα βήματα δεν πηγαίνουν πάντα προς το ελάχιστο του E. Κάθε βήμα πάει προς το ελάχιστο του E i. Φαίνεται σαν να κάνει και τυχαία βήματα. Ενδέχεται να μη φτάσει ακριβώς στο ελάχιστο E, αλλά να περιφέρεται γύρω (και κοντά) από αυτό. Αλλά στην πράξη φτάνει συνήθως πολύ κοντά στο ελάχιστο και μάλιστα αρκετά γρήγορα.

Κλειστή λύση γραμμικής παλινδρόμησης Υπάρχει και κλειστή λύση για την εύρεση των βαρών που ελαχιστοποιούν το συνολικό σφάλμα. Θέτουμε και λύνουμε ως προς. Η λύση που προκύπτει είναι: όπου: X 1 E( ) [ f( x ) y ] 2 i1 E ( ) 0 x x x x x x x x x (1) (1) (1) 1 2 n (2) (2) (2) 1 2 n ( ) ( ) ( ) 1 2 n ( i) ( i) 2 * 1 ( T T W X X ) X Y Y y y y (1) (2) ( )

Κλειστή λύση συνέχεια Η κλειστή λύση όμως απαιτεί την αντιστροφή του T πίνακα. ( X X) Αν έχουμε πολύ μεγάλο αριθμό παραδειγμάτων και ιδιοτήτων, μπορεί να είναι χρονοβόρα. Η κατάβαση κλίσης μπορεί να χρησιμοποιηθεί και σε άλλα προβλήματα, όπου δεν υπάρχει κλειστή λύση. Θα συναντήσουμε τέτοια προβλήματα στη συνέχεια.

Βιβλιογραφία Δεν υπάρχουν ενότητες στα βιβλία των R&N και Βλαχάβα κ.ά. που να καλύπτουν πλήρως την ύλη αυτής της διάλεξης. Russe & Norvig: ενότητα 4.4 και 18.4. Βλαχάβας κ.ά.: υπο-ενότητα «Παρεμβολή» της ενότητας 18.1.6. Συμβουλευτείτε και τις σημειώσεις «Linear regression, cassification and ogistic regression, generaized inear odes» του A. Ng του Πανεπιστημίου Stanford. Βλ. http://cs229.stanford.edu/notes/cs229-notes1.pdf, σελ. 1 7.