Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Μέγεθος: px
Εμφάνιση ξεκινά από τη σελίδα:

Download "Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2"

Transcript

1 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson

2 ΧΑΡΤΟΓΡΑΦΗΣΗ ΤΟΥ ΧΩΡΟΥ ΤΩΝ ΤΑΞΙΝΟΜΗΤΩΝ Ταξινομητές Ταξινομητές συναρτ. διάκρισης Ταξινομητές επιφανειών απόφ. Παραμετρικοί ταξινομητές Μη παραμετρικοί ταξινομητές Μη παραμετρικοί ταξινομητές Παραμετρικοί ταξινομητές Ταξινομ. Bayes Ευκλείδειας απόστασης Τετραγ. Ταξινομ. Γραμμικοί Ταξινομ. Mahalanobs απόστασης Ταξινομ. Bayes Ταξιν. k- πλησιέστ. γειτόνων Perceptron Γραμμικοί Ταξινομ. Ταξιν. Ελαχ. τετραγώνων Μηχανές διανυσμ. στήριξης Μη γραμ. ταξινομ. Νευρωνικά δίκτυα

3 Υπενθ.: X είναι το σύνολο των δεδομένων σημείων όλων των κλάσεων X είναι το υποσύνολο του X που περιέχει τα διανύσματα της κλάσης ω, X=X X M Ταξινομητές με βάση τις συναρτήσεις διάκρισης ˆ ; ˆ ˆ :,,. ; ˆ. p p X EM ML X ά p p p P f g ˆ ˆ ˆ ˆ, ˆ :,,., : T T g X ML X ά N ό g ˆ ˆ ˆ :,., : T T g X ML X ά ί I N ό g ˆ ˆ ˆ ˆ, ˆ :,,., : T T g X ML X ά ί N ό g ΧΑΡΤΟΓΡΑΦΗΣΗ ΤΟΥ ΧΩΡΟΥ ΤΩΝ ΤΑΞΙΝΟΜΗΤΩΝ

4 Μη παραμετρικοί ταξινομητές με βάση τις συναρτήσεις διάκρισης...., ; ˆ k ά ί Parzen ά X p p p P f g k g ΧΑΡΤΟΓΡΑΦΗΣΗ ΤΟΥ ΧΩΡΟΥ ΤΩΝ ΤΑΞΙΝΟΜΗΤΩΝ Υπενθ.: X είναι το σύνολο των δεδομένων σημείων όλων των κλάσεων X είναι το υποσύνολο του X που περιέχει τα διανύσματα της κλάσης ω, X=X X M

5

6 ΜΗ ΓΡΑΜΜΙΚΟΙ ΠΑΡΑΜΕΤΡΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΕΠΙΦΑΝΕΙΩΝ ΑΠΟΦΑΣΗΣ Μερικά προκαταρτικά: - Στην πράξη έχουμε στη διάθεσή μας ένα σύνολο δεδομένων tranng set όπου X l {, d, R, d {,,..., M},,... N} είναι η l-διάστατη αναπαράσταση της -στής οντότητας ενός συνόλου N οντοτήτων tranng vector d είναι η ετικέτα της κλάσης στην οποία ανήκει το για ω, για ω,. - Εστιάζουμε κυρίως στην περίπτωση δύο κλάσεων συνήθως ω + ή A και ω -0 ή B. - Δεν υιοθετούμε κάποια υπόθεση σχετικά με τις συναρτήσεις πυκν. πιθ. pdfs που μοντελοποιούν τις κλάσεις. - Εστιάζουμε σε ταξινομητές που δύνανται να υλοποιήσουν μη γραμμικούς διαχωρισμούς μεταξύ των δεδομένων των κλάσεων. -ΣΗΜ.: Μη γραμμικοί διαχωρισμοί μπορούν να επιτευχθούν είτε μέσω μιας μη γραμμικής επιφανειας, είτε μέσω συνδυασμού μερικών γραμμικών η μη γραμμικών επιφανειών. Σε κάθε περίπτωση ορίζεται μια επιφάνεια απόφασης.

7 ΜΗ ΓΡΑΜΜΙΚΟΙ ΠΑΡΑΜΕΤΡΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΕΠΙΦΑΝΕΙΩΝ ΑΠΟΦΑΣΗΣ Μία μη γραμμική επιφάνεια Συνδυασμός περισσοτέρων της μίας επιφανειών

8 ΜΗ ΓΡΑΜΜΙΚΟΙ ΠΑΡΑΜΕΤΡΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΕΠΙΦΑΝΕΙΩΝ ΑΠΟΦΑΣΗΣ Σημ.: Εκτός αν ορίζεται διαφορετικά, θεωρούμε την περίπτωση των δύο κλάσεων,.e., ω + and ω -. Ορισμός του προβλήματος: Δοθέντος ενός συνόλου δεδομένων X σχεδίασε ένα ταξινομητή που επιτυγχάνει τον βέλτιστο δυνατό διαχωρισμό των διανυσμάτων των δύο κλάσεων. Στρατηγική επίλυσης:. Υιοθέτησε ένα συγκεκριμένο μη γραμμικό παραμετρικό μοντέλο για τον ταξινομητή είναι το διάνυσμα που περιέχει όλες τις παραμέτρους του.. Όρισε κατάλληλη συνάρτηση κόστους cost functon του, J, η οποία εμπλέκει επίσης τα διανύσματα του X, έτσι ώστε οι θέσεις των βέλτιστών της να αντιστοιχούν στο βέλτιστο δυνατό διαχωρισμό για το πρόβλημα. Βελτιστοποίησε την J ως προς. Η θέση όπου η J παρουσιάζει βέλτιστο ορίζει τον καλύτερο δυνατό διαχωρισμό. Σημαντική παρατήρηση: Η έννοια της φράσης καλύτερος δυνατός διαχωρισμός διαφέρει για διαφορετικές επιλογές της J.

9 ΜΗ ΓΡΑΜΜΙΚΟΙ ΠΑΡΑΜΕΤΡΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΕΠΙΦΑΝΕΙΩΝ ΑΠΟΦΑΣΗΣ Σύντομη υπενθύμιση: - Ένας γραμμικός ταξινομητής ορίζεται μέσω ενός υπερεπιπέδου l 0 k : 0 T H h, l l k k 0 όπου =[,, l ] T, =[,, l ] T η γνώση των και 0 ορίζει πλήρως το H 0 - Αν για δεδομένο είναι h, = T + 0 ><0, το καταχωρείται στην κλάση +0. -Τέτοιοι ταξινομητές υλοποιούνται από τη δομή perceptron, με fz= 0, f z><0

10 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Το πρόβλημα eclusve OR XOR XOR Class B 0 A 0 A 0 B Δεν υπάρχει καμία γραμμή υπερεπίπεδο που διαχωρίζει την κλάση A από την κλάση B. 0

11 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Αντίθετα, τα προβλήματα AND και OR είναι γραμμικώς διαχωρίσιμα.

12 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Η δομή δικτύου Perceptron δύο επιπέδων Για το πρόβλημα XOR, σχεδίασε δύο, αντί για μία γραμμές. Η σκιασμένη περιοχή καταχωρείται στη κλάση A ενώ η μη-σκιασμένη περιοχή καταχωρείται στη κλάση B.

13 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Η δομή δικτύου Perceptron δύο επιπέδων Έστω ότι το =[, ] T απεικονίζεται στο διάνυσμα y=[y,y ] T, όπου το y ισούται με 0, αν το ανήκει στη θετική αρνητική πλευρά της -στής γραμμής, =,. Τότε Απεικόνιση Διαχωρισμός y y B A A + + B0

14 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Η δομή δικτύου Perceptron δύο επιπέδων Έστω ότι το =[, ] T απεικονίζεται στο διάνυσμα y=[y,y ] T, όπου το y ισούται με 0, αν το ανήκει στη θετική αρνητική πλευρά της -στής γραμμής, =,. Τότε, κάθε σημείο της σκιασμένης περιοχής απεικονίζεται στο σημείο,0 στο νέο χώρο κάθε σημείο της μη σκιασμένης περιοχής απεικονίζεται είτε στο 0,0 είτε στο,. g g.5 0 g y y y gy ΣΗΜ.: Το πρόβλημα γίνεται γραμμικώς διαχωρίσιμο στο μετασχηματισμένο χώρο.

15 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Η δομή δικτύου Perceptron δύο επιπέδων - Υλοποίηση Τοποθέτησε δύο νευρώνες perceptrons στο ίδιο πρώτο επίπεδο. Ο πρώτος δεύτερος υλοποιεί το διαχωρισμό που ορίζεται από τη γραμμή g =0 g =0. Τοποθέτησε έναν επιπλέον νευρώνα στο δεύτερο επιπεδο, που παίρνει σαν είσοδο τις εξόδους των προηγουμένων δύο νευρώνων και υλοποιεί την ταξινόμηση στο μετασχηματισμένο χώρο. H : g =0 H : g H : g H : g y y y H: gy=0 H : g =0

16 Δυνατότητες ταξινόμησης των δικτύων perceptrons δύο επιπέδων Στην περίπτωση το προβλήματος XOR, οι νευρώνες του πρώτου επιπέδου απεικονίζουν τα διανύσματα εισόδου στις κορυφές του κύβου με πλευρά ίση με, δηλ., στις 0, 0, 0,,, 0,,. Στη γενικότερη περίπτωση όπου R l και χρησιμοποιούνται p πρώτου επιπέδου νευρώνες, η απεικόνιση γίνεται στις κορυφές του H p υπερκύβου, δηλ., ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ y 0,, p T [ y,... yp ], y,... Το y ισούται με 0 αν το ανήκει στη θετική αρνητική πλευρά του g =0.

17 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Δυνατότητες ταξινόμησης των δικτύων perceptrons δύο επιπέδων Τεμνόμενα υπερεπίπεδα στο χώρο που αντιστοιχούν στους p νευρώνες του πρώτου επιπέδου, ορίζουν περιοχές με την ακόλουθη ιδιότητα: ΟΛΑ τα σημεία μιας περιοχής έχουν την ίδια σχετική θέση ως προς τα p υπερεπίπεδα. Επομένως, απεικονίζονται στην ίδια κορυφή του H p υπερκύβου. Παράδειγμα: Η κορυφή 00 αντιστοιχεί στην περιοχή που βρίσκεται στην - πλευρά της g =0, στην - πλευρά της g =0, στη + πλευρά της g 3 =0.

18 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Δυνατότητες ταξινόμησης των δικτύων perceptrons δύο επιπέδων Ο νευρώνας εξόδου αντιστοιχεί σε ένα υπερεπίπεδο στο μετασχηματισμένο χώρο το οποίο χωρίζει κάποιες κορυφές του H p υπερκύβου από τις υπόλοιπες. Συνεπώς, ένα perceptron δύο επιπέδων έχει τη δυνατότητα να διαχωρίσει κλάσεις που αποτελούνται από ενώσεις πολυεδρικών περιοχών. Αλλά ΌΧΙ ΟΠΟΙΕΣΔΗΠΟΤΕ ενώσεις. Αυτό εξαρτάται από τη σχετική θέση των αντίστοιχων κορυφών του υπερκύβου. Παράδειγμα: Δεν υπάρχει υπερεπίπεδο που να διαχωρίζει τις μπλε κορυφές από τις υπόλοιπες

19 Δίκτυα Perceptrons τριών επιπέδων Η αρχιτεκτονική ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Τέτοιες δομές είναι ικανές να διαχωρίσουν κλάσεις που ορίζονται από οποιαδήποτε ένωση πολυεδρικών περιοχών.

20 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Δίκτυα Perceptrons τριών επιπέδων παράδειγμα

21 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Δίκτυα Perceptrons τριών επιπέδων Έστω A=R R k και B=R R m 0 AB=R l, όπου οι περιοχές R και R ορίζονται από την τομή p υπερεπιπέδων, H,,H p. Πώς ένα perceptron τριών επιπέδων μπορεί να υλοποιήσει ΟΠΟΙΟΝΔΗΠΟΤΕ διαχωρισμό που ορίζεται από υπερεπίπεδα: - Τοποθέτησε p νευρώνες στο πρώτο επίπεδο, καθένας από τους οποίους αντιστοιχεί σε ένα από τα υπερεπίπεδα H,,H p. - Τοποθέτησε k nodes στο δεύτερο επίπεδο, καθένας από τους οποίους διαχωρίζει μια κορυφή του H p υπερκύβου που αντιστοιχεί σε μια περιοχή R, από όλες τις υπόλοιπες κορυφές. - Τοποθέτησε έναν OR νευρώνα στο τρίτο επίπεδο αυτός επιστρέφει 0 για την κορυφή 00 0 του H k υπερκύβου και για όλες τις υπόλοιπες. ΣΗΜ.: Το πρώτο επίπεδο του δικτύου ορίζει τα υπερεπίπεδα, το δεύτερο επίπεδο ορίζει τις περιοχές και ο νευρώνας εξόδου ορίζει τις κλάσεις.

22 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Η παραπάνω ανάλυση ήταν χρήσιμη προκειμένου να κατανοήσουμε τη λογική των δικτύων perceptrons πολλών επιπέδων καθώς επίσης και τις δυνατότητές τους. Ωστόσο, στην πράξη το μόνο που έχουμε στη διάθεσή μας είναι ένα σύνολο δεδομένων X και το πρόβλημά μας είναι το ακόλουθο: Ορισμός προβλήματος:. Υιοθέτησε/καθόρισε δίκτυο perceptron πολλαπλών επιπέδων συγκεκριμένης δομής. Εκτίμησε το διάνυσμα παραμέτρων του το οποίο περιέχει όλες τις παραμέτρους των νευρώνων του δικτύου, ώστε να επιτευχθεί ο βέλτιστος δυνατός διαχωρισμός των κλάσεων, με βάση το X. Δύο κύριες κατευθύνσεις: Ανέπτυξε μια δομή η οποία ταξινομεί σωστά όλα τα διανύσματα εκπαίδευσης. Υιοθέτησε μια δομή και υπολόγισε τις τιμές των παραμέτρων της μέσω της βελτιστοποίησης μιας κατάλληλα επιλεγμένης συνάρτησης κόστους.

23 Θεωρείστε το ακόλουθο δίκτυο δύο επιπέδων με - νευρώνες εισόδου διάσταση χώρου εισόδου - νευρώνες πρώτου επιπέδου - νευρώνας εξόδου δευτέρου επιπέδου. Το δίκτυο αυτό περιγράφεται από τη συνάρτηση όπου =[,, 0 ] T, =[,, 0 ] T, 3 =[ 3, 3, 30 ] T, =[,, ] T και f. η συνάρτηση μοναδιαίου βήματος. Το διάνυσμα παραμέτρων του δικτύου είναι =[ T, T, 3T ] = [,, 0,,, 0, 3, 3, 30 ] T ˆ f f f f f f f y T ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ

24 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Ο αλγόριθμος οπισθοδρομικής διάδοσης Backpropagaton BP Algorthm Είναι μια αλγοριθμική διαδικασία στη λογική της οξύτερης καθόδου gradent descent που υπολογίζει αναδρομικά τα συναπτικά βάρη παράμετροι του δικτύου, έτσι ώστε να επιτυγχάνεται η ελαχιστοποίηση της επιλεγμένης συνάρτησης κόστους. Σε ένα μεγάλο αριθμό διαδικασιών βελτιστοποίησης, απαιτείται ο υπολογισμός παραγώγων. Έτσι, ασυνεχείς συναρτήσεις ενεργοποίησης δημιουργούν προβλήματα δηλ., 0 f 0 0 Παρόλα αυτά, υπάρχουν δίοδοι διαφυγής!!! Η logstc συνάρτηση και η συνάρτηση υπερβολικής εφαπτομένης αποτελούν τέτοια παραδείγματα. f ep a f ep a ep a

25 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Ο αλγόριθμος οπισθοδρομικής διάδοσης BP Η συνάρτηση logstc

26 Ο αλγόριθμος οπισθοδρομικής διάδοσης BP Τα βήματα: ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Υιοθέτησε μία κατάλληλη συνάρτηση κόστους J, π.χ., Σφάλμα ελαχίστων τετραγώνων Least Squares Error, Σχετική εντροπία Relatve Entropy που ορίζεται λαμβάνοντας υπ όψιν τις επιθυμητές αποκρίσεις και τις πραγματικές αποκρίσεις του δικτύου για τα διαθέσιμα διανύσματα εκπαίδευσης. Αυτό υπονοεί ότι από εδώ και στο εξής αποδεχόμαστε την ύπαρξη λαθών. Προσπαθούμε μόνο να τα ελαχιστοποιήσουμε, χρησιμοποιώντας συγκεκριμένα κριτήρια. Υιοθέτησε έναν αλγόριθμο για τη βελτιστοποίηση της συνάρτησης κόστους ως προς τα συναπτικά βάρη π.χ., Αλγόριθμος οξύτερης καθόδου Gradent descent Αλγόριθμος Neton Αλγόριθμος συζυγών διευθύνσεων Conugate gradent

27 Ο αλγόριθμος οπισθοδρομικής διάδοσης BP Για την περίπτωση της οξύτερης καθόδου έχουμε Για τα διανύσματα όλων των νευρώνων του δικτύου. Παράδειγμα: Η συν. κόστους ελαχίστων τετραγώνων για το παραπάνω δίκτυο είναι t t t J t t N n n n N n n T n N n n n f f d f f d y d J ˆ 30 3 ˆ f f d y d J n T n n n Batch mode Pattern onlne mode ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ

28 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Ο αλγόριθμος οπισθοδρομικής διάδοσης BP Η διαδικασία:. Αρχικοποίησε τα άγνωστα βάρη σε τυχαίες μικρές τιμές.. Υπολόγισε τους όρους βαθμίδας gradent terms προς τα πίσω, ξεκινώντας με τα βάρη των νευρώνων του τελευταίου επιπέδου και κινούμενος προς αυτά των νευρώνων του πρώτου 3. Ενημέρωσε τα βάρη 4. Επανέλαβε τα βήματα και 3 μέχρις ότου ικανοποιηθεί ένα κριτήριο τερματισμού. Δύο κύριες φιλοσοφίες: Επεξεργασία κατά συρροή Batch mode: Οι όροι βαθμίδας του τελευταίου επιπέδου υπολογίζονται αφού πρώτα υποστούν επεξεργασία ΌΛΑ τα διανύσματα εκπαίδευσης δηλ.,, θεωρώντας το άθροισμα των λαθών για όλα τα διανύσματα. Επεξεργασία κατά μόνας Pattern mode: Οι όροι βαθμίδα υπολογίζονται για κάθε νέο διάνυσμα εκπαίδευσης. Έτσι, οι όροι αυτοί βασίζονται σε διαδοχικά μεμονωμένα λάθη.

29 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Ο αλγόριθμος οπισθοδρομικής διάδοσης BP Ένα σημαντικό πρόβλημα: Ο αλγόριθμος μπορεί να συγκλίνει σε ένα τοπικό ελάχιστο.

30 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Ο αλγόριθμος οπισθοδρομικής διάδοσης BP Επιλογή συνάρτησης κόστους Παραδείγματα: Η συνάρτηση ελαχίστων τετραγώνων Least Squares y m ˆ y m για το διάστημα J N E E e,,..., N Επιθυμητή απόκριση του m-στου νευρώνα εξόδου or 0 Πραγματική απόκριση του m-στου νευρώνα εξόδου, στο [0, ], για είσοδο k k m m m y m yˆ m

31 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Ο αλγόριθμος οπισθοδρομικής διάδοσης BP Επιλογή συνάρτησης κόστους Η συνάρτηση cross-entropy J N E E k ym ln yˆ m ym ln yˆ m m Αυτή προϋποθέτει την ερμηνεία των y and ŷ ως πιθανότητες. Σφάλμα ταξινόμησης Classfcaton error rate. Οι περισσότερες από τις σχετικές τεχνικές χρησιμοποιούν μία εξομαλυσμένη έκδοση του σφάλματος ταξινόμησης και όλες μαζί αποτελούν την κατηγορία αλγορίθμων διακριτικής μάθησης dscrmnatve learnng.

32 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Ο αλγόριθμος οπισθοδρομικής διάδοσης BP Επιλογή συνάρτησης κόστους Σχόλιο : Ένα κοινό χαρακτηριστικό των παραπάνω συναρτήσεων είναι ο κίνδυνος σύγκλισης σε κάποιο τοπικό ελάχιστο. Οι καλώς ορισμένες Well formed συναρτήσεις κόστους εγγυώνται σύγκλιση σε μία καλή λύση, δηλαδή σε μία λύση που να ταξινομεί σωστά ΟΛΑ τα δεδομένα εκπαίδευσης, υπό την προϋπόθεση ότι υπάρχει μία τέτοια λύση. Η cross-entropy συνάρτηση κόστους είναι καλώς ορισμένη. Η συνάρτηση ελαχίστων τετραγώνων δεν είναι. Σχόλιο : Αμφότερες οι συναρτήσεις κόστους ελαχίστων τετραγώνων και cross entropy οδηγούν σε τιμές εξόδου yˆ m που προσεγγίζουν κατά βέλτιστο τρόπο τις εκ των υστέρων πιθανότητες για κάθε κλάση Optmally class a- posteror probabltes!!! yˆ m P Δηλ., την πιθανότητα της κλάσης δοθέντος του. m Πρόκειται για ένα πολύ ενδιαφέρον αποτέλεσμα. Δεν εξαρτάται από τις κατανομές των κλάσεων. Είναι ένα χαρακτηριστικό ορισμένων συναρτήσεων κόστους. Η ποιότητα της προσέγγισης εξαρτάται από το μοντέλο που υιοθετήθηκε. Επιπλέον, ισχύει μόνο στο ολικό ελάχιστο. m 3

33 Αλγόριθμος backpropagaton με όρο ορμής momentum term Προστατεύει τον αλγόριθμο από περιπτώσεις ταλάντωσης γύρω από το ελάχιστο και, κατά συνέπεια, αργής σύγκλισης Εξισώσεις Παραλλαγές του αλγόριθμου οπισθοδρομικής διάδοσης BP ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ t t t r r r r r r r r J t a t t

34 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Παραλλαγές του αλγόριθμου οπισθοδρομικής διάδοσης BP Προσαρμοστικός adaptve αλγόριθμος backpropagaton Επιταχύνει ή επιβραδύνει ανάλογα με το είδος της περιοχής του landscape της συνάρτησης κόστους που βρίσκεται η τρέχουσα εκτίμηση Εξισώσεις

35 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Μέγεθος αρχιτεκτονική δικτύου Ένα σημαντικό ζήτημα: Πώς αποφασίζουμε για το μέγεθος και τη δομή του δικτύου; Δύο κύριες κατευθύνσεις: - Σταθερή δομή δικτύου: Υιοθέτησε ένα δίκτυο συγκεκριμένης σταθερής δομής και εφάρμοσε το αλγόριθμο BP. Αν ή απόδοση του δικτύου μετά την εκπαίδευση δεν είναι ικανοποιητική, υιοθέτησε μια άλλη αρχιτεκτονική και επανέλαβε την εκπαίδευση. - Μεταβλητή δομή δικτύου: Στην περίπτωση αυτή η δομή του δικτύου μεταβάλλεται κατά την διάρκεια της εκπαίδευσης του δικτύου. Υπάρχουν δύο βασικές φιλοσοφίες: Φιλοσοφία κλαδέματος prunng: Ξεκίνα με ένα δίκτυο μεγάλου μεγέθους και «κλάδευέ το» σταδιακά αφαιρώντας συναπτικά βάρη και/ή νευρώνες σύμφωνα με κάποια κρίτήρια. Φιλοσοφία κατασκευής Constructve phlosophy: Ξεκίνα με ένα δίκτυο μικρού μεγέθους ανίκανο να λύσει το υπό μελέτη πρόβλημα και σταδιακά πρόσθετε νευρώνες έως ότου το δίκτυο μάθει τη διαδικασία ταξινόμησης.

36 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Μέγεθος αρχιτεκτονική δικτύου Παράδειγμα φιλοσοφίας κλαδέματος: Μέθοδοι που βασίζονται στην κανονικοποίηση συνάρτησης functon regularzaton N J E ae p Ο δεύτερος όρος ευνοεί μικρές τιμές για τα βάρη, π.χ., 0 E p h k k h k 0 k k όπου Μετά από μερικά βήματα εκπαίδευσης, τα βάρη με μικρές τιμές απομακρύνονται.

37 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Ο αλγόριθμος Backpropagaton θέματα ικανότητας γενίκευσης Generalzaton Γιατί να μην ξεκινήσουμε με ένα δίκτυο μεγάλου μεγέθους και να αφήσουμε τον αλγόριθμο να αποφασίσει ποια βάρη είναι μικρά;; Η προσέγγιση αυτή είναι απλοϊκή. Παραβλέπει το γεγονός ότι οι ταξινομητές πρέπει να έχουν καλή δυνατότητα γενίκευσης generalzaton. Ένα μεγάλο δίκτυο μπορεί να δώσει μικρά σφάλματα για το σύνολο εκπαίδευσης, αφού μπορεί να μάθει τις συγκεκριμένες λεπτομέρειές του. Από την άλλη μεριά, δεν αναμένεται να παρουσιάζει καλή απόδοση για δεδομένα στα οποία δεν εκπαιδεύτηκε. Γενικά, το μέγεθος του δικτύου πρέπει να είναι: Αρκούντως μεγάλο για να μπορεί να μάθει τι κάνει όμοια τα δεδομένα της ίδιας κλάσης και τι κάνει ανόμοια τα δεδομένα διαφορετικών κλάσεων. Αρκούντως μικρό για να μην μπορεί να μάθει τις διαφορές μεταξύ δεδομένων της ίδιας κλάσης. Το τελευταίο οδηγεί στο λεγόμενο υπερ-ταίριασμα overfttng. 37

38 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Ο αλγόριθμος Backpropagaton θέματα ικανότητας γενίκευσης Παράδειγμα:

39 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Ο αλγόριθμος Backpropagaton Υπερεκπαίδευση Overtranng είναι μία άλλη όψη του ίδιου νομίσματος, δηλ. το δίκτυο προσαρμόζεται στις ιδιαιτερότητες του συνόλου δεδομένων.

40 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Ένα παράδειγμα: Όπως αναμενόταν, η επιφάνεια απόφασης δεν ορίζεται μέσω υπερεπιπέδων.

41 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ Στο πρόβλημα XOR προηγουμένως, ουσιαστικά μετασχηματίσαμε τον αρχικό χώρο όπου η διαδικασία ταξινόμησης ήταν μη γραμμική σε ένα νέο χώρο όπου η ταξινόμηση έγινε γραμμική. Διατύπωση προβλήματος: Έστω ένα μη γραμμικώς διαχωρίσιμο πρόβλημα ταξινόμησης στο χώρο R l. Υπάρχουν k συναρτήσεις f. μέσω των οποίων ο αρχικός χώρος μπορεί να απεικονιστεί σε ένα νέο k-διάστατο χώρο, όπου το πρόβλημα να είναι γραμμικώς διαχωρίσιμο; f y... f k Αν συμβαίνει αυτό, η μη γραμμική επιφάνεια-σύνορο στον αρχικό χώρο μπορεί να γραφεί ως γραμμική στο μετασχηματισμένο χώρο y. g k 0 f 0

42 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ ΣΗΜ.: Η παραπάνω απεικόνιση y μπορεί να υλοποιηθεί από ένα δίκτυο δύο επιπέδων, όπου οι νευρώνες του πρώτου επιπέδου υλοποιούν τις συναρτήσεις f. ενώ ο νευρώνας του δευτέρου επιπέδου πραγματοποιεί γραμμικό διαχωρισμό στο μετασχηματισμένο χώρο.

43 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ Παράδειγμα : Έστω =,, =,, 3 =0,, 4 =,0, 5 =3,, 6 =,3, 7 =-,, 8 =,-. Τα πρώτα 4 διανύσματα ανήκουν στην κλάση + ενώ τα υπόλοιπα στην κλάση -. Έστω ο μετασχηματισμός Στο νέο χώρο η διαδικασία ταξινόμησης γίνεται γραμμική

44 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ Παράδειγμα : Έστω =,0, =0,, 3 =-,0, 4 =0,-, 5 =,0, 6 =0,, 7 =-,0, 8 =0,-. Τα πρώτα 4 διανύσματα ανήκουν στην κλάση + ενώ τα υπόλοιπα στην κλάση -. Έστω ο μετασχηματισμός Στο νέο χώρο η διαδικασία ταξινόμησης γίνεται γραμμική

45 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ Χωρητικότητα του l-διάστατου χώρου σε γραμμικές διχοτομήσεις Έστω N σημεία στον δηλαδή: R l χώρο που υποθέτουμε ότι βρίσκονται σε γενική θέση, Καμία ομάδα τέτοιων σημείων δεν βρίσκεται σε έναν διάστατο χώρο.

46 Χωρητικότητα του l-διάστατου χώρου σε γραμμικές διχοτομήσεις Θεώρημα Cover: Ο αριθμός των ομαδοποιήσεων που μπορούν να υλοποιηθούν από l--διάστατα υπερεπίπεδα προκειμένου να διαχωριστούν N σημεία σε δύο κλάσεις είναι,, 0 l N l N O!!! N N N ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ

47 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ Παράδειγμα: Για N=4, l=, είναι O4,=4 Σημείωση:Ο συνολικός αριθμός δυνατών ομαδοποιήσεων είναι 4 = Α Β C D X X

48 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ Χωρητικότητα του l-διάστατου χώρου σε γραμμικές διχοτομήσεις Η πιθανότητα ομαδοποίησης N σημείων σε δύο γραμμικώς διαχωρίσιμες κλάσεις είναι O N, l l P N N N r l 48

49 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ Χωρητικότητα του l-διάστατου χώρου σε γραμμικές διχοτομήσεις Έτσι, η πιθανότητα να έχουμε N σημεία σε γραμμικώς διαχωρίσιμες κλάσεις τείνει στο, για μεγάλο l, υπό την προϋπόθεση ότι N<l + Συνεπώς, απεικονίζοντας σε χώρο υψηλότερης διάστασης, αυξάνουμε την πιθανότητα γραμμικού διαχωρισμού, υπό την προϋπόθεση ότι ο χώρος δεν παρουσιάζει μεγάλη πυκνότητα σε σημεία δεδομένων. 49

50 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ Συναρτήσεις ακτινωτής βάσης Radal bass functons -RBFs Στην περίπτωση αυτή, οι f. επιλέγονται ως Έχουν σχήμα «καμπάνας», είναι κεντραρισμένες στο c και το πλάτος τους εξαρτάται από το σ. f ep c Η παραπάνω απεικόνιση y μπορεί να υλοποιηθεί από ένα δίκτυο δύο επιπέδων, όπου οι νευρώνες του πρώτου επιπέδου υλοποιούν τις συναρτήσεις f. ενώ ο νευρώνας του δευτέρου επιπέδου πραγματοποιεί γραμμικό διαχωρισμό στο μετασχηματισμένο χώρο.

51 Συναρτήσεις ακτινωτής βάσης Radal bass functons-rbfs Παράδειγμα: Το πρόβλημα XOR. Έστω Χρησιμοποιώντας συναρτήσεις RBF με τις παραπάνω παραμέτρους επιτυγχάνουμε την απεικόνιση του αρχικού -διάστατου χώρου σε ένα νέο μετασχηματισμένο χώρο ἰδιας διάστασης. Μέσω αυτού του μετασχηματισμού έχουμε, 0 0, c c ep ep c c y , , 0.35, ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ

52 Συναρτήσεις ακτινωτής βάσης Radal bass functons-rbfs Παράδειγμα: Το πρόβλημα XOR. 0 ep ep c c g 0 y y y g ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ

53 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ Συναρτήσεις ακτινωτής βάσης - ζητήματα εκπαίδευσης Οι εμπλεκόμενες παράμετροι είναι τα c, τα σ και τα. -σ : Συνήθως τίθενται εκ των προτέρων σε σταθερές τιμές υπάρχουν όμως και άλλες εναλλακτικές. -c : Μπορεί είτε να τεθούν ίσα με τυχαία επιλεγμένα διανύσματα εκπαίδευσης ή είτε να τεθούν ίσα με τα κέντρα των ομάδων clusters που παράγονται μετά την εφαρμογή ενός αλγόριθμου ομαδοποίησης στα σημεία κάθε κλάσης. - : Υπό την προϋπόθεση ότι τα c και σ έχουν εκτιμηθεί, η εκτίμηση των είναι μία γραμμική διαδικασία μπορεί π.χ. να χρησιμοποιηθεί μια μέθοδος ελαχίστων τετραγώνων.

54 Μηχανές διανυσματικής στήριξης SVM: Η μη γραμμική περίπτωση Ας θυμηθούμε ότι η πιθανότητα να έχουμε γραμμικώς διαχωρίσιμες κλάσεις αυξάνει καθώς αυξάνει και η διάσταση των χώρου χαρακτηριστικών. Έστω η απεικόνιση: Τότε μπορούμε να χρησιμοποιήσουμε SVM στο χώρο R k. Υπενθυμίζουμε ότι το δυϊκό πρόβλημα που θα λύσουμε θα είναι το Ο ταξινομητής στο μετασχηματισμένο χώρο y εκφράζεται ως l k R y R k l, k T N R y y y d d mamze, 0 k T N T R y y y d y y g s 0 Έτσι, εμπλέκονται εσωτερικά γινόμενα σε ένα χώρο υψηλής διάστασης υψηλή υπολογιστική πολυπλοκότητα. ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ

55 Μηχανές διανυσματικής στήριξης SVM: Η μη γραμμική περίπτωση Κάτι έξυπνο: Υπολόγισε τα εσωτερικά γινόμενα στον χώρο υψηλής διάστασης σαν συνάρτηση των εσωτερικών γινομένων στο χώρο χαμηλής διάστασης!!! Είναι αυτό ΔΥΝΑΤΟΝ;; Ναι. Να ένα παράδειγμα Τότε είναι εύκολο να δείξουμε ότι 3, R y R T T T y y ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ

56 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ Μηχανές διανυσματικής στήριξης SVM: Η μη γραμμική περίπτωση Θεώρημα του Mercer: Έστω R l και μια απεικόνιση f f H, όπου Η είναι ένας χώρος Hlbert. Για την πράξη του εσωτερικού γινομένου στο χώρο Η, που συμβολίζεται με <.,.>, ισχύει <f,fz> = K,z, όπου K,z, μία συνεχής συμμετρική συνάρτηση πυρήνας kernel που ικανοποιεί τη συνθήκη C C για κάθε g, C R l με Κ, z g g z ddz 0 g d, Αντίστροφα: Κάθε συνεχής, συμμετρική συνάρτηση K,z που ικανοποιεί τις παραπάνω συνθήκες, αντιστοιχεί στο εσωτερικό γινόμενο ΚΑΠΟΙΟΥ χώρου. Χώρος Hlbert: Πλήρης γραμμικός πεπερασμένης ή άπειρης διάστασης χώρος εξοπλισμένος με μια πράξη εσωτερικού γινομένου. Όταν η διάσταση είναι πεπερασμένη έχουμε έναν Ευκλείδειο χώρο.

57 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ Μηχανές διανυσματικής στήριξης SVM: Η μη γραμμική περίπτωση Παραδείγματα συναρτήσεων πυρήνων Συναρτήσεις ακτινωτής βάσης Radal bass functons για κατάλληλες τιμές του σ K, z ep Πολυωνυμικές συναρτήσεις Polynomal functons για κατάλληλες τιμές του q T z q K, z z, q 0 Συνάρτηση υπερβολικής εφαπτομένης Hyperbolc tangent functons για κατάλληλες τιμές των β και γ K, z tanh z T

58 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ Μηχανές διανυσματικής στήριξης SVM: Η μη γραμμική περίπτωση Μια σημαντική παρατήρηση: Στο παρόν πλαίσιο, υπονοείται μια μη γραμμική απεικόνιση f:r l yr k η οποία, ωστόσο, είναι άγνωστη. Έτσι, για δεδομένο διάνυσμα, δεν είναι γνωστή η εικόνα του y=f στο μετασχηματισμένο χώρο με άλλα λόγια, ο μετασχηματισμένος χώρος δεν μας είναι ρητά γνωστός. Αυτό που μας είναι γνωστό είναι η συνάρτηση K.,. η οποία καλείται συνάρτηση πυρήνα kernel functon η οποία εκφράζει το εσωτερικό γινόμενο δύο διανυσμάτων στο μετασχηματισμένο υψηλής διάστασης χώρο, σε συνάρτηση με το αντίστοιχο εσωτερικό γινόμενο στον αρχικό χώρο, δηλ., y T y = K, Μ άλλα λόγια, για δύο δεδομένα διανύσματα, μας είναι γνωστό το εσωτερικό γινόμενό τους στο μετασχηματισμένο χώρο.

59 Μηχανές διανυσματικής στήριξης SVM: Η μη γραμμική περίπτωση Τα βήματα για τη λύση του SVM προβλήματος Βήμα : Επέλεξε κατάλληλη συνάρτηση πυρήνα. Αυτό υπονοεί απεικόνιση σε έναν άγνωστο χώρο υψηλότερης διάστασης. Βήμα : Αυτό καταλήγει σε έναν υπονοούμενο συνδυασμό Βήμα 3: Καταχώρησε ένα δεδομένο στην κλάση + -, ανάλογα με το αν 0,,...,, 0 subect to:,, ma d N C K d d N f d s 0, f 0 Κ y d g N s ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ

60 Μηχανές διανυσματικής στήριξης SVM: Η μη γραμμική περίπτωση Η λογική πίσω από το βήμα 3: Έστω δεδομένο διάνυσμα και y=f η εικόνα του στο μετασχηματισμένο χώρο. Προκειμένου να ταξινομήσουμε το σε μία από τις κλάσεις + ή -, πρέπει να ελέγξουμε αν ή ποσότητα T y+ 0 είναι θετική ή αρνητική. Ωστόσο, αφού η απεικόνιση f. είναι άγνωστη, δεν γνωρίζουμε ούτε το y ούτε τα y =f που εμπλέκονται στον τύπο του που επαναλαμβάνεται παρακάτω. Παρ όλες τις παραπάνω δυσχέρειες, η ποσότητα T y+ 0 μπορεί να υπολογιστεί ως εξής N f d s , K d y y d f f d y y d y s s s s N N T N T N T T ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ

61 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ Μηχανές διανυσματικής στήριξης SVM: Η μη γραμμική περίπτωση Η αρχιτεκτονική SVM ΣΗΜ.: Οι μη γραμμικές SVM μπορεί να θεωρηθούν ως γενικευμένοι γραμμικοί ταξινομητές.

62 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΓΕΝΙΚΕΥΜΕΝΟΙ ΓΡΑΜ. ΤΑΞΙΝΟΜΗΤΕΣ Μηχανές διανυσματικής στήριξης SVM: Η μη γραμμική περίπτωση Παράδειγμα

63 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΔΕΝΔΡΑ ΑΠΟΦΑΣΗΣ Πρόκειται για μια οικογένεια μη γραμμικών ταξινομητών. Είναι συστήματα απόφασης πολλών σταδίων multstage, όπου οι κλάσεις απορρίπτονται διαδοχικά sequentally, έως ότου φτάσουμε σε μια κλάση που θα είναι τελικά αποδεκτή. Για το λόγο αυτό: Ο χώρος των χαρακτηριστικών τεμαχίζεται σε μοναδικές περιοχές με έναν ακολουθιακό τρόπο. Με την άφιξη ενός διανύσματος χαρακτηριστικών, λαμβάνονται διαδοχικές αποφάσεις καταχώρησης χαρακτηριστικών σε συγκεκριμένες περιοχές, ακολουθώντας ένα μονοπάτι κόμβων nodes ενός κατάλληλα κατασκευασμένου δένδρου. Η ακολουθία των αποφάσεων εφαρμόζεται συνήθως σε μεμονωμένα χαρακτηριστικά και οι ερωτήσεις που εξετάζονται σε κάθε κόμβο είναι του τύπου: είναι το χαρακτηριστικό a όπου α είναι ένα προεπιλεγμένο κατώφλι επιλέγεται κατά τη διάρκεια της εκπαίδευσης.

64 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΔΕΝΔΡΑ ΑΠΟΦΑΣΗΣ Τα παρακάτω σχήματα αντιστοιχούν σε τέτοιο παράδειγμα. Τα δένδρα αυτού του τύπου είναι γνωστά ως Συνήθη Δυαδικά Δένδρα Ταξινόμησης Ordnary Bnary Classfcaton Trees OBCT. Τα υπερπέπιπεδα απόφασης που διαιρούν το χώρο σε περιοχές, είναι παράλληλα στους άξονες του χώρου των δειγμάτων. Άλλοι τύποι διαίρεσης του χώροι είναι επίσης δυνατοί, παρότι είναι λιγότερο δημοφιλείς.

65 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΔΕΝΔΡΑ ΑΠΟΦΑΣΗΣ Σχεδιαστικά στοιχεία που ορίζουν ένα δένδρο απόφασης. Κάθε κόμβος, t, αντιστοιχεί σε ένα υποσύνολο Χ t X, όπου X είναι το σύνολο εκπαίδευσης. Σε κάθε κόμβο, το αντίστοιχο σύνολο, X t διαιρείται σε δύο δυαδική διαίρεση ξένα μεταξύ τους υποσύνολααπογόνους X t,y and X t,n, ώστε X t,y X t,n = Ø X t,y X t,n = X t X t,y είναι το υποσύνολο του X t για το οποίο η απάντηση στην ερώτηση του κόμβου t είναι ΝΑΙ. X t,n είναι το υποσύνολο που αντιστοιχεί στο ΟΧΙ. Η διαίρεση αποφασίζεται με βάση την ερώτηση query που υιοθετείται.

66 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΔΕΝΔΡΑ ΑΠΟΦΑΣΗΣ Προαπαιτούμενα για τη δημιουργία ενός δένδρου απόφασης Κριτήριο διαμερισμού: καθορίζει τη βέλτιστη δυνατή διαμέριση του X t στα X t,y και X t,n. Κριτήριο τερματισμού-διαμέρισης stop-splttng: ελέγχει την ανάπτυξη του δένδρου έως τους τερματικούς κόμβους φύλλα leafs. Κανόνας καταχώρησης τερματικού κόμβου σε κατηγορία.

67 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΔΕΝΔΡΑ ΑΠΟΦΑΣΗΣ Σύνολο ερωτήσεων: Στα δένδρα OBCT το σύνολο των ερωτήσεων είναι του τύπου είναι a; Η επιλογή του συγκεκριμένου χαρακτηριστικού και της τιμής του κατωφλίου α, για κάθε κόμβο t, είναι το αποτέλεσμα αναζήτησης, κατά την εκπαίδευση, ανάμεσα στα χαρακτηριστικά και ένα σύνολο από δυνατές τιμές κατωφλίου. Ο τελικός συνδυασμός είναι αυτός που οδηγεί στη βέλτιστη τιμή ενός κατάλληλου κριτηρίου.

68 Κριτήριο διαμερισμού: Η κύρια ιδέα πίσω από τη διαίρεση σε κάθε κόμβο είναι τα υποσύνολα-απόγονοι X t,y και X t,n που θα προκύψουν να παρουσιάζουν μεγαλύτερο βαθμό ομογενοποίησης ως προς τις κλάσεις, σε σχέση με αυτόν του X t. Έτσι το κριτήριο που θα επιλεγεί θα πρέπει να είναι σε συμφωνία με αυτόν το στόχο. Ένα συχνά χρησιμοποιούμενο κριτήριο είναι ο βαθμός μη-καθαρότητας ενός κόμβου node mpurty: και ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΔΕΝΔΡΑ ΑΠΟΦΑΣΗΣ N t M tlog P t I t P P t N N t t όπου είναι ο αριθμός των στοιχείων του συνόλου X t, τα οποία ανήκουν στην κλάση. Η μείωση της μη-καθαρότητας ενός κόμβου decrease n node mpurty ορίζεται ως: I t I t N t, N t I t t N t, N N t I t N

69 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΔΕΝΔΡΑ ΑΠΟΦΑΣΗΣ Κριτήριο διαμερισμού συν.: Ο στόχος είναι να επιλεγούν σε κάθε κόμβο εκείνοι οι παράμετροι χαρακτηριστικό και κατώφλι, που οδηγούν σε μία διαίρεση, η οποία παρουσιάζει τη μεγαλύτερη δυνατή μείωση της μη-καθαρότητας. Γιατί η μεγαλύτερη δυνατή μείωση; Παρατηρείστε ότι η μέγιστη τιμή για την It λαμβάνεται όταν όλες οι κλάσεις είναι ισοπίθανες, δηλ. όταν το X t παρουσιάζει τον ελάχιστο δυνατό βαθμό ομογενοποίησης.

70 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΔΕΝΔΡΑ ΑΠΟΦΑΣΗΣ Παράδειγμα: Έστω ένα παράδειγμα δύο κλάσεων με τα ακόλουθα πέντε σημεία:,0-ω,,7 ω, 3,6 -ω, 4,8 ω, 5,9 ω. Για το σύνολο αυτό είναι: Pω =/5=0.4 και Pω =3/5=0.6. Άρα η εντροπία του είναι Ι = - Pω log Pω + Pω log Pω = Υπολογισμός της μείωσης της εντροπίας για την η συνιστώσα και τιμή : PYω =/= και PYω =0/=0 ΙY = - PYω log PYω + PYω log PYω = 0. PNω =/4=0.5 και PNω =3/4=0.75 ΙN = - PNω log PNω + PNω log PNω = 0.83 ΔΙ=Ι-/5ΙΥ 4/5ΙΝ = *0-0.8*0.83 = Εργαζόμενοι ομοίως για τις υπόλοιπες περιπτώσεις έχουμε: ΔΙ ΔΙ Η μέγιστη μείωση στην εντροπία επιτυγχάνεται για το ο Χαρακτηριστικό και τιμή κατωφλίου 3. Άρα ο κανόνας για τον πρώτο κόμβο είναι: 3

71 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΔΕΝΔΡΑ ΑΠΟΦΑΣΗΣ Κανόνας τερματισμού διαμέρισης. Υιοθέτησε ένα κατώφλι T και σταμάτα την περαιτέρω διαίρεση ενός κόμβου δηλ. καταχώρησέ τον σαν φύλλοτερματικό κόμβο, αν η μείωση της μη-καθαρότητας είναι μικρότερη από T. Δηλ. όταν ο κόμβος t είναι αρκετά καθαρός. Κανόνας αντιστοίχισης σε κλάση: Καταχώρησε ένα φύλλο στην κλάση, για την οποία: arg ma P t

72 Summary of an OBCT algorthmc scheme: 7

73 Παρατηρήσεις: ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΔΕΝΔΡΑ ΑΠΟΦΑΣΗΣ Ένας κρίσιμος παράγοντας κατά τη φάση σχεδιασμού είναι το μέγεθος του δένδρου. Συνήθως το δένδρο αναπτύσσεται έως ότου φτάσει σε μεγάλο μέγεθος και στη συνέχεια εφαρμόζονται διάφορες τεχνικές κλαδέματος prunng. Τα δένδρα απόφασης ανήκουν στην κατηγορία των ασταθών unstable ταξινομητών. Αυτό μπορεί να αντιμετωπιστεί με τεχνικές «μέσου όρου» averagng technques. Π.χ. χρησιμοποιώντας τεχνικές bootstrappng στο X, κατασκευάζονται διάφορα δένδρα, T, =,,, B. Η απόφαση ταξινόμησης λαμβάνεται με βάση έναν κανόνα πλειοψηφίας maorty votng.

74 Eample taken from 74

75 75

76 ΣΥΝΔΥΑΖΟΝΤΑΣ ΤΑΞΙΝΟΜΗΤΕΣ Η βασική φιλοσοφία πίσω από το συνδυασμό διαφορετικών ταξινομητών βασίζεται στο γεγονός ότι ακόμα και ο «καλύτερος» ταξινομητής αποτυγχάνει σε μερικά διανύσματα όπου άλλοι ταξινομητές μπορεί να δώσουν σωστή ταξινόμηση. Ο συνδυασμός ταξινομητών σκοπεύει στην εκμετάλλευση αυτής της συμπληρωματικής πληροφορίας complementary nformaton που δίνεται από διάφορους ταξινομητές. Έτσι κάποιος σχεδιάζει διαφορετικούς βέλτιστους ταξινομητές και στη συνέχεια συνδυάζει τα αποτελέσματα με βάση ένα συγκεκριμένο κανόνα. Έστω ότι καθένας από τους, L ταξινομητές που σχεδιάστηκαν δίνει στην έξοδό του τις εκ των υστέρων πιθανότητας P,,,..., M

77 ΣΥΝΔΥΑΖΟΝΤΑΣ ΤΑΞΙΝΟΜΗΤΕΣ Κανόνας γινομένου: Καταχώρησε το στην κλάση : P k όπου ταξινομητή. arg ma k L P k είναι η αντίστοιχη εκ των υστέρων πιθανότητα του th Κανόνας άθροισης: Καταχώρησε το στην κλάση : k arg ma L P k

78 ΣΥΝΔΥΑΖΟΝΤΑΣ ΤΑΞΙΝΟΜΗΤΕΣ Παράδειγμα: Έστω ένα πρόβλημα 3 κλάσεων, ω, ω, ω 3, με L=4 ταξινομητές. Σχηματικά η ταξινόμηση ενός διανύσματος σε μια από τις τρεις κλάσεις γίνεται ως εξής: ω ω ω 3 Ταξ. P ω P ω P ω 3 Ταξ. P ω P ω P ω 3 Ταξ. 3 P 3 ω P 3 ω P 3 ω 3 Ταξ.4 P 4 ω P 4 ω P 4 ω 3 Γιν. Π P ω Π P ω Π P ω 3 Άθρ. Σ P ω Σ P ω Σ P ω 3 : argma k=,,3 Π P ω k : argma k=,,3 Σ P ω k

79 ΣΥΝΔΥΑΖΟΝΤΑΣ ΤΑΞΙΝΟΜΗΤΕΣ Κανόνας πλειοψηφίας: Καταχώρησε το στην κλάση για την οποία υπάρχει ομοφωνία ή όταν τουλάχιστον c από τους ταξινομητές συμφωνούν στην κλάση c L L Διαφορετικά η απόφαση είναι απόρριψη reecton, δηλ. δεν λαμβάνεται καμία απόφαση. Έτσι σωστή απόφαση λαμβάνεται όταν η πλειοψηφία των ταξινομητών συμφωνεί με τη σωστή κατηγορία και λάθος όταν η πλειοψηφία συμφωνεί με μία λάθος κατηγορία., L even, L odd

80 ΣΥΝΔΥΑΖΟΝΤΑΣ ΤΑΞΙΝΟΜΗΤΕΣ Εξαρτημένοι ή ανεξάρτητοι ταξινομητές; Παρότι δεν υπάρχουν γενικά θεωρητικά αποτελέσματα, το πείραμα έδειξε ότι όσο πιο ανεξάρτητοι είναι οι ταξινομητές ως προς τις αποφάσεις τους, τόσο πιο πολύ αναμένεται η λήψη βελτιωμένων αποτελεσμάτων μετά το συνδυασμό των επιμέρους αποφάσεων. Ωστόσο, δεν υπάρχει εγγύηση ότι ο συνδυασμός ταξινομητών οδηγεί σε καλύτερη απόδοση συγκρινόμενος με την απόδοση του καλύτερου ανάμεσα στους ταξινομητές.

81 ΣΥΝΔΥΑΖΟΝΤΑΣ ΤΑΞΙΝΟΜΗΤΕΣ Προς την ανεξαρτησία: Δυνατά σενάρια Εκπαίδευση μεμονωμένων ταξινομητών χρησιμοποιώντας διαφορετικά διανύσματα δεδομένων. Εδώ κάποιος έχει αρκετές επιλογές: Bootstrappng: Πρόκειται για μία δημοφιλή τεχνική για το συνδυασμό ασταθών ταξινομητών, όπως είναι τα δένδρα απόφασης. Stackng: Εκπαίδευση του συνδυαστή με δεδομένα που δεν έχουν χρησιμοποιηθεί για την εκπαίδευση των μεμονωμένων ταξινομητών. Χρήση διαφορετικών υποχώρων για την εκπαίδευση μεμονωμένων ταξινομητών: Σύμφωνα μ αυτή τη μέθοδο, κάθε μεμονωμένος ταξινομητής εκπαιδεύεται σε διαφορετικό υπόχωρο του χώρου των χαρακτηριστικών. Δηλ. χρησιμοποιούνται διαφορετικά χαρακτηριστικά για κάθε ταξινομητή.

82 Παρατηρήσεις: ΣΥΝΔΥΑΖΟΝΤΑΣ ΤΑΞΙΝΟΜΗΤΕΣ Οι κανόνες πλειοψηφίας και αθροίσματος συγκαταλέγονται ανάμεσα στα πιο δημοφιλή συνδυαστικά σχήματα. Η εκπαίδευση των μεμονωμένων ταξινομητών σε διαφορετικούς υποχώρους του χώρου των χαρακτηριστικών φαίνεται να οδηγεί σε σημαντικά καλύτερα αποτελέσματα σε σχέση με την περίπτωση όπου οι ταξινομητές εκπαιδεύονται στον ίδιο υπόχωρο. Εκτός από τους τρεις παραπάνω κανόνες, μπορούν να υιοθετηθούν και άλλοι όπως η τιμή της διαμέσου Medan value των εξόδων των μεμονωμένων ταξινομητών. Boostng προσέγγιση: Ένας «ισχυρός» ταξινομητής δημιουργείται με τη διαδοχική προσθήκη «ασθενών» eak ταξινομητών, οι οποίοι εκπαιδεύονται δίνοντας έμφαση στα σημεία που απέτυχε να ταξινομήσει σωστά ο συνδυασμός των προηγούμενων ασθενών ταξινομητών.

83 Ο στόχος είναι η εκτίμηση της πιθανότητας λάθους ενός συστήματος ταξινόμησης Τεχνική μέτρησης λαθών Error Countng Technque Έστω πρόβλημα ταξινόμησης σε Μ κλάσεις. Έστω N τα σημεία της κλάσης ω που χρησιμοποιούνται για δοκιμή. M N N Έστω P η πιθανότητα λάθους για την κλάση ω Υποθέτουμε ότι ο ταξινομητής έχει σχεδιαστεί χρησιμοποιώντας ένα διαφορετικό ανεξάρτητο σύνολο δεδομένων. Υποθέτοντας ότι τα διανύσματα του συνόλου δοκιμής είναι ανεξάρτητα, η πιθανότητα να έχουμε k διανύσματα από την ω λανθασμένα ταξινομημένα είναι prob k N k k n rongly classfed P P ΑΞΙΟΛΟΓΗΣΗ ΤΑΞΙΝΟΜΗΤΗ N k 83

84 ΑΞΙΟΛΟΓΗΣΗ ΤΑΞΙΝΟΜΗΤΗ Αφού τα P s είναι άγνωστα, εκτιμούνται μέσω της μεγιστοποίησης της παραπάνω διωνυμικής κατανομής και προκύπτει ότι k Pˆ N Δηλ. είναι ο αριθμός των λανθασμένα ταξινομημένων διανυσμάτων προς τον αριθμό των διανυσμάτων δοκιμής της εν λόγω κλάσης. Συνολική πιθανότητα λάθους Pˆ M P k N

85 Στατιστικές ιδιότητες E [ k ] N P M, E[ pˆ] P P k N P pˆ M P P Ο εκτιμητής είναι αμερόληπτος αλλά ασυμπτωτικά συνεπής. Έτσι για μικρές τιμές του N, μπορεί να μην είναι αξιόπιστος P P N P Μια εκτίμηση που έχει προκύψει από θεωρητική ανάλυση σχετικά με τον ικανό αριθμό διανυσμάτων N του συνόλου δοκιμής, προκειμένου η πιθανότητα να είναι γύρω από δεδομένη τιμή P είναι N 00 P, P 0.0, N P 0.03, N

86 ΑΞΙΟΛΟΓΗΣΗ ΤΑΞΙΝΟΜΗΤΗ Εκμεταλλευόμενοι το πεπερασμένου μεγέθους σύνολο δοκιμής. Μέθοδος επανατοποθέτησης Resubsttuton method: Χρησιμοποίησε τα ίδια δεδομένα για εκπαίδευση και δοκιμή. Έχουμε υποεκτίμηση του σφάλματος. Η εκτίμηση βελτιώνεται για μεγάλες τιμές του N και μεγάλες τιμές του λόγου Ν/l. Holdout Method: Δοθέντος συνόλου N διανυσμάτων χώρισέ τα σε: N : διανύσματα εκπαίδευσης N : διανύσματα δοκιμής N=N +N Πρόβλημα: Λιγότερα δεδομένα τόσο για εκπαίδευση, όσο και γα δοκιμή.

87 Leave-one-out Method Τα βήματα: ΑΞΙΟΛΟΓΗΣΗ ΤΑΞΙΝΟΜΗΤΗ Επέλεξε ένα από τα Ν δείγματα. Εκπαίδευσε τον ταξινομητή χρησιμοποιώντας τα υπόλοιπα N- δείγματα. Έλεγξε την απόδοση του ταξινομητή χρησιμοποιώντας το επιλεγμένο δείγμα. Αν είναι λανθασμένα ταξινομημένο μέτρα ένα επιπλέον λάθος. Επανέλαβε το παραπάνω βήμα εξαιρώντας ένα διαφορετικό δείγμα κάθε φορά. Υπολόγισε την πιθανότητα λάθους παίρνοντας το μέσο όρο των καταμετρημένων λαθών. Πλεονεκτήματα: Χρήση όλων των διαθέσιμων δεδομένων για εκπαίδευση και δοκιμή Διασφάλιση ανεξαρτησίας ανάμεσα στα διανύσματα εκπαίδευσης και δοκιμής. Μειονεκτήματα: Complety n computatons hgh Παραλλαγές της μεθόδου εξαιρούν k> σημεία κάθε φορά, προκειμένου να μειώσουν την υπολογιστική πολυπλοκότητα.

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Η παραπάνω ανάλυση ήταν χρήσιμη προκειμένου να κατανοήσουμε τη λογική των δικτύων perceptrons πολλών επιπέδων

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΧΑΡΤΟΓΡΑΦΗΣΗ ΤΟΥ ΧΩΡΟΥ ΤΩΝ ΤΑΞΙΝΟΜΗΤΩΝ Ταξινομητές Ταξινομητές συναρτ. διάκρισης Ταξινομητές επιφανειών απόφ. Παραμετρικοί ταξινομητές Μη παραμετρικοί

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΧΑΡΤΟΓΡΑΦΗΣΗ ΤΟΥ ΧΩΡΟΥ ΤΩΝ ΤΑΞΙΝΟΜΗΤΩΝ Ταξινομητές Ταξινομητές συναρτ. διάκρισης Ταξινομητές επιφανειών απόφ. Παραμετρικοί ταξινομητές Μη παραμετρικοί

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Version 2 1 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΔΕΝΔΡΑ ΑΠΟΦΑΣΗΣ Πρόκειται για μια οικογένεια μη γραμμικών ταξινομητών Είναι συστήματα απόφασης πολλών σταδίων (multistage),

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson 2 1 ΧΑΡΤΟΓΡΑΦΗΣΗ ΤΟΥ ΧΩΡΟΥ ΤΩΝ ΤΑΞΙΝΟΜΗΤΩΝ Ταξινομητές Ταξινομητές συναρτ. διάκρισης Ταξινομητές επιφανειών απόφ. Παραμετρικοί ταξινομητές Μη παραμετρικοί

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson 2 1 C MH ΠΑΡΑΜΕΤΡΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΒΑΣΙΣΜΕΝΟΙ ΣΕ ΕΠΙΦΑΝΕΙΕΣ ΑΠΟΦΑΣΗΣ Υπενθύμιση: είναι το σύνολο δεδομένων που περιέχει τα διαθέσιμα δεδομένα από όλες

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson Σχεδιαζόντας ταξινομητές: Τα δεδομένα Στην πράξη η γνώση σχετικά διαδικασία γέννεσης των δεδομένων είναι πολύ σπάνια γνωστή. Το μόνο που έχουμε στη διάθεσή

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson 2 1 M = 1 N = N prob k N k { k n ω wrongly classfed} = (1 ) N k 2 Η συνάρτηση πιθανοφάνειας L(p) μεγιστοποιείται όταν =k/n. 3 Αφού τα s είναι άγνωστα,

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΜΙΑ ΣΥΜΒΑΣΗ: Προκειμένου να καταστήσουμε πιο συμπαγή το συμβολισμό H : ορίζουμε Ετσι έχουμε *=[ ] an *=[ ]. H : * * ΣΗΜΕΙΩΣΗ: Στη συνέχεια εκτός αν ορίζεται

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson Μέθοδοι ελαχίστων τετραγώνων Least square methos Αν οι κλάσεις είναι γραμμικώς διαχωρίσιμες το perceptron θα δώσει σαν έξοδο ± Αν οι κλάσεις ΔΕΝ είναι

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson 2 B MH ΠΑΡΑΜΕΤΡΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΒΑΣΙΣΜΕΝΟΙ ΣΕ ΣΥΝΑΡΤΗΣΕΙΣ ΔΙΑΚΡΙΣΗΣ Η Bayesan περίπτωση - Διαθέσιμα δεδομένα: XX X 2 X M. Κάθε X αντιστοιχεί στην κλάση

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Versio A ΠΑΡΑΜΕΤΡΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΒΑΣΙΣΜΕΝΟΙ ΣΕ ΣΥΝΑΡΤΗΣΕΙΣ ΔΙΑΚΡΙΣΗΣ Η περίπτωση του ταξινομητή Bayes Εκτίμηση μέγιστης εκ των υστέρων πιθανότητας Maimum Aoseriori

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson 2 B MH ΠΑΡΑΜΕΤΡΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΒΑΣΙΣΜΕΝΟΙ ΣΕ ΣΥΝΑΡΤΗΣΕΙΣ ΔΙΑΚΡΙΣΗΣ Η Bayesan περίπτωση - Διαθέσιμα δεδομένα: X=X X 2 X M. Κάθε X αντιστοιχεί στην κλάση

Διαβάστε περισσότερα

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή Τμήμα Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών ΗΜΜΥ 795: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ Ακαδημαϊκό έτος 2010-11 Χειμερινό Εξάμηνο Practice final exam 1. Έστω ότι για

Διαβάστε περισσότερα

Το μοντέλο Perceptron

Το μοντέλο Perceptron Το μοντέλο Perceptron Αποτελείται από έναν μόνο νευρώνα McCulloch-Pitts w j x x 1, x2,..., w x T 1 1 x 2 w 2 Σ u x n f(u) Άνυσμα Εισόδου s i x j x n w n -θ w w 1, w2,..., w n T Άνυσμα Βαρών 1 Το μοντέλο

Διαβάστε περισσότερα

Αναγνώριση Προτύπων Ι

Αναγνώριση Προτύπων Ι Αναγνώριση Προτύπων Ι Ενότητα 1: Μέθοδοι Αναγνώρισης Προτύπων Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται

Διαβάστε περισσότερα

Αναγνώριση Προτύπων Ι

Αναγνώριση Προτύπων Ι Αναγνώριση Προτύπων Ι Ενότητα 2: Δομικά Συστήματα Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες

Διαβάστε περισσότερα

Αναγνώριση Προτύπων (Pattern Recognition) Μπεϋζιανή Θεωρία Αποφάσεων (Bayesian Decision Theory) Π. Τσακαλίδης

Αναγνώριση Προτύπων (Pattern Recognition) Μπεϋζιανή Θεωρία Αποφάσεων (Bayesian Decision Theory) Π. Τσακαλίδης Αναγνώριση Προτύπων (Pattern Recognton Μπεϋζιανή Θεωρία Αποφάσεων (Bayesan Decson Theory Π. Τσακαλίδης ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΠΙΣΤΗΜΗΣ ΥΠΟΛΟΓΙΣΤΩΝ Μπεϋζιανή Θεωρία Αποφάσεων (Bayes Decson theory Στατιστικά

Διαβάστε περισσότερα

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης Ελαχιστοποίηση συνάρτησης σφάλματος Εκπαίδευση ΤΝΔ: μπορεί να διατυπωθεί ως πρόβλημα ελαχιστοποίησης μιας συνάρτησης σφάλματος E(w)

Διαβάστε περισσότερα

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο Πρόβλημα ο Ασκήσεις Φροντιστηρίου 5 o Φροντιστήριο Δίνεται το παρακάτω σύνολο εκπαίδευσης: # Είσοδος Κατηγορία 0 0 0 Α 2 0 0 Α 0 Β 4 0 0 Α 5 0 Β 6 0 0 Α 7 0 Β 8 Β α) Στον παρακάτω κύβο τοποθετείστε τα

Διαβάστε περισσότερα

Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Το Πολυεπίπεδο Perceptron. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων Το Πολυ Perceptron Δίκτυα Πρόσθιας Τροφοδότησης (feedforward) Tο αντίστοιχο γράφημα του δικτύου δεν περιλαμβάνει κύκλους: δεν υπάρχει δηλαδή ανατροφοδότηση της εξόδου ενός νευρώνα προς τους νευρώνες από

Διαβάστε περισσότερα

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης. ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης. ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ATTERN RECOGNITION Τυπικές περιοχές εφαρμογής Μηχανική όραση Machne vson Αναγνώριση χαρακτήρων Character recognton OCR Ιατρική διάγνωση

Διαβάστε περισσότερα

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Μάθηση και Γενίκευση. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων Μάθηση και Γενίκευση Το Πολυεπίπεδο Perceptron (MultiLayer Perceptron (MLP)) Έστω σύνολο εκπαίδευσης D={(x n,t n )}, n=1,,n. x n =(x n1,, x nd ) T, t n =(t n1,, t np ) T Θα πρέπει το MLP να έχει d νευρώνες

Διαβάστε περισσότερα

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP) Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP) x -0,5 a x x 2 0 0 0 0 - -0,5 y y 0 0 x 2 -,5 a 2 θ η τιμή κατωφλίου Μία λύση του προβλήματος XOR Multi Layer Perceptron (MLP) x -0,5 Μία

Διαβάστε περισσότερα

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron Βιολογικός Νευρώνας Δενδρίτες, που αποτελούν τις γραμμές εισόδου των ερεθισμάτων (βιολογικών σημάτων) Σώμα, στο οποίο γίνεται η συσσώρευση των ερεθισμάτων και

Διαβάστε περισσότερα

Ακαδημαϊκό Έτος , Χειμερινό Εξάμηνο Διδάσκων Καθ.: Νίκος Τσαπατσούλης

Ακαδημαϊκό Έτος , Χειμερινό Εξάμηνο Διδάσκων Καθ.: Νίκος Τσαπατσούλης ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΛΟΠΟΝΝΗΣΟΥ, ΤΜΗΜΑ ΤΕΧΝΟΛΟΓΙΑΣ ΤΗΛΕΠΙΚΟΙΝΩΝΙΩΝ ΚΕΣ 3: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΚΑΙ ΑΝΑΛΥΣΗ ΕΙΚΟΝΑΣ Ακαδημαϊκό Έτος 7 8, Χειμερινό Εξάμηνο Καθ.: Νίκος Τσαπατσούλης ΕΡΩΤΗΣΕΙΣ ΕΠΑΝΑΛΗΨΗΣ Το παρόν

Διαβάστε περισσότερα

Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα

Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα KEΣ 3 Αναγνώριση Προτύπων και Ανάλυση Εικόνας Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα ΤµήµαΕπιστήµης και Τεχνολογίας Τηλεπικοινωνιών Πανεπιστήµιο Πελοποννήσου Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16 HMY 795: Αναγνώριση Προτύπων Διαλέξεις 15-16 Νευρωνικά Δίκτυα(Neural Networks) Fisher s linear discriminant: Μείωση διαστάσεων (dimensionality reduction) y Τ =w x s + s =w S w 2 2 Τ 1 2 W ( ) 2 2 ( ) m2

Διαβάστε περισσότερα

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων Εισηγητής: ρ Ηλίας Ζαφειρόπουλος Εισαγωγή Ιατρικά δεδοµένα: Συλλογή Οργάνωση Αξιοποίηση Data Mining ιαχείριση εδοµένων Εκπαίδευση

Διαβάστε περισσότερα

Γραµµικοί Ταξινοµητές

Γραµµικοί Ταξινοµητές ΚΕΣ 3: Αναγνώριση Προτύπων και Ανάλυση Εικόνας KEΣ 3 Αναγνώριση Προτύπων και Ανάλυση Εικόνας Γραµµικοί Ταξινοµητές ΤµήµαΕπιστήµης και Τεχνολογίας Τηλεπικοινωνιών Πανεπιστήµιο Πελοποννήσου 7 Ncolas sapatsouls

Διαβάστε περισσότερα

ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΔΙΚΤΥO RBF. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων ΔΙΚΤΥO RBF Αρχιτεκτονική δικτύου RBF Δίκτυα RBF: δίκτυα συναρτήσεων πυρήνα (radial basis function networks). Πρόσθιας τροφοδότησης (feedforward) για προβλήματα μάθησης με επίβλεψη. Εναλλακτικό του MLP.

Διαβάστε περισσότερα

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2) Υπολογιστική Νοημοσύνη Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2) Ο κανόνας Δέλτα για συνεχείς συναρτήσεις ενεργοποίησης (1/2) Για συνεχείς συναρτήσεις ενεργοποίησης, θα θέλαμε να αλλάξουμε περισσότερο

Διαβάστε περισσότερα

Ασκήσεις μελέτης της 19 ης διάλεξης

Ασκήσεις μελέτης της 19 ης διάλεξης Οικονομικό Πανεπιστήμιο Αθηνών, Τμήμα Πληροφορικής Μάθημα: Τεχνητή Νοημοσύνη, 2016 17 Διδάσκων: Ι. Ανδρουτσόπουλος Ασκήσεις μελέτης της 19 ης διάλεξης 19.1. Δείξτε ότι το Perceptron με (α) συνάρτηση ενεργοποίησης

Διαβάστε περισσότερα

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή Τµήµα Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών ΗΜΜΥ 795: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ Ακαδηµαϊκό έτος 2010-11 Χειµερινό Εξάµηνο Τελική εξέταση Τρίτη, 21 εκεµβρίου 2010,

Διαβάστε περισσότερα

Θεωρία Λήψης Αποφάσεων

Θεωρία Λήψης Αποφάσεων Θεωρία Λήψης Αποφάσεων Ενότητα 2: Θεωρία Απόφασης του Bayes Μπεληγιάννης Γρηγόριος Σχολή Οργάνωσης και Διοίκησης Επιχειρήσεων Τμήμα Διοίκησης Επιχειρήσεων Αγροτικών Προϊόντων & Τροφίμων (Δ.Ε.Α.Π.Τ.) Θεωρία

Διαβάστε περισσότερα

Μέθοδος μέγιστης πιθανοφάνειας

Μέθοδος μέγιστης πιθανοφάνειας Μέθοδος μέγιστης πιθανοφάνειας Αν x =,,, παρατηρήσεις των Χ =,,,, τότε έχουμε διαθέσιμο ένα δείγμα Χ={Χ, =,,,} της κατανομής F μεγέθους με από κοινού σ.κ. της Χ f x f x Ορισμός : Θεωρούμε ένα τυχαίο δείγμα

Διαβάστε περισσότερα

Αναγνώριση Προτύπων Ι

Αναγνώριση Προτύπων Ι Αναγνώριση Προτύπων Ι Ενότητα 3: Στοχαστικά Συστήματα Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες

Διαβάστε περισσότερα

Τεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος. Τεχνητή Νοημοσύνη 17η διάλεξη (2016-17) Ίων Ανδρουτσόπουλος http://.aueb.gr/users/ion/ 1 Οι διαφάνειες αυτής της διάλεξης βασίζονται: στο βιβλίο Artificia Inteigence A Modern Approach των S. Russe και

Διαβάστε περισσότερα

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΔΕ. 11 ΙΟΥΝΙΟΥ 2012

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΔΕ. 11 ΙΟΥΝΙΟΥ 2012 ΔΕ. ΙΟΥΝΙΟΥ Δίνονται τα εξής πρότυπα: [ ] [ ] [ ] [ ] Άσκηση η ( μονάδες) Χρησιμοποιώντας το κριτήριο της ομοιότητας να απορριφθεί ένα χαρακτηριστικό με βάσει το συντελεστή συσχέτισης. (γράψτε ποιο χαρακτηριστικό

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Version 2 1 Άλλοι τύποι νευρωνικών δικτύων Αυτοοργανούμενοι χάρτες (Self-organizing maps - SOMs) Αναδρομικά νευρωνικά δίκτυα (Recurrent Neural Networks): γενικής

Διαβάστε περισσότερα

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος. Τεχνητή Νοημοσύνη 18η διάλεξη (2016-17) Ίων Ανδρουτσόπουλος http://www.aueb.gr/users/ion/ 1 Οι διαφάνειες αυτής της διάλεξης βασίζονται: στο βιβλίο Machine Learning του T. Mitchell, McGraw- Hill, 1997,

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ Ακαδ. Έτος 06-07 Διδάσκων: Βασίλης ΚΟΥΤΡΑΣ Λέκτορας v.koutras@fme.aegea.gr Τηλ: 7035468 Εκτίμηση Διαστήματος

Διαβάστε περισσότερα

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης Μάθημα 4 ο Δρ. Ανέστης Γ. Χατζημιχαηλίδης Τμήμα Μηχανικών Πληροφορικής Τ.Ε. ΤΕΙ Ανατολικής Μακεδονίας και Θράκης 2016-2017 Διευρυμένη Υπολογιστική Νοημοσύνη (ΥΝ) Επεκτάσεις της Κλασικής ΥΝ. Μεθοδολογίες

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διάλεξη 5 Κατανομές πιθανότητας και εκτίμηση παραμέτρων δυαδικές τυχαίες μεταβλητές Bayesian decision Minimum misclassificaxon rate decision: διαλέγουμε την κατηγορία Ck για

Διαβάστε περισσότερα

4.3. Γραµµικοί ταξινοµητές

4.3. Γραµµικοί ταξινοµητές Γραµµικοί ταξινοµητές Γραµµικός ταξινοµητής είναι ένα σύστηµα ταξινόµησης που χρησιµοποιεί γραµµικές διακριτικές συναρτήσεις Οι ταξινοµητές αυτοί αναπαρίστανται συχνά µε οµάδες κόµβων εντός των οποίων

Διαβάστε περισσότερα

Μέθοδοι μονοδιάστατης ελαχιστοποίησης

Μέθοδοι μονοδιάστατης ελαχιστοποίησης Βασικές αρχές μεθόδων ελαχιστοποίησης Μέθοδοι μονοδιάστατης ελαχιστοποίησης Οι μέθοδοι ελαχιστοποίησης είναι επαναληπτικές. Ξεκινώντας από μια αρχική προσέγγιση του ελαχίστου (την συμβολίζουμε ) παράγουν

Διαβάστε περισσότερα

ΘΕΩΡΙΑ ΑΠΟΦΑΣΕΩΝ 3 ο ΦΡΟΝΤΙΣΤΗΡΙΟ ΛΥΣΕΙΣ ΤΩΝ ΑΣΚΗΣΕΩΝ

ΘΕΩΡΙΑ ΑΠΟΦΑΣΕΩΝ 3 ο ΦΡΟΝΤΙΣΤΗΡΙΟ ΛΥΣΕΙΣ ΤΩΝ ΑΣΚΗΣΕΩΝ ΘΕΩΡΙΑ ΑΠΟΦΑΣΕΩΝ 3 ο ΦΡΟΝΤΙΣΤΗΡΙΟ ΛΥΣΕΙΣ ΤΩΝ ΑΣΚΗΣΕΩΝ ΑΣΚΗΣΗ Σύμφωνα με στοιχεία από το Πανεπιστήμιο της Οξφόρδης η πιθανότητα ένας φοιτητής να αποφοιτήσει μέσα σε 5 χρόνια από την ημέρα εγγραφής του στο

Διαβάστε περισσότερα

ΚΕΦΑΛΑΙΟ 2 ΑΝΑΣΚΟΠΗΣΗ ΑΠΑΡΑΙΤΗΤΩΝ ΓΝΩΣΕΩΝ: ΕΚΤΙΜΗΤΕΣ

ΚΕΦΑΛΑΙΟ 2 ΑΝΑΣΚΟΠΗΣΗ ΑΠΑΡΑΙΤΗΤΩΝ ΓΝΩΣΕΩΝ: ΕΚΤΙΜΗΤΕΣ ΚΕΦΑΛΑΙΟ ΑΝΑΣΚΟΠΗΣΗ ΑΠΑΡΑΙΤΗΤΩΝ ΓΝΩΣΕΩΝ: ΕΚΤΙΜΗΤΕΣ Ως γνωστό δείγμα είναι ένα σύνολο παρατηρήσεων από ένα πληθυσμό. Αν ο πληθυσμός αυτός θεωρηθεί μονοδιάστατος τότε μπορεί να εκφρασθεί με τη συνάρτηση

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διαλέξεις 7-8 Μπεϋζιανή εκτίμηση - συνέχεια Μη παραμετρικές μέθοδοι εκτίμησης πυκνότητας Δυαδικές τ.μ. κατανομή Bernoulli : Εκτίμηση ML: Εκτίμηση Bayes για εκ των προτέρων

Διαβάστε περισσότερα

ΔΙΑΧΩΡΙΣΜΟΣ ΚΑΙ ΤΑΞΙΝΟΜΗΣΗ ΚΡΗΤΙΚΟΥ ΚΑΤΕΡΙΝΑ NΙΚΑΚΗ ΚΑΤΕΡΙΝΑ NΙΚΟΛΑΪΔΟΥ ΧΡΥΣΑ

ΔΙΑΧΩΡΙΣΜΟΣ ΚΑΙ ΤΑΞΙΝΟΜΗΣΗ ΚΡΗΤΙΚΟΥ ΚΑΤΕΡΙΝΑ NΙΚΑΚΗ ΚΑΤΕΡΙΝΑ NΙΚΟΛΑΪΔΟΥ ΧΡΥΣΑ ΔΙΑΧΩΡΙΣΜΟΣ ΚΑΙ ΤΑΞΙΝΟΜΗΣΗ ΚΡΗΤΙΚΟΥ ΚΑΤΕΡΙΝΑ NΙΚΑΚΗ ΚΑΤΕΡΙΝΑ NΙΚΟΛΑΪΔΟΥ ΧΡΥΣΑ ΔΙΑΧΩΡΙΣΜΟΣ ΚΑΙ ΤΑΞΙΝΟΜΗΣΗ Είναι τεχνικές που έχουν σκοπό: τον εντοπισμό χαρακτηριστικών των οποίων οι αριθμητικές τιμές επιτυγχάνουν

Διαβάστε περισσότερα

Μέθοδοι μονοδιάστατης ελαχιστοποίησης

Μέθοδοι μονοδιάστατης ελαχιστοποίησης Βασικές αρχές μεθόδων ελαχιστοποίησης Μέθοδοι μονοδιάστατης ελαχιστοποίησης Οι μέθοδοι ελαχιστοποίησης είναι επαναληπτικές. Ξεκινώντας από μια αρχική προσέγγιση του ελαχίστου (την συμβολίζουμε ) παράγουν

Διαβάστε περισσότερα

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ 2012

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ 2012 ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ Δίνονται τα εξής πρότυπα: [ ] [ ] [ ] [ ] Άσκηση η (3 μονάδες) Χρησιμοποιώντας το κριτήριο της ομοιότητας να απορριφθεί ένα χαρακτηριστικό με βάση το συντελεστή συσχέτισης. (γράψτε ποιο

Διαβάστε περισσότερα

Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος

Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος Χιωτίδης Γεώργιος Τμήμα Λογιστικής και Χρηματοοικονομικής Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης

Διαβάστε περισσότερα

Δειγματοληψία. Πρέπει να γνωρίζουμε πως πήραμε το δείγμα Το πλήθος n ij των παρατηρήσεων σε κάθε κελί είναι τ.μ. με μ ij συμβολίζουμε την μέση τιμή:

Δειγματοληψία. Πρέπει να γνωρίζουμε πως πήραμε το δείγμα Το πλήθος n ij των παρατηρήσεων σε κάθε κελί είναι τ.μ. με μ ij συμβολίζουμε την μέση τιμή: Δειγματοληψία Πρέπει να γνωρίζουμε πως πήραμε το δείγμα Το πλήθος των παρατηρήσεων σε κάθε κελί είναι τ.μ. με μ συμβολίζουμε την μέση τιμή: Επομένως στην δειγματοληψία πινάκων συνάφειας αναφερόμαστε στον

Διαβάστε περισσότερα

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ ΤΕΙ Δυτικής Μακεδονίας ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ 2015-2016 Τεχνητή Νοημοσύνη Νευρώνας Perceptron Διδάσκων: Τσίπουρας Μάρκος Εκπαιδευτικό Υλικό: Τσίπουρας Μάρκος Τζώρτζης Γρηγόρης Περιεχόμενα Εισαγωγή

Διαβάστε περισσότερα

ΚΑΤΗΓΟΡΙΕΣ ΤΑΞΙΝΟΜΗΣΗΣ

ΚΑΤΗΓΟΡΙΕΣ ΤΑΞΙΝΟΜΗΣΗΣ ΚΑΤΗΓΟΡΙΕΣ ΤΑΞΙΝΟΜΗΣΗΣ Κατευθυνόμενη ταξινόμηση (supervsed cassfcaton) Μη-κατευθυνόμενη ταξινόμηση (unsupervsed cassfcaton) Γραμμική: Lnear Dscrmnant Anayss Μη- Γραμμική: Νευρωνικά δίκτυα κλπ. Ιεραρχική

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Version Εκφράζοντας τον ταξινομητή Bayes (a) Με χρήση συναρτήσεων διάκρισης (discriminant functions) - Έστω g q (x)=f(p(ω q )p(x ω q )), q=,,m, όπου f γνησίως

Διαβάστε περισσότερα

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 3ο Φροντιστήριο

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 3ο Φροντιστήριο Ασκήσεις Φροντιστηρίου 3ο Φροντιστήριο Πρόβλημα 1 ο Το perceptron ενός επιπέδου είναι ένας γραμμικός ταξινομητής προτύπων. Δικαιολογήστε αυτή την πρόταση. x 1 x 2 Έξοδος y x p θ Κατώφλι Perceptron (στοιχειώδης

Διαβάστε περισσότερα

Μ Α Θ Η Μ Α Τ Α Γ Λ Υ Κ Ε Ι Ο Υ

Μ Α Θ Η Μ Α Τ Α Γ Λ Υ Κ Ε Ι Ο Υ Μ Α Θ Η Μ Α Τ Α Γ Λ Υ Κ Ε Ι Ο Υ ΜΑΘΗΜΑΤΙΚΑ ΠΡΟΣΑΝΑΤΟΛΙΣΜΟΥ ΘΕΤΙΚΩΝ ΣΠΟΥΔΩΝ ΚΑΙ ΣΠΟΥΔΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΠΛΗΡΟΦΟΡΙΚΗΣ (Α ΜΕΡΟΣ: ΣΥΝΑΡΤΗΣΕΙΣ) Επιμέλεια: Καραγιάννης Ιωάννης, Σχολικός Σύμβουλος Μαθηματικών

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ Ακαδ. Έτος 07-08 Διδάσκων: Βασίλης ΚΟΥΤΡΑΣ Επικ. Καθηγητής v.koutras@fme.aegea.gr Τηλ: 7035468 Θα μελετήσουμε

Διαβάστε περισσότερα

E[ (x- ) ]= trace[(x-x)(x- ) ]

E[ (x- ) ]= trace[(x-x)(x- ) ] 1 ΦΙΛΤΡΟ KALMAN ΔΙΑΚΡΙΤΟΥ ΧΡΟΝΟΥ Σε αυτό το μέρος της πτυχιακής θα ασχοληθούμε λεπτομερώς με το φίλτρο kalman και θα δούμε μια καινούρια έκδοση του φίλτρου πάνω στην εφαρμογή της γραμμικής εκτίμησης διακριτού

Διαβάστε περισσότερα

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης Μάθημα 5 ο Δρ. Ανέστης Γ. Χατζημιχαηλίδης Τμήμα Μηχανικών Πληροφορικής Τ.Ε. ΤΕΙ Ανατολικής Μακεδονίας και Θράκης 2016-2017 Διευρυμένη Υπολογιστική Νοημοσύνη (ΥΝ) Επεκτάσεις της Κλασικής ΥΝ. Μεθοδολογίες

Διαβάστε περισσότερα

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON 3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPRON 3. ΕΙΣΑΓΩΓΗ: Το Perceptron είναι η απλούστερη μορφή Νευρωνικού δικτύου, το οποίο χρησιμοποιείται για την ταξινόμηση ενός ειδικού τύπου προτύπων, που είναι γραμμικά διαχωριζόμενα.

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ ο 2.5 µονάδες ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 2 Σεπτεµβρίου 2005 5:00-8:00 Σχεδιάστε έναν αισθητήρα ercetro

Διαβάστε περισσότερα

ΟΙΚΟΝΟΜΕΤΡΙΑ. Β μέρος: Ετεροσκεδαστικότητα. Παπάνα Αγγελική

ΟΙΚΟΝΟΜΕΤΡΙΑ. Β μέρος: Ετεροσκεδαστικότητα. Παπάνα Αγγελική ΟΙΚΟΝΟΜΕΤΡΙΑ Ενότητα 10: Οικονομετρικά προβλήματα: Παραβίαση των υποθέσεων Β μέρος: Ετεροσκεδαστικότητα Παπάνα Αγγελική Μεταδιδακτορική ερευνήτρια, ΑΠΘ E-mail: angeliki.papana@gmail.com, agpapana@auth.gr

Διαβάστε περισσότερα

Κεφάλαιο 2: Θεωρία Απόφασης του Bayes 2.1 Εισαγωγή

Κεφάλαιο 2: Θεωρία Απόφασης του Bayes 2.1 Εισαγωγή Κεφάλαιο : Θεωρία Απόφασης του Bayes. Εισαγωγή Η θεωρία απόφασης του Bayes αποτελεί μια από τις σημαντικότερες στατιστικές προσεγγίσεις για το πρόβλημα της ταξινόμησης προτύπων. Βασίζεται στη σύγκριση

Διαβάστε περισσότερα

Θεωρία Αποφάσεων ο. 4 Φροντιστήριο. Λύσεις των Ασκήσεων

Θεωρία Αποφάσεων ο. 4 Φροντιστήριο. Λύσεις των Ασκήσεων Θεωρία Αποφάσεων ο Φροντιστήριο Λύσεις των Ασκήσεων Άσκηση Έστω ένα πρόβλημα ταξινόμησης μιας διάστασης με δύο κατηγορίες, όπου για κάθε κατηγορία έχουν συλλεχθεί τα παρακάτω δεδομένα: D = {, 2,,,,7 }

Διαβάστε περισσότερα

Επαναληπτικές μέθοδοι

Επαναληπτικές μέθοδοι Επαναληπτικές μέθοδοι Η μέθοδος της διχοτόμησης και η μέθοδος Regula Fals που αναφέραμε αξιοποιούσαν το κριτήριο του Bolzano, πραγματοποιώντας διαδοχικές υποδιαιρέσεις του διαστήματος [α, b] στο οποίο,

Διαβάστε περισσότερα

Κινητά Δίκτυα Επικοινωνιών. Συμπληρωματικό υλικό. Προσαρμοστική Ισοστάθμιση Καναλιού

Κινητά Δίκτυα Επικοινωνιών. Συμπληρωματικό υλικό. Προσαρμοστική Ισοστάθμιση Καναλιού Κινητά Δίκτυα Επικοινωνιών Συμπληρωματικό υλικό Προσαρμοστική Ισοστάθμιση Καναλιού Προσαρμοστικοί Ισοσταθμιστές Για να υπολογίσουμε τους συντελεστές του ισοσταθμιστή MMSE, απαιτείται να λύσουμε ένα γραμμικό

Διαβάστε περισσότερα

Κεφ. 7: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών

Κεφ. 7: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών Κεφ. 7: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών 7. Εισαγωγή (ορισμός προβλήματος, αριθμητική ολοκλήρωση ΣΔΕ, αντικατάσταση ΣΔΕ τάξης n με n εξισώσεις ης τάξης) 7. Μέθοδος Euler 7.3

Διαβάστε περισσότερα

ΚΕΦΑΛΑΙΟ 3. Περιγραφή της Μεθόδου ΠΕΡΙΓΡΑΦΗ ΤΗΣ ΜΕΘΟΔΟΥ

ΚΕΦΑΛΑΙΟ 3. Περιγραφή της Μεθόδου ΠΕΡΙΓΡΑΦΗ ΤΗΣ ΜΕΘΟΔΟΥ ΚΕΦΑΛΑΙΟ 3 Περιγραφή της Μεθόδου Το αντικείμενο αυτής της εργασίας είναι η χρήση μιας μεθόδου προσέγγισης συναρτήσεων που έχει προταθεί από τον hen-ha huang και ονομάζεται Ασαφώς Σταθμισμένη Παλινδρόμηση

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διάλεξη 5 Κατανομές πιθανότητας και εκτίμηση παραμέτρων Κατανομές πιθανότητας και εκτίμηση παραμέτρων δυαδικές τυχαίες μεταβλητές Διαχωριστικές συναρτήσεις Ταξινόμηση κανονικών

Διαβάστε περισσότερα

ΒΑΣΙΚΕΣ ΕΝΝΟΙΕΣ ΚΑΙ ΜΑΘΗΜΑΤΙΚΗ ΔΙΑΤΥΠΩΣΗ, Διαλ. 2. Ανωτάτη Σχολή Παιδαγωγικής και Τεχνολογικής Εκπαίδευσης 8/4/2017

ΒΑΣΙΚΕΣ ΕΝΝΟΙΕΣ ΚΑΙ ΜΑΘΗΜΑΤΙΚΗ ΔΙΑΤΥΠΩΣΗ, Διαλ. 2. Ανωτάτη Σχολή Παιδαγωγικής και Τεχνολογικής Εκπαίδευσης 8/4/2017 ΒΑΣΙΚΕΣ ΕΝΝΟΙΕΣ ΚΑΙ ΜΑΘΗΜΑΤΙΚΗ ΔΙΑΤΥΠΩΣΗ, Διαλ. 2 Ανωτάτη Σχολή Παιδαγωγικής και Τεχνολογικής Εκπαίδευσης 8/4/2017 Αντικειμενικοί στόχοι Η μελέτη των βασικών στοιχείων που συνθέτουν ένα πρόβλημα βελτιστοποίησης

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ ΘΕΜΑ 1 ο (2,5 μονάδες) ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Τελικές εξετάσεις Πέμπτη 21 Ιουνίου 2012 16:30-19:30 Υποθέστε ότι θέλουμε

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διάλεξη 4 Διαχωριστικές συναρτήσεις Ταξινόμηση Γκαουσιανών μεταβλητών Bayesan decson Mnmum msclassfcaton rate decson: διαλέγουμε την κατηγορίαck για την οποία η εκ των υστέρων

Διαβάστε περισσότερα

Έλεγχος υποθέσεων και διαστήματα εμπιστοσύνης

Έλεγχος υποθέσεων και διαστήματα εμπιστοσύνης 1 Έλεγχος υποθέσεων και διαστήματα εμπιστοσύνης Όπως γνωρίζουμε από προηγούμενα κεφάλαια, στόχος των περισσότερων στατιστικών αναλύσεων, είναι η έγκυρη γενίκευση των συμπερασμάτων, που προέρχονται από

Διαβάστε περισσότερα

ΦΙΛΤΡΟ KALMAN ΔΙΑΚΡΙΤΟΥ ΧΡΟΝΟΥ

ΦΙΛΤΡΟ KALMAN ΔΙΑΚΡΙΤΟΥ ΧΡΟΝΟΥ 1 ΦΙΛΤΡΟ KALMAN ΔΙΑΚΡΙΤΟΥ ΧΡΟΝΟΥ Σε αυτό το μέρος της πτυχιακής θα ασχοληθούμε λεπτομερώς με το φίλτρο kalman και θα δούμε μια καινούρια έκδοση του φίλτρου πάνω στην εφαρμογή της γραμμικής εκτίμησης διακριτού

Διαβάστε περισσότερα

Εφαρμοσμένη Στατιστική Δημήτριος Μπάγκαβος Τμήμα Μαθηματικών και Εφαρμοσμένων Μαθηματικών Πανεπισ τήμιο Κρήτης 14 Μαρτίου /34

Εφαρμοσμένη Στατιστική Δημήτριος Μπάγκαβος Τμήμα Μαθηματικών και Εφαρμοσμένων Μαθηματικών Πανεπισ τήμιο Κρήτης 14 Μαρτίου /34 Εφαρμοσμένη Στατιστική Δημήτριος Μπάγκαβος Τμήμα Μαθηματικών και Εφαρμοσμένων Μαθηματικών Πανεπιστήμιο Κρήτης 14 Μαρτίου 018 1/34 Διαστήματα Εμπιστοσύνης. Εχουμε δει εκτενώς μέχρι τώρα τρόπους εκτίμησης

Διαβάστε περισσότερα

Κεφ. 6Β: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών

Κεφ. 6Β: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών Κεφ. 6Β: Συνήθεις διαφορικές εξισώσεις (ΣΔΕ) - προβλήματα αρχικών τιμών. Εισαγωγή (ορισμός προβλήματος, αριθμητική ολοκλήρωση ΣΔΕ, αντικατάσταση ΣΔΕ τάξης n με n εξισώσεις ης τάξης). Μέθοδος Euler 3. Μέθοδοι

Διαβάστε περισσότερα

Γραμμικός Προγραμματισμός Μέθοδος Simplex

Γραμμικός Προγραμματισμός Μέθοδος Simplex ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ Επιχειρησιακή Έρευνα Γραμμικός Προγραμματισμός Μέθοδος Simplex Η παρουσίαση προετοιμάστηκε από τον Ν.Α. Παναγιώτου Περιεχόμενα Παρουσίασης 1. Πρότυπη Μορφή ΓΠ 2. Πινακοποίηση

Διαβάστε περισσότερα

ΘΕΩΡΙΑ ΟΙΚΟΝΟΜΕΤΡΙΑΣ ΣΥΝΟΠΤΙΚΕΣ ΣΗΜΕΙΩΣΕΙΣ

ΘΕΩΡΙΑ ΟΙΚΟΝΟΜΕΤΡΙΑΣ ΣΥΝΟΠΤΙΚΕΣ ΣΗΜΕΙΩΣΕΙΣ ΘΕΩΡΙΑ ΟΙΚΟΝΟΜΕΤΡΙΑΣ ΣΥΝΟΠΤΙΚΕΣ ΣΗΜΕΙΩΣΕΙΣ ΑΠΛΟ ΓΡΑΜΜΙΚΟ ΥΠΟΔΕΙΓΜΑ Συντελεστής συσχέτισης (εκτιμητής Person: r, Y ( ( Y Y xy ( ( Y Y x y, όπου r, Y (ισχυρή θετική γραμμική συσχέτιση όταν, ισχυρή αρνητική

Διαβάστε περισσότερα

Κατηγοριοποίηση βάσει διανύσματος χαρακτηριστικών

Κατηγοριοποίηση βάσει διανύσματος χαρακτηριστικών Κατηγοριοποίηση βάσει διανύσματος χαρακτηριστικών Αναπαράσταση των δεδομένων ως διανύσματα χαρακτηριστικών (feature vectors): Επιλογή ενός

Διαβάστε περισσότερα

ΕΚΤΙΜΙΣΗ ΜΕΓΙΣΤΗΣ ΠΙΘΑΝΟΦΑΝΕΙΑΣ

ΕΚΤΙΜΙΣΗ ΜΕΓΙΣΤΗΣ ΠΙΘΑΝΟΦΑΝΕΙΑΣ 3.1 Εισαγωγή ΕΚΤΙΜΙΣΗ ΜΕΓΙΣΤΗΣ ΠΙΘΑΝΟΦΑΝΕΙΑΣ Στο κεφ. 2 είδαμε πώς θα μπορούσαμε να σχεδιάσουμε έναν βέλτιστο ταξινομητή εάν ξέραμε τις προγενέστερες(prior) πιθανότητες ( ) και τις κλάση-υπό όρους πυκνότητες

Διαβάστε περισσότερα

Πινάκες συνάφειας. Βαρύτητα συμπτωμάτων. Φύλο Χαμηλή Υψηλή. Άνδρες. Γυναίκες

Πινάκες συνάφειας. Βαρύτητα συμπτωμάτων. Φύλο Χαμηλή Υψηλή. Άνδρες. Γυναίκες Πινάκες συνάφειας εξερεύνηση σχέσεων μεταξύ τυχαίων μεταβλητών. Είναι λογικό λοιπόν, στην ανάλυση των κατηγορικών δεδομένων να μας ενδιαφέρει η σχέση μεταξύ δύο ή περισσότερων κατηγορικών μεταβλητών. Έστω

Διαβάστε περισσότερα

Μέθοδοι πολυδιάστατης ελαχιστοποίησης

Μέθοδοι πολυδιάστατης ελαχιστοποίησης Μέθοδοι πολυδιάστατης ελαχιστοποίησης με παραγώγους Μέθοδοι πολυδιάστατης ελαχιστοποίησης Δ. Γ. Παπαγεωργίου Τμήμα Μηχανικών Επιστήμης Υλικών Πανεπιστήμιο Ιωαννίνων dpapageo@cc.uoi.gr http://pc64.materials.uoi.gr/dpapageo

Διαβάστε περισσότερα

Συνήθεις διαφορικές εξισώσεις προβλήματα οριακών τιμών

Συνήθεις διαφορικές εξισώσεις προβλήματα οριακών τιμών Συνήθεις διαφορικές εξισώσεις προβλήματα οριακών τιμών Οι παρούσες σημειώσεις αποτελούν βοήθημα στο μάθημα Αριθμητικές Μέθοδοι του 5 ου εξαμήνου του ΤΜΜ ημήτρης Βαλουγεώργης Καθηγητής Εργαστήριο Φυσικών

Διαβάστε περισσότερα

ΕΦΑΡΜΟΣΜΕΝΗ ΣΤΑΤΙΣΤΙΚΗ Ι Συμπληρωματικές Σημειώσεις Δημήτριος Παντελής

ΕΦΑΡΜΟΣΜΕΝΗ ΣΤΑΤΙΣΤΙΚΗ Ι Συμπληρωματικές Σημειώσεις Δημήτριος Παντελής ΕΦΑΡΜΟΣΜΕΝΗ ΣΤΑΤΙΣΤΙΚΗ Ι Συμπληρωματικές Σημειώσεις Δημήτριος Παντελής ΣΤΑΤΙΣΤΙΚΕΣ ΕΚΤΙΜΗΣΕΙΣ Οι συναρτήσεις πιθανότητας ή πυκνότητας πιθανότητας των διαφόρων τυχαίων μεταβλητών χαρακτηρίζονται από κάποιες

Διαβάστε περισσότερα

4. ΚΕΦΑΛΑΙΟ ΕΦΑΡΜΟΓΕΣ ΤΟΥ ΜΕΤΑΣΧΗΜΑΤΙΣΜΟΥ FOURIER

4. ΚΕΦΑΛΑΙΟ ΕΦΑΡΜΟΓΕΣ ΤΟΥ ΜΕΤΑΣΧΗΜΑΤΙΣΜΟΥ FOURIER 4. ΚΕΦΑΛΑΙΟ ΕΦΑΡΜΟΓΕΣ ΤΟΥ ΜΕΤΑΣΧΗΜΑΤΙΣΜΟΥ FOURIER Σκοπός του κεφαλαίου είναι να παρουσιάσει μερικές εφαρμογές του Μετασχηματισμού Fourier (ΜF). Ειδικότερα στο κεφάλαιο αυτό θα περιγραφούν έμμεσοι τρόποι

Διαβάστε περισσότερα

Εισαγωγή στις Τηλεπικοινωνίες. Δομή της παρουσίασης

Εισαγωγή στις Τηλεπικοινωνίες. Δομή της παρουσίασης 1 Oct 16 ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΙΡΑΙΩΣ ΣΧΟΛΗ ΤΕΧΝΟΛΟΓΙΩΝ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΕΠΙΚΟΙΝΩΝΙΩΝ ΤΜΗΜΑ ΨΗΦΙΑΚΩΝ ΣΥΣΤΗΜΑΤΩΝ ΕΡΓΑΣΤΗΡΙΟ ΤΗΛΕΠΙΚΟΙΝΩΝΙΑΚΩΝ ΣΥΣΤΗΜΑΤΩΝ Εισαγωγή στις Τηλεπικοινωνίες Διάλεξη 4 η Γεωμετρική Αναπαράσταση

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ Ακαδ. Έτος 08-09 Διδάσκων: Βασίλης ΚΟΥΤΡΑΣ Επικ. Καθηγητής v.koutras@fme.aegea.gr Τηλ: 7035468 Εκτίμηση Διαστήματος

Διαβάστε περισσότερα

Αριθμητική εύρεση ριζών μη γραμμικών εξισώσεων

Αριθμητική εύρεση ριζών μη γραμμικών εξισώσεων Αριθμητική εύρεση ριζών μη γραμμικών εξισώσεων Με τον όρο μη γραμμικές εξισώσεις εννοούμε εξισώσεις της μορφής: f( ) 0 που προέρχονται από συναρτήσεις f () που είναι μη γραμμικές ως προς. Περιέχουν δηλαδή

Διαβάστε περισσότερα

Εφαρμοσμένα Μαθηματικά ΙΙ Τελική Εξέταση Ι. Λυχναρόπουλος

Εφαρμοσμένα Μαθηματικά ΙΙ Τελική Εξέταση Ι. Λυχναρόπουλος 6/6/06 Εφαρμοσμένα Μαθηματικά ΙΙ Τελική Εξέταση Ι. Λυχναρόπουλος Άσκηση (Μονάδες ) 0 Δίνεται ο πίνακας A =. Nα υπολογίσετε την βαθμίδα του και να βρείτε τη διάσταση και από μία βάση α) του μηδενοχώρου

Διαβάστε περισσότερα

Αριθμητική Ανάλυση και Εφαρμογές

Αριθμητική Ανάλυση και Εφαρμογές Αριθμητική Ανάλυση και Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 2017-2018 Παρεμβολή και Παρεκβολή Εισαγωγή Ορισμός 6.1 Αν έχουμε στη διάθεσή μας τιμές μιας συνάρτησης

Διαβάστε περισσότερα

Εισόδημα Κατανάλωση 1500 500 1600 600 1300 450 1100 400 600 250 700 275 900 300 800 352 850 400 1100 500

Εισόδημα Κατανάλωση 1500 500 1600 600 1300 450 1100 400 600 250 700 275 900 300 800 352 850 400 1100 500 Εισόδημα Κατανάλωση 1500 500 1600 600 1300 450 1100 400 600 250 700 275 900 300 800 352 850 400 1100 500 Πληθυσμός Δείγμα Δείγμα Δείγμα Ο ρόλος της Οικονομετρίας Οικονομική Θεωρία Διατύπωση της

Διαβάστε περισσότερα

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. Κατηγοριοποίηση. Αριστείδης Γ. Βραχάτης, Dipl-Ing, M.Sc, PhD

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. Κατηγοριοποίηση. Αριστείδης Γ. Βραχάτης, Dipl-Ing, M.Sc, PhD Τμήμα Πληροφορικής με Εφαρμογές στη Βιοϊατρική Σχολή Θετικών Επιστημών Πανεπιστήμιο Θεσσαλίας ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ Κατηγοριοποίηση Αριστείδης Γ. Βραχάτης, Dipl-Ing, M.Sc, PhD Κατηγοριοποιητής K πλησιέστερων

Διαβάστε περισσότερα

Παρεμβολή & πρόγνωση άγνωστης συνάρτησης μέσω σημειακής προσαρμογής

Παρεμβολή & πρόγνωση άγνωστης συνάρτησης μέσω σημειακής προσαρμογής Ειδικά Θέματα Συνορθώσεων & Εφαρμογές 8 ο εξάμηνο, Ακαδημαϊκό έτος 2018-2019 Παρεμβολή & πρόγνωση άγνωστης συνάρτησης μέσω σημειακής προσαρμογής (Least squares collocation) Χριστόφορος Κωτσάκης Τμήμα Αγρονόμων

Διαβάστε περισσότερα

Παραδείγματα (2) Διανυσματικοί Χώροι

Παραδείγματα (2) Διανυσματικοί Χώροι Παραδείγματα () Διανυσματικοί Χώροι Παράδειγμα 7 Ελέγξτε αν τα ακόλουθα σύνολα διανυσμάτων είναι γραμμικά ανεξάρτητα ή όχι: α) v=(,4,6), v=(,,), v=(7,,) b) v=(,4), v=(,), v=(4,) ) v=(,,), v=(5,,), v=(5,,)

Διαβάστε περισσότερα

Μέθοδος μέγιστης πιθανοφάνειας

Μέθοδος μέγιστης πιθανοφάνειας Αν x =,,, παρατηρήσεις των Χ =,,,, τότε έχουμε διαθέσιμο ένα δείγμα Χ={Χ, =,,,} της κατανομής F μεγέθους με από κοινού σκ της Χ f x f x Ορισμός : Θεωρούμε ένα τυχαίο δείγμα Χ=(Χ, Χ,, Χ ) από πληθυσμό το

Διαβάστε περισσότερα

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο Ασκήσεις Φροντιστηρίου 4 o Φροντιστήριο Πρόβλημα 1 ο Ο πίνακας συσχέτισης R x του διανύσματος εισόδου x( στον LMS αλγόριθμο 1 0.5 R x = ορίζεται ως: 0.5 1. Ορίστε το διάστημα των τιμών της παραμέτρου μάθησης

Διαβάστε περισσότερα