Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

Σχετικά έγγραφα
Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων

4.3. Γραµµικοί ταξινοµητές

HMY 795: Αναγνώριση Προτύπων

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

/5

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

HMY 795: Αναγνώριση Προτύπων

Θεωρία Λήψης Αποφάσεων

HMY 795: Αναγνώριση Προτύπων

Αναγνώριση Προτύπων (Pattern Recognition) Μπεϋζιανή Θεωρία Αποφάσεων (Bayesian Decision Theory) Π. Τσακαλίδης

ΚΑΤΗΓΟΡΙΕΣ ΤΑΞΙΝΟΜΗΣΗΣ

HMY 795: Αναγνώριση Προτύπων. Διάλεξη 2

HMY 795: Αναγνώριση Προτύπων

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON

HMY 795: Αναγνώριση Προτύπων

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΔΕ. 11 ΙΟΥΝΙΟΥ 2012

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 3ο Φροντιστήριο

ΕΚΤΙΜΙΣΗ ΜΕΓΙΣΤΗΣ ΠΙΘΑΝΟΦΑΝΕΙΑΣ

Ασκήσεις μελέτης της 19 ης διάλεξης

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΠΜΣΕ ΣΤΗΝ ΕΦΑΡΜΟΣΜΕΝΗ ΠΛΗΡΟΦΟΡΙΚΗ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΚΑΙ ΕΞΕΛΙΚΤΙΚΟΙ ΑΛΓΟΡΙΘΜΟΙ

5. ΜΕΘΟΔΟΙ ΜΕΓΙΣΤΗΣ ΠΙΘΑΝΟΦΑΝΕΙΑΣ

Θεωρία Λήψης Αποφάσεων

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ 2012

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ

Ακαδημαϊκό Έτος , Χειμερινό Εξάμηνο Διδάσκων Καθ.: Νίκος Τσαπατσούλης

Αναγνώριση Προτύπων Ι

Αναγνώριση Προτύπων. Μη παραμετρικές τεχνικές Αριθμητικά. (Non Parametric Techniques)

4. Μέθοδοι αναγνώρισης ταξινοµητές µε επόπτη


οµή δικτύου ΣΧΗΜΑ 8.1

ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ Αίθουσα Νέα Κτίρια ΣΗΜΜΥ Ε.Μ.Π. Ανάλυση Κυρίων Συνιστωσών (Principal-Component Analysis, PCA)

Α. ΤΕΙ ΚΡΗΤΗΣ Τµήµα Εφαρµοσµένης Πληροφορικής και Πολυµέσων Εργαστήριο Νευρωνικών Δικτύων

ΘΕΩΡΙΑ ΑΠΟΦΑΣΕΩΝ 3 ο ΦΡΟΝΤΙΣΤΗΡΙΟ ΛΥΣΕΙΣ ΤΩΝ ΑΣΚΗΣΕΩΝ

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Γραµµικοί Ταξινοµητές

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

PROJECT ΣΤΟ ΜΑΘΗΜΑ ΕΙΣΑΓΩΓΗ ΣΤΙΣ ΕΥΡΕΤΙΚΕΣ ΜΕΘΟ ΟΥΣ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

ΠΕΡΙΕΧΟΜΕΝΑ. ΠΡΟΛΟΓΟΣ... vii ΠΕΡΙΕΧΟΜΕΝΑ... ix ΓΕΝΙΚΗ ΒΙΒΛΙΟΓΡΑΦΙΑ... xv. Κεφάλαιο 1 ΓΕΝΙΚΕΣ ΕΝΝΟΙΕΣ ΑΠΟ ΤΗ ΣΤΑΤΙΣΤΙΚΗ

ΜΑΘΗΜΑΤΙΚΑ ΚΑΙ ΣΤΟΙΧΕΙΑ ΣΤΑΤΙΣΤΙΚΗΣ Γ' ΛΥΚΕΙΟΥ ΓΕΝΙΚΗΣ ΠΑΙ ΕΙΑΣ 2006 ΕΚΦΩΝΗΣΕΙΣ

HMY 795: Αναγνώριση Προτύπων

1 1 c c c c c c = 1 c = 1 28 P (Y < X) = P ((1, 2)) + P ((4, 1)) + P ((4, 3)) = 2 1/ / /28 = 18/28

Κεφάλαιο 2: Θεωρία Απόφασης του Bayes 2.1 Εισαγωγή

Περιεχόμενα. 2.1 Εισαγωγή Προγενέστερη έρευνα Ανάπτυξη υποδειγμάτων παραποίησης Πρόλογος... 11

HMY 795: Αναγνώριση Προτύπων

1η εργασία για το μάθημα «Αναγνώριση προτύπων»

P( X < 8) = P( 8 < X < 8) = Φ(0.6) Φ( 1) = Φ(0.6) (1 Φ(1)) = Φ(0.6)+Φ(1) 1

Συστήµατα Μη-Γραµµικών Εξισώσεων Μέθοδος Newton-Raphson

0, x < 0 1+x 8, 0 x < 1 1 2, 1 x < x 8, 2 x < 4

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

EΦΑΡΜΟΓΕΣ ΤΗΣ ΨΗΦΙΑΚΗΣ ΕΠΕΞΕΡΓΑΣΙΑΣ ΣΗΜΑΤΩΝ Γραµµική Εκτίµηση Τυχαίων Σηµάτων

QR είναι ˆx τότε x ˆx. 10 ρ. Ποιά είναι η τιµή του ρ και γιατί (σύντοµη εξήγηση). P = [X. 0, X,..., X. (n 1), X. n] a(n + 1 : 1 : 1)

Ψηφιακές Τηλεπικοινωνίες. Βέλτιστος Δέκτης

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΡΟΓΡΑΜΜΑ ΣΠΟΥΔΩΝ «ΠΛΗΡΟΦΟΡΙΚΗ» ΜΑΘΗΜΑΤΙΚΑ Ι (ΘΕ ΠΛΗ 12) ΕΠΑΝΑΛΗΠΤΙΚΗ ΤΕΛΙΚΗ ΕΞΕΤΑΣΗ 5 Ιουλίου 2009

Απλή Γραμμική Παλινδρόμηση και Συσχέτιση 19/5/2017

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

ΜΑΘΗΜΑΤΙΚΑ ΚΑΙ ΣΤΟΙΧΕΙΑ ΣΤΑΤΙΣΤΙΚΗΣ ΓΕΝΙΚΗΣ ΠΑΙΔΕΙΑΣ Γ ΛΥΚΕΙΟΥ

HMY 795: Αναγνώριση Προτύπων

ΘΕΜΑ 1o A. Η συνάρτηση f είναι παραγωγίσιμη στο ΙR. και c πραγματική σταθερά. Να αποδείξετε ότι

ΜΑΘΗΜΑΤΙΚΑ 5 ΠΕΡΙΟΔΩΝ ΗΜΕΡΟΜΗΝΙΑ: 8 ΙΟΥΝΙΟΥ 2009

HMY 795: Αναγνώριση Προτύπων

ΜΑΘΗΜΑΤΙΚΑ & ΣΤΟΙΧΕΙΑ ΣΤΑΤΙΣΤΙΚΗΣ ΓΕΝΙΚΗΣ ΠΑΙ ΕΙΑΣ 2015 ΕΚΦΩΝΗΣΕΙΣ

1. ** α) Αν η f είναι δυο φορές παραγωγίσιµη συνάρτηση, να αποδείξετε ότι. β α. = [f (x) ηµx] - [f (x) συνx] β α. ( )

xp X (x) = k 3 10 = k 3 10 = 8 3

Ταξινόμηση. Τηλεπισκόπηση Η ΤΑΞΙΝΟΜΗΣΗ ΕΙΚΟΝΑΣ. Τηλεπισκόπηση. Τηλεπισκόπηση. Τηλεπισκόπηση 24/6/2013. Ταξινομητέ ς. Επιβλεπόμενοι Μη επιβλεπόμενοι

Στοχαστικές Στρατηγικές

3 η Διάλεξη. Ενδεικτικές λύσεις ασκήσεων

Θέμα Α. Θέμα Β. ~ 1/9 ~ Πέτρος Μάρκου. % σχεδιάζουμε το πολύγωνο αθροιστικών σχετικών συχνοτήτων τοις

ΠΡΟΤΕΙΝΟΜΕΝΑ ΘΕΜΑΤΑ ΣΤΑ ΜΑΘΗΜΑΤΙΚΑ ΓΕΝΙΚΗΣ ΠΑΙΔΕΙΑΣ Γ ΛΥΚΕΙΟΥ

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης. ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

ΜΑΘΗΜΑΤΙΚΑ ΓΕΝΙΚΗΣ ΠΑΙ ΕΙΑΣ

ΓΕΝΙΚΟ ΛΥΚΕΙΟ Λ. ΑΙΔΗΨΟΥ ΣΧΟΛ. ΕΤΟΣ ΓΡΑΠΤΕΣ ΠΡΟΑΓΩΓΙΚΕΣ ΕΞΕΤΑΣΕΙΣ ΠΕΡΙΟΔΟΥ ΜΑΪΟΥ ΙΟΥΝΙΟΥ ΑΛΓΕΒΡΑ Α ΓΕΝΙΚΟΥ ΛΥΚΕΙΟΥ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

min f(x) x R n b j - g j (x) = s j - b j = 0 g j (x) + s j = 0 - b j ) min L(x, s, λ) x R n λ, s R m L x i = 1, 2,, n (1) m L(x, s, λ) = f(x) +

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Εκτιμητές Μεγίστης Πιθανοφάνειας (Maximum Likelihood Estimators MLE)

Αναγνώριση Προτύπων. Baysian Θεωρία Αποφάσεων ΕΠΙΣΚΟΠΗΣΗ-ΑΣΚΗΣΕΙΣ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΜΑΘΗΜΑΤΙΚΑ & ΣΤΟΙΧΕΙΑ ΣΤΑΤΙΣΤΙΚΗΣ ΓΕΝΙΚΗΣ ΠΑΙ ΕΙΑΣ 2012 ΕΚΦΩΝΗΣΕΙΣ

ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ

ΟΙΚΟΝΟΜΙΚΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ - ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ Θεωρία Παιγνίων και Αποφάσεων Διδάσκων: Ε. Μαρκάκης, Εαρινό εξάμηνο 2015

7. ΕΠΕΞΕΡΓΑΣΊΑ ΣΗΜΆΤΩΝ

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

HMY 795: Αναγνώριση Προτύπων

1. ** Αν F είναι µια παράγουσα της f στο R, τότε να αποδείξετε ότι και η

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Θα λύσετε ένα από τα έξι πακέτα ασκήσεων που ακολουθούν, τα οποία είναι αριθµηµένα από 0 έως5. Ο κάθε φοιτητής βρίσκει το πακέτο που του αντιστοιχεί

Μπεϋζιανή Στατιστική και MCMC Μέρος 2 ο : MCMC

Αναγνώριση Προτύπων Ι

Διακριτικές Συναρτήσεις

Επαγωγικές Μηχανές Διανυσμάτων Στήριξης και εφαρμογή σε προβλήματα ταξινόμησης

Transcript:

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή Τµήµα Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών ΗΜΜΥ 795: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ Ακαδηµαϊκό έτος 2010-11 Χειµερινό Εξάµηνο Τελική εξέταση Τρίτη, 21 εκεµβρίου 2010, 16.30 19.30 Ονοµατεπώνυµο Υπογραφή Καλή Επιτυχία!

1. Classification of normal random variables, Fisher s Linear Discriminant. (15 points) Έστω ένα πρόβληµα ταξινόµησης 2 κλάσεων µε ίσες εκ των προτέρων πιθανότητες, για το οποίο οι υπό συνθήκη πιθανότητες για κάθε κλάση είναι: 0 a c p C N 0 c b 2 ( x 1) ~,,όπου ab c = 1 d 1 0 ( ) ~, 0 1 p x C2 N e (α) (6 points) Βρείτε την εξίσωση του συνόρου αποφάσεως µεταξύ των 2 κλάσεων ως συνάρτηση των παραµέτρων που δίνονται στο πρόβληµα. (β) (3 points) Προσδιορίστε τους περιορισµούς που πρέπει να ισχύουν για τις τιµές των a,b,c,d,e ώστε το διαχωριστικό σύνορο που προκύπτει να είναι γραµµικό. (γ) (6 points) Έστω a=2, b=1, c=0, d=4, e=4. Σχεδιάστε τυπικές ισοπίθανες γραµµές (contours) για τις 2 κατανοµές. Προσδιορίστε και σχεδιάστε την κατεύθυνση προβολής για τη γραµµική διαχωριστική Fisher, η οποία διαχωρίζει τις 2 κατανοµές βέλτιστα σε 1 διάσταση.

2. Maximum Likelihood estimation (20 points) Έστω ένα µονοδιάστατο πρόβληµα ταξινόµησης δύο κλάσεων µε άνισες εκ των προτέρων πιθανότητες p(c 1 )=0.7 και p(c 2 )=0.3, όπου οι υπό συνθήκη πιθανότητες για τα δεδοµένα κάθε κλάσης έχουν τη µορφή «µισής» κανονικής (Γκαουσιανής) κατανοµής µε κέντρο στο 0, δηλαδή: p( x Ci ) = e x θ i 2 2 /2σi 0, x<0, x 0 (i) (3 points) Προσδιορίστε τις σταθερές κανονικοποίησης θ i ως συνάρτηση των σ i. (ii) (7 points) Υποθέστε ότι συλλέγονται τα ακόλουθα δεδοµένα: D 1 ={1,4} και D 2 ={2,8} από τις κλάσεις C 1 και C 2 αντίστοιχα, όπου τα δείγµατα είναι ανεξάρτητα. Βρείτε τις εκτιµήσεις µέγιστης πιθανοφάνειας για τα σ 1 και σ 2 (iii) (5 points) Με βάση την απάντηση του (ii), προσδιορίστε το σύνορο απόφασης που αντιστοιχεί στο ελάχιστο σφάλµα λάθος ταξινόµησης. (iv) (5 points) Αναπαραστήστε γραφικά (κατά προσέγγιση) τις εκ των υστέρων πιθανότητες για τις 2 κλάσεις και δείξτε πάνω στη γραφική παράσταση την περιοχή που αντιστοιχεί στο αναµενόµενο σφάλµα του ταξινοµητή του ερωτήµατος (iii). Γράψτε την έκφραση για το σφάλµα αυτό. Μπορείτε να αφήσετε το αποτέλεσµα σε µορφή ολοκληρώµατος.

3. Multilayer Neural Network (10 points) Έστω ένα νευρωνικό δίκτυο δύο στρωµάτων (ένα κρυµµένο στρώµα και ένα στρώµα εξόδου) µε d µονάδες εισόδου και c µονάδες εξόδου, το οποίο είναι πλήρως συνδεδεµένο (fully connected). Υποθέστε ότι το δίκτυο εκπαιδεύεται σύµφωνα µε την ακόλουθη συνάρτηση κριτηρίου: c 1 6 J = ( tk yk ) 6 k= 1 Γράψτε τον κανόνα µάθησης για τα βάρη από το κρυµµένο στρώµα προς τις µονάδες εξόδου, δηλ προδιορίστε τα (2) w kj όταν οι συναρτήσεις ενεργοποίησης του στρώµατος εξόδου είναι (i) γραµµικές και (ii) σιγµοειδείς.

4. Bayesian estimation (15 points) Έστω η ακόλουθη κανονικοποιηµένη ηµικυκλική κατανοµή µε κέντρο µ και ηµιεύρος (half-width) 1, η οποία φαίνεται παρακάτω και ορίζεται ως: 2 1 ( x µ ) 2 x µ p( x µ ) = π 1 0 αλλιώς Θέλουµε να χρησιµοποιήσουµε Μπεϋζιανές µεθόδους για την παραπάνω κατανοµή. Για την εκ των προτέρων πιθανότητα του µ, γνωρίζουµε ότι είναι το ίδιο πιθανό να προέρχεται από οποιαδήποτε από τις τιµές -0.5 και 0.5. Μαθηµατικά, η εκ των προτέρων συνάρτηση πυκνότητας πιθανότητας εκφράζεται: 1 p ( µ ) = [ δ ( µ 0.5) + δ ( µ + 0.5) ] 2 και φαίνεται επίσης στο σχήµα παρακάτω. (i) (8 points) Αναπαραστήστε γραφικά την πυκνότητα πιθανότητας p(x D 0 ) όπου D 0 ={}, δηλαδή πριν τη συλλογή δεδοµένων. (ii) (7 points) Έστω ότι η πρώτη µας παρατήρηση για την τυχαία µεταβλητή x είναι 0.25, άρα D 1 ={0.25}. Ποια θα είναι η µορφή της πυκνότητας πιθανότητας p(x D 1 )? Σηµ: εν είναι αναγκαίο να κανονικοποιήσετε την εν λόγω πιθανότητα. Σχεδιάστε την και συγκρίνετε µε αυτή του ερωτήµατος (i). Τι παρατηρείτε?

5. Support vector machines (15 points) Έστω ένα σύνολο δεδοµένων {x 1,,x N }. Ο αλγόριθµος SVM µιας κλάσης (one-class SVM) προσδιορίζει την κατεύθυνση w του υπερεπιπέδου το οποίο µεγιστοποιεί την απόσταση των διανυσµάτων υποστήριξης από την αρχή των αξόνων. Με άλλα λόγια χωρίζει το χώρο εισόδου σε δύο περιοχές, µια «κοντά» στην αρχή των αξόνων (class label: +1) και µια «µακριά» από αυτή (class label: -1) και ταξινοµεί ένα καινούριο δείγµα x σύµφωνα µε την διαχωριστική συνάρτηση: T f ( x) = sgn( w x 1) όπου η συνάρτηση προσήµου sgn(.) ορίζεται έτσι ώστε sgn(a)=1 αν a 0 και sgn(a)=-1 αν a<0. Ισοδύναµα, ένα νέο σηµείο ταξινοµείται στην κλάση +1 αν T w x> 1 και στην κλάση -1 σε αντίθετη περίπτωση. Το πρόβληµα βελτιστοποίησης που προκύπτει γράφεται: 1 T min w w w 2 T subject to w x n 1 n= 1, 2,..., N (i) (10 points) Γράψτε το αντίστοιχο δυϊκό (dual) πρόβληµα βελτιστοποίησης σε όσο πιο απλή µορφή γίνεται, δηλ. απαλείψτε το w όπως κάναµε και στην περίπτωση του SVM δύο κλάσεων και γράψτε τις αντίστοιχες συνθήκες Kanush-Kuhn-Tucker που προκύπτουν. (ii) (5 points) Μπορούµε να εφαρµόσουµε συναρτήσεις πυρήνα (kernel trick) στη µέθοδο SVM µιας κλάσης τόσο για την εκπαίδευση όσο και για την επικύρωση? Γιατί?

6. Unsupervised Learning (10 points) Έστω ότι εφαρµόζουµε τον αλγόριθµο k-means clustering στα δισδιάστατα δεδοµένα του παρακάτω σχήµατος για Κ=2 κλάσεις. Έστω επίσης ότι οι αρχικές τιµές για τις µέσες τιµές των 2 κλάσεων είναι µ 1 (0) = (0, 0) και µ 2 (0) = (3, 3). (i) (5 points) Ποια θα είναι τα διανύσµατα µέσων τιµών και οι αναθέσεις σε κάθε κλάση µετά την πρώτη επανάληψη του αλγορίθµου? (ii) (5 points) Ποια θα είναι τα τελικά διανύσµατα µέσων τιµών και οι αναθέσεις στις 2 κλάσεις?

7. Σύντοµες ερωτήσεις-απαντήσεις. (20 points) Απαντήστε στις παρακάτω ερωτήσεις, δικαιολογώντας σύντοµα τις απαντήσεις σας. Κάθε ερώτηση αντιστοιχεί σε 4 πόντους. (i) Έστω ένα µονοδιάστατο πρόβληµα ταξινόµησης δύο κλάσεων µε κανονικές κατανοµές p(x C i ) ~ N(µ i, σ 2 ), i = 1, 2, όπου µ 1 =-2, µ 2 =4 και σ 2 =4. Ποιο είναι το βέλτιστο σφάλµα ταξινόµησης που µπορεί να επιτευχθεί? (α) 0% (β) από 0 µέχρι 5 % (iii) περισσότερο από 5 % (iv) δεν µπορούµε να βγάλουµε συµπέρασµα από τις δοθείσες πληροφορίες. (ii) Περιγράψτε πως τα δεδοµένα επικύρωσης και ελέγχου (validation and testing) χρησιµοποιούνται στην εκπαίδευση νευρωνικών δικτύων. Ποιος είναι ο σκοπός της χρήσης δύο διαφορετικών συνόλων δεδοµένων εκτός από τα δεδοµένα εκπαίδευσης? (iii) Πότε είναι η εκτίµηση µεγιστοποίησης της εκ των υστέρων πιθανότητας (maximum a posteriori MAP) ισοδύναµη µε την εκτίµηση µέγιστης πιθανοφάνειας (ML)? (iv) Περιγράψτε πως ορίζονται τα διανύσµατα υποστήριξης στην περίπτωση των διανυσµατικών µηχανών υποστήριξης για παλινδρόµηση. Ποια είναι η αναλογία µε την περίπτωση ταξινόµησης? (v) Έστω ένα δισδιάστατο πρόβληµα επιβλεπόµενης ταξινόµησης δύο κλάσεων. Θέλουµε να µετασχηµατίσουµε το πρόβληµα σε µια διάσταση και χρησιµοποιούµε τόσο τη µέθοδο ανάλυσης σε κύριες συνιστώσες (Principal Component Analysis) όσο και τη µέθοδο της γραµµικής διαχωριστικής Fisher. Πως περιµένετε ότι θα σχετίζονται τα αποτελέσµατα του προβλήµατος ταξινόµησης που προκύπτει σε µια διάσταση για τις δύο µεθόδους?