1η προαιρετική εργαςία για το μάθημα «Αναγνώριςη προτύπων»

Σχετικά έγγραφα
1η εργασία για το μάθημα «Αναγνώριση προτύπων»

Αναγνώριση Προτύπων. Μη παραμετρικές τεχνικές Αριθμητικά. (Non Parametric Techniques)

Μάκθςθ Κατανομϊν Πικανότθτασ και Ομαδοποίθςθ

Ποσοτικές Μέθοδοι Δρ. Χάϊδω Δριτσάκη

Σ ΤΑΤ Ι Σ Τ Ι Κ Η. Statisticum collegium V

Ένα πρόβλθμα γραμμικοφ προγραμματιςμοφ βρίςκεται ςτθν κανονικι μορφι όταν:

ΦΥΕ 14 ΑΚΑΔ. ΕΤΟΣ Η ΕΡΓΑΣΙΑ. Ημερομηνία παράδοςησ: 12 Νοεμβρίου (Όλεσ οι αςκιςεισ βακμολογοφνται ιςοτίμωσ με 10 μονάδεσ θ κάκε μία)

ΚΥΠΡΙΑΚΗ ΕΤΑΙΡΕΙΑ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ 24/3/2007

Στατιςτικά Μοντζλα και ο Κανόνασ του Bayes

Πόςο εκτατό μπορεί να είναι ζνα μη εκτατό νήμα και πόςο φυςικό. μπορεί να είναι ζνα μηχανικό ςτερεό. Συνιςταμζνη δφναμη versus «κατανεμημζνησ» δφναμησ

Ειδικά Θζματα Βάςεων Δεδομζνων

x n D 2 ENCODER m - σε n (m 2 n ) x 1 Παραδείγματα κωδικοποιθτϊν είναι ο κωδικοποιθτισ οκταδικοφ ςε δυαδικό και ο κωδικοποιθτισ BCD ςε δυαδικό.

2 Composition. Invertible Mappings

ΑΝΣΙΣΡΟΦΗ ΤΝΑΡΣΗΗ. f y x y f A αντιςτοιχίηεται ςτο μοναδικό x A για το οποίο. Παρατθριςεισ Ιδιότθτεσ τθσ αντίςτροφθσ ςυνάρτθςθσ 1. Η. f A τθσ f.

ΕΡΓΑΣΗΡΙΟ ΕΦΑΡΜΟΜΕΝΗ ΠΛΗΡΟΦΟΡΙΚΗ

Η άςκθςθ αποτελεί τροποποιθμζνθ εκδοχι του κζματοσ φυςικισ, τθσ Ευρωπαϊκισ Ολυμπιάδασ Φυςικών Επιςτθμών 2009_επιμζλεια κζματοσ: Κώςτασ Παπαμιχάλθσ

Other Test Constructions: Likelihood Ratio & Bayes Tests

Probability and Random Processes (Part II)

Solution Series 9. i=1 x i and i=1 x i.

Διαχείριςθ του φακζλου "public_html" ςτο ΠΣΔ

TMA4115 Matematikk 3

17. Πολυδιάςτατοι πίνακεσ

Γεωργικός Πειραματισμός ΙΙ ΑΥΞΗΜΕΝΑ ΣΧΕΔΙΑ

Λαμβάνοντασ υπόψη ότι κατά την πρόςθεςη δφο δυαδικϊν ψηφίων ιςχφει: Κρατοφμενο

ΛΕΙΤΟΥΓΙΚΆ ΣΥΣΤΉΜΑΤΑ. 5 ο Εργαςτιριο Ειςαγωγι ςτθ Γραμμι Εντολϊν

Ανάπτυξη Εφαρμογών Σε Προγραμματιςτικό Περιβάλλον

Μηχανική Μάθηση Hypothesis Testing

Στατιςτικζσ δοκιμζσ. Συνεχι δεδομζνα. Γεωργία Σαλαντι

Numerical Analysis FMN011

Estimation for ARMA Processes with Stable Noise. Matt Calder & Richard A. Davis Colorado State University

Δομζσ Δεδομζνων Πίνακεσ

Ενδεικτικζσ Λφςεισ Θεμάτων

Τυπικζσ Γλϊςςεσ Περιγραφισ Υλικοφ Διάλεξθ 4

Statistics 104: Quantitative Methods for Economics Formula and Theorem Review

Προχωρθμζνα Θζματα Συςτθμάτων Ελζγχου

ςυςτιματα γραμμικϊν εξιςϊςεων

ΑΚΗΕΙ ΠΡΟΒΛΕΨΕΩΝ ΠΡΟΒΛΕΨΕΙ

SCHOOL OF MATHEMATICAL SCIENCES G11LMA Linear Mathematics Examination Solutions

ΚΥΠΡΙΑΚΗ ΕΤΑΙΡΕΙΑ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ 6/5/2006

Στα προθγοφμενα δφο εργαςτιρια είδαμε τθ δομι απόφαςθσ (ι επιλογισ ι ελζγχου ροισ). Ασ κυμθκοφμε:

8 τριγωνομετρία. βαςικζσ ζννοιεσ. γ ςφω. εφω και γ. κεφάλαιο

Εργαςτιριο Βάςεων Δεδομζνων

Bayes Rule and its Applications

review1= a great movie - positive, review2= excellent film - positive review3= worst film ever - negative, review4= a bad movie - negative

GNSS Solutions guide. 1. Create new Project

ΡΟΓΑΜΜΑΤΙΣΤΙΚΟ ΡΕΙΒΑΛΛΟΝ MICRO WORLDS PRO

ΘΥ101: Ειςαγωγι ςτθν Πλθροφορικι

ΕΦΑΡΜΟΓΖσ ΒΆΕΩΝ ΔΕΔΟΜΖΝΩΝ ΚΑΙ ΔΙΑΔΙΚΣΥΟΤ. Ειρινθ Φιλιοποφλου

ΑΣΚΗΣΕΙΣ ΕΠΑΝΑΛΗΨΗΣ ΑΠΟ ΘΕΜΑΤΑ ΤΕΛΙΚΩΝ ΕΞΕΤΑΣΕΩΝ

Διαδικαςία Διαχείριςθσ Στθλϊν Βιβλίου Εςόδων - Εξόδων. (v.1.0.7)

Πολυπλέκτες. 0 x 0 F = S x 0 + Sx 1 1 x 1

HY437 Αλγόριθμοι CAD

Reminders: linear functions

k A = [k, k]( )[a 1, a 2 ] = [ka 1,ka 2 ] 4For the division of two intervals of confidence in R +

= λ 1 1 e. = λ 1 =12. has the properties e 1. e 3,V(Y

ΜΑΘΗΜΑΣΙΚΑ Γ ΓΕΝΙΚΗ ( ΑΠΟ ΘΕΜΑΣΑ ΛΤΚΕΙΩΝ ) ΕΡΩΣΗΕΙ ΩΣΟΤ ΛΑΘΟΤ ΑΝΑΛΤΗ

1. Ηλεκτρικό μαύρο κουτί: Αισθητήρας μετατόπισης με βάση τη χωρητικότητα

Homework 8 Model Solution Section

Θεςιακά ςυςτιματα αρίκμθςθσ

Επαναληπτικό Διαγώνισμα Φυσικη ς Α Λυκει όυ Ε.Ο.Κ. και Ε.Ο.Μ.Κ.

ΗΜΟΚΡΙΤΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΡΑΚΗΣ. Αναγνώριση Προτύπων. Ομαδοποίηση δεδομένων ΑΣΚΗΣΕΙΣ (K-means and ISODATA Clustering) Χριστόδουλος Χαμζάς

Βάςεισ Δεδομζνων Ι. Ενότητα 12: Κανονικοποίηςη. Δρ. Τςιμπίρθσ Αλκιβιάδθσ Τμιμα Μθχανικών Πλθροφορικισ ΤΕ

(C) 2010 Pearson Education, Inc. All rights reserved.

Ζρευνα ικανοποίθςθσ τουριςτϊν

ΚΥΠΡΙΑΚΗ ΕΤΑΙΡΕΙΑ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ 19/5/2007

Bayesian statistics. DS GA 1002 Probability and Statistics for Data Science.

Επαναληπτικό Διαγώνισμα Φυσικη ς Α Λυκει όυ

Δομζσ Δεδομζνων. Αναηιτθςθ και Ταξινόμθςθ Διάλεξθ 3

ANSWERSHEET (TOPIC = DIFFERENTIAL CALCULUS) COLLECTION #2. h 0 h h 0 h h 0 ( ) g k = g 0 + g 1 + g g 2009 =?

Ανάπτυξη Εφαρμογών με Σχεςιακέσ Βάςεισ Δεδομένων

The challenges of non-stable predicates

ΠΑΝΕΠΙΣΤΗΜΙΟΥ ΠΕΛΟΠΟΝΝΗΣΟΥ ΤΜΗΜΑ ΕΠΙΣΤΗΜΗΣ ΚΑΙ ΤΕΧΝΟΛΟΓΙΑΣ ΤΗΛΕΠΙΚΟΙΝΩΝΙΩΝ

Διαγώνισμα Φυσική ς Κατευ θυνσής Γ Λυκει ου - Ταλαντώσεις

Διάδοση θερμότητας σε μία διάσταση

Matrices and Determinants

Congruence Classes of Invertible Matrices of Order 3 over F 2

Ιςοηυγιςμζνα δζντρα και Β- δζντρα. Δομζσ Δεδομζνων

Διαγώνισμα Φυσική ς Α Λυκει ου Έργο και Ενε ργεια

Διδάςκων: Κωνςταντίνοσ τεφανίδθσ

Approximation of distance between locations on earth given by latitude and longitude

ΔΙΑΓΩΝΙΣΜΑ ΒΙΟΛΟΓΙΑΣ Β ΛΥΚΕΙΟΥ ΓΕΝΙΚΗΣ ΠΑΙΔΕΙΑΣ

Tutorial on Multinomial Logistic Regression

ΜΑΘΗΜΑΤΙΚΑ Α Γυμνασίου

Math221: HW# 1 solutions

Lecture 2: Dirac notation and a review of linear algebra Read Sakurai chapter 1, Baym chatper 3

3.4 SUM AND DIFFERENCE FORMULAS. NOTE: cos(α+β) cos α + cos β cos(α-β) cos α -cos β

Γεωργικός Πειραματισμός ΙΙ

HMY 795: Αναγνώριση Προτύπων. Διάλεξη 2

Προσομοίωση BP με το Bizagi Modeler

Οδηγίεσ προσ τουσ εκπαιδευτικοφσ για το μοντζλο του Άβακα

7η Εργαστηριακή Άσκηση: Προβολή εικόνας στη φόρμα με εκτέλεση ερωτήματος.

Αναφορά Εργαςίασ Nim Game

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

Α) Ενδεικτικϋσ απαντόςεισ των θεμϊτων

ΣΑ ΔΑΘ ΣΘΝ ΕΛΛΑΔΑ. Θ παραγωγι δαςικϊν προϊόντων. H εκτίμθςθ των ποςοτιτων

Instruction Execution Times

EPL 603 TOPICS IN SOFTWARE ENGINEERING. Lab 5: Component Adaptation Environment (COPE)

ΕΙΣΑΓΩΓΗ ΣΤΗ ΣΤΑΤΙΣΤΙΚΗ ΑΝΑΛΥΣΗ

ΚΥΚΛΩΜΑΤΑ VLSI. Ασκήσεις Ι. Γ. Τσιατούχας. Πανεπιςτιμιο Ιωαννίνων. Τμιμα Μθχανικϊν Η/Υ και Πλθροφορικισ 8/11/18

α) Στο μιγαδικό επίπεδο οι εικόνεσ δφο ςυηυγϊν μιγαδικϊν είναι ςθμεία ςυμμετρικά ωσ προσ τον πραγματικό άξονα

Transcript:

1η προαιρετική εργαςία για το μάθημα «Αναγνώριςη προτύπων» Σημειώςεισ: 1. Η παροφςα εργαςία είναι θ πρϊτθ από 2 ςυνολικά εργαςίεσ, οι οποίεσ είναι προαιρετικζσ και κα βακμολογθκοφν (και οι δφο) με μία μονάδα επιπλζον του 10. 2. Οι απαντιςεισ να όςο το δυνατόν ςυντομότερεσ. 1 η άςκηςη: Να παράγετε διςδιάςτατα ςθμεία από μία κανονικι κατανομι, με μζςθ τιμι και μιτρα ςυνδιαςποράσ, για τισ παρακάτω περιπτϊςεισ (α) (β) (γ) (δ) (ε) (ςτ) (η) (θ) Απεικονίςτε γραφικά το παραπάνω ςφνολο και ςχολιάςτε τα ςχιματα των ομάδων που προκφπτουν. Υπόδειξη: Για τθν παραγωγι του πρϊτου ςυνόλου δεδομζνων χρθςιμοποιοφμε τισ παρακάτω εντολζσ: randn( seed,0) Initialization of the randn function m=[0 0] ; S=[1 0; 0 1]; N=500; X=mvnrnd(m,S,N) ; όπου X είναι το μθτρϊο που περιζχει τα διανφςματα ςτισ ςτιλεσ του. Για τθ γραφικι απεικόνιςθ των δεδομζνων του πρϊτου ςυνόλου χρθςιμοποιοφμε τισ παρακάτω εντολζσ: figure(1), plot(x(1,:), X(2,:),. ); figure(1), axis equal figure(1), axis([-7 7-7 7]) Για τα υπόλοιπα ςφνολα εργαηόμαςτε με παρόμοιο τρόπο.

2 η άςκηςη: Θεωρείςτε ζνα πρόβλθμα δφο ιςοπίκανων κλάςεων ςτο μονοδιάςτατο χϊρο, οι οποίεσ προκφπτουν από τισ κανονικζσ κατανομζσ 1 και, αντίςτοιχα, όπου, και. (α) Ταξινομιςτε το ςθμείο ςε μία από τισ δφο κλάςεισ, με βάςθ τον κανόνα του Bayes (κάνετε τισ πράξεισ ςτο χαρτί). (β) Να παράγετε ζνα ςφνολο με ςθμεία, από τα οποία τα μιςά κα προζρχονται από τθν πρϊτθ κλάςθ και τα υπόλοιπα από τθ δεφτερθ. Στθ ςυνζχεια ταξινομιςτε κακζνα από τα ςτοιχεία αυτά ςτισ δφο κλάςεισ χρθςιμοποιϊντασ τον ταξινομθτι Bayes. Προτείνετε ζναν απλό τρόπο εκτίμθςθσ τθσ πικανότθτασ λάκουσ,, με βάςθ τα αποτελζςματα τθσ ταξινόμθςθσ των ςθμείων του, και εφαρμόςτε τον προκειμζνου να υπολογίςετε τθν εκτίμθςθ τθσ (χριςθ MATLAB). (γ) Επαναλάβετε το (β) για και για. (δ) Προςδιορίςτε κεωρθτικά τθν πικανότθτα λάκουσ του ταξινομθτι Bayes για τισ δφο κλάςεισ. (ε) Σχολιάςτε τα αποτελζςματα που προζκυψαν από τα (β), (γ), (δ) και εξάγετε ςυμπεράςματα. Υπόδειξη: Χρθςιμοποιιςτε τον παρακάτω κϊδικα MATLAB για το βιμα (β) (αλλάηοντασ τθν τιμι του, ο κϊδικασ μπορεί να χρθςιμοποιθκεί και για τα (γ), (δ)). randn('seed',0) Initialization of the random number generator for normal distr. P1=0.2; a priori class probabilities P2=0.5; m1=1; m2=4; s=1; N=100; mean of normal distributions variance of the normal distributions Total number of points (Give only even numbers) The vector containing the set of points (1st half from 1st class) Y=[randn(1,N/2)+m1 randn(1,n/2)+m2]; The vector containing the true class labels for the points (if t(i)=1(2), the i-th point comes from class 1(2)) t=[ones(1, N/2) 2*ones(1, N/2)]; output=[]; Vector containing the class labels of Computation of the pdfs for both classes on the specific data points p1=(1/(sqrt(2*pi)*s))*exp(-(y(i)-m1)^2/(2*s)); p2=(1/(sqrt(2*pi)*s))*exp(-(y(i)-m2)^2/(2*s)); 1 Προςοχι: Το εδϊ ςυμβολίηει τθ διαςπορά

Application of the Bayes rule output=[output 1]; output=[output 2]; Check for the points that are not classified correctly. bayes_res=(t~=output) if bayes_res(i)=1 then the i-th point is correctly classified 3 η άςκηςη: Θεωρείςτε ζνα πρόβλθμα δφο ιςοπίκανων κλάςεων ςτον τριςδιάςτατο χϊρο, όπου οι δφο κλάςεισ μοντελοποιοφνται από κανονικζσ κατανομζσ με μζςεσ τιμζσ και, αντίςτοιχα. Η μιτρα ςυνδιαςποράσ για τισ δφο κατανομζσ είναι (α) Παράγετε διανφςματα (τα μιςά από τθν πρϊτθ και τα υπόλοιπα από τθ δεφτερθ κατανομι) και ταξινομιςτε τα χρθςιμοποιϊντασ (i) τον ταξινομθτι ελάχιςτθσ Ευκλείδειασ απόςταςθσ και (ii) τον ταξινομθτι ελάχιςτθσ Mahalanobis απόςταςθσ. Εκτιμιςτε τθν πικανότθτα λάκουσ ςε κάκε περίπτωςθ. (β) Επαναλάβετε το (α) για και. (γ) Σχολιάςτε τα αποτελζςματα που προζκυψαν από τα (α) και (β). (δ) Ποια κα ιταν θ απόδοςθ του ταξινομθτι Bayes ςε κάκε μία από τισ παραπάνω περιπτϊςεισ; Υπόδειξη: Χρθςιμοποιιςτε για το (α) τον ακόλουκο κϊδικα randn('seed',0) initialization of the random number generator m1=[0 0 0]'; mean vectors m2=[0.5 0.5 0.5]'; m=[m1 m2]; S=[0.8 0.01 0.01; 0.01 0.2 0.01; 0.01 0.01 0.2]; Covariance matrix N=10000; Number of data vectors (only even numbers) Generation of the data set Y=[mvnrnd(m1',S,N/2); mvnrnd(m2',s,n/2)]'; Y is an 3xN matrix Class labels (if (t(i)=1(2), the i-th vector is from class 1(2)) t=[ones(1,n/2) 2*ones(1,N/2)]; Application of the Euclidean classifier out_eucl=euclidean_classifier(m,y);

Application of the Mahalanobis classifier out_maha=mahalanobis_classifier(m,s,y); function [z]=euclidean_classifier(m,x) FUNCTION [z]=euclidean_classifier(m,x) This function classifies a set of data vectors in one out of c possible classes, according to the Euclidean classifier. INPUT ARGUMENTS: m: an lxc dimensional matrix, whose i-th column corresponds to the mean of the i-th class. X: an lxn dimensional matrix whose columns are the data vectors to be classified. OUTPUT ARGUMENTS z: an N-dimensional vector whose i-th component contains the label of the class where the i-th data vector has been assigned. (c) 2008 A. Pikrakis, S. Theodoridis, K. Koutroumbas, D. Cavouras [l,c]=size(m); [l,n]=size(x); for j=1:c de(j)=sqrt((x(:,i)-m(:,j))'*(x(:,i)-m(:,j))); [num,z(i)]=min(de); function z=mahalanobis_classifier(m,s,x) FUNCTION [z]=mahalanobis_classifier(m,s,x) This function classifies a set of data vectors in one out of c possible classes, according to the Mahalanobis classifier. INPUT ARGUMENTS: m: an lxc dimensional matrix, whose i-th column corresponds to the mean of the i-th class S: an lxl dimensional matrix which corresponds to the matrix

involved in the Mahalanobis distance (when the classes have the same covariance matrix, S equals to this common covariance matrix). X: an lxn dimensional matrix, whose columns are the data vectors to be classified. OUTPUT ARGUMENTS z: an N-dimensional vector whose i-th component contains the label of the class where the i-th data vector has been assigned. (c) 2008 A. Pikrakis, S. Theodoridis, K. Koutroumbas, D. Cavouras [l,c]=size(m); [l,n]=size(x); for j=1:c dm(j)=sqrt((x(:,i)-m(:,j))'*inv(s)*(x(:,i)-m(:,j))); [num,z(i)]=min(dm); 4 η άςκηςη: Θεωρείςτε ζνα πρόβλθμα δφο κλάςεων ςτο μονοδιάςτατο χϊρο, όπου οι δφο κλάςεισ μοντελοποιοφνται από κανονικζσ κατανομζσ και, αντίςτοιχα, όπου, και. (α) Να παράγετε ςθμεία από τθν πρϊτθ κατανομι και ςθμεία από τθ δεφτερθ κατανομι και ζςτω και τα αντίςτοιχα ςφνολα δεδομζνων για κάκε κλάςθ. (β) Να παράγετε ζνα ςφνολο με ςθμεία, από τα οποία τα πρϊτα κα προζρχονται από τθν πρϊτθ κατανομι ενϊ τα υπόλοιπα από τθ δεφτερθ. (γ) Ασ προςποιθκοφμε τϊρα ότι για το πρόβλθμά μασ γνωρίηουμε τα ακόλουκα: (i) τα ςφνολα δεδομζνων και για τισ δφο κλάςεισ και (ii) το γεγονόσ ότι οι δφο κλάςεισ μοντελοποιοφνται από κανονικζσ κατανομζσ γνωςτισ (κοινισ) διαςποράσ και άγνωςτων μζςων τιμϊν. Εκτιμιςτε τισ μζςεσ τιμζσ των κατανομϊν των δφο κλάςεων με τθ μζκοδο τθσ μζγιςτθσ πικανοφάνειασ (ML). (δ) Αφοφ εκτιμιςετε τισ a priori πικανότθτεσ των δφο κλάςεων εφαρμόςτε τον ταξινομθτι Bayes προκειμζνου να ταξινομιςετε τα ςτοιχεία του ςυνόλου χρθςιμοποιϊντασ (i) τισ πραγματικζσ τιμζσ των μζςων τιμϊν των κατανομϊν και (ii) τισ εκτιμθκείςεσ τιμζσ αυτϊν. Εκτιμιςτε τθν πικανότθτα λάκουσ ςτισ δφο περιπτϊςεισ.

(ε) Επαναλάβετε το (α) για και ςθμεία και ςτθ ςυνζχεια επαναλάβετε τα (γ) και (δ). (ςτ) Σχολιάςτε τα αποτελζςματα. (η) Με βάςθ τα δεδομζνα του (γ) κα είχε νόθμα θ χριςθ τθσ μεκόδου τθσ μεγίςτθσ εκ των υςτζρων πικανότθτασ (MAP) για τθν εκτίμθςθ των μζςων τιμϊν των κατανομϊν; Υπόδειξη: Χρθςιμοποιιςτε τον παρακάτω κϊδικα για τθ διεξαγωγι των πειραμάτων randn('seed',0) Initialization of the random number generator for normal m1=1; The parameters of the distributions m2=3; s=1; Genereation of X1 N1=15; X1=randn(1,N1)+m1; Generation of X2 N2=15; X2=randn(1,N2)+m2; Generation of Y randn('seed',100) Initialization that guarantees that the same set Y will be produced. N=1000; Y=[randn(1,N/2)+m1 randn(1,n/2)+m2]; t=[ones(1,n/2) 2*ones(1,N/2)]; Maximum likelihood estimates of the means m1_ml=sum(x1)/n1; m2_ml=sum(x2)/n2; Estimation of the a priori probabilities P1=N1/(N1+N2); P2=N2/(N1+N2); Bayes rule for the case where the true means are used output=[]; p1=(1/(sqrt(2*pi)*s))*exp(-(y(i)-m1)^2/(2*s)); p2=(1/(sqrt(2*pi)*s))*exp(-(y(i)-m2)^2/(2*s)); Application of the Bayes rule output=[output 1]; output=[output 2]; bayes_res=(t~=output); if bayes_res(i)=1 then the i-th point is correctly classified

Bayes rule for the case where the estimated means are used output_ml=[]; p1=(1/(sqrt(2*pi)*s))*exp(-(y(i)-m1_ml)^2/(2*s)); p2=(1/(sqrt(2*pi)*s))*exp(-(y(i)-m2_ml)^2/(2*s)); Application of the Bayes rule output_ml=[output_ml 1]; output_ml=[output_ml 2]; bayes_res_ml=(t~=output_ml); if bayes_res_ml(i)=1 then the i-th point is correctly classified 5 η άςκηςη: Θεωρείςτε ζνα πρόβλθμα δφο κλάςεων ςτο μονοδιάςτατο χϊρο, όπου οι δφο κλάςεισ μοντελοποιοφνται από κανονικζσ κατανομζσ και, αντίςτοιχα, όπου, και. (α) Να παράγετε ςθμεία από τθν πρϊτθ κατανομι και ςθμεία από τθ δεφτερθ κατανομι και ζςτω και τα αντίςτοιχα ςφνολα δεδομζνων για κάκε κλάςθ. (β) Να παράγετε ζνα ςφνολο με ςθμεία, από τα οποία τα πρϊτα κα προζρχονται από τθν πρϊτθ κατανομι ενϊ τα υπόλοιπα από τθ δεφτερθ. (γ) Ασ προςποιθκοφμε τϊρα ότι για το πρόβλθμά μασ γνωρίηουμε μόνο τα ςφνολα δεδομζνων και για τισ δφο κλάςεισ. Εκτιμιςτε τισ a priori πυκνότθτεσ πικανότθτασ των δφο κλάςεων και, ςτθ ςυνζχεια, εφαρμόςτε τον ταξινομθτι Bayes προκειμζνου να ταξινομιςετε τα ςτοιχεία του ςυνόλου. Για τθν εκτίμθςθ τθσ πυκνότθτασ πικανότθτασ τθσ κλάςθσ 1 ςε ζνα ςθμείο του χρθςιμοποιιςτε παράκυρα Parzen (με και ςυνάρτθςθ βάςθσ ( ) τθν, θ οποία ιςοφται με για όλα τα ςθμεία που βρίςκονται ςτο διάςτθμα μεγζκουσ ςφνολο. Ομοίωσ και για τθν κλάςθ. που είναι κεντραριςμζνο ςτο ) και το (δ) Χρθςιμοποιιςτε τον ταξινομθτι Bayes τθν ταξινόμθςθ των ςτοιχείων του, χρθςιμοποιϊντασ τισ πραγματικζσ τιμζσ των κατανομϊν και ςυγκρίνετε τα αποτελζςματα. (ε) Επαναλάβετε για και. Εξάγετε τα ςυμπεράςματά ςασ. Υπόδειξη: Χρθςιμοποιιςτε τον παρακάτω κϊδικα randn('seed',0) Initialization of the random number generator for normal

m1=1; The parameters of the distributions m2=3; s=1; Genereation of X1 N1=500; X1=randn(1,N1)+m1; Generation of X2 N2=500; X2=randn(1,N2)+m2; Generation of Y randn('seed',100) Initialization that guarantees that the same set Y will be produced. N=1000; Y=[randn(1,N/2)+m1 randn(1,n/2)+m2]; t=[ones(1,n/2) 2*ones(1,N/2)]; Estimation of the a priori probabilities P1=N1/(N1+N2); P2=N2/(N1+N2); Bayes rule for the case where the true means are used output=[]; p1=(1/(sqrt(2*pi)*s))*exp(-(y(i)-m1)^2/(2*s)); p2=(1/(sqrt(2*pi)*s))*exp(-(y(i)-m2)^2/(2*s)); Application of the Bayes rule output=[output 1]; output=[output 2]; bayes_res=(t~=output); if bayes_res(i)=1 then the i-th point is correctly classified Bayes rule for the case where Parzen estimations are used h=0.2; output_parzen=[]; p1=sum(abs((x1-y(i))/h)<=1/2)/(n*h); This is the 1-D implementation of Parzen p2=sum(abs((x2-y(i))/h)<=1/2)/(n*h); Application of the Bayes rule output_parzen=[output_parzen 1]; output_parzen=[output_parzen 2]; bayes_res_parzen=(t~=output_parzen); if bayes_res_ml(i)=1 then the i-th point is correctly classified