Αναγνώριση Προτύπων. Μη παραμετρικές τεχνικές Αριθμητικά. (Non Parametric Techniques)

Σχετικά έγγραφα
Αναγνώριση Προτύπων. Baysian Θεωρία Αποφάσεων ΕΠΙΣΚΟΠΗΣΗ-ΑΣΚΗΣΕΙΣ

1η εργασία για το μάθημα «Αναγνώριση προτύπων»

Θεωρία Αποφάσεων ο. 4 Φροντιστήριο. Λύσεις των Ασκήσεων

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

HMY 795: Αναγνώριση Προτύπων

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή

HMY 795: Αναγνώριση Προτύπων

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

HMY 795: Αναγνώριση Προτύπων

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΔΙΑΧΕΙΡΙΣΗ ΠΕΡΙΕΧΟΜΕΝΟΥ ΠΑΓΚΟΣΜΙΟΥ ΙΣΤΟΥ ΚΑΙ ΓΛΩΣΣΙΚΑ ΕΡΓΑΛΕΙΑ. Data Mining - Classification

ΔΙΑΧΩΡΙΣΜΟΣ ΚΑΙ ΤΑΞΙΝΟΜΗΣΗ ΚΡΗΤΙΚΟΥ ΚΑΤΕΡΙΝΑ NΙΚΑΚΗ ΚΑΤΕΡΙΝΑ NΙΚΟΛΑΪΔΟΥ ΧΡΥΣΑ

Ακαδημαϊκό Έτος , Χειμερινό Εξάμηνο Διδάσκων Καθ.: Νίκος Τσαπατσούλης

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Αναγνώριση Προτύπων Ι

Τεχνικές Μείωσης Διαστάσεων. Ειδικά θέματα ψηφιακής επεξεργασίας σήματος και εικόνας Σ. Φωτόπουλος- Α. Μακεδόνας

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

1η προαιρετική εργαςία για το μάθημα «Αναγνώριςη προτύπων»

HMY 795: Αναγνώριση Προτύπων

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Ζητήματα ηήμ με τα δεδομένα

HMY 795: Αναγνώριση Προτύπων

Στατιστική Συμπερασματολογία

HMY 429: Εισαγωγή στην Επεξεργασία Ψηφιακών. Χρόνου (Ι)

ΗΜΕΡΟΜΗΝΙΑ: 25/05/2009 TΕΛΙΚΗ ΕΡΓΑΣΙΑ ΝΙΚΗ ΜΟΣΧΟΥ

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΘΕΩΡΙΑ ΑΠΟΦΑΣΕΩΝ 3 ο ΦΡΟΝΤΙΣΤΗΡΙΟ ΛΥΣΕΙΣ ΤΩΝ ΑΣΚΗΣΕΩΝ

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

HMY 795: Αναγνώριση Προτύπων

Αναγνώριση Προτύπων Εργασία 1η Classification

HMY 795: Αναγνώριση Προτύπων

ΜΑΣ 473/673: Μέθοδοι Πεπερασμένων Στοιχείων

Αναγνώριση Προτύπων Ι

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΔΕ. 11 ΙΟΥΝΙΟΥ 2012

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

Τμήμα Διοίκησης Επιχειρήσεων (Γρεβενά) Μάθημα: Στατιστική II Διάλεξη 1 η : Εισαγωγή-Επανάληψη βασικών εννοιών Εβδομάδα 1 η : ,

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Κεφάλαιο 4: Μη Παραμετρικές Τεχνικές 4.1 Εισαγωγή

Αναγνώριση Προτύπων (Pattern Recognition) Μη Παραµετρικές Τεχνικές (Nonparametric Techniques) Π. Τσακαλίδης

Γραµµικοί Ταξινοµητές

Κεφάλαιο 10 Εισαγωγή στην Εκτίμηση

ΠΕΡΙΓΡΑΦΙΚΗ και ΕΠΑΓΩΓΙΚΗ ΣΤΑΤΙΣΤΙΚΗ

ΣΤΑΤΙΣΤΙΚΗ ΕΠΙΧΕΙΡΗΣΕΩΝ ΕΙΔΙΚΑ ΘΕΜΑΤΑ. Κεφάλαιο 10. Εισαγωγή στην εκτιμητική

HMY 799 1: Αναγνώριση Συστημάτων

Επιλογή χαρακτηριστικών

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Ανάκτηση Πληροφορίας

3. Κατανομές πιθανότητας

Π Ο Λ Ι Τ Ι Κ Α Κ Α Ι Σ Τ Ρ Α Τ Ι Ω Τ Ι Κ Α Γ Ε Γ Ο Ν Ο Τ Α

HMY 795: Αναγνώριση Προτύπων

Σύστημα επεξεργασίας, ανάλυσης και ταξινόμησης εικόνων δισδιάστατης ηλεκτροφόρησης με τεχνικές αναγνώρισης προτύπων

Μάθηση Λανθανόντων Μοντέλων με Μερικώς Επισημειωμένα Δεδομένα (Learning Aspect Models with Partially Labeled Data) Αναστασία Κριθαρά.

Αναγνώριση Προτύπων (Pattern Recognition) Μπεϋζιανή Θεωρία Αποφάσεων (Bayesian Decision Theory) Π. Τσακαλίδης

Νευρωνικά Δίκτυα στο Matlab

ΑΠΑΝΤΗΣΕΙΣ ΙΟΥΛΙΟΥ Β. α. ΛΑΘΟΣ, β. ΣΩΣΤΟ, γ. ΣΩΣΤΟ, δ. ΛΑΘΟΣ, ε. ΣΩΣΤΟ, στ. ΣΩΣΤΟ. α = 1 δ. im( f (x) x ) = im - 2βx x = - 4β 8 = 4α - 32β =

ΕΦΑΡΜΟΣΜΕΝΗ ΣΤΑΤΙΣΤΙΚΗ Ι Συμπληρωματικές Σημειώσεις Δημήτριος Παντελής

Numerical Analysis FMN011

Στατιστική Ι-Θεωρητικές Κατανομές Ι

ΣΤΟΧΑΣΤΙΚΑ ΣΥΣΤΗΜΑΤΑ & ΕΠΙΚΟΙΝΩΝΙΕΣ 1o Τμήμα (Α - Κ): Αμφιθέατρο 4, Νέα Κτίρια ΣΗΜΜΥ Θεωρία Πιθανοτήτων & Στοχαστικές Ανελίξεις - 2

Αναγνώριση Προτύπων. Εκτίμηση Παραμέτρων (Parameter Estimation)

HMY 795: Αναγνώριση Προτύπων

Στατιστική. Εκτιμητική

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Project 1: Principle Component Analysis

ΤΕΙ ΣΕΡΡΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΩΝ ΕΞΕΤΑΣΗ ΣΤΟ ΜΑΘΗΜΑ «ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ» ΠΑ. 7 ΣΕΠΤΕΜΒΡΙΟΥ 2012

Διδάσκουσα: Χάλκου Χαρά,

Πανεπιστήμιο Ιωαννίνων Ακαδ. Έτος Τμήμα Μηχανικών Η/Υ & Πληροφορικής. Παρασκευάς Τσανταρλιώτης Α.Μ. 318

Μελέτη Αλγορίθμων Κατηγοριοποίησης με Χρήση του MATLAB

27-Ιαν-2009 ΗΜΥ (ι) Βασική στατιστική (ιι) Μετατροπές: αναλογικό-σεψηφιακό και ψηφιακό-σε-αναλογικό

HMY 795: Αναγνώριση Προτύπων

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Partial Differential Equations in Biology The boundary element method. March 26, 2013

ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ Αίθουσα Νέα Κτίρια ΣΗΜΜΥ Ε.Μ.Π. Ανάλυση Κυρίων Συνιστωσών (Principal-Component Analysis, PCA)

Συστήματα Αναμονής (Queuing Systems)

Γ ε ν ι κ έ ς εξ ε τ ά σ ε ι ς Μαθηματικά και Στοιχεία Στατιστικής Γ λυκείου γ ε ν ι κ ή ς π α ι δ ε ί α ς

Συμπίεση Πληροφορίας Πλαισίου με Ανάλυση Κύριων Συνιστωσών

Θεωρία Λήψης Αποφάσεων

Statistics 104: Quantitative Methods for Economics Formula and Theorem Review

ΕΡΓΑΣΤΗΡΙΟ 6 ο : Ταξινομήσεις εικόνων μη επιβλεπόμενη ταξινόμηση

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #12: Εισαγωγή στα Nευρωνικά Δίκτυα. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

Μαντζούνη, Πιπερίγκου, Χατζή. ΒΙΟΣΤΑΤΙΣΤΙΚΗ Εργαστήριο 3ο 2 + +

Μενύχτα, Πιπερίγκου, Σαββάτης. ΒΙΟΣΤΑΤΙΣΤΙΚΗ Εργαστήριο 3ο 2 + +

Σ ΤΑΤ Ι Σ Τ Ι Κ Η. Statisticum collegium iv

Μεταπτυχιακό Πρόγραμμα «Γεωχωρικές Τεχνολογίες» Ψηφιακή Επεξεργασία Εικόνας. Εισηγητής Αναστάσιος Κεσίδης

Biostatistics for Health Sciences Review Sheet

c(x 1 + x 2 + x 3 ) εάν 0 x 1, x 2, x 3 k (x 1, x 2, x 3 ) =

Ομαδοποίηση ΙΙ (Clustering)

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

Αναγνώριση Προτύπων Ι

HY213. ΑΡΙΘΜΗΤΙΚΗ ΑΝΑΛΥΣΗ ΕΛΑΧΙΣΤΑ ΤΕΤΡΑΓΩΝΑ AΝΑΛΥΣΗ ΙΔΙΑΖΟΥΣΩΝ ΤΙΜΩΝ

Κεφάλαιο 2: Θεωρία Απόφασης του Bayes 2.1 Εισαγωγή

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. Κατηγοριοποίηση. Αριστείδης Γ. Βραχάτης, Dipl-Ing, M.Sc, PhD

Διπλωματική Εργασία: «Συγκριτική Μελέτη Μηχανισμών Εκτίμησης Ελλιπούς Πληροφορίας σε Ασύρματα Δίκτυα Αισθητήρων»

Αποθήκες Δεδομένων και Εξόρυξη Δεδομένων

Για να ελέγξουµε αν η κατανοµή µιας µεταβλητής είναι συµβατή µε την κανονική εφαρµόζουµε το test Kolmogorov-Smirnov.

Transcript:

Αναγνώριση Προτύπων Μη παραμετρικές τεχνικές Αριθμητικά Παραδείγματα (Non Parametric Techniques) Καθηγητής Χριστόδουλος Χαμζάς Τα περιεχόμενο της παρουσίασης βασίζεται στο βιβλίο: Introduction to Pattern Recognition A Matlab Approach, S. Theodoridis, A. Pikrakis, K. Koutroubas, D. Caboyras, Academic Press, 010 Τμήμα Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών 1/3

ΠΑΡΑΘΥΡΑ PARZEN Για να υπολογίσουμε την pdf pn(x) στο σημείο x προσθέτουμε το x για όλα τα N σημεία x n και το κανονικοποιούμε διαιρώντας με το NV N δηλαδή p N x) h n x n N 1 NVN i1 x x h ( i φ(.) )είναι η συνάρτηση kernel και συνήθως είναι η πολυδιάστατη κανονική με V N = (h N ) d, δηλαδή, N T 1 1 ( x x i ) ( x x p x N ( ) exp d N i1 d h N ( ) h ( i N N ) Τμήμα Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών

Παράθυρα Parzen Τμήμα Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών 3

Parzen Παράθυρα Example 1.7.1. Generate N = 1000 data points lying in the real axis, xi ЄR, i = 1,,...,N, from the following pdf, and plot p(x): p ( x ) 1 3 1 exp x 3 1 exp x 1 1 where σ 1 =σ =0 0.. Use the Parzen windows approximation with normal kernel, with h = 0.1, and plot the obtained estimate.

0.7 0.6 0.5 Ν=1000, h=0,1 0.4 0.3 0. 0. 1 0-5 -4-3 - -1 0 1 3 4 5

0. 8 0. 7 0. 6 0. 5 Ν=1000, h=0,01 0. 4 0. 3 0. 0. 1 0-5 - 4-3 - - 1 0 1 3 4 5 0. 7 0. 6 0. 5 0. 4 Ν=10000, h=0,01 0. 3 0. 0. 1 0-5 - 4-3 - - 1 0 1 3 4 5 0. 7 0. 6 0. 5 0. 4 Ν=10000, h=0,1 0. 3 0. 0. 1 0-5 - 4-3 - - 1 0 1 3 4 5

Πιθανοτικά Νευρωνικά ίκτυα Probabilistic bili Neural Networks (PNN) Τμήμα Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών 8

PNN - Εκπαίδευση Τμήμα Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών 9

PNN Ταξινόμηση Τμήμα Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών 10

Παράδειγμα ParzenPNN function net = parzenpnnlearn(samples,classification,center) samples=[x 1 x x 3... x N ] Τ Matrix Nxd with N samples with d components each. Classification = [ω 1 ω 3 ω 3 ω 1.ω ] Classification of the N samples in C classes Center=true Example: N=5, d=, c= 0 1.0 Samples 0,8 0,7 0,3 0,1 0,9 0,6 0,8 0, classification [abbba] Net : the probabilistic Parzen Neural Net function [class,score,scores] = parzenpnnclassify(net,x,nonlin) Net a valid parzenpnn X sample to be classified with d componets Nonlin = σ (default ) Example: X=[ 0,3 0,1]

Εφαρμογή 1 close('all'); clear; % To generate X, utilize the function generate_gauss_classes m=[0 0 ; 0 3 ; 3 4]'; S1=0.8*eye(); S(:,:,1)=S1;S(:,:,)=S1;S(:,:,3)=S1; P=[1/3 1/3 1/3]'; ]; N=10; randn('seed',0); [X,y]=generate_gauss_classes(m,S,P,N); net=parzenpnnlearn(x,y); class=parzenpnnclassify(net,[1 ]') ans=1 [class score scores]=parzenpnnclassify(net, X) y = [1 1 1 3 3 3] class = [1 1 1 1 3 3 3] Score =[3.5497 4.57 3.1704 3.047.515.7730 4.7555 3.5498 3.750] [3.5497.608 1.6534] [4.57.8883 1.36] Scores = [ [1.497.130 3.5498] [1.614 1.858 3.750]

Εφαρμογή Εάν τρέξουμε το parzenpnn_demo, μας επιτρέπει να βάλουμε 3 κλασεις σημείων διαστάσεων, μετά μας επιτρέπει να προσθέσουμε και νέα δείγματα εκπαίδευσης και στο τέλος διαχωρίζει το επίπεδο στις περιοχές των κλάσεων

Εκτίμηση k n -πλησιέστερων γειτόνων k n -Nearest neighbour (KNN) Το πρόβλημα: Έχουμε Ν δεδομένα {x 1, x,, x N } από μία άγνωστη pdf και θέλουμε να εκτιμήσουμε την τιμή p(x) της άγνωστη pdf για ένα x. Ο Αλγόριθμος 1. Επιλέγουμε μία τιμή για το k καθώς και την συνάρτηση μέτρου που θα χρησιμοποιήσουμε για την απόσταση (Ευκλείδεια, Mahalanobis, Manhattan,..). Βρίσκουμε την απόσταση του x από όλα τα δεδομένα 3. Βρίσκουμε τα πλησιέστερα k δεδομένα στο x 4. Υπολογίζουμε τον όγκο V(x) που περικλείει τα k σημεία k 5. Προσεγγίζουμε την pdf στο χ με p( x) NV (x) x Εάν έχουμε επιλέξει την Ευκλείδεια απόσταση στο d-διαστατο χώρο και η απόσταση από το μακρινότερο δείγμα είναι ρ τότε V(x) = ρ για d=1, V(x) = πρ για d=, V(x) = (4/3)πρ για d=3 ενώ για απόσταση Μαhalanobis έχουμε υπερελλειψοειδή. Τμήμα Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών 14

k πλησιέστεροι γείτονες Example 1.8.1. Generate N = 1000 data points lying in the real axis, xi ЄR, i = 1,,...,N, from the following pdf, and plot p(x): p( x) 1 1 x 1 x exp exp 3 1 3 1 where σ 1 =σ = 0.. Use the k nearest neighborhood with k = 1, and plot the obtained estimate.

0.7 0.6 0.5 Ν=1000, k=1 0.4 0.3 0. 0.1 0-5 -4-3 - -1 0 1 3 4 5 0.8 0.7 0.6 0.5 Ν=10000, k=1 0.4 0.3 0. 0.1 0-5 -4-3 - -1 0 1 3 4 5 0.7 0.6 0.5 0.4 Ν=10000, k=101 0.3 0. 0.1 0-5 -4-3 - -1 0 1 3 4 5

Ταξινομητής KNN Εάν έχουμε c κλάσεις τότε το k δεν πρέπει να είναι πολλαπλάσιο του c. Τμήμα Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών 17

Παράδειγμα knn ταξινομητή

Compute the optimum Classification error with a Bayes Classifier z1=bayes_classifier(m,s,p,x); pr_err_bayes=sum(z1~=y)/length(y) Η πιθανότητα λάθους που παίρνουμε είναι 15,1% ενώ το βέλτιστο σφάλμα για ένα Bayes ταξινομητή είναι 1,44%

Μείωση ιαστάσεων Μία μέθοδος για να μειώσουμε την υπολογιστική πολυπλοκότητα είναι να μειώσουμε τον αριθμό N των χαρακτηριστικών των δειγμάτων Χ 1. Μπορούμε να το πετύχουμε παραλείποντας στους υπολογισμούς μερικά χαρακτηριστικά. Είναι καλύτερο να δημιουργήσουμε νέα δείγματα Y=AX με τον γραμμικό συνδυασμό ώστε κάποια χαρακτηριστικά των Υ να μην είναι πλέον σημαντικά για την αναπαράστασή τους. Παράδειγμα: Χ 1 =(1, 5), Χ =(, 8), Χ 3 =(0, ), Χ 4 =(-1, -1), Χ 5 =(0.,.6), Y A T X 0.316 0.949 0.9491 0.316 5 8 0 1 1 0..6 5.06 0.63 8. 0.63 1.90 0.63 1.6 0.63.53 0.63 λ 1 =1.68 λ =0.0

X=[1,5;,8;0,;-1,-1;0.,.6]'; [eigenval,eigenvec,explain,y,mean_vec]=pca_fun(x,); i l i figure(1), hold on; axis([-5 5-5 10]); plot(x(1,:),x(,:),'r*'); Y=eigenvec'*X; figure(), hold on; axis([- 10-1 3]); plot(y(1,:),y(,:),'r*'); Άρα χρειαζόμαστε μόνο ένα χαρακτηριστικό το y 1 =0.316x 1 +0.949x 10 5 X 3.5 1.5 Y 1 0 0.5 0-0.5-5 -5-4 -3 - -1 0 1 3 4 5-1 - 0 4 6 8 10 Τμήμα Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών 1

ΜΕΙΩΣΗ ΙΑΣΤΑΣΕΩΝ: PCA Principal Component Analysis Έστω x σε D-διαστάσεις. Θέλουμε κάποιο μετασχηματισμό A να μας δώσει ένα y=ax σε N- διαστάσεις, (N<D), ώστε να μπορούμε να αναπαραστήσουμε ικανοποιητικά το y σε λιγότερες διαστάσεις Τμήμα Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών

ΜΕΙΩΣΗ ΙΑΣΤΑΣΕΩΝ: Τεχνική Fisher Έστω y σε D-διαστάσεις. Θέλουμε κάποιο μετασχηματισμό w να μας δώσει ένα x=wy σε N-διαστάσεις, ώστε να κάνουμε την κατηγοριοποίηση σε λιγότερες διαστάσεις Παράδειγμα D= και Ν=11 Θέλουμε να διαλέξουμε το μετασχηματισμό w ώστε: 1. Σε κάθε κατηγορία να έχουμε τα γεγονότα κοντά μεταξύ τους, και. οι κατηγορίες να απέχουν το μέγιστο μεταξύ τους. ηλαδή, θα θέλαμε να ισχύουν: Ανάλυση με κριτήριο την 1. οι μέσες τιμές να απέχουν το μέγιστο μεταξύ τους και. οι διασπορές των δύο κατηγοριών να είναι μηδέν. μέγιστη διαχωριστικότητα (Fisher Eye) Ανάλυση σε κύριες συνιστώσες (PCA) Τα παραπάνω μεταφράζονται ως εξής Και ο Fisher πρότεινε την 1 max 1 min 1 ( ) max 1 J w Τμήμα Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών 3

Σύγκριση PCA και FISHER % Example 3.4.1 (modified by Chamzas) % "Introduction to Pattern Recognition: A MATLAB Approach" % S. Theodoridis, A. Pikrakis, K. Koutroumbas, D. Cavouras close('all'); ll') clear; randn('seed',0) S1=[.3.;. 5]; S=[.5 1.; 1. 5]; [l,l]=size(s1); mv=[-8 9; -3 10]'; N=500; X=[mvnrnd(mv(: [mvnrnd(mv(:,1),s1,n); mvnrnd(mv(:,),s,n)] N)]'; y=[ones(1,n), *ones(1,n)]; % Plot the dataset figure(1), plot(x(1,y==1),x(,y==1),'r.',x(1,y==),x(,y==),'bo') figure(1), axis equal % FISHER EYE ANALYSIS % Estimate the mean vectors of each class using the available samples mv_est(:,1)=mean(x(:,y==1)')'; mv_est(:,)=mean(x(:,y==)')'; % Compute the within scatter matrix [Sw,Sb,Sm]=scatter_mat(X,y); w=inv(sw)*(mv_est(:,1)-mv_est(:,)); ( (, ) _ (, )); % Apply PCA on X [eigenval,eigenvec,explained,y,mean_vec]=pca_fun(x,1); w=eigenvec; % Compute the projections on PCA direction t1=w'*x(:,y==1); t=w'*x(:,y==); X_proj1=[t1;t1].*((w/(w'*w))*ones(1,length(t1))); X_proj=[t;t].*((w/(w'*w))*ones(1,length(t))); X_proj=[X_proj1 X_proj]; %Plot the projections on the PCA axis figure(1), hold on plot(x_proj(1,y==1),x_proj(,y==1), r0',x_proj(1,y==),x_proj(,y==), bx') % Compute the projections t1=w'*x(:,y==1); t=w'*x(:,y==); X_proj1=[t1;t1].*((w/(w'*w))*ones(1,length(t1))); X_proj=[t;t].*((w/(w'*w))*ones(1,length(t))); X_proj=[X_proj1 X_proj]; %Plot the projections on the FISHER axis figure(1), hold on plot(x_proj(1,y==1),x_proj(,y==1), ro',x_proj(1,y==),x_proj(,y==), bx') Τμήμα Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών 4

16 14 1 10 8 6 4 0 - -10-5 0 5 10 Ανάλυση με κριτήριο την μέγιστη διαχωριστικότητα (Fisher Eye) Ανάλυση σε κύριες συνιστώσες (PCA) Τμήμα Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών 5