HMY 795: Αναγνώριση Προτύπων

Μέγεθος: px
Εμφάνιση ξεκινά από τη σελίδα:

Download "HMY 795: Αναγνώριση Προτύπων"

Transcript

1 HMY 795: Αναγνώριση Προτύπων Διαλέξεις Μη επιβλεπόμενη μάθηση (συνέχεια): Μη επιβλεπόμενη μάθηση (συνέχεια): Gaussian mixtures and expectation maximization Feature selection/generation: Ανάλυση κύριων συνιστωσών (Principal component analysis)

2 Support vector machines -Μη γραμμικά διαχωρίσιμα δεδομένα: ξ n 0(n=,2,,) 0 αν το σηµείο n είναι σωστά ταξινοµηµένο ξn = tn y( xn ) ειδάλλως Τ Περιορισμοί tn( w xn+ b) ξn n=,2,..., Ελαχιστοποίηση της 2 Cξn+ w n= 2 2 L( w, b, a) = w + Cξn an( tny( xn ) + ξ n) µ nξn 2 KK conditions n= n= n=

3 Δυαδική Lagrangian: Lɶ ( a) = a aa tt ( x, x ) n n m n m n m n= 2 n= m= Support vectors: tn( w Τ xn+ b) = ξn a n <C µ n >0, ξ n =0, πάνω στο περιθώριο a n =C εντός περιθωρίου ξ n σωστάταξινομημένα ξ n > λάθοςταξινομημένα Bias estimation tn amtm( xn, xm) + b = m S Multiclass SVMs one-vs-the-rest: K- 2 class classifiers one-versus-one: (K(K-)/2) 2 class SVMs

4 0 αν y( x) t < ε SVMs for regression Eε ( y( x) t) = y( x) t - ε αλλιώς Συνάρτηση σφάλματος: n n n CEε ( y( xn) tn) + 2 n= ξ > 0 αν t > y( x ) + ε ˆ ξ > 0 αν t < y ( x ) ε n n n Πρόβλημα βελτιστοποίησης: 2 minimize C ( ˆ ) s.t., ˆ ξn+ ξn + w ξn ξn 0 and 2 Lagrangian n= w t y( x ) + ε+ ξ n n n t ( ) ˆ n y xn ε ξn 2 L= C ( ξ + ˆ ξ ) + w ( µ ξ + ˆ µ ˆ ξ ) n n n n n n n= 2 n= ( ε ξ ( x ) ) ˆ ( ˆ ε ξ ( x ) ) a + + y t a + y + t n n n n n n n n n= n= 2

5 Συνθήκες: Δυαδική Lagrangian L( aa, ˆ) = ( a aˆ )( a aˆ ) ( x, x ) ε( a + aˆ ) + ( a aˆ ) t 2 KK conditions n n m m n m n n n n n n= m= n= n= a n > 0 ε+ ξn+ y( xn) tn = 0 a ˆ > 0 ε+ ˆ ξ y( x ) + t = 0 n n n n

6 Unsupervised learning: clustering Εύρεση συνόλου διανυσμάτων µ όπου=,2,,k και την αντιστοιχία κάθε προτύπου σε μια από τις ομάδες r n ={0,}(r n =αν το σημείο x n ανατεθεί στην κλάση ):. Αρχικοποίηση µ 2. Ελαχιστοποίηση J ως προς r n 3. ΕλαχιστοποίησηJ ως προς µ Mixture models: component densities K p( x θ) = p( x C, θ ). pc ( ) = όπου θ= ( θ, θ,..., θ ) 2 mixing parameters

7 Ορισμός:Μια κατανομή λέγεται αναγνωρίσιμη αν για θ θ τότε υπάρχει xτέτοιο ώστε p(x θ) p(x θ ) K ML estimation: p( x θ) p( x C, θ ) pc ( ) Lielihood: Συνθήκες: = j= = n= j j p( D θ) p( x θ) n== Gaussian mixtures: Άγνωστες μέσες τιμές: Άρα πρέπει: n j pc ( x, θ) ln p( x C, θ ) = 0 =,2,..., K n µ x µ x µ n= K θ = ln p( C, ) ( ) =Σ pc x µ x µ ( n, ) Σ ( n ) = 0 µ = ( µ,..., µ ) n p( x θ) = π ( x µ, Σ ) ( π = pc ( ), p( x C, θ ) = ( x µ, Σ ))

8 Expectation maximization for Gaussian mixtures K = Επιστρέφουμε στην: p( x θ) π ( x µ, Σ ) = Έστω ότι τα µ, Σ, π είναι άγνωστα. Ορίζουμε το τυχαίο διάνυσμα z(διάσταση Κ) ώστε Η κατανομή για το διάνυσμα είναι επομένως και ισχύει: Η υπό συνθήκη κατανομή του xδεδομένης της τιμής του zείναι: ή ισοδύναμα: Η συνδυασμένη πιθανότητα είναι τότε: p( xz, ) = p( x z) p( z) Επομένως η περιθωριακή πιθανότητα p(x) είναι η αρχική μείξη Γκαουσιανών: p( x) = p( xz, ) = p( x z) p( z) = π ( x µ, Σ ) z z K =

9 Expectation maximization for Gaussian mixtures Ας υποθέσουμε ότι έχουμε το σύνολο παρατηρήσεων{x,x 2,,x } Για κάθε παρατήρηση x n έχουμε και μια αντίστοιχη τιμή για το τυχαίο διάνυσμα z n Η χρήση των βοηθητικών μεταβλητών z n μπορεί να μας βοηθήσει πως? Μπορούμε να υπολογίσουμε την εκ των υστέρων πιθανότητα p(z = x) από τον κανόνα του Bayes Συγκεκριμένα, η πιθανότητα αυτή αφού πάρουμε μια παρατήρηση x είναι: Prior Posterior (responsibility)

10 Expectation maximization for Gaussian mixtures Ξαναγράφουμε τις συνθήκες για τις μέσες τιμές των συνιστωσών (μεγιστοποίηση ML): (, ) π x µ Σ n pc ( x n, µ ) Σ ( x n µ ) = 0 Σ ( x n µ ) = 0 K n= n= ( x n µ j, Σj ) πj j= Ισοδύναμα: µ = γ ( z ) x () n= n n όπου = γ ( z ) n= n effective number of points assigned to class Θέτοντας την παράγωγο της πιθανοφάνειας ως προς Σ ίση με μηδέν: (2) Τέλος, πρέπει να μεγιστοποιήσουμε την πιθανοφάνεια ως προς π υπό τη συνθήκη Lagrange multipliers: όπου

11 Expectation maximization for Gaussian mixtures Παραγωγίζοντας ως προς π : Πολλαπλασιάζοντας επί π και αθροίζοντας ως προς, καθώς παίρνουμε λ=-ν. Κατόπιν πολλαπλασιάζοντας επί π παίρνουμε (αντικαθιστώντας λ=-ν): π( x n µ, Σ ) π( x n µ, Σ ) 0= π K π = K n= n= π ( x µ, Σ ) π ( x µ, Σ ) j= n n= j n j j π = γ ( z ) = Οι εξισώσεις (),(2),(3) είναι συζευγμένες: επαναληπτική λύση j= j n j j (3)

12 Expectation maximization for Gaussian mixtures. Αρχικοποιούμε τις άγνωστες παραμέτρους µ, Σ και π 2. Υπολογίζουμε τις παραμέτρους γ(z n ) οι οποίες αντιστοιχούν στην τρέχουσα εκτίμηση της εκ των υστέρων πιθανότητας για κάθε κλάση για το σημείο n (responsibilities) γ ( z ) = n π ( x µ ˆ, Σˆ ) K j= n π ( x µ ˆ, Σˆ ) j n j j E- step 3. Υπολογίζουμε τις νέες τιμές των παραμέτρων από τις σχέσεις: µ ( ) x όπου ( ) new = γ zn n = γ zn n= n= Σ = new new new γ ( zn )( x n µ )( x n µ ) n= new π = 4. Υπολογίζουμε το log-lielihood Μ-step 5. Ελέγχουμε αν το log-lielihood ή οι παράμετροι έχουν συγκλίνει

13 Expectation maximization for Gaussian mixtures Παράδειγμα: Μείξη δύο Γκαουσιανών

14 Expectation maximization for Gaussian mixtures Γενικώς η σύγκλιση του αλγορίθμου είναι πιο αργή από τον αλγόριθμο K-means και περισσότερο απαιτητική υπολογιστικά Συνήθως αρχικοποιούμε τον αλγόριθμο ΕΜ αφού πρώτα τρέξουμε τον Κ-means (means, sample covariances, prior probabilities) Οι συντελεστές μείξης μπορούν να αρχικοποιηθούν από το κλάσμα των σημείων που ανατίθενται στην αντίστοιχη κλάση Δεν έχουμε εγγυημένη σύγκλιση σε ολικό ελάχιστο

15 Expectation maximization Στη γενική περίπτωση ο αλγόριθμος expectation maximizationείναι μια γενίκευση της εκτίμησης μέγιστης πιθανοφάνειας (ML) σε περιπτώσεις στις οποίες μπορεί να μας λείπουν κάποια δεδομένα ή σε αυτές όπου δεν είναι δυνατή η αναλυτική βελτιστοποίηση της πιθανοφάνειας ως προς τις παραμέτρους του μοντέλου μας Στην τελευταία περίπτωση μπορούμε να χρησιμοποιήσουμε ένα σύνολο βοηθητικών μεταβλητών(latent variables)για να απλοποιήσουμε την πιθανοφάνεια Έτσι, αν: p( X θ) p( x θ) = n= n ορίζοντας ένα σύνολο βοηθητικών μεταβλητών Ζ, τότε αν οι τελευταίες είναι διακριτές, η περιθωριακή λογαριθμική πιθανοφάνεια είναι: ln p( X θ) = ln p( X,Z θ) Z Στη γενική περίπτωση είναι δύσκολο να βρεθεί η λύση μέγιστης πιθανοφάνειας της παραπάνω Αν για κάθε παρατήρηση που ανήκει στο Χγνωρίζουμε και την αντίστοιχη τιμή του Zδηλ. το {X,Z}: complete set {X}(σύνολο παρατηρήσεων): incomplete set

16 Expectation maximization Λογαριθμική πιθανοφάνεια για το σύνολο {X,Z}: ln p( XZ, θ) Υποθέτουμε ότι η μεγιστοποίηση της συνολικής πιθανοφάνειας είναι δυνατή Στην πράξη μόνο το Χείναι γνωστό και η μόνη γνώση που έχουμε για το Ζ προέρχεται από την εκ των υστέρων πιθανότητα p(z X,θ) Καθώς η συνολική πιθανοφάνεια είναι άγνωστη, θεωρούμε την αναμενόμενη τιμή τηςυπό την ανωτέρω εκ των υστέρων πιθανότητα (E step) και Μεγιστοποιούμε αυτή την αναμενόμενη τιμή (Μ step) Η διαδικασία είναι επαναληπτική και μας δίνει μια νέα εκτίμηση θ new, ανανεώνοντας την προηγούμενη θ old Για να υπολογίσουμε την αναμενόμενη τιμή υπολογίζουμε αρχικά την εκ των υστέρων p(z X,θ old ) και κατόπιν την (υπό συνθήκη) αναμενόμενη τιμή: Η νέα εκτίμηση δίνεται επομένως από την:

17 Expectation maximization Άρα ο αλγόριθμος στη γενική του μορφή είναι: Αρχικοποίηση θ 0 Υπολογισμός και (Ε step expectation) Ενημέρωση των παραμέτρων από την (M step maximization) Έλεγχος σύγκλισης για τη λογαριθμική πιθανοφάνεια ή τις παραμέτρους Σε κάθε βήμα έχουμε αύξηση της μερικής πιθανοφάνειας p(x θ). Επίσης, η σύγκλιση σε τοπικό μέγιστο είναι εγγυημένη Μπορούμε να ενσωματώσουμε και μια εκ των προτέρων πιθανότητα για τις παραμέτρους p(θ) μεγιστοποίηση της στο βήμα Μ Μπορούμε να χρησιμοποιήσουμε τον αλγόριθμο ΕΜ και στην περίπτωση που οι βοηθητικές μεταβλητές αντιστοιχούν σε χαμένα δεδομένα (όπου αυτά αντιστοιχούν στο Ζ). Επίσης οι βοηθητικές μεταβλητές μπορεί να είναι συνεχείς (ολοκλήρωμα αντί για άθροισμα στην αναμενόμενη τιμή)

18 Expectation maximization Επιστρέφουμε στο πρόβλημα της μείξης Γκαουσιανών κατανομών. Η λογαριθμική πιθανοφάνεια είναι: Εδώ οι βοηθητικές μεταβλητές Ζείναι οι συντελεστές π. Η συνολική πιθανοφάνεια είναι: Log-lielihood: Η μορφή αυτή, όπου τα z n θεωρούνται γνωστάείναι απλούστερη στη λύση της με μέγιστη πιθανοφάνεια Επειδή το z n είναι μόνο αν το σημείο n ανατίθεται στην κλάση, η μεγιστοποίηση ως προς µ ή Σ είναι παρόμοια με την περίπτωση κλάσης αλλά απλά περιλαμβάνει μόνο τα σημεία που ανατίθενται στην κλάση Για τους συντελεστές μείξης π χρησιμοποιούμε πολλ/στεςlagrangeοπότε παίρνουμε:

19 Expectation maximization Οι τιμές των z n όμως δεν είναι γνωστές, άρα πρέπει να εκτιμηθούν (Ε step). Η εκ των υστέρων πιθανότητα για το Ζ είναι (κανόνας Bayes): καθώς και Η αναμενόμενη τιμή της μεταβλητής z n είναι: n Hαναμενόμενη τιμή της λογαριθμικής πιθανοφάνειας ως προς z n είναι: Καταλήξαμε επομένως στο ίδιο αποτέλεσμα με πριν

20 Επιλογή/ δημιουργία χαρακτηριστικών (Feature selection/ generation) Όπως έχουμε δει ήδη, η επιλογή των χαρακτηριστικών (features) σε ένα πρόβλημα είναι ιδιαίτερα σημαντική Η επιλογή αυτή επηρεάζει τις διαστάσεις του προβλήματος, άρα και την υπολογιστική του πολυπλοκότητα Μπορεί να επηρεάσει επίσης και την ικανότητα γενίκευσης της λύσης πολλά χαρακτηριστικά μεγαλύτερος αριθμός άγνωστων παραμέτρων Γενικά θέλουμε να επιλέξουμε τον μικρότερο δυνατό αριθμό χαρακτηριστικών χωρίς να χάνουμε σημαντική πληροφορία, καθώς έχουμε πεπερασμένο αριθμό παρατηρήσεων π.χ. αν έχουμε χαρακτηριστικά που είναι ισχυρά συσχετισμένα μεταξύ τους δεν είναι αναγκαίο να τα χρησιμοποιήσουμε όλα στον αλγόριθμό μας Πως μπορούμε να επιλέξουμε τα πιο σημαντικά χαρακτηριστικά από ένα σύνολο πιθανών χαρακτηριστικών? Feature selection Έχουμε ήδη εξετάσει αυτό το πρόβλημα από τη σκοπιά της επιλογής μοντέλου Εναλλακτικά, πως μπορούμε να δημιουργήσουμε ένα (πιθανόν) νέο σύνολο χαρακτηριστικών με βάση το αρχικό μας σύνολο? Feature generation Fisher s linear discriminant

21 Principal component analysis Feature generation: Σκοπός ο μετασχηματισμός των αρχικών μας χαρακτηριστικών σε ένα νέο σύνολο που απλοποιεί το πρόβλημά μας Μια πολύ δημοφιλής τεχνική αυτού του τύπου είναι η ανάλυση κύριων συνιστωσών (principal component analysis) Σε πολλές περιπτώσεις, οι βαθμοί ελευθερίας σε ένα πρόβλημα είναι πολύ λιγότεροι από τις διαστάσεις στο χώρο εισόδου Π.χ. χαρακτήρες ίδιου τύπου οριζόντια/κάθετη μετατόπιση και περιστροφή σε μια εικόνα 00x00: 0,000-διάστατος χώρος εισόδου Βαθμοί ελευθερίας: 3! (intrinsic dimensionality) Ακόμη και για πιο περίπλοκους μετασχηματισμoύς, οι βαθμοί ελευθερίας είναι (συνήθως) κατά πολύ λιγότεροι από τη διάσταση του χώρου εισόδου

22 Principal component analysis Principal component analysis (Ανάλυση κύριων συνιστωσών)/ Karhuenen-Loeve transform: τεχνική που χρησιμοποιείται ευρέως για τη μείωση των διαστάσεων ενός προβλήματος, δημιουργία χαρακτηριστικών (feature generation) Η μέθοδος PCA αναζητάει έναν χώρο χαμηλότερης διάστασης (principal subspace) ώστε η ορθογώνια προβολή των δεδομένωνσε αυτόν τον χώρο να μεγιστοποιεί τη διασπορά των προβαλλόμενων σημείων Έστω ότι έχουμε ένα σύνολο Ν παρατηρήσεων {x n} με διάσταση D και θέλουμε να προβάλλουμε σε χώρο διάστασης Μ<D Έστω ότι Μ=. Η κατεύθυνση αυτού του χώρου ορίζεται από την κατεύθυνση ενός (άγνωστου) διανύσματος διάστασης D u το οποίο μπορούμε να διαλέξουμε ώστε uu = Προβολές των αρχικών σημείων: x ɶn =uxn Μέση τιμή των προβαλλόμενων δεδομένων ux= u x n = n

23 Principal component analysis Διασπορά των προβαλλόμενων δεδομένων ( n ) n= 2 = u x u x u Su S= n n n= ( x x)( x x) t Μεγιστοποίηση της διασποράς ως προς u υπό τον περιορισμό u u = Lagrange multiplier λ μεγιστοποίηση της usu + λ ( uu ) Παραγωγίζοντας ως προς u Su =λ u Άρα το u είναι ιδιοδιάνυσματου S!Η αντίστοιχη διασπορά είναι: Τ usu = λ και είναι μέγιστη για το ιδιοδιάνυσμα που αντιστοιχεί στη μέγιστη ιδιοτιμή Μπορούμε να ορίσουμε επιπρόσθετες συνιστώσες ( umx ) επιλέγοντας τα Μ ιδιοδιανύσματα u,,u Μ που αντιστοιχούν στις Μ μεγαλύτερες ιδιοτιμές του πίνακα S.

24 Principal component analysis Εναλλακτική διατύπωση έστω η πλήρης ορθοκανονικήβάση {u i }στο χώρο D R (άρα uiuj =δij ) Εφόσον έχουμε πλήρη βάση, υπάρχουν συντελεστές a ni τέτοιοι ώστε για κάθε x R D D : n xn =aniui i= () Άρα έχουμε ένα νέο σύστημα συντεταγμένων που ορίζεται από τα διανύσματα {u i }και τους συντελεστές (i=,2,,d). Από την (): D D n = ani i n j = ani i j anj = n j i= i= x u x u u u x u x n = D ( ) i= x u u n i i a ni Έστω τώρα ότι θέλουμε να προσεγγίσουμε το σημείο x n χρησιμοποιώντας Μ<D διανύσματα από τη βάση. Μπορούμε να προσεγγίσουμε κάθε σημείο ως: M x ɶ = z u + b u n ni i i i i= i= M+ D όπου οι συντελεστές b i δεν εξαρτώνται από το σημείο αλλά είναι οι ίδιοι για όλα τα σημεία.

25 Principal component analysis Ποια είναι τα {u i }, {z ni }, {b i } που ελαχιστοποιούν το σφάλμα προσέγγισης? Ελαχιστοποίηση της J n n = x xɶ n = 2 Ως προς z nj : z nj =xnuj j=,2,,m x= x Ως προς b j : b j=m+,,d j =x u n = j Αντικαθιστώντας: D M D ( ) z x x ɶ = x u u u b u = n n n i i ni i i i i= i= i= M+ D i= M+ {( n ) } = x x u u i i n Άρα η διαφορά μεταξύ των δύο διανυσμάτων βρίσκεται σε ένα χώρο ορθογώνιο στον κύριο υποχώρο. Τελικά: J ( x u x u ) 2 D D n i i uisui n= i= M+ i= M+ = = Ελαχιστοποίηση ως προς u i : Πχ για D=2, M= πρέπει να διαλέξουμε το u 2 ώστε το ελάχιστο υπό τον περιορισμό u u = 2 2 J =u2su2 να είναι

26 Principal component analysis Παρόμοια με πριν Lagrange multipliers, ελαχιστοποίηση της Su = λ u J = λ u Su + λ ( u u ) Άρα πρέπει να διαλέξουμε το ιδιοδιάνυσμα u 2 που αντιστοιχεί στη μικρότερη ιδιοτιμήτου S(οπότε αυτομάτως το u είναι το ιδιοδιάνυσμα που αντιστοιχεί στη μεγαλύτερη ιδιοτιμή) Στη γενική περίπτωση Μ<D έχουμε D J = λi i= M+ επομένως παίρνουμε ακριβώς το ίδιο αποτέλεσμα (principal subspace: ιδιοδιανύσματα που αντιστοιχούν στις Μ μεγαλύτερες ιδιοτιμές του πίνακα S)

27 Παράδειγμα Principal component analysis Eigenvalue spectrum J D = i= M+ λ i

28 Η προσέγγιση μπορεί να γραφτεί: καθώς: M xɶ = z u + bu = n ni i i i i= i= M+ M D ( xnui ) ui i= i= M+ M = x+ ( x u x u ) u i= n i D Principal component analysis ( ) = + x u u = x D = i= ( x u ) u i i i i i i Η παραπάνω σχέση μπορεί να ερμηνευθεί ως συμπίεση (compression) των αρχικών μας δεδομένων

29 Principal component analysis Data pre-processing (προ-επεξεργασία) Είδαμε ότι σε εφαρμογές όπου διαφορετικές μεταβλητές χαρακτηρίζονται από μεγάλες διαφορές στις τιμές μπορούμε να εφαρμόσουμε κανονικοποίηση Π.χ. μπορούμε να κανονικοποιήσουμε αφαιρώντας τη μέση τιμή και διαιρώντας με την τυπική απόκλιση, ώστε οι νέες μεταβλητές να έχουν μηδενική μέση τιμή και μοναδιαία τυπική απόκλιση Τι σημαίνει αυτό για ένα πρόβλημα δύο διαστάσεων? Ο πίνακας συνδιακύμανσης των κανονικοποιημένων δεδομένων(χαρακτηριστικών) είναι: ( x ) ( nj j ) ni x x x i ρij = σ σ n= i j H μέγιστη τιμή του στοιχείου ijείναι, όταν τα αντίστοιχα χαρακτηριστικάx i και x j είναι πλήρως συσχετισμένα Μπορούμε να πάμε ένα βήμα παραπέρα χρησιμοποιώντας PCA,και να κανονικοποιήσουμετα δεδομένα έτσι ώστε ο πίνακας συνδιακύμανσης να γίνει επιπλέον και λευκός (αποσυσχετίζουμε τα δεδομένα whitening transform) Μετασχηματισμός ιδιοτιμών για τον S: SU= UL L=diag( λ,..., λ D )

30 Principal component analysis Αν μετασχηματίσουμε τα αρχικά δεδομένα μας σύμφωνα με την: y L U ( x x) 2 n = n τότε η μέση τιμή του συνόλου {y n } είναι μηδενική και ο πίνακας συνδιακύμανσης είναι: Σ = y y = L U x x x x UL = 2 2 y n n ( n )( n ) n= n= = = = = L U SUL L U ULL L LL I

31 Principal component analysis Σύγκριση με Fisher s LDA: PCA μη επιβλεπόμενη, Fisher s LDA - επιβλεπόμενη

32 Principal component analysis Σε πολλές εφαρμογές (π.χ. εικόνες), ο αριθμός των προτύπων εκπαίδευσης (δεκάδες εκατοντάδες) μπορεί να είναι αρκετά μικρότερος από τη διάσταση του χώρου εισόδου (χιλιάδες εκατομμύρια) Σε αυτές τις περιπτώσεις, ο αριθμός των παρατηρήσεων Ν(<D) ορίζει έναν υποχώροτου οποίου η διάσταση είναι το πολύ Ν- (ισοδύναμα αν εφαρμόσουμε PCA στον αρχικό χώρο θα βρούμε ότι τουλάχιστον D-+ ιδιοτιμές θα είναι μηδενικές) Άρα η εφαρμογή PCA είναι υπολογιστικά απαιτητική (και περιέχει άχρηστη πληροφορία) X X Ορίζουμε τον πίνακα Χώστε η γραμμή nνα είναι ( x x ) n, άρα: S= με εξίσωση ιδιοτιμών: X Sui = λiui X ui = λiui XX X ui = λi ( Xui ) XX vi = λivi Εξίσωση ιδιοτιμών για τον πίνακα (/Ν)ΧΧ Τ ο οποίος είναι διαστάσεων Νxκαι έχει τις ίδιες Ν- ιδιοτιμές με το αρχικό πρόβλημα

33 Τα ιδιοδιανύσματα είναι: X X X X i ( )( v ) ( i =λ vi) Principal component analysis τα οποία όμως δεν είναι κανονικοποιημένα. Για να κανονικοποιήσουμε u i = ( λ i ) /2 X v i

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διαλέξεις 5 6 Principal component analysis EM for Gaussian mixtures: μ k, Σ k, π k. Ορίζουμε το διάνυσμα z (διάσταση Κ) ώστε K p( x θ) = π ( x μ, Σ ) k = k k k Eκ των υστέρων

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διαλέξεις 2-22 Support vector machies (συνέχεια) Support vector machies (συνέχεια) Usupervised learig: Clusterig ad Gaussia mixtures Kerel fuctios: k( xx, ') = ϕ ( x) ϕ( x

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διάλεξη 6 Κατανομές πιθανότητας και εκτίμηση παραμέτρων Κατανομές πιθανότητας και εκτίμηση παραμέτρων κανονικές τυχαίες μεταβλητές Εκτίμηση παραμέτρων δυαδικές τυχαίες μεταβλητές

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Επανάληψη Expectatio maximizatio for Gaussia mixtures. Αρχικοποιούμε τις άγνωστες παραμέτρους µ k, Σ k και π k 2. Υπολογίσμος των resposibilitiesγ(z k : γ ( z = k π ( x µ ˆ,

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διαλέξεις 7-8 Μπεϋζιανή εκτίμηση - συνέχεια Μη παραμετρικές μέθοδοι εκτίμησης πυκνότητας Δυαδικές τ.μ. κατανομή Bernoulli : Εκτίμηση ML: Εκτίμηση Bayes για εκ των προτέρων

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διάλεξη 5 Κατανομές πιθανότητας και εκτίμηση παραμέτρων δυαδικές τυχαίες μεταβλητές Bayesian decision Minimum misclassificaxon rate decision: διαλέγουμε την κατηγορία Ck για

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διαλέξεις 7 8 Μπεϋζιανή εκτίμηση συνέχεια Μη παραμετρικές μέθοδοι εκτίμησης πυκνότητας Εκτίμηση ML για την κανονική κατανομή Μπεϋζιανή εκτίμηση για την κανονική κατανομή Γνωστή

Διαβάστε περισσότερα

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή Τµήµα Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών ΗΜΜΥ 795: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ Ακαδηµαϊκό έτος 2010-11 Χειµερινό Εξάµηνο Τελική εξέταση Τρίτη, 21 εκεµβρίου 2010,

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διάλεξη 5 Κατανομές πιθανότητας και εκτίμηση παραμέτρων Κατανομές πιθανότητας και εκτίμηση παραμέτρων δυαδικές τυχαίες μεταβλητές Διαχωριστικές συναρτήσεις Ταξινόμηση κανονικών

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διάλεξη 3 Επιλογή μοντέλου Επιλογή μοντέλου Θεωρία αποφάσεων Επιλογή μοντέλου δεδομένα επικύρωσης Η επιλογή του είδους του μοντέλου που θα χρησιμοποιηθεί σε ένα πρόβλημα (π.χ.

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων. Διάλεξη 2

HMY 795: Αναγνώριση Προτύπων. Διάλεξη 2 HMY 795: Αναγνώριση Προτύπων Διάλεξη 2 Επισκόπηση θεωρίας πιθανοτήτων Θεωρία πιθανοτήτων Τυχαία μεταβλητή: Μεταβλητή της οποίας δε γνωρίζουμε με βεβαιότητα την τιμή (αντίθετα με τις ντετερμινιστικές μεταβλητές)

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 13-14

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 13-14 HMY 795: Αναγνώριση Προτύπων Διαλέξεις 13-14 Γραμμικές διαχωριστικές συναρτήσεις(συνέχεια) Επιλογή μοντέλου Δεδομένα επικύρωσης Κανονικοποίηση Bayes Model evidence(τεκμήριο): Η πιθανότητα να παρατηρήσουμε

Διαβάστε περισσότερα

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή Τμήμα Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών ΗΜΜΥ 795: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ Ακαδημαϊκό έτος 2010-11 Χειμερινό Εξάμηνο Practice final exam 1. Έστω ότι για

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διάλεξη 2 Επισκόπηση θεωρίας πιθανοτήτων Τυχαίες μεταβλητές: Βασικές έννοιες Τυχαία μεταβλητή: Μεταβλητή της οποίας δε γνωρίζουμε με βεβαιότητα την τιμή (σε αντίθεση με τις

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διαλέξεις 9 20 Kernel methods Support vector machines Εκπαίδευση νευρωνικών δικτύων backpropagation:. Υπολογισμός μεταβλητών δικτύου «τρέχον» w () () (2) (2) aj = wji xi ak

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διαλέξεις 9 10 Γραμμική παλινδρόμηση (Linear regression) Μπεϋζιανή εκτίμηση για την κανονική κατανομή Γνωστή μέση τιμή μ, άγνωστη διασπορά σ 2. Ακρίβεια λ=1/σ 2 : conjugate

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16 HMY 795: Αναγνώριση Προτύπων Διαλέξεις 15-16 Νευρωνικά Δίκτυα(Neural Networks) Fisher s linear discriminant: Μείωση διαστάσεων (dimensionality reduction) y Τ =w x s + s =w S w 2 2 Τ 1 2 W ( ) 2 2 ( ) m2

Διαβάστε περισσότερα

ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ Αίθουσα Νέα Κτίρια ΣΗΜΜΥ Ε.Μ.Π. Ανάλυση Κυρίων Συνιστωσών (Principal-Component Analysis, PCA)

ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ Αίθουσα Νέα Κτίρια ΣΗΜΜΥ Ε.Μ.Π. Ανάλυση Κυρίων Συνιστωσών (Principal-Component Analysis, PCA) ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ Αίθουσα 005 - Νέα Κτίρια ΣΗΜΜΥ Ε.Μ.Π. Ανάλυση Κυρίων Συνιστωσών (Principal-Coponent Analysis, PCA) καθ. Βασίλης Μάγκλαρης aglaris@netode.ntua.gr www.netode.ntua.gr

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Versio A ΠΑΡΑΜΕΤΡΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΒΑΣΙΣΜΕΝΟΙ ΣΕ ΣΥΝΑΡΤΗΣΕΙΣ ΔΙΑΚΡΙΣΗΣ Η περίπτωση του ταξινομητή Bayes Εκτίμηση μέγιστης εκ των υστέρων πιθανότητας Maimum Aoseriori

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διαλέξεις 11-12 Γραμμική παλινδρόμηση συνέχεια Γραμμική παλινδρόμηση συνέχεια Γραμμικές διαχωριστικές συναρτήσεις Γραμμική παλινδρόμηση (Linear regression) y = w + wx + + w

Διαβάστε περισσότερα

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος. Τεχνητή Νοημοσύνη 18η διάλεξη (2016-17) Ίων Ανδρουτσόπουλος http://www.aueb.gr/users/ion/ 1 Οι διαφάνειες αυτής της διάλεξης βασίζονται: στο βιβλίο Machine Learning του T. Mitchell, McGraw- Hill, 1997,

Διαβάστε περισσότερα

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων Εισηγητής: ρ Ηλίας Ζαφειρόπουλος Εισαγωγή Ιατρικά δεδοµένα: Συλλογή Οργάνωση Αξιοποίηση Data Mining ιαχείριση εδοµένων Εκπαίδευση

Διαβάστε περισσότερα

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης Ελαχιστοποίηση συνάρτησης σφάλματος Εκπαίδευση ΤΝΔ: μπορεί να διατυπωθεί ως πρόβλημα ελαχιστοποίησης μιας συνάρτησης σφάλματος E(w)

Διαβάστε περισσότερα

Ψηφιακές Τηλεπικοινωνίες. Βέλτιστος Δέκτης

Ψηφιακές Τηλεπικοινωνίες. Βέλτιστος Δέκτης Ψηφιακές Τηλεπικοινωνίες Βέλτιστος Δέκτης Σύνδεση με τα Προηγούμενα Επειδή το πραγματικό κανάλι είναι αναλογικό, κατά τη διαβίβαση ψηφιακής πληροφορίας, αντιστοιχίζουμε τα σύμβολα σε αναλογικές κυματομορφές

Διαβάστε περισσότερα

7. ΕΠΕΞΕΡΓΑΣΊΑ ΣΗΜΆΤΩΝ

7. ΕΠΕΞΕΡΓΑΣΊΑ ΣΗΜΆΤΩΝ 7. ΕΠΕΞΕΡΓΑΣΊΑ ΣΗΜΆΤΩΝ 1 Principal & Independent Component Analysis (PCA, ICA) PRINCIPAL COMPONENT ANALYSIS (PCA) Principal Component Analysis (PCA): ορθογώνιος μετασχηματισμός κατά τον οποίο αφαιρείται

Διαβάστε περισσότερα

Το μοντέλο Perceptron

Το μοντέλο Perceptron Το μοντέλο Perceptron Αποτελείται από έναν μόνο νευρώνα McCulloch-Pitts w j x x 1, x2,..., w x T 1 1 x 2 w 2 Σ u x n f(u) Άνυσμα Εισόδου s i x j x n w n -θ w w 1, w2,..., w n T Άνυσμα Βαρών 1 Το μοντέλο

Διαβάστε περισσότερα

Ορίζουμε την τυπική πολυδιάστατη κανονική, σαν την κατανομή του τυχαίου (,, T ( ) μεταξύ τους ανεξάρτητα. Τότε

Ορίζουμε την τυπική πολυδιάστατη κανονική, σαν την κατανομή του τυχαίου (,, T ( ) μεταξύ τους ανεξάρτητα. Τότε Η πολυδιάστατη κανονική κατανομή Ορίζουμε την τυπική πολυδιάστατη κανονική, σαν την κατανομή του τυχαίου (,, διανύσματος X X X ), όπου X ~ N (,) και όλα τα X μεταξύ τους ανεξάρτητα Τότε ( ) (,, ) (, )

Διαβάστε περισσότερα

Χαρακτηριστική Εξίσωση Πίνακα

Χαρακτηριστική Εξίσωση Πίνακα Έστω ο n nτετραγωνικός πίνακας A της μορφής a L a M O M an L a όπου aij, i n, j n πραγματικές σταθερές Ονομάζουμε χαρακτηριστική εξίσωση του πίνακα A την εξίσωση A λi, όπου I ο n n μοναδιαίος πίνακας και

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson Σχεδιαζόντας ταξινομητές: Τα δεδομένα Στην πράξη η γνώση σχετικά διαδικασία γέννεσης των δεδομένων είναι πολύ σπάνια γνωστή. Το μόνο που έχουμε στη διάθεσή

Διαβάστε περισσότερα

Τεχνικές Μείωσης Διαστάσεων. Ειδικά θέματα ψηφιακής επεξεργασίας σήματος και εικόνας Σ. Φωτόπουλος- Α. Μακεδόνας

Τεχνικές Μείωσης Διαστάσεων. Ειδικά θέματα ψηφιακής επεξεργασίας σήματος και εικόνας Σ. Φωτόπουλος- Α. Μακεδόνας Τεχνικές Μείωσης Διαστάσεων Ειδικά θέματα ψηφιακής επεξεργασίας σήματος και εικόνας Σ. Φωτόπουλος- Α. Μακεδόνας 1 Εισαγωγή Το μεγαλύτερο μέρος των δεδομένων που καλούμαστε να επεξεργαστούμε είναι πολυδιάστατα.

Διαβάστε περισσότερα

Εκτιμητές Μεγίστης Πιθανοφάνειας (Maximum Likelihood Estimators MLE)

Εκτιμητές Μεγίστης Πιθανοφάνειας (Maximum Likelihood Estimators MLE) Εκτιμητές Μεγίστης Πιθανοφάνειας (Maximum Likelihood Estimators MLE) Εστω τ.δ. X={x, x,, x } με κατανομή με σ.π.π. f(x;θ). Η από-κοινού σ.π.π. των δειγμάτων είναι η συνάρτηση L f x, x,, x; f x i ; και

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διαλέξεις 9-20 Kerel methods Kerel methods Support vector machies Συναρτήσεις σφάλματος Συνεχής έξοδος/έξοδοι Μοναδιαία συνάρτηση ενεργοποίησης στην έξοδο g(.) Πιθανοφάνεια

Διαβάστε περισσότερα

Λυμένες ασκήσεις στροφορμής

Λυμένες ασκήσεις στροφορμής Λυμένες ασκήσεις στροφορμής Θα υπολογίσουμε τη δράση των τελεστών κλίμακας J ± σε μια τυχαία ιδιοκατάσταση j, m των τελεστών J και Jˆ. Λύση Δείξαμε ότι η κατάσταση Jˆ± j, m είναι επίσης ιδιοκατάσταση των

Διαβάστε περισσότερα

Αναγνώριση Προτύπων Ι

Αναγνώριση Προτύπων Ι Αναγνώριση Προτύπων Ι Ενότητα 3: Στοχαστικά Συστήματα Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες

Διαβάστε περισσότερα

Kεφάλαιο 4. Συστήματα διαφορικών εξισώσεων. F : : F = F r, όπου r xy

Kεφάλαιο 4. Συστήματα διαφορικών εξισώσεων. F : : F = F r, όπου r xy 4 Εισαγωγή Kεφάλαιο 4 Συστήματα διαφορικών εξισώσεων Εστω διανυσματικό πεδίο F : : F = Fr, όπου r x, και είναι η ταχύτητα στο σημείο πχ ενός ρευστού στο επίπεδο Εστω ότι ψάχνουμε τις τροχιές κίνησης των

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΜΙΑ ΣΥΜΒΑΣΗ: Προκειμένου να καταστήσουμε πιο συμπαγή το συμβολισμό H : ορίζουμε Ετσι έχουμε *=[ ] an *=[ ]. H : * * ΣΗΜΕΙΩΣΗ: Στη συνέχεια εκτός αν ορίζεται

Διαβάστε περισσότερα

Μάθηση Λανθανόντων Μοντέλων με Μερικώς Επισημειωμένα Δεδομένα (Learning Aspect Models with Partially Labeled Data) Αναστασία Κριθαρά.

Μάθηση Λανθανόντων Μοντέλων με Μερικώς Επισημειωμένα Δεδομένα (Learning Aspect Models with Partially Labeled Data) Αναστασία Κριθαρά. Μάθηση Λανθανόντων Μοντέλων με Μερικώς Επισημειωμένα Δεδομένα (Learning Aspect Models with Partially Labeled Data) Αναστασία Κριθαρά Xerox Research Centre Europe LIP6 - Université Pierre et Marie Curie

Διαβάστε περισσότερα

Σπιν 1 2. Γενικά. Ŝ και S ˆz γράφονται. ιδιοκαταστάσεις αποτελούν ορθοκανονική βάση στον χώρο των καταστάσεων του σπιν 1 2.

Σπιν 1 2. Γενικά. Ŝ και S ˆz γράφονται. ιδιοκαταστάσεις αποτελούν ορθοκανονική βάση στον χώρο των καταστάσεων του σπιν 1 2. Σπιν Γενικά Θα χρησιμοποιήσουμε τις γενικές σχέσεις που αποδείξαμε στην ανάρτηση «Εύρεση των ιδιοτιμών της στροφορμής», που, όπως είδαμε, ισχύουν για κάθε γενική στροφορμή ˆ J με συνιστώσες Jˆ, Jˆ, J ˆ,

Διαβάστε περισσότερα

Συμπίεση Πληροφορίας Πλαισίου με Ανάλυση Κύριων Συνιστωσών

Συμπίεση Πληροφορίας Πλαισίου με Ανάλυση Κύριων Συνιστωσών Τμήμα Πληροφορικής και Τηλεπικοινωνιών Πρόγραμμα Μεταπτυχιακών Σπουδών Συμπίεση Πληροφορίας Πλαισίου με Ανάλυση Κύριων Συνιστωσών Διπλωματική Εργασία Παναγιώτης Γεώργας (Μ1040) Επιβλέπωντες: Επικ. Καθηγητής

Διαβάστε περισσότερα

ΕΚΤΙΜΙΣΗ ΜΕΓΙΣΤΗΣ ΠΙΘΑΝΟΦΑΝΕΙΑΣ

ΕΚΤΙΜΙΣΗ ΜΕΓΙΣΤΗΣ ΠΙΘΑΝΟΦΑΝΕΙΑΣ 3.1 Εισαγωγή ΕΚΤΙΜΙΣΗ ΜΕΓΙΣΤΗΣ ΠΙΘΑΝΟΦΑΝΕΙΑΣ Στο κεφ. 2 είδαμε πώς θα μπορούσαμε να σχεδιάσουμε έναν βέλτιστο ταξινομητή εάν ξέραμε τις προγενέστερες(prior) πιθανότητες ( ) και τις κλάση-υπό όρους πυκνότητες

Διαβάστε περισσότερα

, που, χωρίς βλάβη της γενικότητας, μπορούμε να θεωρήσουμε χρονική στιγμή μηδέν, δηλαδή

, που, χωρίς βλάβη της γενικότητας, μπορούμε να θεωρήσουμε χρονική στιγμή μηδέν, δηλαδή Η ΚΥΜΑΤΟΣΥΝΑΡΤΗΣΗ ΣΤΗΝ ΑΝΑΠΑΡΑΣΤΑΣΗ ΘΕΣΗΣ ΑΝΑΠΑΡΑΣΤΑΣΗ ΟΡΜΗΣ p. Θα βρούμε πρώτα τη σχέση που συνδέει την p με την x. x ΚΑΙ ΣΤΗΝ Έστω η κατάσταση του συστήματός μας μια χρονική στιγμή t 0, που, χωρίς βλάβη

Διαβάστε περισσότερα

HMY 799 1: Αναγνώριση Συστημάτων

HMY 799 1: Αναγνώριση Συστημάτων HMY 799 : Αναγνώριση Συστημάτων Διαλέξεις Επιλογή τάξης μοντέλου και επικύρωση Επαναληπτική αναγνώριση Βέλτιστη μέθοδος συμβαλλουσών μεταβλητών (opimal IV mehod) P P P IV IV, op PEM z() = H ( q) φ () Γενική

Διαβάστε περισσότερα

ΤΕΧΝΟΛΟΓΙΚΟ ΕΚΠΑΙΔΕΥΤΙΚΟ ΙΔΡΥΜΑ ΚΕΝΤΡΙΚΗΣ ΜΑΚΕΔΟΝΙΑΣ ΣΧΟΛΗ ΤΜΗΜΑ. Μαθηματικά 2. Σταύρος Παπαϊωάννου

ΤΕΧΝΟΛΟΓΙΚΟ ΕΚΠΑΙΔΕΥΤΙΚΟ ΙΔΡΥΜΑ ΚΕΝΤΡΙΚΗΣ ΜΑΚΕΔΟΝΙΑΣ ΣΧΟΛΗ ΤΜΗΜΑ. Μαθηματικά 2. Σταύρος Παπαϊωάννου ΤΕΧΝΟΛΟΓΙΚΟ ΕΚΠΑΙΔΕΥΤΙΚΟ ΙΔΡΥΜΑ ΚΕΝΤΡΙΚΗΣ ΜΑΚΕΔΟΝΙΑΣ ΣΧΟΛΗ ΤΜΗΜΑ Μαθηματικά Σταύρος Παπαϊωάννου Ιούνιος Τίτλος Μαθήματος Περιεχόμενα Χρηματοδότηση. Σφάλμα! Δεν έχει οριστεί σελιδοδείκτης. Σκοποί Μαθήματος

Διαβάστε περισσότερα

Διπλωματική Εργασία: «Συγκριτική Μελέτη Μηχανισμών Εκτίμησης Ελλιπούς Πληροφορίας σε Ασύρματα Δίκτυα Αισθητήρων»

Διπλωματική Εργασία: «Συγκριτική Μελέτη Μηχανισμών Εκτίμησης Ελλιπούς Πληροφορίας σε Ασύρματα Δίκτυα Αισθητήρων» Τμήμα Πληροφορικής και Τηλεπικοινωνιών Πρόγραμμα Μεταπτυχιακών Σπουδών Διπλωματική Εργασία: «Συγκριτική Μελέτη Μηχανισμών Εκτίμησης Ελλιπούς Πληροφορίας σε Ασύρματα Δίκτυα Αισθητήρων» Αργυροπούλου Αιμιλία

Διαβάστε περισσότερα

HMY 799 1: Αναγνώριση Συστημάτων

HMY 799 1: Αναγνώριση Συστημάτων HMY 799 : Αναγνώριση Συστημάτων Διάλεξη Γραμμική παλινδρόμηση (Linear regression) Εμπειρική συνάρτηση μεταφοράς Ομαλοποίηση (smoothing) Y ( ) ( ) ω G ω = U ( ω) ω +Δ ω γ ω Δω = ω +Δω W ( ξ ω ) U ( ξ) G(

Διαβάστε περισσότερα

ΕΠΑΝΑΛΗΠΤΙΚΗ ΤΕΛΙΚΗ ΕΞΕΤΑΣΗ 3 Ιουλίου 2010

ΕΠΑΝΑΛΗΠΤΙΚΗ ΤΕΛΙΚΗ ΕΞΕΤΑΣΗ 3 Ιουλίου 2010 ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΡΟΓΡΑΜΜΑ ΣΠΟΥΔΩΝ ΣΤΗΝ ΠΛΗΡΟΦΟΡΙΚΗ ΜΑΘΗΜΑΤΙΚΑ Ι (ΘΕ ΠΛΗ ) ΕΠΑΝΑΛΗΠΤΙΚΗ ΤΕΛΙΚΗ ΕΞΕΤΑΣΗ Ιουλίου Θέμα ( μονάδες) 4 Θεωρούμε τον Ευκλείδειο χώρο και τον υποχώρο του V που παράγεται

Διαβάστε περισσότερα

ΘΕΩΡΙΑ ΑΠΟΦΑΣΕΩΝ 3 ο ΦΡΟΝΤΙΣΤΗΡΙΟ ΛΥΣΕΙΣ ΤΩΝ ΑΣΚΗΣΕΩΝ

ΘΕΩΡΙΑ ΑΠΟΦΑΣΕΩΝ 3 ο ΦΡΟΝΤΙΣΤΗΡΙΟ ΛΥΣΕΙΣ ΤΩΝ ΑΣΚΗΣΕΩΝ ΘΕΩΡΙΑ ΑΠΟΦΑΣΕΩΝ 3 ο ΦΡΟΝΤΙΣΤΗΡΙΟ ΛΥΣΕΙΣ ΤΩΝ ΑΣΚΗΣΕΩΝ ΑΣΚΗΣΗ Σύμφωνα με στοιχεία από το Πανεπιστήμιο της Οξφόρδης η πιθανότητα ένας φοιτητής να αποφοιτήσει μέσα σε 5 χρόνια από την ημέρα εγγραφής του στο

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 9-10

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 9-10 HMY 795: Αναγνώριση Προτύπων Διαλέξεις 9-10 Γραμμική παλινδρόμηση (Linear regression) Μπεϋζιανή εκτίμηση για την κανονική κατανομή Γνωστή μέση τιμή μ, άγνωστη διασπορά σ 2. Ακρίβεια λ=1/σ 2 : conjugate

Διαβάστε περισσότερα

X 1 X 2. X d X = 2 Y (x) = e x 2. f X+Y (x) = f X f Y (x) = f X (y)f Y (x y)dy. exp. exp. dy, (1) f X+Y (x) = j= σ2 2) exp x 2 )

X 1 X 2. X d X = 2 Y (x) = e x 2. f X+Y (x) = f X f Y (x) = f X (y)f Y (x y)dy. exp. exp. dy, (1) f X+Y (x) = j= σ2 2) exp x 2 ) Εστω X : Ω R d τυχαίο διάνυσμα με ΠΟΛΥΔΙΑΣΤΑΤΗ ΚΑΝΟΝΙΚΗ ΚΑΤΑΝΟΜΗ X Εχουμε δει ότι η γνώση της κατανομής καθεμιάς από τις X, X,, X d δεν αρκεί για να προσδιορίσουμε την κατανομή του X, αφού δεν περιέχει

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson Μέθοδοι ελαχίστων τετραγώνων Least square methos Αν οι κλάσεις είναι γραμμικώς διαχωρίσιμες το perceptron θα δώσει σαν έξοδο ± Αν οι κλάσεις ΔΕΝ είναι

Διαβάστε περισσότερα

Εισαγωγή στις Τηλεπικοινωνίες. Δομή της παρουσίασης

Εισαγωγή στις Τηλεπικοινωνίες. Δομή της παρουσίασης 1 Oct 16 ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΙΡΑΙΩΣ ΣΧΟΛΗ ΤΕΧΝΟΛΟΓΙΩΝ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΕΠΙΚΟΙΝΩΝΙΩΝ ΤΜΗΜΑ ΨΗΦΙΑΚΩΝ ΣΥΣΤΗΜΑΤΩΝ ΕΡΓΑΣΤΗΡΙΟ ΤΗΛΕΠΙΚΟΙΝΩΝΙΑΚΩΝ ΣΥΣΤΗΜΑΤΩΝ Εισαγωγή στις Τηλεπικοινωνίες Διάλεξη 4 η Γεωμετρική Αναπαράσταση

Διαβάστε περισσότερα

ΤΕΧΝΟΛΟΓΙΚΟ ΕΚΠΑΙΔΕΥΤΙΚΟ ΙΔΡΥΜΑ ΚΕΝΤΡΙΚΗΣ ΜΑΚΕΔΟΝΙΑΣ ΣΧΟΛΗ ΤΜΗΜΑ. Μαθηματικά 1. Σταύρος Παπαϊωάννου

ΤΕΧΝΟΛΟΓΙΚΟ ΕΚΠΑΙΔΕΥΤΙΚΟ ΙΔΡΥΜΑ ΚΕΝΤΡΙΚΗΣ ΜΑΚΕΔΟΝΙΑΣ ΣΧΟΛΗ ΤΜΗΜΑ. Μαθηματικά 1. Σταύρος Παπαϊωάννου ΤΕΧΝΟΛΟΓΙΚΟ ΕΚΠΑΙΔΕΥΤΙΚΟ ΙΔΡΥΜΑ ΚΕΝΤΡΙΚΗΣ ΜΑΚΕΔΟΝΙΑΣ ΣΧΟΛΗ ΤΜΗΜΑ Μαθηματικά Σταύρος Παπαϊωάννου Ιούνιος 05 Τίτλος Μαθήματος Περιεχόμενα Χρηματοδότηση.. Σφάλμα! Δεν έχει οριστεί σελιδοδείκτης. Σκοποί Μαθήματος

Διαβάστε περισσότερα

Η ΜΕΘΟΔΟΣ PCA (Principle Component Analysis)

Η ΜΕΘΟΔΟΣ PCA (Principle Component Analysis) Η ΜΕΘΟΔΟΣ PCA (Principle Component Analysis) Η μέθοδος PCA (Ανάλυση Κύριων Συνιστωσών), αποτελεί μία γραμμική μέθοδο συμπίεσης Δεδομένων η οποία συνίσταται από τον επαναπροσδιορισμό των συντεταγμένων ενός

Διαβάστε περισσότερα

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΡΟΓΡΑΜΜΑ ΣΠΟΥΔΩΝ ΣΤΗΝ ΠΛΗΡΟΦΟΡΙΚΗ ΜΑΘΗΜΑΤΙΚΑ ΓΙΑ ΤΗΝ ΠΛΗΡΟΦΟΡΙΚΗ Ι (ΘΕ ΠΛΗ ) ΑΠΑΝΤΗΣΕΙΣ ΘΕΜΑΤΩΝ ΤΕΛΙΚΗΣ ΕΞΕΤΑΣΗΣ 9 Ιουνίου (διάρκεια ώρες και λ) Διαβάστε προσεκτικά και απαντήστε

Διαβάστε περισσότερα

μαγνητικό πεδίο τυχαίας κατεύθυνσης

μαγνητικό πεδίο τυχαίας κατεύθυνσης Σπιν 1 μέσα σε ομογενές, χρονικά ανεξάρτητο μαγνητικό πεδίο τυχαίας κατεύθυνσης 1) Ηλεκτρόνιο βρίσκεται μέσα σε ομογενές, χρονικά ανεξάρτητο μαγνητικό πεδίο B B ˆ ˆ ˆ 0xex B0 yey B0 zez, όπου B0 x, B0

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ Ακαδ. Έτος 06-07 Διδάσκων: Βασίλης ΚΟΥΤΡΑΣ Λέκτορας v.outras@e.aegea.gr Τηλ: 7035468 Μέθοδος Υπολογισμού

Διαβάστε περισσότερα

(p 1) (p m) (m 1) (p 1)

(p 1) (p m) (m 1) (p 1) ΠΑΡΑΓΟΝΤΙΚΗ ΑΝΑΛΥΣΗ Σκοπός της παραγοντικής ανάλυσης είναι να περιγράψει την συνδιασπορά μεταξύ των μεταβλητών με την βοήθεια τυχαίων άγνωστων ποσοτήτων που ονομάζονται παράγοντες. Το μοντέλο είναι το

Διαβάστε περισσότερα

Ταξινόμηση καμπυλών και επιφανειών με τη βοήθεια των τετραγωνικών μορφών.

Ταξινόμηση καμπυλών και επιφανειών με τη βοήθεια των τετραγωνικών μορφών. Ταξινόμηση καμπυλών και επιφανειών με τη βοήθεια των τετραγωνικών μορφών (βλ ενότητες 8 και 8 από το βιβλίο Εισαγωγή στη Γραμμική Άλγεβρα, Ι Χατζάρας, Θ Γραμμένος, 0) (Δείτε τα παραδείγματα 8 (, ) και

Διαβάστε περισσότερα

Εφαρμοσμένη Στατιστική

Εφαρμοσμένη Στατιστική ΠΑΝΕΠΙΣΤΗΜΙΟ ΙΩΑΝΝΙΝΩΝ ΑΝΟΙΚΤΑ ΑΚΑΔΗΜΑΪΚΑ ΜΑΘΗΜΑΤΑ Εφαρμοσμένη Στατιστική Εκτιμητική Διδάσκων: Επίκουρος Καθηγητής Κωνσταντίνος Μπλέκας Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης

Διαβάστε περισσότερα

Εισαγωγικές έννοιες. Κατηγορίες προβλημάτων (σε μια διάσταση) Προβλήματα εύρεσης μεγίστου. Συμβολισμοί

Εισαγωγικές έννοιες. Κατηγορίες προβλημάτων (σε μια διάσταση) Προβλήματα εύρεσης μεγίστου. Συμβολισμοί Κατηγορίες προβλημάτων (σε μια διάσταση) Εισαγωγικές έννοιες Δ. Γ. Παπαγεωργίου Τμήμα Μηχανικών Επιστήμης Υλικών Πανεπιστήμιο Ιωαννίνων dpapageo@cc.uoi.gr http://pc164.materials.uoi.gr/dpapageo Το πρόβλημα

Διαβάστε περισσότερα

Αναγνώριση Προτύπων Ι

Αναγνώριση Προτύπων Ι Αναγνώριση Προτύπων Ι Ενότητα 2: Δομικά Συστήματα Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες

Διαβάστε περισσότερα

είναι πρόβλημα μεγιστοποίησης όλοι οι περιορισμοί είναι εξισώσεις με μη αρνητικούς του σταθερούς όρους όλες οι μεταβλητές είναι μη αρνητικές

είναι πρόβλημα μεγιστοποίησης όλοι οι περιορισμοί είναι εξισώσεις με μη αρνητικούς του σταθερούς όρους όλες οι μεταβλητές είναι μη αρνητικές Ένα τυχαίο π.γ.π. maximize/minimize z=c x Αx = b x 0 Τυπική μορφή του π.γ.π. maximize z=c x Αx = b x 0 b 0 είναι πρόβλημα μεγιστοποίησης όλοι οι περιορισμοί είναι εξισώσεις με μη αρνητικούς του σταθερούς

Διαβάστε περισσότερα

ΓΡΑΜΜΙΚΗ ΑΛΓΕΒΡΑ (Εξ. Ιουνίου - 02/07/08) ΕΠΙΛΕΓΜΕΝΕΣ ΑΠΑΝΤΗΣΕΙΣ

ΓΡΑΜΜΙΚΗ ΑΛΓΕΒΡΑ (Εξ. Ιουνίου - 02/07/08) ΕΠΙΛΕΓΜΕΝΕΣ ΑΠΑΝΤΗΣΕΙΣ Ονοματεπώνυμο:......... Α.Μ....... Ετος... ΑΙΘΟΥΣΑ:....... I. (περί τις 55μ. = ++5++. Σωστό ή Λάθος: ΓΡΑΜΜΙΚΗ ΑΛΓΕΒΡΑ (Εξ. Ιουνίου - //8 ΕΠΙΛΕΓΜΕΝΕΣ ΑΠΑΝΤΗΣΕΙΣ (αʹ Αν AB = BA όπου A, B τετραγωνικά και

Διαβάστε περισσότερα

3. Μια πρώτη προσέγγιση στην επίλυση των κανονικών μορφών Δ. Ε.

3. Μια πρώτη προσέγγιση στην επίλυση των κανονικών μορφών Δ. Ε. 3. Μια πρώτη προσέγγιση στην επίλυση των κανονικών μορφών Δ. Ε. Στην εισαγωγή δείξαμε ότι η διαφορική εξίσωση του γραμμικού, χρονικά αναλλοίωτου συστήματος μιας εισόδου μιας εξόδου με διαφορική εξίσωση

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διαλέξεις 15 16 Λογιστική παλινδρόμηση (Logistic regression) Νευρωνικά Δίκτυα (Neural Networks) g ( x) = w x+ w T k k k0 1 ( T T WLS = X X) X T= X T Γραμμικές διαχωριστικές

Διαβάστε περισσότερα

Δίνεται το σύστημα μιας εισόδου και μιας εξόδου, το οποίο περιγράφεται από τις κάτωθι εξισώσεις:,, πίνακας,

Δίνεται το σύστημα μιας εισόδου και μιας εξόδου, το οποίο περιγράφεται από τις κάτωθι εξισώσεις:,, πίνακας, Παράδειγμα 3.2(Επίλυση συστήματος Jordan) Δίνεται το σύστημα μιας εισόδου και μιας εξόδου, το οποίο περιγράφεται από τις κάτωθι εξισώσεις: Όπου,, πίνακας, Να λυθεί το σύστημα με είσοδο τη συνάρτηση Επίλυση

Διαβάστε περισσότερα

ΔΙΑΧΕΙΡΙΣΗ ΠΕΡΙΕΧΟΜΕΝΟΥ ΠΑΓΚΟΣΜΙΟΥ ΙΣΤΟΥ ΚΑΙ ΓΛΩΣΣΙΚΑ ΕΡΓΑΛΕΙΑ. Data Mining - Classification

ΔΙΑΧΕΙΡΙΣΗ ΠΕΡΙΕΧΟΜΕΝΟΥ ΠΑΓΚΟΣΜΙΟΥ ΙΣΤΟΥ ΚΑΙ ΓΛΩΣΣΙΚΑ ΕΡΓΑΛΕΙΑ. Data Mining - Classification ΔΙΑΧΕΙΡΙΣΗ ΠΕΡΙΕΧΟΜΕΝΟΥ ΠΑΓΚΟΣΜΙΟΥ ΙΣΤΟΥ ΚΑΙ ΓΛΩΣΣΙΚΑ ΕΡΓΑΛΕΙΑ Data Mining - Classification Data Mining Ανακάλυψη προτύπων σε μεγάλο όγκο δεδομένων. Σαν πεδίο περιλαμβάνει κλάσεις εργασιών: Anomaly Detection:

Διαβάστε περισσότερα

Ζητήματα ηήμ με τα δεδομένα

Ζητήματα ηήμ με τα δεδομένα Ζητήματα ηήμ με τα δεδομένα Ποιότητα Απαλοιφή θορύβου Εντοπισμός ανωμαλιών λώ Ελλιπείς τιμές Μετασχηματισμός Κβάντωση Μείωση μεγέθους Γραμμών: ειγματοληψία Στηλών: Ιδιοδιανύσματα, Επιλογή χαρακτηριστικών

Διαβάστε περισσότερα

Σφαίρα σε ράγες: Η συνάρτηση Lagrange. Ν. Παναγιωτίδης

Σφαίρα σε ράγες: Η συνάρτηση Lagrange. Ν. Παναγιωτίδης Η Εξίσωση Euler-Lagrange Σφαίρα σε ράγες: Η συνάρτηση Lagrange Ν. Παναγιωτίδης Έστω σύστημα δυο συγκλινόντων ραγών σε σχήμα Χ που πάνω τους κυλίεται σφαίρα ακτίνας. Θεωρούμε σύστημα συντεταγμένων με οριζόντιους

Διαβάστε περισσότερα

Εφαρμοσμένα Μαθηματικά ΙΙ Εξέταση Σεπτεμβρίου Διδάσκων: Ι. Λυχναρόπουλος

Εφαρμοσμένα Μαθηματικά ΙΙ Εξέταση Σεπτεμβρίου Διδάσκων: Ι. Λυχναρόπουλος /8/5 Εφαρμοσμένα Μαθηματικά ΙΙ Εξέταση Σεπτεμβρίου Διδάσκων: Ι. Λυχναρόπουλος Άσκηση (Μονάδες.5) Υπολογίστε το διπλό ολοκλήρωμα / I y dyd συντεταγμένες. Επίσης σχεδιάστε το χωρίο ολοκλήρωσης. Λύση: Το

Διαβάστε περισσότερα

Συστήµατα Μη-Γραµµικών Εξισώσεων Μέθοδος Newton-Raphson

Συστήµατα Μη-Γραµµικών Εξισώσεων Μέθοδος Newton-Raphson Ιαν. 009 Συστήµατα Μη-Γραµµικών Εξισώσεων Μέθοδος Newton-Raphson Έστω y, y,, yn παρατηρήσεις µιας m -διάστατης τυχαίας µεταβλητής µε συνάρτηση πυκνότητας πιθανότητας p( y; θ) η οποία περιγράφεται από ένα

Διαβάστε περισσότερα

Αναγνώριση Προτύπων Ι

Αναγνώριση Προτύπων Ι Αναγνώριση Προτύπων Ι Ενότητα 1: Μέθοδοι Αναγνώρισης Προτύπων Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται

Διαβάστε περισσότερα

Παραδείγματα Ιδιοτιμές Ιδιοδιανύσματα

Παραδείγματα Ιδιοτιμές Ιδιοδιανύσματα Παραδείγματα Ιδιοτιμές Ιδιοδιανύσματα Παράδειγμα Να βρείτε τις ιδιοτιμές και τα αντίστοιχα ιδιοδιανύσματα του πίνακα A 4. Επίσης να προσδιοριστούν οι ιδιοχώροι και οι γεωμετρικές πολλαπλότητες των ιδιοτιμών.

Διαβάστε περισσότερα

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης Μάθημα 5 ο Δρ. Ανέστης Γ. Χατζημιχαηλίδης Τμήμα Μηχανικών Πληροφορικής Τ.Ε. ΤΕΙ Ανατολικής Μακεδονίας και Θράκης 2016-2017 Διευρυμένη Υπολογιστική Νοημοσύνη (ΥΝ) Επεκτάσεις της Κλασικής ΥΝ. Μεθοδολογίες

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ Ακαδ. Έτος 06-07 Διδάσκων: Βασίλης ΚΟΥΤΡΑΣ Επικ. Καθηγητής v.koutra@fme.aegea.gr Τηλ: 7035468 Θα μελετήσουμε

Διαβάστε περισσότερα

ΔΗΜΟΚΡΙΤΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΡΑΚΗΣ Τμήμα Επιστήμης Φυσικής Αγωγής και Αθλητισμού Πρόγραμμα Διδακτορικών Σπουδών ΠΛΗΡΟΦΟΡΙΑΚΟ ΕΝΤΥΠΟ ΜΑΘΗΜΑΤΟΣ

ΔΗΜΟΚΡΙΤΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΡΑΚΗΣ Τμήμα Επιστήμης Φυσικής Αγωγής και Αθλητισμού Πρόγραμμα Διδακτορικών Σπουδών ΠΛΗΡΟΦΟΡΙΑΚΟ ΕΝΤΥΠΟ ΜΑΘΗΜΑΤΟΣ ΔΗΜΟΚΡΙΤΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΡΑΚΗΣ Τμήμα Επιστήμης Φυσικής Αγωγής και Αθλητισμού Πρόγραμμα Διδακτορικών Σπουδών ΠΛΗΡΟΦΟΡΙΑΚΟ ΕΝΤΥΠΟ ΜΑΘΗΜΑΤΟΣ 1. ΤΙΤΛΟΣ ΜΑΘΗΜΑΤΟΣ: Προχωρημένη Στατιστική 2. ΠΕΡΙΓΡΑΜΜΑ ΕΙΣΗΓΗΣΕΩΝ

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διάλεξη 4 Διαχωριστικές συναρτήσεις Ταξινόμηση Γκαουσιανών μεταβλητών Bayesan decson Mnmum msclassfcaton rate decson: διαλέγουμε την κατηγορίαck για την οποία η εκ των υστέρων

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διδάσκων: Γεώργιος Μήτσης, Λέκτορας, Τμήμα ΗΜΜΥ Γραφείο: GP401 Ώρες γραφείου: Οποτεδήποτε (κατόπιν επικοινωνίας) Τηλ: 22892239 Ηλ. Ταχ.: gmitsis@ucy.ac.cy Βιβλιογραφία C. M.

Διαβάστε περισσότερα

ΠΛΗ 12 - Ιδιοτιμές και ιδιοδιανύσματα

ΠΛΗ 12 - Ιδιοτιμές και ιδιοδιανύσματα 5 Ιδιοτιμές και ιδιοδιανύσματα Χαρακτηριστικό πολυώνυμο Έστω ο πίνακας Α: Αν από τα στοιχεία της κυρίας διαγωνίου α,α αφαιρέσουμε τον αριθμό λ, τότε προκύπτει ο πίνακας: του οποίου η ορίζουσα είναι η εξής:

Διαβάστε περισσότερα

3 η ΕΝΟΤΗΤΑ ΜΗ ΓΡΑΜΜΙΚΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ ΕΝΟΣ ΚΡΙΤΗΡΙΟΥ

3 η ΕΝΟΤΗΤΑ ΜΗ ΓΡΑΜΜΙΚΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ ΕΝΟΣ ΚΡΙΤΗΡΙΟΥ ΣΧΟΛΗ ΠΟΛΙΤΙΚΩΝ ΜΗΧΑΝΙΚΩΝ ΕΜΠ ΕΙΣΑΓΩΓΗ ΣΤΗN ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ ΣΥΣΤΗΜΑΤΩΝ 3 η ΕΝΟΤΗΤΑ ΜΗ ΓΡΑΜΜΙΚΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ ΕΝΟΣ ΚΡΙΤΗΡΙΟΥ Μ. Καρλαύτης Ν. Λαγαρός Άδεια Χρήσης Το παρόν εκπαιδευτικό υλικό

Διαβάστε περισσότερα

Αναγνώριση Προτύπων (Pattern Recognition) Μπεϋζιανή Θεωρία Αποφάσεων (Bayesian Decision Theory) Π. Τσακαλίδης

Αναγνώριση Προτύπων (Pattern Recognition) Μπεϋζιανή Θεωρία Αποφάσεων (Bayesian Decision Theory) Π. Τσακαλίδης Αναγνώριση Προτύπων (Pattern Recognton Μπεϋζιανή Θεωρία Αποφάσεων (Bayesan Decson Theory Π. Τσακαλίδης ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΠΙΣΤΗΜΗΣ ΥΠΟΛΟΓΙΣΤΩΝ Μπεϋζιανή Θεωρία Αποφάσεων (Bayes Decson theory Στατιστικά

Διαβάστε περισσότερα

Δηλαδή η ρητή συνάρτηση είναι πηλίκο δύο ακέραιων πολυωνύμων. Επομένως, το ζητούμενο ολοκλήρωμα είναι της μορφής

Δηλαδή η ρητή συνάρτηση είναι πηλίκο δύο ακέραιων πολυωνύμων. Επομένως, το ζητούμενο ολοκλήρωμα είναι της μορφής D ολοκλήρωση ρητών συναρτήσεων Το θέμα μας στην ενότητα αυτή είναι η ολοκλήρωση ρητών συναρτήσεων. Ας θυμηθούμε πρώτα ποιες συναρτήσεις ονομάζονται ρητές. Ορισμός: Μία συνάρτηση ονομάζεται ρητή όταν μπορεί

Διαβάστε περισσότερα

E[ (x- ) ]= trace[(x-x)(x- ) ]

E[ (x- ) ]= trace[(x-x)(x- ) ] 1 ΦΙΛΤΡΟ KALMAN ΔΙΑΚΡΙΤΟΥ ΧΡΟΝΟΥ Σε αυτό το μέρος της πτυχιακής θα ασχοληθούμε λεπτομερώς με το φίλτρο kalman και θα δούμε μια καινούρια έκδοση του φίλτρου πάνω στην εφαρμογή της γραμμικής εκτίμησης διακριτού

Διαβάστε περισσότερα

Συζευγμένα ταλαντώσεις - Ένα άλλο σύστημα

Συζευγμένα ταλαντώσεις - Ένα άλλο σύστημα ΦΥΣ 11 - Διαλ.3 1 Συζευγμένα ταλαντώσεις - Ένα άλλο σύστημα q Το παρακάτω σύστημα είναι ανάλογο με το σύστημα των δύο εκκρεμών. q Οι δυο ιδιοσυχνότητες του συστήματος είναι ίδιες με τις ιδιοσυχνότητες

Διαβάστε περισσότερα

= 7. Στο σημείο αυτό θα υπενθυμίσουμε κάποιες βασικές ιδιότητες του μετασχηματισμού Laplace, δηλαδή τις

= 7. Στο σημείο αυτό θα υπενθυμίσουμε κάποιες βασικές ιδιότητες του μετασχηματισμού Laplace, δηλαδή τις 1. Εισαγωγή Δίνεται η συνάρτηση μεταφοράς = = 1 + 6 + 11 + 6 = + 6 + 11 + 6 =. 2 Στο σημείο αυτό θα υπενθυμίσουμε κάποιες βασικές ιδιότητες του μετασχηματισμού Laplace, δηλαδή τις L = 0 # και L $ % &'

Διαβάστε περισσότερα

Δυναμική Μηχανών I. Διάλεξη 13. Χειμερινό Εξάμηνο 2013 Τμήμα Μηχανολόγων Μηχ., ΕΜΠ

Δυναμική Μηχανών I. Διάλεξη 13. Χειμερινό Εξάμηνο 2013 Τμήμα Μηχανολόγων Μηχ., ΕΜΠ Δυναμική Μηχανών I Διάλεξη 13 Χειμερινό Εξάμηνο 2013 Τμήμα Μηχανολόγων Μηχ., ΕΜΠ 1 Περιεχόμενα Iδιότητες Ιδιοανυσμάτων Συστήματα χωρίς απόσβεση Ιδιοανυσματικός Μετασχηματισμός Συστήματα χωρίς απόσβεση

Διαβάστε περισσότερα

Κεφάλαιο 8 Συνεχείς Κατανομές Πιθανοτήτων

Κεφάλαιο 8 Συνεχείς Κατανομές Πιθανοτήτων Κεφάλαιο 8 Συνεχείς Κατανομές Πιθανοτήτων Copyright 2009 Cengage Learning 8.1 Συναρτήσεις Πυκνότητας Πιθανοτήτων Αντίθετα με τη διακριτή τυχαία μεταβλητή που μελετήσαμε στο Κεφάλαιο 7, μια συνεχής τυχαία

Διαβάστε περισσότερα

ΚΒΑΝΤΟΜΗΧΑΝΙΚΗ. Ασκήσεις Κεφαλαίου Ι

ΚΒΑΝΤΟΜΗΧΑΝΙΚΗ. Ασκήσεις Κεφαλαίου Ι ΚΒΑΝΤΟΜΗΧΑΝΙΚΗ Ασκήσεις Κεφαλαίου Ι Άσκηση 1: Θεωρήστε δύο ορθοκανονικά διανύσματα ψ 1 και ψ και υποθέστε ότι αποτελούν βάση σε ένα χώρο δύο διαστάσεων. Θεωρήστε επίσης ένα τελαστή T που ορίζεται στο χώρο

Διαβάστε περισσότερα

E [ -x ^2 z] = E[x z]

E [ -x ^2 z] = E[x z] 1 1.ΦΙΛΤΡΟ KALMAN ΔΙΑΚΡΙΤΟΥ ΧΡΟΝΟΥ Σε αυτήν την διάλεξη θα πάμε στο φίλτρο με περισσότερες λεπτομέρειες, και θα παράσχουμε μια νέα παραγωγή για το φίλτρο Kalman, αυτή τη φορά βασισμένο στην ιδέα της γραμμικής

Διαβάστε περισσότερα

Η μέθοδος PCA -Ανάλυση Κύριων Συνιστωσών

Η μέθοδος PCA -Ανάλυση Κύριων Συνιστωσών Η μέθοδος PCA -Ανάλυση Κύριων Συνιστωσών Γιώργος Παπαδουράκης Κώστας Μαριάς Technological Educational Institute Of Crete Department Of Applied Informatics and Multimedia Intelligent Systems Laboratory

Διαβάστε περισσότερα

Αριθμητική Ανάλυση και Εφαρμογές

Αριθμητική Ανάλυση και Εφαρμογές Αριθμητική Ανάλυση και Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 07-08 Αριθμητική Παραγώγιση Εισαγωγή Ορισμός 7. Αν y f x είναι μια συνάρτηση ορισμένη σε ένα διάστημα

Διαβάστε περισσότερα

Αναγνώριση Προτύπων. Μη παραμετρικές τεχνικές Αριθμητικά. (Non Parametric Techniques)

Αναγνώριση Προτύπων. Μη παραμετρικές τεχνικές Αριθμητικά. (Non Parametric Techniques) Αναγνώριση Προτύπων Μη παραμετρικές τεχνικές Αριθμητικά Παραδείγματα (Non Parametric Techniques) Καθηγητής Χριστόδουλος Χαμζάς Τα περιεχόμενο της παρουσίασης βασίζεται στο βιβλίο: Introduction to Pattern

Διαβάστε περισσότερα

Ακαδημαϊκό Έτος , Χειμερινό Εξάμηνο Διδάσκων Καθ.: Νίκος Τσαπατσούλης

Ακαδημαϊκό Έτος , Χειμερινό Εξάμηνο Διδάσκων Καθ.: Νίκος Τσαπατσούλης ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΛΟΠΟΝΝΗΣΟΥ, ΤΜΗΜΑ ΤΕΧΝΟΛΟΓΙΑΣ ΤΗΛΕΠΙΚΟΙΝΩΝΙΩΝ ΚΕΣ 3: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΚΑΙ ΑΝΑΛΥΣΗ ΕΙΚΟΝΑΣ Ακαδημαϊκό Έτος 7 8, Χειμερινό Εξάμηνο Καθ.: Νίκος Τσαπατσούλης ΕΡΩΤΗΣΕΙΣ ΕΠΑΝΑΛΗΨΗΣ Το παρόν

Διαβάστε περισσότερα

Σφαίρα σε ράγες: Η συνάρτηση Lagrange. Ν. Παναγιωτίδης

Σφαίρα σε ράγες: Η συνάρτηση Lagrange. Ν. Παναγιωτίδης Σφαίρα σε ράγες: Η συνάρτηση Lagrange Ν. Παναγιωτίδης Έστω σύστημα δυο συγκλινόντων ραγών σε σχήμα Χ που πάνω τους κυλίεται σφαίρα ακτίνας. Θεωρούμε σύστημα συντεταγμένων με οριζόντιους τους άξονες και.

Διαβάστε περισσότερα

Άσκηση 1: Λύση: Για το άθροισμα ισχύει: κι επειδή οι μέσες τιμές των Χ και Υ είναι 0: Έτσι η διασπορά της Ζ=Χ+Υ είναι:

Άσκηση 1: Λύση: Για το άθροισμα ισχύει: κι επειδή οι μέσες τιμές των Χ και Υ είναι 0: Έτσι η διασπορά της Ζ=Χ+Υ είναι: Άσκηση 1: Δύο τυχαίες μεταβλητές Χ και Υ έχουν στατιστικές μέσες τιμές 0 και διασπορές 25 και 36 αντίστοιχα. Ο συντελεστής συσχέτισης των 2 τυχαίων μεταβλητών είναι 0.4. Να υπολογισθούν η διασπορά του

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Η παραπάνω ανάλυση ήταν χρήσιμη προκειμένου να κατανοήσουμε τη λογική των δικτύων perceptrons πολλών επιπέδων

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ Ακαδ. Έτος 07-08 Διδάσκων: Βασίλης ΚΟΥΤΡΑΣ Επικ. Καθηγητής v.koutras@fme.aegea.gr Τηλ: 7035468 Θα μελετήσουμε

Διαβάστε περισσότερα

y 1 (x) f(x) W (y 1, y 2 )(x) dx,

y 1 (x) f(x) W (y 1, y 2 )(x) dx, Συνήθεις Διαφορικές Εξισώσεις Ι Ασκήσεις - 07/1/017 Μέρος 1ο: Μη Ομογενείς Γραμμικές Διαφορικές Εξισώσεις Δεύτερης Τάξης Θεωρούμε τη γραμμική μή-ομογενή διαφορική εξίσωση y + p(x) y + q(x) y = f(x), x

Διαβάστε περισσότερα

Δυναμική Μηχανών I. Διάλεξη 12. Χειμερινό Εξάμηνο 2013 Τμήμα Μηχανολόγων Μηχ., ΕΜΠ

Δυναμική Μηχανών I. Διάλεξη 12. Χειμερινό Εξάμηνο 2013 Τμήμα Μηχανολόγων Μηχ., ΕΜΠ Δυναμική Μηχανών I Διάλεξη 12 Χειμερινό Εξάμηνο 2013 Τμήμα Μηχανολόγων Μηχ., ΕΜΠ 1 Περιεχόμενα Απόκριση Συστημάτων N Β.Ε. Σε αρχικές συνθήκες Συστήματα χωρίς απόσβεση Εισαγωγή στην ιδιοανυσματική ανάλυση

Διαβάστε περισσότερα

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΣΤΑΤΙΣΤΙΚΗ ΤΩΝ ΕΠΙΧΕΙΡΗΣΕΩΝ. Κεφάλαιο 8. Συνεχείς Κατανομές Πιθανοτήτων

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΣΤΑΤΙΣΤΙΚΗ ΤΩΝ ΕΠΙΧΕΙΡΗΣΕΩΝ. Κεφάλαιο 8. Συνεχείς Κατανομές Πιθανοτήτων ΤΕΧΝΟΛΟΓΙΚΟ ΕΚΠΑΙΔΕΥΤΙΚΟ ΙΔΡΥΜΑ ΔΥΤΙΚΗΣ ΕΛΛΑΔΑΣ ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ ΠΑΤΡΑΣ Εργαστήριο Λήψης Αποφάσεων & Επιχειρησιακού Προγραμματισμού Καθηγητής Ι. Μητρόπουλος ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΣΤΑΤΙΣΤΙΚΗ ΤΩΝ ΕΠΙΧΕΙΡΗΣΕΩΝ

Διαβάστε περισσότερα