HMY 795: Αναγνώριση Προτύπων
|
|
- Άκανθα Παυλόπουλος
- 6 χρόνια πριν
- Προβολές:
Transcript
1 HMY 795: Αναγνώριση Προτύπων Διαλέξεις 2-22 Support vector machies (συνέχεια) Support vector machies (συνέχεια) Usupervised learig: Clusterig ad Gaussia mixtures
2 Kerel fuctios: k( xx, ') = ϕ ( x) ϕ( x ') = ϕ( x), ϕ( x') k( xx, ') = ϕ ( x) ϕ( x ') = ( x, 2 x x, x ) ( x, 2 x x, x ) = 2 2 Τ '2 ' ' ' = ( x x + 2 x x x x + x x ) 2 '2 ' ' 2 ' = ( x x') = ( x x + x x ) 2 ' ' k(x,x )έγκυρη συνάρτηση πυρήνα:συμμετρική,πίνακας Κ={k(x,x m )} θετικά ημιορισμένος(positive semidefiite) M Παραδείγματα: M k ( xx, ') = x x ' = x x ' ( ) k ( xx, ') = exp( x x ' 2) Δεν είναι απαραίτητη η γνώση του φ(x)! 2 ( x x ) k( xx, ') = tah a ' + b
3 Kerel trick: Αν ο αλγόριθμος ταξινόμησης εκφράζεται σε σχέση με το εσωτερικό γινόμενο x x μπορούμε να αντικαταστήσουμεαυτό το εσωτερικό γινόμενο με οποιαδήποτε συνάρτηση πυρήνα k(x,x ) Παράδειγμα: Kerel perceptro Γενικεύουμε τον απλό αλγόριθμο perceptro w() = αυθαίρετο w( k+ ) = w( k) + tx M : tw x 0 ως εξής: w () = αυθαίρετο M w( k+ ) = w( k) + tϕ( x ) M : tw ϕ( x ) 0 M g( x ) = w x = t x x = t x, x M M g( x) = tϕ ( x ) ϕ( x) = t ϕ( x ), ϕ( x) = t k( x, x) M M M Τελικά: w() = αυθαίρετο g( k+ ) = g( k) + t k( x, x) M : t g( x ) 0 M
4 Support vector machies r = y( x) w t ={+,-} Τ y( x) = w x+ b t y ( x ) > 0 Support Vectors Κλάση Κλάση 2 Κλάση Κλάση 2 x Τ t y( x ) t( w x+ b) = w w Τ arg maxw, b mi t( w x+ b) w ( ) Τ Caoical represetatio t( w x+ b) = Costraits t( w Τ x+ b) =,2,..., Πρόβλημα βελτιστοποίησης 2 arg miw w 2 subject to t( w Τ x+ b) =, 2,..., Lagrage multipliers a 0 2 L( w, b, a) = w a( t( w Τ x+ b) ), a= ( a, a2,..., a ) 2 =
5 Συνθήκες Kaush-Kuh-ucker: L( w, b, a) L( w, b, a) = 0 w= a tx, = 0 0= w b Τ t ( w x + b) 0 =,2,..., a 0 Τ ( w x ) a t ( + b) =0 = = Τ Support vectors active costraits t( w x+ b) = a i >0 Τ Για όλα τα υπόλοιπα t( w x+ b) > a i =0 Δυαδική Lagragia Lɶ ( a) = m m m (maximize wrt a) a a a t t x x a 0 = 2 = m= a t Kerel trick Bias estimatio a t Lɶ ( a) = a a a t t k( x, x ) m m m = 2 = m= b= t amtmk(, m) S x x S m S = = 0
6 Μη γραμμικά διαχωρίσιμα δεδομένα: ξ 0(=,2,,) 0 αν το σηµείο είναι σωστά ταξινοµηµένο ξ = t y( x ) ειδάλλως Σημεία πάνω στο σύνορο ξ = (y(x )=0) Λάθος ταξινομημένα σημεία ξ > 0 ξ < βρίσκονται εντός του περιθωρίου, σωστή πλευρά Τ Περιορισμοί t( w x+ b) ξ =,2,..., Ελαχιστοποίηση της 2 Cξ+ w = 2 2 L( w, b, a) = w + Cξ a( t y( x ) + ξ ) µ ξ 2 KK coditios = = =
7 Support vector machies for regressio Είδαμε ότι σε ένα τυπικό πρόβλημα γραμμικής παλινδρόμησης με κανονικοποίηση ελαχιστοποιούμε την: 2 λ 2 ( y t) + w 2 = 2 Το βασικό χαρακτηριστικό των SVMs είναι ότι εξαρτώνται από ένα (μικρό) υποσύνολο των σημείων εκπαίδευσης Πως μπορεί να γίνει το ίδιο στην περίπτωση της παλινδρόμησης? Εναλλακτική συνάρτηση σφάλματος: ε-isesitive error fuctio (Vapik 995) 0 αν y( x) t < ε Eε ( y( x) t) = y( x) t - ε αλλιώς Κανονικοποιημένη συνάρτηση σφάλματος: C Eε ( y( x) t) + 2 = w 2 όπου y( x ) = w Τ ϕ( x ) + b
8 Support vector machies for regressio Ορίζουμε τις μεταβλητές ξ ˆ 0, ξ 0 ξ > 0 και ˆ ξ = 0 αν t > y( x ) + ε ˆ ξ > 0 και ξ = 0 αν t < y( x ) ε ως εξής: ˆ ξ = 0 και ξ = 0 αν y( x) ε t y( x) + ε Η λογική είναι παρόμοια με την περίπτωση ταξινόμησης: τα πρότυπα που βρίσκονται κοντά στις πραγματικές τιμές της μεταβλητής στόχου t (όπως και τα σωστά ταξινομημένα πρότυπα που βρίσκονται μακριά από το σύνορο) δενσυνεισφέρουν στο συνολικό κόστος Θα πρέπει να ισχύει για όλα τα σημεία: t y( x ) + ε+ ξ () t y( x ) ε ˆ ξ (2) Το πρόβλημα βελτιστοποίησης γράφεται: 2 miimize C ( ˆ ) s.t., ˆ ξ+ ξ + w ξ ξ 0 ad (),(2) 2 =
9 Support vector machies for regressio Lagragia ( a ˆ ˆ ):, a 0 και µ, µ 0 2 L= C ( ξ ˆ ) ( ˆ ˆ + ξ + w µ ξ + µ ξ) 2 = = ( ε ξ ( x ) ) ˆ ( ε ˆ ξ ( x ) ) a + + y t a + y + t = = Παραγωγίζοντας: Τ y( x ) = w ϕ( x ) + b
10 Support vector machies for regressio Αντικαθιστώντας παίρνουμε τη δυαδική Lagragia, η οποία πρέπει να μεγιστοποιηθεί ως προς a ˆ, a : L( aa, ˆ) = ( a aˆ )( a aˆ ) k( x, x ) ε( a + aˆ ) + ( a aˆ ) t 2 = m= = = Επειδή a, a ˆ 0 και µ, ˆ µ 0 και : m m m ΚΚΤ coditios τα γινόμενα μεταξύ των πολλαπλασιαστών και των αντίστοιχων ενεργών περιορισμών πρέπει να ισούνται με μηδέν:
11 Support vector machies for regressio Συνέπειες Για να είναι κάποιος συντελεστής a μη μηδενικός: ε+ ξ+ y( x ) t = 0 Άρα το αντίστοιχο σημείο βρίσκεται είτε ακριβώς στο ανώτερο όριο του ε-tube (ξ =0) ή πάνω από αυτό (ξ >0) Παρομοίως για να ισχύει a ˆ πρέπει (σημεία > 0 ε+ ˆ ξ y( x) + t = 0 ακριβώς ή κάτω από το κατώτερο όριοτου ε-tube) Μόνο ένας από τα a ˆ, a μπορεί να είναι μη μηδενικός! (support vectors) Προσδιορισμός b: Για κάποιο 0< a (ή ) για το οποίο πρέπει < C 0< aˆ < C ξ = 0 άρα και ε+ y( x ) t = 0, οπότε: Για καινούρια σημεία η πρόβλεψη μοντέλου είναι:
12 Support vector machies for regressio Εναλλακτικά αντί να πρέπει να προσδιορίσουμε το εμπορούμε να ορίσουμε μια παράμετρο νη οποία καθορίζει το κλάσμα των σημείων που βρίσκονται εκτός των ορίων. Τότε πρέπει να μεγιστοποιήσουμε την: με περιορισμούς: Σημ: Οι παράμετροι ε, ν, C μπορούν να επιλεγούν από δεδομένα επικύρωσης
13 Παράδειγμα Support vector machies for regressio
14 Μη επιβλεπόμενη μάθηση (usupervised learig) Στα προηγούμενα είδαμε αποκλειστικά αλγορίθμους επιβλεπόμενης μάθησης η κλάση κάθε δείγματος εκπαίδευσης θεωρούνταν γνωστή Μη επιβλεπόμενη μάθηση η κλάση των δεδομένων δεν είναι γνωστή Η διαδικασία τοποθέτησης ετικετών μπορεί να είναι ακριβή ή αδύνατη Τα χαρακτηριστικά των κλάσεων μπορεί να αλλάζουν με το χρόνο Μπορεί ο αριθμός των κλάσεων να είναι γνωστός ή άγνωστος Γενικά, ψάχνουμε να βρούμε ομοιότητες (similarities) σε κάποια υποσύνολα παρατηρήσεων
15 Ομαδοποίηση - Clusterig Ομαδοποίηση: Το πρόβλημα της αναγνώρισης ομάδων (clusters) σημείων σε πολυδιάστατο χώρο πρόβλημα μη επιβλεπόμενης (usupervised) μάθησης Έστω ότι έχουμε ένα σύνολο δεδομένων (παρατηρήσεων){x,x 2,,x } σε ένα χώρο διάστασης Dκαι θέλουμε να διαχωρίσουμε τα δεδομένα σε Κομάδες Έστω ότι (προς το παρόν) ότι το Κείναι γνωστό Μια ομάδα μπορεί να οριστεί ως ένα σύνολο παρατηρήσεων η απόσταση μεταξύ των οποίων είναι «μικρή» σε σύγκριση με την απόσταση με άλλα σημεία εκτός της ομάδας Άρα μπορούμε ισοδύναμα να ορίσουμε ένα σύνολο διανυσμάτων µ k όπου k=,2,,k, το καθένα από τα οποία αντιστοιχεί σε κάθε μια ομάδα (π.χ. στο «κέντρο» της) Ο σκοπός μας είναι να βρούμε αυτά τα διανύσματα καθώς και την αντιστοιχία κάθε προτύπου σε μια από τις ομάδες Έστω οι μεταβλητές r k ={0,}ώστε r k =αν το σημείο x ανατεθεί στην κλάση k (άρα r = 0, j k ). Μπορούμε να ορίσουμε τότε τη συνάρτηση: j distortio measure
16 Ομαδοποίηση - Clusterig Σκοπός είναι η ελαχιστοποίηση ως προς r k καιµ k Επαναληπτική διαδικασία με 2 διαδοχικά βήματα σε κάθε επανάληψη. Αρχικοποίηση µ k 2. Ελαχιστοποίηση Jως προς r k (κρατώντας τα µ k σταθερά) 3. Ελαχιστοποίηση J ως προς µ k (κρατώντας τα r k σταθερά) μέχρι να επιτευχθεί σύγκλιση. Αναλογία με αλγόριθμο μεγιστοποίησης αναμενόμενης τιμής (expectatio maximizatio ΕΜ algorithm) Η ελαχιστοποίηση ως προς r k (για γνωστό µ k ) είναι εύκοληκαι μπορεί να γίνει ξεχωριστά για κάθε σημείο (Ε-step): Κατόπινελαχιστοποιούμε ως προς µ k παραγωγίζοντας την J ως προς µ k (M step): μέση τιμή των σημείων που έχουν ανατεθεί στην ομάδα Κ K meas clusterig
17 Ομαδοποίηση - Clusterig Τα δύο βήματα επαναλαμβάνονται μέχρι να μην έχουμε αλλαγή στις αναθέσεις ή να φτάσουμε έναν μέγιστο αριθμό επαναλήψεων Εγγυημένη σύγκλιση, αλλά πιθανά σε τοπικό και όχι ολικό ελάχιστο Μπορούμε να αρχικοποιήσουμε τα µ k με τη μέση τιμή ενός τυχαίου υποσυνόλου των αρχικών δεδομένων μας Αργή υλοποίηση (ειδικά Ε-step) Μπορούμε να γενικεύσουμε θεωρώντας ένα πιο γενικό μέτρο της ομοιότητας μεταξύ δύο διανυσμάτων
18 Παράδειγμα Ομαδοποίηση - Clusterig
19 Παράδειγμα Ομαδοποίηση - Clusterig
20 Ομαδοποίηση - Clusterig Εφαρμογές K-meas clusterig: image segmetatio, data compressio
21 Mixture models Στη γενική του μορφή ένα πιθανοτικό μοντέλο μείξης δίνεται από τη σχέση: compoet desities K p( x θ) = p( x Ck, θk ). p( C ) k k= όπου θ= ( θ, θ,..., θ ) 2 k mixig parameters Σε ένα πρόβλημα μη επιβλεπόμενης μάθησης, σκοπός είναι ο προσδιορισμός του διανύσματος θκαι (πιθανόν)των παραμέτρων μείξης p(c k)(δηλ. των εκ των προτέρων πιθανοτήτων για κάθε κλάση) έχοντας κάποιες παρατηρήσεις που προέρχονται από αυτή την παραπάνω κατανομή Προς το παρόν υποθέτουμε ότι Ο αριθμός των κλάσεων Κ είναι γνωστός Η μορφή των υπό συνθήκη πιθανοτήτων p(x C k,θ k )είναι γνωστή Αν υπολογίσουμε το θ(και τις εκ των προτέρων πιθανότητες p(c k )) μπορούμε κατόπιν να χρησιμοποιήσουμε τον κανόνα Bayesγια να ταξινομήσουμε τα δεδομένα μας
22 Mixture models Μπορούμε πάντα να το κάνουμε? Ορισμός:Μια κατανομή λέγεται αναγνωρίσιμηαν για θ θ τότε υπάρχει xτέτοιο ώστε p(x θ) p(x θ ) Παράδειγμα: Έστω μια δυαδική τ.μ. η οποία προέρχεται από τη μείξη 2 κατανομών Beroulli. Τότε: x x x x p( x ) θ ( θ) θ = + θ2 ( θ2) 2 2 ( θ+ θ2 ) if x = 2 = - ( θ+ θ2) if x= 0 2 Έστω ότι γνωρίζουμε ότι p(x= θ)=0.6 άρα p(x=0 θ)=0.4. Μπορούμε να λύσουμε το πρόβλημα μη επιβλεπόμενης ταξινόμησης σε αυτή την περίπτωση? θ +θ 2 =.2 Αυτό το πρόβλημα μπορεί να προκύψει για διακριτές μεταβλητές, αλλά ευτυχώς όχι τόσο για συνεχείς μεταβλητές.
23 Mixture models ML estimatio Έστω ότι έχουμε ένα σύνολο D={x,x 2,,x } ανεξάρτητων παρατηρήσεων χωρίς «ετικέτες», οι οποίες προέρχονται από την κατανομή μείξης: K = k= p( x θ) p( x C, θ ) p( C ) Πιθανοφάνεια: = = p( D θ) p( x θ) k k k Η εκτίμηση μέγιστης πιθανοφάνειας είναι: Gradiet of log-likelihood: K θ l p( D θ) = (, ) ( ) i θ p i Ck k p Ck = = p( ) x θ x θ k= = p( C x, θ) l p( x C, θ ) = i θ i i Άρα θα πρέπει να ισχύουν οι συνθήκες: = i θˆ arg max p( D θ) ML = θ p( C x, θ) l p( x C, θ ) = 0 k=,2,..., K k θ k k k p( C x, θ) = Αν επιπλέον οι εκ των προτέρων πιθανότητες είναι άγνωστες, πρέπει να μεγιστοποιήσουμε και ως προς αυτές, υπό τους περιορισμούς: i K p( C ) 0, p( C ) = i p( x Ci, θi ) p( Ci ) p( x θ) i= i
24 Mixture models ML estimatio Μάλιστα στην περίπτωση αυτή πρέπει να πληρούνται οι συνθήκες: pˆ ( ) ˆ ˆ ML Ci = = p( Ci x, θml) K = pˆ( C x, θˆ ) l p( x C, θˆ ) = 0 i ML θ i i, ML όπου: pˆ (C x, θˆ ) = i i ML K p( x C, θˆ ) pˆ ( C ) i i, ML ML i ˆ p( x,, ) ˆ C j θ j ML pml ( C j ) j=
25 Gaussia mixtures Στην περίπτωση μιας μείξης Γκαουσιανών έχουμε: K p( x θ) = π ( x µ, Σ ) k= k k k π = p( C ), p( x C, θ ) = ( x µ, Σ ) k k k k k k όπου και Πως εφαρμόζονται τα προηγούμενα αποτελέσματα? Έστω ότι μόνο οι μέσες τιμές είναι άγνωστες. Η πιθανοφάνεια για την κλάση kείναι: D/2 /2 l p( x C, µ Τ k k ) = l (2 π ) Σ k ( k ) k ( k ) 2 x µ Σ x µ και µ l p( x C, µ ) = Σ ( x µ ) Οι συνθήκες k k k k k = p( C x, θ) l p( x C, θ ) = 0 k=,2,..., K k θ k k δίνουν για τις εκτιμήσεις μέγιστης πιθανοφάνειας: p( C, ˆ ) ( ˆ ˆ ˆ ˆ k x µ ML Σk x µ k, ML ) = 0 µ ML = ( µ, ML,..., µ k, ML ) = k
26 Λύνοντας ως προς µ k µ ˆ k, ML = = = p( C x, µ ˆ ) x p( C x, µ ˆ ) Gaussia mixtures ML estimatio k ML k ML Άρα η εκτίμηση ML για τη μέση τιμή της k-οστήςκλάσης είναι ένας σταθμισμένος μέσος όρος των δειγμάτωνμε βάρη που ισούνται με την (εκτίμηση) της πιθανότητας το κάθε δείγμα να ανήκει στην κλάση k Η εξίσωση αυτή δεν μας δίνει το µ k όμως, καθώς έχουμε: p( x, ˆ ˆ Ck µ k, ML ) p( Ck ) ( x µ k, ML, Σk ) π k p( C, ˆ k x µ ML ) = = K K p( x C, µ ˆ ) p( C ) ( x µ ˆ, Σ ) π k k, ML k k, ML k k k= k= Έχουμε λοιπόν δύο συζευγμένες εξισώσεις, οι οποίες γενικά δεν έχουν μοναδική λύση. Ένας τρόπος να πάρουμε κάποια λύση είναι επαναληπτικά. Αν μπορούμε να κάνουμε μια λογική αρχικοποίηση µ(0): µ ˆ ( j+ ) = k, ML = = p( C x, µ ˆ ( j)) x k ML p( C x, µ ˆ ( j)) k ML () όπου οι εκ των υστέρων πιθανότητες υπολογίζονται από την () για τις τρέχουσες μέσες τιμές
27 Παράδειγμα: Gaussia mixtures ML estimatio p ( x, 2) exp ( ) exp ( 2) x µ µ µ x = µ π + π Έστω ότι μ =-2 και μ 2 =2 και ότι παίρνουμε 25 δείγματα. Log-likelihood: 2 = 2 = l( µ, µ ) l p( x µ, µ ) H πιθανοφάνεια έχει ένα ολικό ελάχιστο στο µ =-2.3 και µ 2 =.668 άρα είναι αναγνωρίσιμη, αλλά έχει και ένα τοπικό ελάχιστο στο µ =2.085και µ 2 =-.257 Τι συμβαίνει αν χρησιμοποιήσουμε το προηγούμενο επαναληπτικό σχήμα? -Εξάρτηση από την αρχική τιμή
HMY 795: Αναγνώριση Προτύπων
HMY 795: Αναγνώριση Προτύπων Επανάληψη Expectatio maximizatio for Gaussia mixtures. Αρχικοποιούμε τις άγνωστες παραμέτρους µ k, Σ k και π k 2. Υπολογίσμος των resposibilitiesγ(z k : γ ( z = k π ( x µ ˆ,
Διαβάστε περισσότεραHMY 795: Αναγνώριση Προτύπων
HMY 795: Αναγνώριση Προτύπων Διαλέξεις 9-20 Kerel methods Kerel methods Support vector machies Συναρτήσεις σφάλματος Συνεχής έξοδος/έξοδοι Μοναδιαία συνάρτηση ενεργοποίησης στην έξοδο g(.) Πιθανοφάνεια
Διαβάστε περισσότεραHMY 795: Αναγνώριση Προτύπων
HMY 795: Αναγνώριση Προτύπων Διάλεξη 5 Κατανομές πιθανότητας και εκτίμηση παραμέτρων δυαδικές τυχαίες μεταβλητές Bayesian decision Minimum misclassificaxon rate decision: διαλέγουμε την κατηγορία Ck για
Διαβάστε περισσότεραHMY 795: Αναγνώριση Προτύπων
HMY 795: Αναγνώριση Προτύπων Διάλεξη 5 Κατανομές πιθανότητας και εκτίμηση παραμέτρων Κατανομές πιθανότητας και εκτίμηση παραμέτρων δυαδικές τυχαίες μεταβλητές Διαχωριστικές συναρτήσεις Ταξινόμηση κανονικών
Διαβάστε περισσότεραΠανεπιστήµιο Κύπρου Πολυτεχνική Σχολή
Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή Τµήµα Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών ΗΜΜΥ 795: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ Ακαδηµαϊκό έτος 2010-11 Χειµερινό Εξάµηνο Τελική εξέταση Τρίτη, 21 εκεµβρίου 2010,
Διαβάστε περισσότεραHMY 795: Αναγνώριση Προτύπων
HMY 795: Αναγνώριση Προτύπων Διαλέξεις 23-24 Μη επιβλεπόμενη μάθηση (συνέχεια): Μη επιβλεπόμενη μάθηση (συνέχεια): Gaussian mixtures and expectation maximization Feature selection/generation: Ανάλυση κύριων
Διαβάστε περισσότεραΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ
ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ Ακαδ. Έτος 06-07 Διδάσκων: Βασίλης ΚΟΥΤΡΑΣ Λέκτορας v.outras@e.aegea.gr Τηλ: 7035468 Μέθοδος Υπολογισμού
Διαβάστε περισσότεραΠανεπιστήμιο Κύπρου Πολυτεχνική Σχολή
Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή Τμήμα Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών ΗΜΜΥ 795: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ Ακαδημαϊκό έτος 2010-11 Χειμερινό Εξάμηνο Practice final exam 1. Έστω ότι για
Διαβάστε περισσότεραHMY 795: Αναγνώριση Προτύπων
HMY 795: Αναγνώριση Προτύπων Διάλεξη 3 Επιλογή μοντέλου Επιλογή μοντέλου Θεωρία αποφάσεων Επιλογή μοντέλου δεδομένα επικύρωσης Η επιλογή του είδους του μοντέλου που θα χρησιμοποιηθεί σε ένα πρόβλημα (π.χ.
Διαβάστε περισσότεραHMY 795: Αναγνώριση Προτύπων
HMY 795: Αναγνώριση Προτύπων Διαλέξεις 7-8 Μπεϋζιανή εκτίμηση - συνέχεια Μη παραμετρικές μέθοδοι εκτίμησης πυκνότητας Δυαδικές τ.μ. κατανομή Bernoulli : Εκτίμηση ML: Εκτίμηση Bayes για εκ των προτέρων
Διαβάστε περισσότεραHMY 795: Αναγνώριση Προτύπων
HMY 795: Αναγνώριση Προτύπων Διάλεξη 6 Κατανομές πιθανότητας και εκτίμηση παραμέτρων Κατανομές πιθανότητας και εκτίμηση παραμέτρων κανονικές τυχαίες μεταβλητές Εκτίμηση παραμέτρων δυαδικές τυχαίες μεταβλητές
Διαβάστε περισσότεραLecture Notes for Chapter 5. (cont.)
Dt Miig Clssifictio: Altertive echiques Lecture otes for Chpter 5 (cot.) Clssifictio roblem Πρόβλημα μάθησης με επίβλεψη (Supervised lerig) Δεδομένα του συνόλου εκπαίδευσης αποτελούμενα από ζεύγη σημείων
Διαβάστε περισσότεραHMY 795: Αναγνώριση Προτύπων. Διάλεξη 2
HMY 795: Αναγνώριση Προτύπων Διάλεξη 2 Επισκόπηση θεωρίας πιθανοτήτων Θεωρία πιθανοτήτων Τυχαία μεταβλητή: Μεταβλητή της οποίας δε γνωρίζουμε με βεβαιότητα την τιμή (αντίθετα με τις ντετερμινιστικές μεταβλητές)
Διαβάστε περισσότεραΤο μοντέλο Perceptron
Το μοντέλο Perceptron Αποτελείται από έναν μόνο νευρώνα McCulloch-Pitts w j x x 1, x2,..., w x T 1 1 x 2 w 2 Σ u x n f(u) Άνυσμα Εισόδου s i x j x n w n -θ w w 1, w2,..., w n T Άνυσμα Βαρών 1 Το μοντέλο
Διαβάστε περισσότεραHMY 795: Αναγνώριση Προτύπων
HMY 795: Αναγνώριση Προτύπων Διαλέξεις 9 20 Kernel methods Support vector machines Εκπαίδευση νευρωνικών δικτύων backpropagation:. Υπολογισμός μεταβλητών δικτύου «τρέχον» w () () (2) (2) aj = wji xi ak
Διαβάστε περισσότεραHMY 795: Αναγνώριση Προτύπων
HMY 795: Αναγνώριση Προτύπων Διαλέξεις 9 10 Γραμμική παλινδρόμηση (Linear regression) Μπεϋζιανή εκτίμηση για την κανονική κατανομή Γνωστή μέση τιμή μ, άγνωστη διασπορά σ 2. Ακρίβεια λ=1/σ 2 : conjugate
Διαβάστε περισσότεραHMY 795: Αναγνώριση Προτύπων
HMY 795: Αναγνώριση Προτύπων Διαλέξεις 11-12 Γραμμική παλινδρόμηση συνέχεια Γραμμική παλινδρόμηση συνέχεια Γραμμικές διαχωριστικές συναρτήσεις Γραμμική παλινδρόμηση (Linear regression) y = w + wx + + w
Διαβάστε περισσότεραΣέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2
Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΜΙΑ ΣΥΜΒΑΣΗ: Προκειμένου να καταστήσουμε πιο συμπαγή το συμβολισμό H : ορίζουμε Ετσι έχουμε *=[ ] an *=[ ]. H : * * ΣΗΜΕΙΩΣΗ: Στη συνέχεια εκτός αν ορίζεται
Διαβάστε περισσότεραΣέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2
Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson Μέθοδοι ελαχίστων τετραγώνων Least square methos Αν οι κλάσεις είναι γραμμικώς διαχωρίσιμες το perceptron θα δώσει σαν έξοδο ± Αν οι κλάσεις ΔΕΝ είναι
Διαβάστε περισσότεραHMY 795: Αναγνώριση Προτύπων
HMY 795: Αναγνώριση Προτύπων Διάλεξη 2 Επισκόπηση θεωρίας πιθανοτήτων Τυχαίες μεταβλητές: Βασικές έννοιες Τυχαία μεταβλητή: Μεταβλητή της οποίας δε γνωρίζουμε με βεβαιότητα την τιμή (σε αντίθεση με τις
Διαβάστε περισσότεραHMY 795: Αναγνώριση Προτύπων
HMY 795: Αναγνώριση Προτύπων Διαλέξεις 7 8 Μπεϋζιανή εκτίμηση συνέχεια Μη παραμετρικές μέθοδοι εκτίμησης πυκνότητας Εκτίμηση ML για την κανονική κατανομή Μπεϋζιανή εκτίμηση για την κανονική κατανομή Γνωστή
Διαβάστε περισσότεραΜέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων
Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων Εισηγητής: ρ Ηλίας Ζαφειρόπουλος Εισαγωγή Ιατρικά δεδοµένα: Συλλογή Οργάνωση Αξιοποίηση Data Mining ιαχείριση εδοµένων Εκπαίδευση
Διαβάστε περισσότεραΑναγνώριση Προτύπων Ι
Αναγνώριση Προτύπων Ι Ενότητα 3: Στοχαστικά Συστήματα Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες
Διαβάστε περισσότεραΣέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2
Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Versio A ΠΑΡΑΜΕΤΡΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΒΑΣΙΣΜΕΝΟΙ ΣΕ ΣΥΝΑΡΤΗΣΕΙΣ ΔΙΑΚΡΙΣΗΣ Η περίπτωση του ταξινομητή Bayes Εκτίμηση μέγιστης εκ των υστέρων πιθανότητας Maimum Aoseriori
Διαβάστε περισσότεραΜέθοδος μέγιστης πιθανοφάνειας
Αν x =,,, παρατηρήσεις των Χ =,,,, τότε έχουμε διαθέσιμο ένα δείγμα Χ={Χ, =,,,} της κατανομής F μεγέθους με από κοινού σκ της Χ f x f x Ορισμός : Θεωρούμε ένα τυχαίο δείγμα Χ=(Χ, Χ,, Χ ) από πληθυσμό το
Διαβάστε περισσότεραΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ
ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ Ακαδ. Έτος 06-07 Διδάσκων: Βασίλης ΚΟΥΤΡΑΣ Επικ. Καθηγητής v.koutra@fme.aegea.gr Τηλ: 7035468 Θα μελετήσουμε
Διαβάστε περισσότεραΜέθοδος μέγιστης πιθανοφάνειας
Μέθοδος μέγιστης πιθανοφάνειας Αν x =,,, παρατηρήσεις των Χ =,,,, τότε έχουμε διαθέσιμο ένα δείγμα Χ={Χ, =,,,} της κατανομής F μεγέθους με από κοινού σ.κ. της Χ f x f x Ορισμός : Θεωρούμε ένα τυχαίο δείγμα
Διαβάστε περισσότεραΜάθηση Λανθανόντων Μοντέλων με Μερικώς Επισημειωμένα Δεδομένα (Learning Aspect Models with Partially Labeled Data) Αναστασία Κριθαρά.
Μάθηση Λανθανόντων Μοντέλων με Μερικώς Επισημειωμένα Δεδομένα (Learning Aspect Models with Partially Labeled Data) Αναστασία Κριθαρά Xerox Research Centre Europe LIP6 - Université Pierre et Marie Curie
Διαβάστε περισσότερα4.3. Γραµµικοί ταξινοµητές
Γραµµικοί ταξινοµητές Γραµµικός ταξινοµητής είναι ένα σύστηµα ταξινόµησης που χρησιµοποιεί γραµµικές διακριτικές συναρτήσεις Οι ταξινοµητές αυτοί αναπαρίστανται συχνά µε οµάδες κόµβων εντός των οποίων
Διαβάστε περισσότεραHMY 795: Αναγνώριση Προτύπων
HMY 795: Αναγνώριση Προτύπων Διαλέξεις 5 6 Principal component analysis EM for Gaussian mixtures: μ k, Σ k, π k. Ορίζουμε το διάνυσμα z (διάσταση Κ) ώστε K p( x θ) = π ( x μ, Σ ) k = k k k Eκ των υστέρων
Διαβάστε περισσότεραΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ
ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ Ακαδ. Έτος 07-08 Διδάσκων: Βασίλης ΚΟΥΤΡΑΣ Επικ. Καθηγητής v.koutras@fme.aegea.gr Τηλ: 7035468 Θα μελετήσουμε
Διαβάστε περισσότεραΑριθμητική Ανάλυση και Εφαρμογές
Αριθμητική Ανάλυση και Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 07-08 Αριθμητική Παραγώγιση Εισαγωγή Ορισμός 7. Αν y f x είναι μια συνάρτηση ορισμένη σε ένα διάστημα
Διαβάστε περισσότεραΑναγνώριση Προτύπων Ι
Αναγνώριση Προτύπων Ι Ενότητα 1: Μέθοδοι Αναγνώρισης Προτύπων Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται
Διαβάστε περισσότεραHMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16
HMY 795: Αναγνώριση Προτύπων Διαλέξεις 15-16 Νευρωνικά Δίκτυα(Neural Networks) Fisher s linear discriminant: Μείωση διαστάσεων (dimensionality reduction) y Τ =w x s + s =w S w 2 2 Τ 1 2 W ( ) 2 2 ( ) m2
Διαβάστε περισσότεραΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ
ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ Ακαδ. Έτος 06-07 Διδάσκων: Βασίλης ΚΟΥΤΡΑΣ Λέκτορας v.koutras@fme.aegea.gr Τηλ: 7035468 Εκτίμηση Διαστήματος
Διαβάστε περισσότεραHMY 799 1: Αναγνώριση Συστημάτων
HMY 799 : Αναγνώριση Συστημάτων Διαλέξεις Επιλογή τάξης μοντέλου και επικύρωση Επαναληπτική αναγνώριση Βέλτιστη μέθοδος συμβαλλουσών μεταβλητών (opimal IV mehod) P P P IV IV, op PEM z() = H ( q) φ () Γενική
Διαβάστε περισσότεραΗ μέθοδος Simplex. Χρήστος Γκόγκος. Χειμερινό Εξάμηνο ΤΕΙ Ηπείρου
Η μέθοδος Simplex Χρήστος Γκόγκος ΤΕΙ Ηπείρου Χειμερινό Εξάμηνο 2014-2015 1 / 17 Η μέθοδος Simplex Simplex Είναι μια καθορισμένη σειρά επαναλαμβανόμενων υπολογισμών μέσω των οποίων ξεκινώντας από ένα αρχικό
Διαβάστε περισσότεραΕκτιμητές Μεγίστης Πιθανοφάνειας (Maximum Likelihood Estimators MLE)
Εκτιμητές Μεγίστης Πιθανοφάνειας (Maximum Likelihood Estimators MLE) Εστω τ.δ. X={x, x,, x } με κατανομή με σ.π.π. f(x;θ). Η από-κοινού σ.π.π. των δειγμάτων είναι η συνάρτηση L f x, x,, x; f x i ; και
Διαβάστε περισσότερα3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON
3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPRON 3. ΕΙΣΑΓΩΓΗ: Το Perceptron είναι η απλούστερη μορφή Νευρωνικού δικτύου, το οποίο χρησιμοποιείται για την ταξινόμηση ενός ειδικού τύπου προτύπων, που είναι γραμμικά διαχωριζόμενα.
Διαβάστε περισσότεραHMY 799 1: Αναγνώριση Συστημάτων
HMY 799 : Αναγνώριση Συστημάτων Διάλεξη Γραμμική παλινδρόμηση (Linear regression) Εμπειρική συνάρτηση μεταφοράς Ομαλοποίηση (smoothing) Y ( ) ( ) ω G ω = U ( ω) ω +Δ ω γ ω Δω = ω +Δω W ( ξ ω ) U ( ξ) G(
Διαβάστε περισσότεραΣυστήµατα Μη-Γραµµικών Εξισώσεων Μέθοδος Newton-Raphson
Ιαν. 009 Συστήµατα Μη-Γραµµικών Εξισώσεων Μέθοδος Newton-Raphson Έστω y, y,, yn παρατηρήσεις µιας m -διάστατης τυχαίας µεταβλητής µε συνάρτηση πυκνότητας πιθανότητας p( y; θ) η οποία περιγράφεται από ένα
Διαβάστε περισσότεραΧρήστος Ι. Σχοινάς Αν. Καθηγητής ΔΠΘ. Συμπληρωματικές σημειώσεις για το μάθημα: «Επιχειρησιακή Έρευνα ΙΙ»
Χρήστος Ι. Σχοινάς Αν. Καθηγητής ΔΠΘ Συμπληρωματικές σημειώσεις για το μάθημα: «Επιχειρησιακή Έρευνα ΙΙ» 2 ΔΥΝΑΜΙΚΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ Προβλήματα ελάχιστης συνεκτικότητας δικτύου Το πρόβλημα της ελάχιστης
Διαβάστε περισσότεραE[ (x- ) ]= trace[(x-x)(x- ) ]
1 ΦΙΛΤΡΟ KALMAN ΔΙΑΚΡΙΤΟΥ ΧΡΟΝΟΥ Σε αυτό το μέρος της πτυχιακής θα ασχοληθούμε λεπτομερώς με το φίλτρο kalman και θα δούμε μια καινούρια έκδοση του φίλτρου πάνω στην εφαρμογή της γραμμικής εκτίμησης διακριτού
Διαβάστε περισσότεραΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης. ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ
ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης
Διαβάστε περισσότεραΛήψη αποφάσεων υπό αβεβαιότητα
Διαχείριση Αβεβαιότητας Λήψη αποφάσεων υπό αβεβαιότητα Όταν έχω να αντιμετωπίσω ένα πρόβλημα λήψης αποφάσεων υπό αβεβαιότητα, μπορώ να ακολουθήσω τις ακόλουθες στρατηγικές: 1. Η λάθος προσέγγιση: «Βελτιστοποίηση
Διαβάστε περισσότεραΕΚΤΙΜΙΣΗ ΜΕΓΙΣΤΗΣ ΠΙΘΑΝΟΦΑΝΕΙΑΣ
3.1 Εισαγωγή ΕΚΤΙΜΙΣΗ ΜΕΓΙΣΤΗΣ ΠΙΘΑΝΟΦΑΝΕΙΑΣ Στο κεφ. 2 είδαμε πώς θα μπορούσαμε να σχεδιάσουμε έναν βέλτιστο ταξινομητή εάν ξέραμε τις προγενέστερες(prior) πιθανότητες ( ) και τις κλάση-υπό όρους πυκνότητες
Διαβάστε περισσότεραΠαραδείγματα Απαλοιφή Gauss Απαλοιφή Gauss Jordan
Παραδείγματα Απαλοιφή Gauss Απαλοιφή Gauss Jodan Παράδειγμα x y Να επιλυθεί το ακόλουθο σύστημα: x y 6 Σε μορφή πινάκων το σύστημα γράφεται ως: x y 6 με απαλοιφή Gauss. Ο επαυξημένος πίνακας του συστήματος
Διαβάστε περισσότερα1. ΣΤΑΤΙΚΗ ΑΡΙΣΤΟΠΟΙΗΣΗ
. ΣΤΑΤΙΚΗ ΑΡΙΣΤΟΠΟΙΗΣΗ. Μέγιστα και Ελάχιστα Συναρτήσεων Χωρίς Περιορισμούς Συναρτήσεις μιας Μεταβλητής Εστω f ( x) είναι συνάρτηση μιας μόνο μεταβλητής. Εστω επίσης ότι x είναι ένα σημείο στο πεδίο ορισμού
Διαβάστε περισσότεραΕΦΑΡΜΟΣΜΕΝΗ ΣΤΑΤΙΣΤΙΚΗ Ι Συμπληρωματικές Σημειώσεις Δημήτριος Παντελής
ΕΦΑΡΜΟΣΜΕΝΗ ΣΤΑΤΙΣΤΙΚΗ Ι Συμπληρωματικές Σημειώσεις Δημήτριος Παντελής ΣΤΑΤΙΣΤΙΚΕΣ ΕΚΤΙΜΗΣΕΙΣ Οι συναρτήσεις πιθανότητας ή πυκνότητας πιθανότητας των διαφόρων τυχαίων μεταβλητών χαρακτηρίζονται από κάποιες
Διαβάστε περισσότεραΚΕΦΑΛΑΙΟ 3. Περιγραφή της Μεθόδου ΠΕΡΙΓΡΑΦΗ ΤΗΣ ΜΕΘΟΔΟΥ
ΚΕΦΑΛΑΙΟ 3 Περιγραφή της Μεθόδου Το αντικείμενο αυτής της εργασίας είναι η χρήση μιας μεθόδου προσέγγισης συναρτήσεων που έχει προταθεί από τον hen-ha huang και ονομάζεται Ασαφώς Σταθμισμένη Παλινδρόμηση
Διαβάστε περισσότεραΒασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων
Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron Βιολογικός Νευρώνας Δενδρίτες, που αποτελούν τις γραμμές εισόδου των ερεθισμάτων (βιολογικών σημάτων) Σώμα, στο οποίο γίνεται η συσσώρευση των ερεθισμάτων και
Διαβάστε περισσότεραΒΑΣΙΚΕΣ ΕΝΝΟΙΕΣ ΚΑΙ ΜΑΘΗΜΑΤΙΚΗ ΔΙΑΤΥΠΩΣΗ, Διαλ. 2. Ανωτάτη Σχολή Παιδαγωγικής και Τεχνολογικής Εκπαίδευσης 8/4/2017
ΒΑΣΙΚΕΣ ΕΝΝΟΙΕΣ ΚΑΙ ΜΑΘΗΜΑΤΙΚΗ ΔΙΑΤΥΠΩΣΗ, Διαλ. 2 Ανωτάτη Σχολή Παιδαγωγικής και Τεχνολογικής Εκπαίδευσης 8/4/2017 Αντικειμενικοί στόχοι Η μελέτη των βασικών στοιχείων που συνθέτουν ένα πρόβλημα βελτιστοποίησης
Διαβάστε περισσότεραΘΕΩΡΙΑ ΑΠΟΦΑΣΕΩΝ 3 ο ΦΡΟΝΤΙΣΤΗΡΙΟ ΛΥΣΕΙΣ ΤΩΝ ΑΣΚΗΣΕΩΝ
ΘΕΩΡΙΑ ΑΠΟΦΑΣΕΩΝ 3 ο ΦΡΟΝΤΙΣΤΗΡΙΟ ΛΥΣΕΙΣ ΤΩΝ ΑΣΚΗΣΕΩΝ ΑΣΚΗΣΗ Σύμφωνα με στοιχεία από το Πανεπιστήμιο της Οξφόρδης η πιθανότητα ένας φοιτητής να αποφοιτήσει μέσα σε 5 χρόνια από την ημέρα εγγραφής του στο
Διαβάστε περισσότεραΔΙΑΧΩΡΙΣΜΟΣ ΚΑΙ ΤΑΞΙΝΟΜΗΣΗ ΚΡΗΤΙΚΟΥ ΚΑΤΕΡΙΝΑ NΙΚΑΚΗ ΚΑΤΕΡΙΝΑ NΙΚΟΛΑΪΔΟΥ ΧΡΥΣΑ
ΔΙΑΧΩΡΙΣΜΟΣ ΚΑΙ ΤΑΞΙΝΟΜΗΣΗ ΚΡΗΤΙΚΟΥ ΚΑΤΕΡΙΝΑ NΙΚΑΚΗ ΚΑΤΕΡΙΝΑ NΙΚΟΛΑΪΔΟΥ ΧΡΥΣΑ ΔΙΑΧΩΡΙΣΜΟΣ ΚΑΙ ΤΑΞΙΝΟΜΗΣΗ Είναι τεχνικές που έχουν σκοπό: τον εντοπισμό χαρακτηριστικών των οποίων οι αριθμητικές τιμές επιτυγχάνουν
Διαβάστε περισσότεραΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #8: Βελτιστοποίηση Συστημάτων Ασαφούς Λογικής. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.
ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ Ανώτατο Εκπαιδευτικό Ίδρυμα Πειραιά Τεχνολογικού Τομέα ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ Ενότητα #8: Βελτιστοποίηση Συστημάτων Ασαφούς Λογικής Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε. Άδειες
Διαβάστε περισσότεραΜΗ ΓΡΑΜΜΙΚΗ ΠΑΛΙΝΔΡΟΜΙΣΗ
ΜΗ ΓΡΑΜΜΙΚΗ ΠΑΛΙΝΔΡΟΜΙΣΗ Τα μη γραμμικά μοντέλα έχουν την πιο κάτω μορφή: η μορφή αυτή μοιάζει με τη μορφή που έχουμε για τα γραμμικά μοντέλα ( δηλαδή η παρατήρηση Y i είναι το άθροισμα της αναμενόμενης
Διαβάστε περισσότεραΒ Γραφικές παραστάσεις - Πρώτο γράφημα Σχεδιάζοντας το μήκος της σανίδας συναρτήσει των φάσεων της σελήνης μπορείτε να δείτε αν υπάρχει κάποιος συσχετισμός μεταξύ των μεγεθών. Ο συνήθης τρόπος γραφικής
Διαβάστε περισσότεραΨηφιακές Τηλεπικοινωνίες. Βέλτιστος Δέκτης
Ψηφιακές Τηλεπικοινωνίες Βέλτιστος Δέκτης Σύνδεση με τα Προηγούμενα Επειδή το πραγματικό κανάλι είναι αναλογικό, κατά τη διαβίβαση ψηφιακής πληροφορίας, αντιστοιχίζουμε τα σύμβολα σε αναλογικές κυματομορφές
Διαβάστε περισσότεραΣέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2
Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson Σχεδιαζόντας ταξινομητές: Τα δεδομένα Στην πράξη η γνώση σχετικά διαδικασία γέννεσης των δεδομένων είναι πολύ σπάνια γνωστή. Το μόνο που έχουμε στη διάθεσή
Διαβάστε περισσότεραΦΙΛΤΡΟ KALMAN ΔΙΑΚΡΙΤΟΥ ΧΡΟΝΟΥ
1 ΦΙΛΤΡΟ KALMAN ΔΙΑΚΡΙΤΟΥ ΧΡΟΝΟΥ Σε αυτό το μέρος της πτυχιακής θα ασχοληθούμε λεπτομερώς με το φίλτρο kalman και θα δούμε μια καινούρια έκδοση του φίλτρου πάνω στην εφαρμογή της γραμμικής εκτίμησης διακριτού
Διαβάστε περισσότεραΜπεϋζιανή Στατιστική και MCMC Μέρος 2 ο : MCMC
Μπεϋζιανή Στατιστική και MCMC Μέρος 2 ο : MCMC Περιεχόμενα Μαθήματος Εισαγωγή στο Πρόβλημα. Monte Carlo Εκτιμητές. Προσομοίωση. Αλυσίδες Markov. Αλγόριθμοι MCMC (Metropolis Hastings & Gibbs Sampling).
Διαβάστε περισσότεραΑνάκτηση Πληροφορίας
Ιόνιο Πανεπιστήμιο Τμήμα Πληροφορικής Ανάκτηση Πληροφορίας Διδάσκων: Φοίβος Μυλωνάς fmylonas@ionio.gr Διάλεξη #06 Πιθανοτικό Μοντέλο 1 Άδεια χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης
Διαβάστε περισσότεραΠεριεχόμενα. 2.1 Εισαγωγή Προγενέστερη έρευνα Ανάπτυξη υποδειγμάτων παραποίησης Πρόλογος... 11
Περιεχόμενα Πρόλογος... Κεφάλαιο Παραποίηση λογιστικών καταστάσεων και ελεγκτική... 7. Ιστορικά στοιχεία... 7.2 Ελεγκτικά λάθη... 20.3 Ορισμοί και ερμηνεία της έννοιας της παραποίησης λογιστικών καταστάσεων...
Διαβάστε περισσότεραΤεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.
Τεχνητή Νοημοσύνη 18η διάλεξη (2016-17) Ίων Ανδρουτσόπουλος http://www.aueb.gr/users/ion/ 1 Οι διαφάνειες αυτής της διάλεξης βασίζονται: στο βιβλίο Machine Learning του T. Mitchell, McGraw- Hill, 1997,
Διαβάστε περισσότεραΘεωρία Αποφάσεων ο. 4 Φροντιστήριο. Λύσεις των Ασκήσεων
Θεωρία Αποφάσεων ο Φροντιστήριο Λύσεις των Ασκήσεων Άσκηση Έστω ένα πρόβλημα ταξινόμησης μιας διάστασης με δύο κατηγορίες, όπου για κάθε κατηγορία έχουν συλλεχθεί τα παρακάτω δεδομένα: D = {, 2,,,,7 }
Διαβάστε περισσότεραΜέρος V. Ανάλυση Παλινδρόμηση (Regression Analysis)
Μέρος V. Ανάλυση Παλινδρόμηση (Regresso Aalss) Βασικές έννοιες Απλή Γραμμική Παλινδρόμηση Πολλαπλή Παλινδρόμηση Εφαρμοσμένη Στατιστική Μέρος 5 ο - Κ. Μπλέκας () Βασικές έννοιες Έστω τ.μ. Χ,Υ όπου υπάρχει
Διαβάστε περισσότεραΔρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης
Μάθημα 5 ο Δρ. Ανέστης Γ. Χατζημιχαηλίδης Τμήμα Μηχανικών Πληροφορικής Τ.Ε. ΤΕΙ Ανατολικής Μακεδονίας και Θράκης 2016-2017 Διευρυμένη Υπολογιστική Νοημοσύνη (ΥΝ) Επεκτάσεις της Κλασικής ΥΝ. Μεθοδολογίες
Διαβάστε περισσότεραΜέθοδοι μονοδιάστατης ελαχιστοποίησης
Βασικές αρχές μεθόδων ελαχιστοποίησης Μέθοδοι μονοδιάστατης ελαχιστοποίησης Οι μέθοδοι ελαχιστοποίησης είναι επαναληπτικές. Ξεκινώντας από μια αρχική προσέγγιση του ελαχίστου (την συμβολίζουμε ) παράγουν
Διαβάστε περισσότεραHMY 795: Αναγνώριση Προτύπων. Διαλέξεις 13-14
HMY 795: Αναγνώριση Προτύπων Διαλέξεις 13-14 Γραμμικές διαχωριστικές συναρτήσεις(συνέχεια) Επιλογή μοντέλου Δεδομένα επικύρωσης Κανονικοποίηση Bayes Model evidence(τεκμήριο): Η πιθανότητα να παρατηρήσουμε
Διαβάστε περισσότεραΣέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2
Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Η παραπάνω ανάλυση ήταν χρήσιμη προκειμένου να κατανοήσουμε τη λογική των δικτύων perceptrons πολλών επιπέδων
Διαβάστε περισσότεραΠαραδείγματα Απαλοιφή Gauss Απαλοιφή Gauss-Jordan Παραγοντοποίηση LU, LDU
Παραδείγματα Απαλοιφή Gauss Απαλοιφή Gauss-Jordan Παραγοντοποίηση LU, LDU Επιμέλεια: Ι. Λυχναρόπουλος Παράδειγμα x y Να επιλυθεί το ακόλουθο σύστημα: x+ y 6 Σε μορφή πινάκων το σύστημα γράφεται ως: x y
Διαβάστε περισσότεραΠοσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος
Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος Χιωτίδης Γεώργιος Τμήμα Λογιστικής και Χρηματοοικονομικής Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης
Διαβάστε περισσότεραΣτατιστική Επιχειρήσεων Ι
ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ Τεχνολογικό Εκπαιδευτικό Ίδρυμα Πειραιά Στατιστική Επιχειρήσεων Ι Ενότητα 4: Πολυδιάστατες Τυχαίες Μεταβλητές Μιλτιάδης Χαλικιάς, Επίκουρος Καθηγητής Τμήμα Διοίκησης Επιχειρήσεων Άδειες
Διαβάστε περισσότεραΑσκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο
Πρόβλημα ο Ασκήσεις Φροντιστηρίου 5 o Φροντιστήριο Δίνεται το παρακάτω σύνολο εκπαίδευσης: # Είσοδος Κατηγορία 0 0 0 Α 2 0 0 Α 0 Β 4 0 0 Α 5 0 Β 6 0 0 Α 7 0 Β 8 Β α) Στον παρακάτω κύβο τοποθετείστε τα
Διαβάστε περισσότεραΛήψη αποφάσεων υπό αβεβαιότητα
ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ ΣΧΟΛΗ ΗΛΕΚΤΡΟΛΟΓΩΝ ΜΗΧΑΝΙΚΩΝ ΚΑΙ ΜΗΧΑΝΙΚΩΝ ΥΠΟΛΟΓΙΣΤΩΝ ΤΕΧΝΟΟΙΚΟΝΟΜΙΚΑ Λήψη αποφάσεων υπό αβεβαιότητα ΕΙΔΙΚΑ ΘΕΜΑΤΑ ΔΙΟΙΚΗΣΗΣ ΕΡΓΑΣΤΗΡΙΟ ΣΥΣΤΗΜΑΤΩΝ ΑΠΟΦΑΣΕΩΝ ΚΑΙ ΔΙΟΙΚΗΣΗΣ Διαχείριση
Διαβάστε περισσότεραΑπλή Γραμμική Παλινδρόμηση και Συσχέτιση 19/5/2017
Απλή Γραμμική Παλινδρόμηση και Συσχέτιση 2 Εισαγωγή Η ανάλυση παλινδρόμησης περιλαμβάνει το σύνολο των μεθόδων της στατιστικής που αναφέρονται σε ποσοτικές σχέσεις μεταξύ μεταβλητών Πρότυπα παλινδρόμησης
Διαβάστε περισσότεραHMY 799 1: Αναγνώριση Συστημάτων
HMY 799 : Αναγνώριση Συστημάτων Διάλεξη Στοχαστικές Τυχαίες Μεταβλητές/ Στοχαστικά Σήματα Πειραματικά δεδομένα >Επιλογή τύπου μοντέλου >Επιλογή κριτηρίου >Υπολογισμός >Επικύρωση Προσαρμογή καμπύλης (Curve
Διαβάστε περισσότεραΑναγνώριση Προτύπων. Baysian Θεωρία Αποφάσεων ΕΠΙΣΚΟΠΗΣΗ-ΑΣΚΗΣΕΙΣ
Αναγνώριση Προτύπων Baysian Θεωρία Αποφάσεων ΕΠΙΣΚΟΠΗΣΗ-ΑΣΚΗΣΕΙΣ Χριστόδουλος Χαμζάς Τα περιεχόμενο της παρουσίασης βασίζεται στο βιβλίο: Introduction to Pattern Recognition A Matlab Approach, S. Theodoridis,
Διαβάστε περισσότεραY Y ... y nx1. nx1
6 ΓΡΑΜΜΙΚΗ ΠΑΛΙΝΔΡΟΜΗΣΗ ΜΕ ΤΗ ΧΡΗΣΗ ΠΙΚΑΚΩΝ Η χρησιμοποίηση και ο συμβολισμός πινάκων απλοποιεί σημαντικά τα αποτελέσματα της γραμμικής παλινδρόμησης, ιδίως στην περίπτωση της πολλαπλής παλινδρόμησης Γενικά,
Διαβάστε περισσότεραΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ. ΜΑΘΗΜΑ 8ο
ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΜΑΘΗΜΑ 8ο Επιλογή του αριθμού των χρονικών υστερήσεων Στις περισσότερες οικονομικές χρονικές σειρές υπάρχει υψηλή συσχέτιση μεταξύ της τρέχουσας
Διαβάστε περισσότεραΛήψη αποφάσεων υπό αβεβαιότητα. Παίγνια Αποφάσεων 9 ο Εξάμηνο
Λήψη αποφάσεων υπό αβεβαιότητα Παίγνια Αποφάσεων 9 ο Εξάμηνο Επιχειρηματική Αβεβαιότητα Αβεβαιότητα είναι, η περίπτωση η οποία τα ενδεχόμενα μελλοντικά γεγονότα είναι αόριστα και αδύνατον να υπολογιστούν
Διαβάστε περισσότεραKεφάλαιο 4. Συστήματα διαφορικών εξισώσεων. F : : F = F r, όπου r xy
4 Εισαγωγή Kεφάλαιο 4 Συστήματα διαφορικών εξισώσεων Εστω διανυσματικό πεδίο F : : F = Fr, όπου r x, και είναι η ταχύτητα στο σημείο πχ ενός ρευστού στο επίπεδο Εστω ότι ψάχνουμε τις τροχιές κίνησης των
Διαβάστε περισσότεραΑνάκτηση Πληροφορίας
Το Πιθανοκρατικό Μοντέλο Κλασικά Μοντέλα Ανάκτησης Τρία είναι τα, λεγόμενα, κλασικά μοντέλα ανάκτησης: Λογικό (Boolean) που βασίζεται στη Θεωρία Συνόλων Διανυσματικό (Vector) που βασίζεται στη Γραμμική
Διαβάστε περισσότεραHMY 795: Αναγνώριση Προτύπων
HMY 795: Αναγνώριση Προτύπων Διάλεξη 4 Διαχωριστικές συναρτήσεις Ταξινόμηση Γκαουσιανών μεταβλητών Bayesan decson Mnmum msclassfcaton rate decson: διαλέγουμε την κατηγορίαck για την οποία η εκ των υστέρων
Διαβάστε περισσότεραmax f( x,..., x ) st. : g ( x,..., x ) 0 g ( x,..., x ) 0
Μαθηματικές Μέθοδοι Βελτιστοποίησης - Εστιάζουμε στο ακόλουθο πρόβλημα μεγιστοποίησης μιας αντικειμενικής συνάρτησης f υπό ένα σύνολο ανισοτικών περιορισμών: max f( x,..., x ) { x,..., x } st. : g ( x,...,
Διαβάστε περισσότεραΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ
ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ Ακαδ. Έτος 08-09 Διδάσκων: Βασίλης ΚΟΥΤΡΑΣ Επικ. Καθηγητής v.koutras@fme.aegea.gr Τηλ: 7035468 Εκτίμηση Διαστήματος
Διαβάστε περισσότεραΑναγνώριση Προτύπων (Pattern Recognition) Μπεϋζιανή Θεωρία Αποφάσεων (Bayesian Decision Theory) Π. Τσακαλίδης
Αναγνώριση Προτύπων (Pattern Recognton Μπεϋζιανή Θεωρία Αποφάσεων (Bayesan Decson Theory Π. Τσακαλίδης ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΠΙΣΤΗΜΗΣ ΥΠΟΛΟΓΙΣΤΩΝ Μπεϋζιανή Θεωρία Αποφάσεων (Bayes Decson theory Στατιστικά
Διαβάστε περισσότεραΜέθοδοι μονοδιάστατης ελαχιστοποίησης
Βασικές αρχές μεθόδων ελαχιστοποίησης Μέθοδοι μονοδιάστατης ελαχιστοποίησης Οι μέθοδοι ελαχιστοποίησης είναι επαναληπτικές. Ξεκινώντας από μια αρχική προσέγγιση του ελαχίστου (την συμβολίζουμε ) παράγουν
Διαβάστε περισσότεραΣτοχαστικά Σήματα και Τηλεπικοινωνιές
Στοχαστικά Σήματα και Τηλεπικοινωνιές Ενότητα 5: Προσαρμοστική Επεξεργασία Καθηγητής Κώστας Μπερμπερίδης Πολυτεχνική Σχολή Τμήμα Μηχανικών Η/Υ και Πληροφορικής Σκοποί ενότητας Παρουσίαση των βασικών εννοιών
Διαβάστε περισσότεραΕφαρμοσμένη Στατιστική
ΠΑΝΕΠΙΣΤΗΜΙΟ ΙΩΑΝΝΙΝΩΝ ΑΝΟΙΚΤΑ ΑΚΑΔΗΜΑΪΚΑ ΜΑΘΗΜΑΤΑ Εφαρμοσμένη Στατιστική Εκτιμητική Διδάσκων: Επίκουρος Καθηγητής Κωνσταντίνος Μπλέκας Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης
Διαβάστε περισσότερα9. Παλινδρόμηση και Συσχέτιση
9. Παλινδρόμηση και Συσχέτιση Παλινδρόμηση και Συσχέτιση Υπάρχει σχέση ανάμεσα σε δύο ή περισσότερες μεταβλητές; Αν ναι, ποια είναι αυτή η σχέση; Πως μπορεί αυτή η σχέση να χρησιμοποιηθεί για να προβλέψουμε
Διαβάστε περισσότεραΣέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2
Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΧΑΡΤΟΓΡΑΦΗΣΗ ΤΟΥ ΧΩΡΟΥ ΤΩΝ ΤΑΞΙΝΟΜΗΤΩΝ Ταξινομητές Ταξινομητές συναρτ. διάκρισης Ταξινομητές επιφανειών απόφ. Παραμετρικοί ταξινομητές Μη παραμετρικοί
Διαβάστε περισσότεραΘεωρία Λήψης Αποφάσεων
Θεωρία Λήψης Αποφάσεων Ενότητα 2: Θεωρία Απόφασης του Bayes Μπεληγιάννης Γρηγόριος Σχολή Οργάνωσης και Διοίκησης Επιχειρήσεων Τμήμα Διοίκησης Επιχειρήσεων Αγροτικών Προϊόντων & Τροφίμων (Δ.Ε.Α.Π.Τ.) Θεωρία
Διαβάστε περισσότεραΣυνήθεις Διαφορικές Εξισώσεις Ι Ασκήσεις - 19/10/2017. Ακριβείς Διαφορικές Εξισώσεις-Ολοκληρωτικοί Παράγοντες. Η πρώτης τάξης διαφορική εξίσωση
Συνήθεις Διαφορικές Εξισώσεις Ι Ασκήσεις - 19/10/2017 Ακριβείς Διαφορικές Εξισώσεις-Ολοκληρωτικοί Παράγοντες Η πρώτης τάξης διαφορική εξίσωση M(x, y) + (x, y)y = 0 ή ισοδύναμα, γραμμένη στην μορφή M(x,
Διαβάστε περισσότεραE [ -x ^2 z] = E[x z]
1 1.ΦΙΛΤΡΟ KALMAN ΔΙΑΚΡΙΤΟΥ ΧΡΟΝΟΥ Σε αυτήν την διάλεξη θα πάμε στο φίλτρο με περισσότερες λεπτομέρειες, και θα παράσχουμε μια νέα παραγωγή για το φίλτρο Kalman, αυτή τη φορά βασισμένο στην ιδέα της γραμμικής
Διαβάστε περισσότερα, που, χωρίς βλάβη της γενικότητας, μπορούμε να θεωρήσουμε χρονική στιγμή μηδέν, δηλαδή
Η ΚΥΜΑΤΟΣΥΝΑΡΤΗΣΗ ΣΤΗΝ ΑΝΑΠΑΡΑΣΤΑΣΗ ΘΕΣΗΣ ΑΝΑΠΑΡΑΣΤΑΣΗ ΟΡΜΗΣ p. Θα βρούμε πρώτα τη σχέση που συνδέει την p με την x. x ΚΑΙ ΣΤΗΝ Έστω η κατάσταση του συστήματός μας μια χρονική στιγμή t 0, που, χωρίς βλάβη
Διαβάστε περισσότεραΠανεπιστήμιο Πατρών Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών. Διάλεξη 4
Πανεπιστήμιο Πατρών Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Τομέας Συστημάτων και Αυτομάτου Ελέγχου ΠΡΟΣΑΡΜΟΣΤΙΚΟΣ ΕΛΕΓΧΟΣ Διάλεξη 4 Πάτρα 2008 Ντετερμινιστικά Moving Average Μοντέλα Ισχύει:
Διαβάστε περισσότεραείναι πρόβλημα μεγιστοποίησης όλοι οι περιορισμοί είναι εξισώσεις με μη αρνητικούς του σταθερούς όρους όλες οι μεταβλητές είναι μη αρνητικές
Ένα τυχαίο π.γ.π. maximize/minimize z=c x Αx = b x 0 Τυπική μορφή του π.γ.π. maximize z=c x Αx = b x 0 b 0 είναι πρόβλημα μεγιστοποίησης όλοι οι περιορισμοί είναι εξισώσεις με μη αρνητικούς του σταθερούς
Διαβάστε περισσότεραΚεφ. 3: Παρεμβολή. 3.1 Εισαγωγή. 3.2 Πολυωνυμική παρεμβολή Παρεμβολή Lagrange Παρεμβολή Newton. 3.3 Παρεμβολή με κυβικές splines
Κεφ. 3: Παρεμβολή 3. Εισαγωγή 3. Πολυωνυμική παρεμβολή 3.. Παρεμβολή Lagrage 3.. Παρεμβολή Newto 3.3 Παρεμβολή με κυβικές splies 3.4 Μέθοδος ελαχίστων τετραγώνων 3.5 Παρεμβολή με ορθογώνια πολυώνυμα 3.
Διαβάστε περισσότεραΑκαδημαϊκό Έτος , Χειμερινό Εξάμηνο Διδάσκων Καθ.: Νίκος Τσαπατσούλης
ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΛΟΠΟΝΝΗΣΟΥ, ΤΜΗΜΑ ΤΕΧΝΟΛΟΓΙΑΣ ΤΗΛΕΠΙΚΟΙΝΩΝΙΩΝ ΚΕΣ 3: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΚΑΙ ΑΝΑΛΥΣΗ ΕΙΚΟΝΑΣ Ακαδημαϊκό Έτος 7 8, Χειμερινό Εξάμηνο Καθ.: Νίκος Τσαπατσούλης ΕΡΩΤΗΣΕΙΣ ΕΠΑΝΑΛΗΨΗΣ Το παρόν
Διαβάστε περισσότερα