Μθχανικι Μάκθςθ Μάκθμα 1 Βαςικζσ ζννοιεσ

Σχετικά έγγραφα
Το Δίκτυο Multi-Layer Perceptron και ο Κανόνασ Back-Propagation. Κϊςτασ Διαμαντάρασ Τμιμα Πλθροφορικισ ΤΕΙ Θεςςαλονίκθσ

Σ ΤΑΤ Ι Σ Τ Ι Κ Η. Statisticum collegium V

Μάκθςθ Κατανομϊν Πικανότθτασ και Ομαδοποίθςθ

ΒΙΟΛΟΓΟΙ ΓΙΑ ΦΥΣΙΚΟΥΣ

ΕΝΟΤΗΤΑ 2: ΤΟ ΛΟΓΙΣΜΙΚΟ ΤΟΥ ΥΠΟΛΟΓΙΣΤΗ. ΚΕΦΑΛΑΙΟ 5: Γνωριμία με το λογιςμικό του υπολογιςτι

Ειδικά Θζματα Βάςεων Δεδομζνων

Τα Δίκτυα Perceptron και ADALINE. Κϊςτασ Διαμαντάρασ Τμιμα Πλθροφορικισ ΤΕΙ Θεςςαλονίκθσ

Χεμπιανά μοντζλα μάκθςθσ. Κϊςτασ Διαμαντάρασ Τμιμα Πλθροφορικισ ΤΕΙ Θεςςαλονίκθσ

Δείκτεσ Διαχείριςθ Μνιμθσ. Βαγγζλθσ Οικονόμου Διάλεξθ 8

Ειδικά Θζματα Βάςεων Δεδομζνων

Ειςαγωγι ςτο Δομθμζνο Προγραμματιςμό. Βαγγζλθσ Οικονόμου

Παράςταςη ακεραίων ςτο ςυςτημα ςυμπλήρωμα ωσ προσ 2

Βάςεισ Δεδομζνων Ι. Ενότητα 12: Κανονικοποίηςη. Δρ. Τςιμπίρθσ Αλκιβιάδθσ Τμιμα Μθχανικών Πλθροφορικισ ΤΕ

ςυςτιματα γραμμικϊν εξιςϊςεων

17. Πολυδιάςτατοι πίνακεσ

ΘΥ101: Ειςαγωγι ςτθν Πλθροφορικι

ΕΦΑΡΜΟΓΕ ΒΑΕΩΝ ΔΕΔΟΜΕΝΩΝ ΣΗ ΝΟΗΛΕΤΣΙΚΗ. Φιλιοποφλου Ειρινθ

Προχωρθμζνα Θζματα Συςτθμάτων Ελζγχου

Ενδεικτική Οργάνωςη Ενοτήτων. Α Σάξη. Διδ. 1 ΕΝΟΣΗΣΑ 1. 6 Ομαδοποίθςθ, Μοτίβα,

Ο ήχοσ ωσ φυςικό φαινόμενο

ΕΝΟΤΘΤΑ 2: ΕΠΙΚΟΙΝΩΝΩ ΜΕ ΤΟΝ ΥΠΟΛΟΓΙΣΤΘ. ΚΕΦΑΛΑΙΟ 6: Θ «Βοικεια» ςτον Υπολογιςτι

Θέματα διπλωματικών εργαςιών ςτην ανάλυςη εικόνασ

ΕΝΟΤΗΤΑ 2: ΕΠΙΚΟΙΝΩΝΩ ΜΕ ΤΟΝ ΥΠΟΛΟΓΙΣΤΗ. ΚΕΦΑΛΑΙΟ 5: Αρχεία - Φάκελοι

ΕΦΑΡΜΟΓΖσ ΒΆΕΩΝ ΔΕΔΟΜΖΝΩΝ ΚΑΙ ΔΙΑΔΙΚΣΥΟΤ. Ειρινθ Φιλιοποφλου

Δομζσ Αφαιρετικότθτα ςτα Δεδομζνα

Ψθφιακά Ηλεκτρονικά. Ενότθτα 5 : Ανάλυςθ κυκλώματοσ με D και JK FLIP- FLOP Φώτιοσ Βαρτηιώτθσ

Παράγοντεσ υμμετοχήσ Ενηλίκων ςτην Εκπαίδευςη: Ζητήματα Κινητοποίηςησ και Πρόςβαςησ ςε Οργανωμζνεσ Εκπαιδευτικζσ Δραςτηριότητεσ

Ανάπτυξη Εφαρμογών με Σχεςιακέσ Βάςεισ Δεδομένων

Στατιςτικά Μοντζλα και ο Κανόνασ του Bayes

ΛΕΙΣΟΤΡΓΙΚΆ ΤΣΉΜΑΣΑ. 7 θ Διάλεξθ Διαχείριςθ Μνιμθσ Μζροσ Γ

Διαγωνιςμόσ "Μακθτζσ ςτθν Ζρευνα (ΜΕΡΑ) "

ΘΕΡΜΟΔΤΝΑΜΙΚΗ Ι. Ενότθτα 3: Μθδενικόσ Νόμοσ - Ζργο. ογομϊν Μπογοςιάν Πολυτεχνικι χολι Σμιμα Χθμικϊν Μθχανικϊν

Ενθμζρωςθ και προςταςία των καταναλωτών από τουσ κινδφνουσ που απορρζουν από τα χθμικά προϊόντα

Κεφάλαιο 7: Μοντελοποίθςθ ςυμπεριφοράσ

Οδηγίεσ προσ τουσ εκπαιδευτικοφσ για το μοντζλο του Άβακα

8 τριγωνομετρία. βαςικζσ ζννοιεσ. γ ςφω. εφω και γ. κεφάλαιο

Πόςο εκτατό μπορεί να είναι ζνα μη εκτατό νήμα και πόςο φυςικό. μπορεί να είναι ζνα μηχανικό ςτερεό. Συνιςταμζνη δφναμη versus «κατανεμημζνησ» δφναμησ

Εργαςτιριο Βάςεων Δεδομζνων

Διδάςκων: Κωνςταντίνοσ τεφανίδθσ

Rivensco Consulting Ltd 1B Georgiou Gemistou street Strovolos Nicosia Cyprus tel tel

Δομζσ Δεδομζνων Πίνακεσ

ΦΥΕ 14 ΑΚΑΔ. ΕΤΟΣ Η ΕΡΓΑΣΙΑ. Ημερομηνία παράδοςησ: 12 Νοεμβρίου (Όλεσ οι αςκιςεισ βακμολογοφνται ιςοτίμωσ με 10 μονάδεσ θ κάκε μία)

Αςφάλεια και Προςταςία Δεδομζνων

Η θεωρία τησ ςτατιςτικήσ ςε ερωτήςεισ-απαντήςεισ Μέροσ 1 ον (έωσ ομαδοποίηςη δεδομένων)

Τεχνικζσ Ανάλυςησ Διοικητικών Αποφάςεων

ΕΝΟΣΗΣΑ 1: ΓΝΩΡIΖΩ ΣΟΝ ΤΠΟΛΟΓΙΣΗ. ΚΕΦΑΛΑΙΟ 3: Εργονομία

Εγχειρίδιο Χριςθσ τθσ διαδικτυακισ εφαρμογισ «Υποβολι και παρακολοφκθςθ τθσ ζγκριςθσ Εκπαιδευτικών Πακζτων»

Οδηγίεσ για την πρόςβαςη των δικαιοφχων ςτο ΟΠΣΑΑ

ΑΝΣΙΣΡΟΦΗ ΤΝΑΡΣΗΗ. f y x y f A αντιςτοιχίηεται ςτο μοναδικό x A για το οποίο. Παρατθριςεισ Ιδιότθτεσ τθσ αντίςτροφθσ ςυνάρτθςθσ 1. Η. f A τθσ f.

Κεφάλαιο 6: Δομικι μοντελοποίθςθ

ΘΕΡΜΟΔΤΝΑΜΙΚΗ Ι. Ενότθτα 1: Βαςικά χαρακτθριςτικά τθσ Θερμοδυναμικισ. ογομϊν Μπογοςιάν Πολυτεχνικι χολι Σμιμα Χθμικϊν Μθχανικϊν

Γράφοι. Δομζσ Δεδομζνων Διάλεξθ 9

Βάςεισ Δεδομζνων Ι. Ενότητα 1: υςτήματα Βάςεων Δεδομζνων. Δρ. Τςιμπίρθσ Αλκιβιάδθσ Τμιμα Μθχανικϊν Πλθροφορικισ ΤΕ

Τυπικζσ Γλϊςςεσ Περιγραφισ Υλικοφ Εργαςτιριο 1

ΕΡΓΑΣΗΡΙΑΚΗ ΑΚΗΗ 4.1

ΛΕΙΣΟΤΡΓΙΚΆ ΤΣΉΜΑΣΑ. 2 ο Εργαςτιριο Διαχείριςθ Διεργαςιϊν

Εξοικονόμηςη ςτην πράξη : Αντικατάςταςη ςυςτήματοσ θζρμανςησ από πετρζλαιο ςε αντλία θερμότητασ. Ενδεικτικό παράδειγμα 15ετίασ

1 ο ΜΑΘΗΜΑ Κεφάλαιο 1, Παράγραφοι 1.1, 1.2 ΕΙΣΑΓΩΓΗ ΣΤΗ ΣΤΑΤΙΣΤΙΚΗ ΒΑΣΙΚΕΣ ΕΝΝΟΙΕΣ

cdna ΒΙΒΛΙΟΘΗΚΗ Καρβέλης Φώτης Φώτο 1

Ένα πρόβλθμα γραμμικοφ προγραμματιςμοφ βρίςκεται ςτθν κανονικι μορφι όταν:

Θεςιακά ςυςτιματα αρίκμθςθσ

Ψθφιακι Επεξεργαςία ιματοσ

Αςφάλεια και Προςταςία Δεδομζνων

Ζρευνα ικανοποίθςθσ τουριςτϊν

ΠΡΟΓΡΑΜΜΑΣΙΜΌ ΤΠΟΛΟΓΙΣΏΝ. Κεφάλαιο 8 Η γλϊςςα Pascal

ΘΕΡΜΟΔΤΝΑΜΙΚΗ IΙ. Ενότθτα 4: Χθμικζσ αντιδράςεισ αερίων τακερά Χθμικισ Ιςορροπίασ Πρότυπθ Ελεφκερθ Ενζργεια

Ψθφιακι Επεξεργαςία ιματοσ

Ιςοηυγιςμζνα δζντρα και Β- δζντρα. Δομζσ Δεδομζνων

Ειςαγωγή ςτη διδακτική των γλωςςών

Ανϊτερεσ πνευματικζσ λειτουργίεσ Μνιμθ Μάκθςθ -Συμπεριφορά

ΕΝΟΣΗΣΑ 1: ΓΝΩΡIΖΩ ΣΟΝ ΤΠΟΛΟΓΙΣΗ. ΚΕΦΑΛΑΙΟ 2: Σο Τλικό του Τπολογιςτι

Ειςαγωγι ςτθν Αςαφι Λογικι

Νζεσ Τάςεισ ςτην εκπαιδευτική διαδικαςία: Gamification

Εκκλθςιαςτικό Δίκαιο ΙΙΙ (Μεταπτυχιακό)

ΔΙΔΑΚΤΙΚΗ ΤΗΣ ΠΑΙΔΑΓΩΓΙΚΗΣ ΓΥΜΝΑΣΤΙΚΗΣ ΙΙ

Aντιπτζριςθ (ΕΠ027) Ενότθτα 12

Περιεχόμενα. χολι Χοροφ Αντιγόνθ Βοφτου - Πολιτικι Διαχείριςθσ Cookie 1

Μθχανζσ Διανυςμάτων Υποςτιριξθσ Support Vector Machines. Κϊςτασ Διαμαντάρασ Τμιμα Ρλθροφορικισ ΤΕΙ Θεςςαλονίκθσ

Τεχνθτι Νοθμοςφνθ. Ενότθτα 2: Αναπαράςταςθ Γνϊςθσ και Συλλογιςμόσ. Ιωάννθσ Χατηθλυγεροφδθσ Πολυτεχνικι Σχολι Τμιμα Μθχανικϊν Η/Υ & Πλθροφορικισ

η τζχνη τησ εκπαίδευςησ ο καθηγητήσ ςτο ςπίτι, 24 ώρεσ το 24ωρο

ΧΕΔΙΑΜΟ ΠΡΟΪΟΝΣΩΝ ΜΕ Η/Τ

Megatron ERP Βάςη δεδομζνων Π/Φ - κατηγοριοποίηςη Databox

Τεχνικζσ Ανάλυςησ Διοικητικών Αποφάςεων

Η γλώςςα προγραμματιςμού C

Αναπαράςταςθ Γνώςθσ ςτον Παγκόςμιο Ιςτό Ενότθτα 2: XML Δομθμζνα Ζγγραφα Ιςτοφ, Μζροσ 4 ο XPath

ΛΕΙΣΟΤΡΓΙΚΆ ΤΣΉΜΑΣΑ. 3 ο Εργαςτιριο υγχρονιςμόσ Διεργαςιϊν

Τεχνικι Παρουςιάςεων με PowerPoint

Μάκθμα 1 Ειςαγωγι ςτθν αναπθρία

Βάςεισ Δεδομζνων Ι. Ενότητα 4: Μετατροπή ςχήματοσ Ο/Σ ςε ςχεςιακό. Δρ. Τςιμπίρθσ Αλκιβιάδθσ Τμιμα Μθχανικϊν Ρλθροφορικισ ΤΕ

Ενδεικτικζσ Λφςεισ Θεμάτων

Βαςεις δεδομενων 1. Δρ. Αλζξανδροσ Βακαλουδθσ

Μετατροπι Αναλογικοφ Σιματοσ ςε Ψθφιακό. Διάλεξθ 10

Internet a jeho role v našem životě Το Διαδίκτυο και ο ρόλοσ του ςτθ ηωι μασ

Περιοριςμοί μιασ Β.Δ. ςτθν Access(1/3)

Πολυπλέκτες. 0 x 0 F = S x 0 + Sx 1 1 x 1

Αναφορά Εργαςίασ Nim Game

Ανάπτυξη Εφαρμογών Σε Προγραμματιςτικό Περιβάλλον

LLP IT-LEONARDO-LMP ΠΟΛΤΠΛΕΤΡΑ ΧΕΔΙΑ ΓΙΑ ΣΗΝ ΑΝΑΠΣΤΞΗ ΣΗ ΚΑΙΝΟΣΟΜΙΑ

x n D 2 ENCODER m - σε n (m 2 n ) x 1 Παραδείγματα κωδικοποιθτϊν είναι ο κωδικοποιθτισ οκταδικοφ ςε δυαδικό και ο κωδικοποιθτισ BCD ςε δυαδικό.

1. Αν θ ςυνάρτθςθ είναι ΠΟΛΤΩΝΤΜΙΚΗ τότε το πεδίο οριςμοφ είναι το διότι για κάκε x θ f(x) δίνει πραγματικό αρικμό.

Transcript:

Μθχανικι Μάκθςθ Μάκθμα 1 Βαςικζσ ζννοιεσ Κϊςτασ Διαμαντάρασ Σμιμα Πλθροφορικισ ΣΕΙ Θεςςαλονίκθσ 1

τοιχεία επικοινωνίασ Κϊςτασ Διαμαντάρασ Σθλ. 2310 013592 Email: kdiamant@it.teithe.gr http://www.it.teithe.gr/~kdiamant/ Ανακοινϊςεισ, φλθ, διαφάνειεσ : http://blackboard.teithe.gr 2

Σι είναι θ «Μάκθςθ» (Learning) ; Μάθηςη : χρήςη δεδομζνων που προςλαμβάνει κάποιοσ από το περιβάλλον (πχ. θχθτικά, οπτικά ςιματα, κλπ) ζτςι ϊςτε αυτόσ να βελτιώνεται ςταδιακά κατά τθν εκτζλεςθ μιασ λειτουργίασ. Θ μάκθςθ είναι βαςικό ςυςτατικό τθσ νοημοςφνησ. Παραδείγματα λειτουργιϊν: κατανόθςθ τθσ γλϊςςασ παραγωγι ομιλίασ αναγνϊριςθ προςϊπων και αντικειμζνων ανάπτυξθ ςτρατθγικισ ςε διάφορεσ καταςτάςεισ (πχ. παιχνίδια, κοινωνικι ςυμπεριφορά, κλπ), και πολλά άλλα... 3

Μθχανικι Μάκθςθ (Machine Learning) Μηχανική Μάθηςη: χρήςη δεδομζνων από ζναν αλγόριθμο ο οποίοσ εκτελείται ςε μια υπολογιςτικι μθχανι ζτςι ϊςτε αυτι να βελτιώνεται ςταδιακά κατά τθν εκτζλεςθ μιασ λειτουργίασ. Οι λειτουργίεσ είναι αντίςτοιχεσ αυτϊν που εμπίπτουν ςτθν ανκρϊπινθ νοθμοςφνθ, όπωσ Θ μθχανικι κατανόθςθ τθσ γλϊςςασ και θ παραγωγι ομιλίασ (natural language processing /understanding) Θ μθχανικι αναγνϊριςθ προτφπων (pattern recognition) Θ ανάπτυξθ ςτρατθγικισ ςε διάφορεσ καταςτάςεισ (πχ. παιχνίδια, πλοιγθςθ ςτο χϊρο, κλπ), και πολλά άλλα... 4

Μθχανικι μάκθςθ και Σεχνθτι Νοθμοςφνθ Θ Μάκθςθ κεωρείται βαςικό ςυςτατικό τθσ Ανκρϊπινθσ Νοθμοςφνθσ. Θ Μθχανικι Μάκθςθ κεωρείται βαςικό ςυςτατικό τθσ Σεχνητήσ Νοημοςφνησ (ΣΝ). Θ παραδοςιακή ΣΝ δεν βαςίηεται ςτθ μάκθςθ αλλά ςε κανόνεσ που παρζχονται από κάποιον «ειδικό». Για παράδειγμα, θ λειτουργία αναγνϊριςθσ τθσ ςχζςθσ «ο X είναι ανηψιόσ του Υ» βαςίηεται ςε κανόνεσ του τφπου: ΑΝ: Τπάρχει Η ϊςτε ο Χ είναι γιοσ του Η ΚΑΙ Ο Η είναι αδερφόσ του Τ ΣΟΣΕ: Ο Χ είναι ανθψιόσ του Τ 5

Παραδοςιακι Σεχνθτι Νοθμοςφνθ (ΣΝ) Πλεονεκτιματα: Θ παραδοςιακι ΣΝ δίνει εξαιρετικά αποτελζςματα ςε καλϊσ οριςμζνα προβλιματα με ςτακεροφσ κανόνεσ (πχ. το ςκάκι, θ διάγνωςθ βλαβϊν ςε βιομθχανικά εξαρτιματα ι μθχανζσ, θ διάγνωςθ αςκενειϊν, κλπ) κι εφόςον είναι δυνατι θ χριςθ ειδικϊν (experts) για τθν εξαγωγι των απαραίτθτων κανόνων. Βαςικά εργαλεία τθσ παραδοςιακισ Σεχνθτισ Νοθμοςφνθσ (ΣΝ) είναι οι γλϊςςεσ λογικοφ προγραμματιςμοφ όπωσ Prolog, LISP, κα. 6

Παραδοςιακι ΣΝ Σα βαςικά μειονεκτιματα τθσ παραδοςιακισ προςζγγιςθσ είναι: Θ ζλλειψθ ευελιξίασ Θ αδυναμία προςαρμογισ ςε νζα δεδομζνα Θ δυςκολία εξαγωγισ του ςυνόλου των κανόνων. ε πολλζσ περιπτϊςεισ, είτε δεν είναι εφκολθ θ εφρεςθ του κατάλλθλου «ειδικοφ» που κα παρζχει τουσ κανόνεσ, είτε οι κανόνεσ είναι πολφπλοκοι, είτε είναι εξαιρετικά δφςκολο να διατυπωκοφν. 7

Σι προςφζρει θ μάκθςθ; Σο βαςικά πλεονεκτιματα τθσ μάκθςθσ είναι θ ευελιξία και θ προςαρμοςτικότητα. Ασ δοφμε τθ διαφορά ςε ζνα παράδειγμα ευφυοφσ λειτουργίασ αναγνώριςησ προτφπων. Ζςτω ότι κζλουμε να ξεχωρίηουμε ηϊα μεταξφ τουσ και ςυγκεκριμζνα κζλουμε να διακρίνουμε ενιλικα άλογα από ενιλικα πρόβατα. Προφανϊσ θ είςοδοσ ςτο αλγόρικμο αναγνϊριςθσ δεν κα είναι το ίδιο το ηϊο αλλά κάποια χαρακτηριςτικά του που μποροφν να ποςοτικοποιθκοφν... 8

Παράδειγμα: Αναγνϊριςθ ηϊων...ζνα χριςιμο χαρακτθριςτικό για τθν διάκριςθ μεταξφ αλόγων και προβάτων είναι, για παράδειγμα, το φψοσ, x, του ηϊου. τθν παραδοςιακι ΣΝ θ αναγνϊριςθ του ηϊου κα γινόταν με κανόνεσ τθσ μορφισ ΑΝ: x 2 μζτρα ΣΟΣΕ: Σο ηϊο είναι άλογο ΑΝ: x < 2 μζτρα ΣΟΣΕ: Σο ηϊο είναι πρόβατο αυτό το πρόβλθμα αρκεί μόνο το χαρακτθριςτικό x για επιτυχι αναγνϊριςθ. ε πολλά προβλιματα, ωςτόςο, απαιτείται θ χριςθ ενόσ διανφςματοσ χαρακτθριςτικϊν που καλείται πρότυπο. 9

Παράδειγμα: Αναγνϊριςθ ηϊων Σι κα γίνει όμωσ αν κλθκοφμε να διακρίνουμε άλογα από ελζφαντεσ; Αν ςυνεχίςουμε να χρθςιμοποιοφμε το φψοσ ωσ χαρακτθριςτικό τότε κα πρζπει να δθμιουργιςουμε νζουσ κανόνεσ, πχ. ΑΝ: x 3 μζτρα ΣΟΣΕ: Σο ηϊο είναι ελζφαντασ ΑΝ: x < 3 μζτρα ΣΟΣΕ: Σο ηϊο είναι άλογο Κάκε φορά που κα αντιμετωπίηουμε ζνα νζο πρόβλθμα αναγνϊριςθσ κα πρζπει να δθμιουργοφμε ζνα νζο ςετ κανόνων, άςχετων με το προθγοφμενο πρόβλθμα 10

Παράδειγμα: Αναγνϊριςθ ηϊων με μάκθςθ Οι κανόνεσ είναι κατάλλθλοι για ζνα ςυγκεκριμζνο πρόβλθμα αλλά δεν προςαρμόηονται ςε άλλα προβλιματα Ζνασ αλγόρικμοσ αναγνϊριςθσ που χρθςιμοποιεί μάθηςη δζχεται ςτθν είςοδό του πολλά πρότυπα από κάκε κλάςθ ηϊου. Π.χ. αν κλθκεί να διακρίνει άλογα από πρόβατα τότε κα «δει» πολλά πρότυπα αλόγων και προβάτων. τθν ςυγκεκριμζνθ περίπτωςθ κάκε πρότυπο, p, είναι ζνα διάνυςμα με ζνα μόνο ςτοιχείο: το φψοσ x του ηϊου: p = [x] τθ γενικι περίπτωςθ το πρότυπο είναι ζνα διάνυςμα με n χαρακτθριςτικά: p = [x 1, x 2,, x n ] 11

Παράδειγμα: Αναγνϊριςθ ηϊων με μάκθςθ Ο αλγόρικμοσ δζχεται ςτθν είςοδο πολλά πρότυπα και από τισ δφο κλάςεισ και ρυκμίηει τισ εςωτερικζσ του παραμζτρουσ ζτςι ϊςτε να κάνει επιτυχϊσ τθ διάκριςθ μεταξφ των δφο κλάςεων. Με άλλα λόγια, κα βρει μόνοσ του το κατϊφλι των 2 μζτρων που απαιτείται για να ξεχωρίηει τα άλογα από τα πρόβατα. p 1, p 2, p 3, p 4, p 5, Πρότυπα ειςόδου και από τισ δφο κλάςεισ Ρφκμιςθ εςωτερικϊν παραμζτρων Απόφαςθ (άλογο ι πρόβατο?) 12

Παράδειγμα 2: Αναγνϊριςθ προςϊπου Ο άνκρωποσ διακζτει ζνα εςωτερικό (βιολογικό) ςφςτθμα αναγνϊριςθσ μζςω του οποίου μαθαίνει από βρζφοσ να αναγνωρίηει τα οικεία του πρόςωπα (πχ., τθ μθτζρα του). Χρθςιμοποιεί κυρίωσ οπτικά δεδομζνα, αλλά και επίςθσ ακουςτικά δεδομζνα, κ.α. Βιολογικό φςτημα Αναγνώριςησ 13

Παράδειγμα 2: Αναγνϊριςθ προςϊπου Σο πρόβλθμα τθσ Αναγνώριςησ Προςώπου (απλοφςτερη εκδοχή): Είςοδοσ: Μια εικόνα Ε θ οποία περιζχει μόνο ζνα πρόςωπο με γωνία λιψθσ από μπροςτά. Ηθτοφμενθ απόκριςθ: Απόφαςθ αν θ Ε περιζχει ζνα ςυγκεκριμζνο πρόςωπο Χ Κάμερα Μηχανικό φςτημα Αναγνώριςησ 14

Αναγνϊριςθ προςϊπου: Ωμά δεδομζνα vs. Χαρακτθριςτικά Σα «ωμά δεδομζνα» του προβλιματοσ είναι θ εικόνα ειςόδου Ε που λαμβάνεται από τθν κάμερα. Προφανϊσ ζνα μθχανικό ςφςτθμα αναγνϊριςθσ προςϊπου δεν μπορεί να υλοποιθκεί ςαν ζνα απλό ερϊτθμα (query) ςε μια βάςθ εικόνων διότι, ακόμα και ςτθν απλι αυτι εκδοχι, μια τζτοια βάςθ κα ζπρεπε να περιζχει όλεσ τισ πικανζσ όψεισ του X για κάκε κλιμάκωςθ μεγζκουσ, αλλαγι φωτεινότθτασ, γωνία περιςτροφισ, κλπ. Οι πικανζσ όψεισ είναι άπειρεσ 15

Αναγνϊριςθ προςϊπου: Ωμά δεδομζνα vs. Χαρακτθριςτικά Ανάγκθ χριςθσ χαρακτηριςτικών του προςϊπου ϊςτε να μπορεί να διακρίνεται το X από τα άλλα πρόςωπα. Σα χαρακτθριςτικά αυτά κα πρζπει να είναι αναλοίωτα ςτθν περιςτροφι, ςτθν κλιμάκωςθ μεγζκουσ, ςτθν αλλαγι τθσ φωτεινότθτασ, κλπ. Ζνα τζτοιο χαρακτθριςτικό κα μποροφςε να είναι, για παράδειγμα, θ απόςταςθ των ματιϊν μεταξφ τουσ ςε ςχζςθ με τθν απόςταςι τουσ από το ςτόμα: *απόςταςθ ματιϊν μεταξφ τουσ+ *απόςταςθ ματιϊν από το ςτόμα+ Μπορεί να ςκεφτεί κανείσ και άλλα παρόμοια χαρακτθριςτικά... 16

Αναγνϊριςθ προςϊπου: Γενικι αρχιτεκτονικι ςυςτιματοσ Με βάςθ τα παραπάνω ζνα ςφςτθμα αναγνϊριςθσ προςϊπου πρζπει να εμπεριζχει ζνα υποςφςτημα εξαγωγήσ χαρακτηριςτικών (feature extraction) που λαμβάνει ωσ είςοδο τα ωμά δεδομζνα και παράγει ωσ ζξοδο ζνα διάνυςμα χαρακτηριςτικών (feature vector) το οποίο κα τροφοδοτεί το υποςφςτθμα ταξινόμθςθσ προτφπων το οποίο καλείται Σαξινομητήσ (Classifier) Μηχανικό Σφςτημα Αναγνϊριςησ Εξαγωγή Χαρακτηριςτικών Σαξινομητήσ (Classifier) Ωμά δεδομζνα (Πρότυπα) Διάνυςμα χαρακτηριςτικϊν 17

Αναγνϊριςθ προτφπων Σα προβλιματα τθσ αναγνϊριςθσ ηϊων ι προςϊπων που είδαμε παραπάνω εντάςςονται ςτθ γενικότερθ κατθγορία προβλθμάτων Αναγνώριςησ Προτφπων: Αναγνώριςη προτφπων: το επιςτημονικό πεδίο που ζχει ςκοπό την κατάταξη αντικειμζνων ςε κατηγορίεσ που λζγονται κλάςεισ. Οι κλάςεισ δεν είναι αναγκαςτικά δφο (όπωσ ιταν πχ ςτθν περίπτωςθ τθσ διάκριςθσ μεταξφ αλόγων και προβάτων). Γενικά ζνα πρόβλθμα αναγνϊριςθσ μπορεί να αφορά Ν>2 κλάςεισ, όπωσ, πχ., θ αναγνϊριςθ των φθψίων 0, 1,..., 9 ι των γραμμάτων: Α, Β, Γ,..., Ω, ι αναγνϊριςθ προςϊπων από ζνα πλικοσ ατόμων, κλπ. 18

Δείγμα (1): Λειτουργία Μθχανισ Αναγνϊριςθσ Παράδειγμα: Δφο κλάςεισ 0=άλογο, 1=πρόβατο Εξαγωγή Χαρακτηριςτικών Διάνυςμα Χαρακτηριςτικϊν Απόφαςη Σ/Λ Σαξινομητήσ (Classifier) 0 (2): Εξαγωγή Χαρακτηριςτικών Σαξινομητήσ (Classifier) 1 (3): Εξαγωγή Χαρακτηριςτικών Σαξινομητήσ (Classifier) 0 (4): Εξαγωγή Χαρακτηριςτικών Σαξινομητήσ (Classifier) 0 19

Εξαγωγι Χαρακτθριςτικϊν (Feature Extraction) Όπωσ είδαμε ςτα προθγοφμενα παραδείγματα βαςικό προαπαιτοφμενο για τθν αναγνϊριςθ είναι θ χριςθ χαρακτθριςτικϊν (features). Πολλζσ φορζσ τα «ωμά δεδομζνα» περιζχουν μεγάλο όγκο πλθροφορίασ θ οποία όχι δεν είναι απαραίτθτθ για τθν αναγνϊριςθ αλλά δυςχαιραίνει το ζργο του αλγορίκμου αναγνϊριςθσ διότι καταναλίςκει μεγάλο χϊρο μνιμθσ και κάνει τθν εκτζλεςθ του αλγορίκμου από απλϊσ υπολογιςτικά πολφπλοκθ ζωσ απαγορευτικι. 20

Ποφ εφαρμόηεται θ αναγνϊριςθ προτφπων; Μθχανικι όραςθ: Αναγνϊριςθ προςϊπων Οπτικι αναγνϊριςθ χαρακτιρων (χειρόγραφων ι τυπωμζνων) Ακουςτικι Αναγνϊριςθ ομιλίασ Αναγνϊριςθ φωνισ ομιλθτι Αναγνϊριςθ μουςικισ Ιατρικι / Βιολογία Διαγνωςτικι με βοικεια υπολογιςτι: επεξεργαςία θλεκτροκαρδιογραφιματοσ (ECG) θλεκτρο-εγκεφαλογραφιματοσ (EEG), μαγνθτικισ τομογραφίασ (ΜΡΙ), κλπ Αναγνϊριςθ γονιδίων Κλπ... 21

Άλλεσ εφαρμογζσ τθσ μάκθςθσ Παλινδρόμηςη (Regression) Σο πρόβλθμα κατά το οποίο θ μθχανι καλείται να εκτιμιςει τθν τιμι εξόδου που αντιςτοιχεί ςε ζνα πρότυπο ειςόδου. Θ τιμι εξόδου αναηθτάται μζςα από ζνα ςυνεχζσ ςφνολο τιμϊν (πχ. το ςφνολο των πραγματικϊν αρικμϊν, ) Θ αναγνϊριςθ προτφπων με N κλάςεισ μπορεί να κεωρθκεί μια υποπερίπτωςθ τθσ παλινδρόμθςθσ ςτθν οποία το ςφνολο τιμϊν εξόδου είναι διακριτό, πχ, το ςφνολο {1, 2,..., Ν}. p 1, p 2, p 3, p 4, p 5, Ζξοδοσ (ςυνεχείσ τιμζσ) Πρότυπα ειςόδου Ρφκμιςθ εςωτερικϊν παραμζτρων 22

Παλινδρόμθςθ Παράδειγμα 1: Ζςτω μια ςυνάρτθςθ ŷ = f(x) θ οποία ανικει ςε μια ςυγκεκριμζνθ κατθγορία ςυναρτιςεων, πχ. τισ γραμμικζσ ςυναρτιςεισ ŷ = ax + b. Από τθν f() παίρνουμε κάποια δείγματα, δθλ. ηευγάρια τιμϊν [x i, y i ], μόνο που ςτισ μετριςεισ μασ μπορεί να υπάρχει κάποιο ςφάλμα: y i = ŷ i + ε i x 1, y 1 y Δίνονται: x 2, y 2 x P, y P x κοπόσ: θ μάκθςθ των καλφτερων παραμζτρων a, b, ϊςτε για οποιοδιποτε άγνωςτο x να γίνεται εκτίμθςθ του y με το μικρότερο δυνατό ςφάλμα. Ζητάμε: Για x νζο, y νζο =? 23

Παλινδρόμθςθ Παράδειγμα 2: Εκτίμθςθ κερμοκραςίασ θ με βάςθ τθν υγραςία υ, το υψόμετρο ψ, και τθν πίεςθ του αζρα π: Σα χαρακτθριςτικά ειςόδου δθμιουργοφν το πρότυπο διάνυςμα p = [υ, ψ, π]. το ςφςτθμα παλινδρόμθςθσ δίνονται πολλά πρότυπα μαηί με τισ αντίςτοιχεσ κερμοκραςίεσ για κάκε πρότυπο p 1 = [υ 1, ψ 1, π 1 ], θ 1 Δίνονται: p 2 = [υ 2, ψ 2, π 2 ], θ 2 p P = [υ P, ψ P, π P ], θ P κοπόσ: θ μάκθςθ των καλφτερων παραμζτρων του ςυςτιματοσ ϊςτε να γίνεται εκτίμθςθ τθσ κερμοκραςίασ με το μικρότερο δυνατό ςφάλμα. Ζητάμε: Για p νζο = [υ, ψ, π], θ =? 24

Άλλεσ εφαρμογζσ τθσ μάκθςθσ Εξαγωγή Χαρακτηριςτικών (Feature Extraction) Θ εξαγωγι χαρακτθριςτικϊν μζςα από ζνα μεγάλο όγκο δεδομζνων μπορεί να γίνει χρθςιμοποιϊντασ μεκοδολογία μάκθςθσ, για παράδειγμα με χριςθ αυτοπροςαρμοηόμενων μεκόδων ςτατιςτικισ ανάλυςθσ (πχ. Ανάλυςθ Κυρίων υνιςτωςϊν, Learning Vector Quantization, κα) υμπίεςη Δεδομζνων (Data Compression) Θ ςυμπίεςθ δεδομζνων είναι ςυναφισ με τθν εξαγωγι χαρακτθριςτικϊν κακϊσ όγκοσ δεδομζνων μεγάλων διαςτάςεων αντικακίςταται από δεδομζνα μικρότερθσ διάςταςθσ. Επικυμθτό είναι τα δεδομζνα μικρισ διάςταςθσ να μποροφν να ανακαταςκευάηουν τα αρχικά δεδομζνα με όςο το δυνατο λιγότερο ςφάλμα. 25

Οι δφο βαςικοί τφποι μάκθςθσ ΜΑΘΗΗ ΜΕ ΕΠΙΒΛΕΨΗ (SUPERVISED LEARNING) Ο αλγόρικμοσ χρθςιμοποιεί τα πρότυπα ειςόδου μαηί με τθν κλάςθ ςτθν οποία ανικουν (ςτόχοι) t 1, t 2, t 3, t 4, t 5, φγκρι ςθ p 1, p 2, p 3, p 4, p 5, Απόφαςθ Πρότυπα ειςόδου μαηί με τουσ ςτόχουσ τουσ Ρφκμιςθ εςωτερικϊν παραμζτρων 26

Οι δφο βαςικοί τφποι μάκθςθσ ΜΑΘΗΗ ΧΩΡΙ ΕΠΙΒΛΕΨΗ (UNSUPERVISED LEARNING) Ο αλγόρικμοσ χρθςιμοποιεί μόνο τα πρότυπα ειςόδου χωρίσ να γνωρίηει ςε ποια κλάςθ ανικει το κακζνα. p 1, p 2, p 3, p 4, p 5, Απόφαςθ Πρότυπα ειςόδου μόνο Ρφκμιςθ εςωτερικϊν παραμζτρων 27

Βαςικζσ ζννοιεσ μάκθςθσ: Εκπαίδευςθ και Ανάκλθςθ Οριςμόσ. Εκπαίδευςη: Θ παρουςίαςθ πολλϊν προτφπων ςτο ςφςτθμα (με ή χωρίσ ςτόχουσ, ανάλογα με το τφπο μάθηςησ) με ςκοπό τθν ρφκμιςθ των παραμζτρων του ϊςτε αυτό να βελτιϊνεται ςτθν λειτουργία αναγνϊριςθσ ι ςε όποια άλλθ λειτουργία τάχκθκε. Οριςμόσ. Ανάκληςη: Θ ειςαγωγι ενόσ ι περιςςοτζρων προτφπων με ςκοπό τθν εξαγωγι τθσ απόκριςθσ του ςυςτιματοσ χωρίσ εκπαίδευςθ. 28

Εκπαίδευςθ Με Επίβλεψθ Παράδειγμα: Διάνυςμα Δείγμα Χαρακτηριςτικϊν Απόφαςη Στόχοσ Ενζργεια (1): Εξαγωγή Χαρακτηριςτικών Σαξινομητήσ (Classifier) 0 0 Όχι διόρθωςη (2): Εξαγωγή Χαρακτηριςτικών Σαξινομητήσ (Classifier) 1 1 Όχι διόρθωςη (3): Εξαγωγή Χαρακτηριςτικών Σαξινομητήσ (Classifier) 0 1 Διόρθωςη (4): Εξαγωγή Χαρακτηριςτικών Σαξινομητήσ (Classifier) 0 0 Όχι διόρθωςη 29

Δείγμα Εκπαίδευςθ Χωρίσ Επίβλεψθ Παράδειγμα: Διάνυςμα Χαρακτηριςτικϊν Απόφαςη Ενζργεια (1): Εξαγωγή Χαρακτηριςτικών Σαξινομητήσ (Classifier) 0 Πρωτότυπο: Δημιουργία νζασ κλάςησ=0 (2): Εξαγωγή Χαρακτηριςτικών Σαξινομητήσ (Classifier) 1 Πρωτότυπο: Δημιουργία νζασ κλάςησ=1 (3): Εξαγωγή Χαρακτηριςτικών Σαξινομητήσ (Classifier) 1 Όμοιο με (2): ζνταξη ςτην κλάςη 1 (4): Εξαγωγή Χαρακτηριςτικών Σαξινομητήσ (Classifier) 0 Όμοιο με (1): ζνταξη ςτην κλάςη 0 30

Ανάκλθςθ Θ Ανάκλθςθ είναι ζνα υπο-βιμα τθσ εκπαίδευςθσ. Απλϊσ παράγει τθν ζξοδο του ςυςτιματοσ. Δείγμα Διάνυςμα Χαρακτηριςτικϊν Απόφαςη (1): Εξαγωγή Χαρακτηριςτικών Σαξινομητήσ (Classifier) 0 (2): Εξαγωγή Χαρακτηριςτικών Σαξινομητήσ (Classifier) 1 (3): Εξαγωγή Χαρακτηριςτικών Σαξινομητήσ (Classifier) 0 (4): Εξαγωγή Χαρακτηριςτικών Σαξινομητήσ (Classifier) 0 31

Ανικουν ςτθν κλάςθ: Μζτρθςθ επίδοςθσ ςυςτιματοσ αναγνϊριςθσ Πίνακασ ςφγχυςησ (Confusion matrix): Ο πίνακασ C με ςτοιχεία C(i,j) = πλικοσ δειγμάτων που ανικουν ςτθν κλάςθ i και ταξινομικθκαν ςτθν κλάςθ j. Παράδειγμα: Σαξινομικθκαν ςτθν κλάςθ: 1 2. N 1 37 3. 14 2 6 82. 6 N 0 2. 152 Άκροιςμα των ςτοιχείων τθσ διαγωνίου = πόςα πρότυπα ςυνολικά από τισ Ν κλάςεισ ταξινομικθκαν ςωςτά, Άκροιςμα των υπόλοιπων ςτοιχείων πλην τησ διαγωνίου = πόςα πρότυπα ςυνολικά ταξινομικθκαν λάθοσ. 32

negative positive Δυαδικι ταξινόμθςθ: Πίνακασ φγχυςθσ Ειδικι περίπτωςθ: Όταν οι κλάςεισ είναι δφο, τότε λζμε ότι ζχουμε πρόβλθμα δυαδικήσ ταξινόμηςησ. υχνά χρθςιμοποιοφμε τουσ αρικμοφσ 0, 1 για τθν αρίκμθςθ των κλάςεων αντί για 1, 2. Πίνακασ ςφγχυςθσ: True negatives False negatives 0 1 0 98 3 1 8 110 False positives True positives 33

Ανικουν ςτθν κλάςθ: 34 Δείκτεσ Επίδοςθσ: Ευςτοχία (Precision), Επιςτροφι (Recall) Ευςτοχία : Επιςτροφή: Ακρίβεια: FN TN Precision = Recall = 0 1 0 98 3 1 8 110 tp tp + fp = 110 110 + 3 = 97,3% tp tp + fn = 110 110 + 8 = 93,2% tp + tn Accuracy = tp + fp + tn + fn 110 + 98 = 110 + 98 + 3 + 8 = 94,9% Σαξινομικθκαν ςτθν κλάςθ: FP TP

Μοντζλα Μάκθςθσ τατιςτικά μοντζλα Bayes (ι Μπεϊηιανά μοντζλα). Βαςιςμζνα ςτθν ςτατιςτικι και ςτο νόμο του Bayes, τα μοντζλα αυτά προςπακοφν να εκτιμιςουν τθν πιο «πικανι» λφςθ ςτο πρόβλθμα με βάςθ τα δεδομζνα που ζχουμε διακζςιμα. Σεχνητά Νευρωνικά Δίκτυα (ΣΝΔ). Εμπνευςμζνα από τθν λειτουργία των νευρϊνων και του εγκεφάλου χρθςιμοποιοφν εκπαίδευςθ για τθν ρφκμιςθ των εςωτερικϊν τουσ παραμζτρων που καλοφνται «ςυναπτικά βάρη». Τπάρχουν πολλζσ αρχιτεκτονικζσ ΣΝΔ που ακολουκοφν τόςο το μοντζλο τθσ μάκθςθσ με επίβλεψθ όςο και το μοντζλο τθσ μάκθςθσ χωρίσ επίβλεψθ. 35