ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Σχετικά έγγραφα
Μάθηση με παραδείγματα Δέντρα Απόφασης

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. Κατηγοριοποίηση. Αριστείδης Γ. Βραχάτης, Dipl-Ing, M.Sc, PhD

Μηχανική Μάθηση: γιατί;

Κατηγοριοποίηση βάσει διανύσματος χαρακτηριστικών

Τεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 16η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Υπολογιστική Νοημοσύνη. Μάθημα 9: Γενίκευση

HMY 795: Αναγνώριση Προτύπων

Ασκήσεις μελέτης της 16 ης διάλεξης

Διπλωματική Εργασία: «Συγκριτική Μελέτη Μηχανισμών Εκτίμησης Ελλιπούς Πληροφορίας σε Ασύρματα Δίκτυα Αισθητήρων»

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Τεχνητή Νοημοσύνη ( )

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Συμπίεση Δεδομένων

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Περιεχόμενα ΕΝΟΤΗΤΑ I. ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ. Πρόλογος 15

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΑΝΑΛΥΣΗ ΑΛΓΟΡΙΘΜΩΝ

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

ΔΙΑΧΕΙΡΙΣΗ ΠΕΡΙΕΧΟΜΕΝΟΥ ΠΑΓΚΟΣΜΙΟΥ ΙΣΤΟΥ ΚΑΙ ΓΛΩΣΣΙΚΑ ΕΡΓΑΛΕΙΑ. Data Mining - Classification

ΕΝΟΤΗΤΑ 4 ΣΥΝΟΛΑ - ΛΕΞΙΚΑ

Μη γράφετε στο πίσω μέρος της σελίδας

Υπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning

Διακριτικές Συναρτήσεις

Όρια Αλγόριθμων Ταξινόμησης. Εισαγωγή στην Ανάλυση Αλγορίθμων Μάγια Σατρατζέμη

Δέντρα Απόφασης (Decision(

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)

Αποθήκες Δεδομένων και Εξόρυξη Δεδομένων

ΔΕΟ13 - Επαναληπτικές Εξετάσεις 2010 Λύσεις

Άσκηση 1 (ανακοινώθηκε στις 20 Μαρτίου 2017, προθεσμία παράδοσης: 24 Απριλίου 2017, 12 τα μεσάνυχτα).

Κεφάλαιο 10 Εισαγωγή στην Εκτίμηση

Διάλεξη 22: Δυαδικά Δέντρα. Διδάσκων: Παναγιώτης Ανδρέου

Αναγνώριση Προτύπων Ι

ΠΕΡΙΕΧΟΜΕΝΑ. ΠΡΟΛΟΓΟΣ... vii ΠΕΡΙΕΧΟΜΕΝΑ... ix ΓΕΝΙΚΗ ΒΙΒΛΙΟΓΡΑΦΙΑ... xv. Κεφάλαιο 1 ΓΕΝΙΚΕΣ ΕΝΝΟΙΕΣ ΑΠΟ ΤΗ ΣΤΑΤΙΣΤΙΚΗ

Διάλεξη 18: B-Δένδρα

Υ: Νόσος. Χ: Παράγοντας Κινδύνου 1 (Ασθενής) 2 (Υγιής) Σύνολο. 1 (Παρόν) n 11 n 12 n 1. 2 (Απών) n 21 n 22 n 2. Σύνολο n.1 n.2 n..

Συμπίεση Δεδομένων

Ειδικά θέματα Αλγορίθμων και Δομών Δεδομένων (ΠΛΕ073) Απαντήσεις 1 ου Σετ Ασκήσεων

Παράδειγμα δομικής επαγωγής Ορισμός δομικής επαγωγής Συμβολοσειρές Γλώσσες Δυαδικά δένδρα Μαθηματικά Πληροφορικής 3ο Μάθημα Αρχικός συγγραφέας: Ηλίας

Πανεπιστήμιο Δυτικής Μακεδονίας. Τμήμα Μηχανικών Πληροφορικής & Τηλεπικοινωνιών. Τεχνητή Νοημοσύνη. Ενότητα 7: Μηχανική μάθηση

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Αποθήκες εδομένων και Εξόρυξη εδομένων:

Αναγνώριση Προτύπων Ι

Αντικείμενο του κεφαλαίου είναι: Ανάλυση συσχέτισης μεταξύ δύο μεταβλητών. Εξίσωση παλινδρόμησης. Πρόβλεψη εξέλιξης

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ

HMY 799 1: Αναγνώριση Συστημάτων

ΟΙΚΟΝΟΜΕΤΡΙΑ. Ενότητα 3: Πολλαπλή Παλινδρόμηση. Αναπλ. Καθηγητής Νικόλαος Σαριαννίδης Τμήμα Διοίκησης Επιχειρήσεων (Γρεβενά)

ΣΧΟΛΗ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ ΤΜΗΜΑ ΟΡΓΑΝΩΣΗΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ ΔΙΔΑΣΚΩΝ: ΘΑΝΑΣΗΣ ΚΑΖΑΝΑΣ. Οικονομετρία

Δυναμικός Κατακερματισμός. Βάσεις Δεδομένων Ευαγγελία Πιτουρά 1

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Ασκήσεις μελέτης της 8 ης διάλεξης

ΚΕΦΑΛΑΙΟ Μηχανική Μάθηση

Οικονομετρία. Εξειδίκευση του υποδείγματος. Προσθήκη άσχετης μεταβλητής και παράλειψη σχετικής. Τμήμα: Αγροτικής Οικονομίας & Ανάπτυξης

ΒΑΣΙΚΕΣ ΕΝΝΟΙΕΣ ΚΑΙ ΜΑΘΗΜΑΤΙΚΗ ΔΙΑΤΥΠΩΣΗ, Διαλ. 2. Ανωτάτη Σχολή Παιδαγωγικής και Τεχνολογικής Εκπαίδευσης 8/4/2017

Σχεδιαση Αλγοριθμων -Τμημα Πληροφορικης ΑΠΘ - Κεφαλαιο 9ο

Μορφές αποδείξεων. Μαθηματικά Πληροφορικής 2ο Μάθημα. Μορφές αποδείξεων (συνέχεια)

Δυναμικός Κατακερματισμός. Βάσεις Δεδομένων Ευαγγελία Πιτουρά 1

HMY 795: Αναγνώριση Προτύπων

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Θέμα Α. Θέμα Β. ~ 1/9 ~ Πέτρος Μάρκου. % σχεδιάζουμε το πολύγωνο αθροιστικών σχετικών συχνοτήτων τοις

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Κατανεμημένα Συστήματα Ι

Ενότητα 9 Ξένα Σύνολα που υποστηρίζουν τη λειτουργία της Ένωσης (Union-Find)

Υπερπροσαρμογή (Overfitting) (1)

Συνοπτικά περιεχόμενα

Μάθηση εννοιών. Έννοιες: συναρτήσεις που επιστρέφουν λογική τιμή

Αριθμήσιμα σύνολα. Μαθηματικά Πληροφορικής 5ο Μάθημα. Παραδείγματα αριθμήσιμων συνόλων. Οι ρητοί αριθμοί

Διάλεξη 17: Δυαδικά Δέντρα. Διδάσκων: Κωνσταντίνος Κώστα Διαφάνειες: Δημήτρης Ζεϊναλιπούρ

Εισαγωγή στην Στατιστική (ΔΕ200Α-210Α)

Αλγόριθµοι και Πολυπλοκότητα

Δυναμικός Κατακερματισμός. Βάσεις Δεδομένων Ευαγγελία Πιτουρά 1

Σύγκριση μέσου όρου πληθυσμού με τιμή ελέγχου. One-Sample t-test

Δυναμικός Κατακερματισμός. Βάσεις Δεδομένων Ευαγγελία Πιτουρά 1

1ο ΣΤΑΔΙΟ ΓΕΝΕΣΗ ΜΕΤΑΚΙΝΗΣΕΩΝ

Γράφημα. Συνδυαστικό αντικείμενο που αποτελείται από 2 σύνολα: Σύνολο κορυφών (vertex set) Σύνολο ακμών (edge set) 4 5 πλήθος κορυφών πλήθος ακμών

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

Ασκήσεις μελέτης της 6 ης διάλεξης

2. ΕΠΙΛΟΓΗ ΜΟΝΤΕΛΟΥ ΜΕ ΤΗ ΜΕΘΟΔΟ ΤΟΥ ΑΠΟΚΛΕΙΣΜΟΥ ΜΕΤΑΒΛΗΤΩΝ (Backward Elimination Procedure) Στην στατιστική βιβλιογραφία υπάρχουν πολλές μέθοδοι για

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Υλοποίηση Συστήματος Ανίχνευσης Εισβολών σε Περιβάλλον Android για Ασύρματα Δίκτυα Πρόσβασης

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Παράδειγμα δομικής επαγωγής Ορισμός δομικής επαγωγής Συμβολοσειρές Γλώσσες Δυαδικά δένδρα Μαθηματικά Πληροφορικής 3ο Μάθημα Τμήμα Πληροφορικής και Τηλ

Βιβλιογραφικές και ιστορικές σηµειώσεις Ασκήσεις Προβλήµατα Ικανοποίησης Περιορισµών

Σχεδίαση και Ανάλυση Αλγορίθμων

Αριθμητική Ανάλυση & Εφαρμογές

Υ: Νόσος. Χ: Παράγοντας Κινδύνου 1 (Ασθενής) 2 (Υγιής) Σύνολο. 1 (Παρόν) n 11 n 12 n 1. 2 (Απών) n 21 n 22 n 2. Σύνολο n.1 n.2 n..

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #12: Εισαγωγή στα Nευρωνικά Δίκτυα. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

HMY 795: Αναγνώριση Προτύπων

ΤΕΙ ΔΥΤΙΚΗΣ ΜΑΚΕΔΟΝΙΑΣ Μεταπτυχιακό Τμήμα Τραπεζικής & Χρηματοοικονομικής

Διδάσκων: Κωνσταντίνος Κώστα

ΠΑΝΕΠΙΣΤΗΜΙΑΚΑ ΦΡΟΝΤΙΣΤΗΡΙΑ ΚΟΛΛΙΝΤΖΑ. Ερωτήσεις πολλαπλής επιλογής. Συντάκτης: Δημήτριος Κρέτσης

ΜΟΝΤΕΛΟΠΟΙΗΣΗ ΔΙΑΚΡΙΤΩΝ ΕΝΑΛΛΑΚΤΙΚΩΝ ΣΕ ΠΡΟΒΛΗΜΑΤΑ ΣΧΕΔΙΑΣΜΟΥ ΚΑΙ ΣΥΝΘΕΣΗΣ ΔΙΕΡΓΑΣΙΩΝ

ΕΠΛ 211: Θεωρία Υπολογισμού και Πολυπλοκότητας. Διάλεξη 2: Μαθηματικό Υπόβαθρο

Ταξινόμηση κάδου και ταξινόμηση Ρίζας Bucket-Sort και Radix-Sort

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΕΠΑΝΑΛΗΠΤΙΚΕΣ ΕΞΕΤΑΣΕΙΣ (16/06/2010, 18:00)

ΤΕΙ ΔΥΤΙΚΗΣ ΜΑΚΕΔΟΝΙΑΣ Μεταπτυχιακό Τραπεζικής & Χρηματοοικονομικής

Transcript:

ΤΕΙ Δυτικής Μακεδονίας ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ 2015-2016 Τεχνητή Νοημοσύνη Μάθηση από Παρατηρήσεις Διδάσκων: Τσίπουρας Μάρκος Εκπαιδευτικό Υλικό: Τσίπουρας Μάρκος http://ai.uom.gr/aima/

2 Μορφές μάθησης (1/3) Ευφυής πράκτορας: Στοιχείο εκτέλεσης Στοιχείο μάθησης Παράγοντες που επηρεάζουν τη σχεδίαση: Συνιστώσες του στοιχείου εκτέλεσης που πρέπει να μαθευτούν. Διαθέσιμη ανάδραση. Αναπαράσταση.

3 Μορφές μάθησης (2/3) Αντικείμενο μάθησης: Άμεση αντιστοίχηση από τις συνθήκες της τρέχουσας κατάστασης στις ενέργειες. Ιδιότητες του κόσμου από την αλληλουχία των αισθήσεων. Εξέλιξη του κόσμου και αποτελέσματα των δυνατών ενεργειών. Πληροφορίες χρησιμότητας. Πληροφορίες αποτίμησης των ενεργειών. Καταστάσεις στόχου.

4 Μορφές μάθησης (3/3) Ανάδραση: Επιβλεπόμενη μάθηση Μη-επιβλεπόμενη μάθηση Ενισχυτική μάθηση Αναπαράσταση: Λογική Πιθανοτικά δίκτυα (Bayes, νευρωνικά)

5 Επαγωγική μάθηση (1/2) Παραδείγματα: (x, f(x)) Υπόθεση: h Χώρος υποθέσεων Συνεπείς (με τα παραδείγματα) υποθέσεις Ξυράφι του Ockham

6 Επαγωγική μάθηση (2/2) Επιλογή του κατάλληλου χώρου υποθέσεων Εφικτά / ανέφικτα προβλήματα μάθησης

Δένδρα αποφάσεων Decisio Trees

8 Το πρόβλημα του εστιατορίου Χαρακτηριστικά του προβλήματος: Εναλλακτικό: Ναι, Όχι. Μπαρ: Ναι, Όχι. Π/Σ: Ναι, Όχι. Πεινασμένος: Ναι, Όχι. Πελάτες: Κανένας, Μερικοί, και Πλήρες. Τιμή: $, $$, $$$. Βρέχει: Ναι, Όχι. Κράτηση: Ναι, Όχι. Τύπος: Γαλλικό, Ιταλικό, Ταϋλανδέζικο, ή ταχυφαγείο. ΕκτίμησηΑναμονής: 0' 10', 10' 30', 30' 60', >60.

Παράδειγμα 9

10 Εκφραστικότητα των δένδρων αποφάσεων Ισοδύναμα με την προτασιακή λογική. Δεν μπορούν να αναφέρονται σε δύο διαφορετικά αντικείμενα ταυτόχρονα, άρα δεν επεκτείνονται στη λογική πρώτης τάξης. Υπερβολικά μεγάλα δένδρα σε κάποιες περιπτώσεις. Συναρτήσεις ισοτιμίας (parity), πλειοψηφίας (majority)

11 Σύνολο εκπαίδευσης # Εναλ Μπαρ Π/Σ Πεινασμ Πελατες Τιμή Βρέχει Κράτηση Τύπος Εκτιμ ΘαΠεριμένει X 1 Ναι Όχι Όχι Ναι Μερικοί $$$ Όχι Ναι Γαλλικό 0-10 Ναι X 2 Ναι Όχι Όχι Ναι Πλήρες $ Όχι Όχι Ταϋλ 30-60 Όχι X 3 Όχι Ναι Όχι Όχι Μερικοί $ Όχι Όχι Ταχυφ. 0-10 Ναι X 4 Ναι Όχι Ναι Ναι Πλήρες $ Ναι Όχι Ταϋλ 10-30 Ναι X 5 Ναι Όχι Ναι Όχι Πλήρες $$$ Όχι Ναι Γαλλικό >60 Όχι X 6 Όχι Ναι Όχι Ναι Μερικοί $$ Ναι Ναι Ιταλικό 0-10 Ναι X 7 Όχι Ναι Όχι Όχι Κανένας $ Ναι Όχι Ταχυφ. 0-10 Όχι X 8 Όχι Όχι Όχι Ναι Μερικοί $$ Ναι Ναι Ταϋλ 0-10 Ναι X 9 Όχι Ναι Ναι Όχι Πλήρες $ Ναι Όχι Ταχυφ. >60 Όχι X 10 Ναι Ναι Ναι Ναι Πλήρες $$$ Όχι Ναι Ιταλικό 10-30 Όχι X 11 Όχι Όχι Όχι Όχι Κανένας $ Όχι Όχι Ταϋλ 0-10 Όχι X 12 Ναι Ναι Ναι Ναι Πλήρες $ Όχι Όχι Ταχυφ. 30-60 Ναι

Επαγωγή δένδρων αποφάσεων (1/2) 12

Επαγωγή δένδρων αποφάσεων (2/2) 13

14 Ο αλγόριθμος fuctio Decisio-Δένδρο-Learig (παραδείγματα,χαρακτηριστικά,ροεπιλογή) returs δένδρο αποφάσεων iputs: παραδείγματα, ένα σύνολο παραδειγμάτων χαρακτηριστικά, ένα σύνολο χαρακτηριστικών προεπιλογή, προεπιλεγμένη τιμή για το κατηγόρημα στόχου if παραδείγματα είναι κενό the retur προεπιλογή else if όλα στο παραδείγματα έχουν την ίδια ταξινόμηση the retur την ταξινόμηση else if χαρακτηριστικά είναι κενό the retur Majority-Value (παραδείγματα) else καλύτερο Choose-Attribute(χαρακτηριστικά, παραδείγματα) δένδρο νέο δένδρο αποφάσεων με έλεγχο ρίζας καλύτερο m Majority-Value(παραδείγματα) for each τιμή υ i του βέλτιστο do παραδείγματα i {στοιχεία από τα παραδείγματα με καλύτερο = υ i } υποδένδροdecisio-δένδρο-learig(παραδείγματα i,χαρακτηριστικάκαλύτερο,m) προσθήκη διακλάδωσης στο δένδρο με ετικέτα υi και υποδένδρο υποδένδρο retur δένδρο

15 Πληροφορία Πληροφορία (Shao & Weaver, 1949) I( P( υ 1 ),..., P( υ )) P( υi ) log 2 P( υi ) i1 π.χ. για δύο ισοπίθανα ενδεχόμενα: Ι 1 1 1 1 log 1 1 log 1δυαδικό ψηφίο 2, 2 2 2 2 2 2 2 Για μη ισοπίθανα ενδεχόμενα, π.χ. Ι(1/100, 99/100) = 0,08 δυαδικά ψηφία

Επιλογή χαρακτηριστικών Αρχικά υπολοιπόμενη ποσότητα πληροφορίας: Αναμενόμενο υπόλοιπο πληροφορίας μετά από ερώτηση: Αναμενόμενο κέρδος πληροφορίας: 16 p p p p p p p p p I 2 log 2 log, 1, ) ( i i i i i i i i i p p p I p p Α Υπόλοιπο ) (, ) ( Α Υπόλοιπο p p p I Α Κέρδος

17 Παράδειγμα Κέρδος( Πελάτες) 1 2 12 Ι(0,1) 4 12 Ι(1,0) 6 12 Ι 2, 6 4 6 0,541δυαδικά ψηφία Κέρδος( Τύπος) 1 2 1 1 2 1 1 4 2 2 4 2 2 Ι, Ι, Ι, Ι, 0 12 2 2 12 2 2 12 4 4 12 4 4

18 Αποτίμηση αλγορίθμου μάθησης Σύνολο ελέγχου Πολλαπλές δοκιμές για διαφορετικά μεγέθη και διαφορετικά στοιχεία του συνόλου ελέγχου. Καμπύλη μάθησης

19 Υπερπροσαρμογή Χρήση άσχετων χαρακτηριστικών για διαχωρισμό των παραδειγμάτων. Ημερομηνίες, IDs κλπ Στατιστικός έλεγχος σημαντικότητας Μηδενική υπόθεση Κλάδεμα χ 2 Διασταυρωμένη επικύρωση

20 Ελλειπή δεδομένα Το πρόβλημα αυτό μπορεί να αντιμετωπιστεί ως εξής: Κάθε παράδειγμα συνοδεύεται με έναν συντελεστή βαρύτητας. Όλα τα αρχικά παραδείγματα έχουν συντελεστή βαρύτητας 1. Κάθε φορά που ένα παράδειγμα δεν έχει τιμή στο χαρακτηριστικό που ελέγχεται, αυτό αντιγράφεται σε όλους τους κόμβους παιδιά με την τιμή που αντιστοιχεί σε κάθε παιδί και συντελεστή βαρύτητας ίσο με το λόγο των παραδειγμάτων κάθε κόμβου παιδιού προς το σύνολο των παραδειγμάτων του κόμβου-γονέα. Σταθμισμένος υπολογισμός πιθανοτήτων.

21 Χαρακτηριστικά με πολλές τιμές Ένας τρόπος να απομονώνονται τέτοια πεδία είναι να υπολογίσουμε το λόγο των κερδών (gai ratio) ως εξής: Έστω I 1 το αναμενόμενο κέρδος πληροφορίας εάν επιλέξουμε κάποιο χαρακτηριστικό Α. Έστω I 2 το κέρδος πληροφορίας για να μάθουμε την τιμή του Α. Το Α βαθμολογείται με Ι 1 /Ι 2.

22 Αριθμητικά χαρακτηριστικά εισόδου Δύο προσεγγίσεις Διακριτοποίηση. Υποκειμενικότητα Συνεχείς τιμές και χρήση ανισοτικών ελέγχων στους κόμβους του δένδρου. Πιθανές θέσεις για τους ελέγχους είναι εκείνες που οδηγούν σε διαφορετική κατηγοριοποίηση τουλάχιστον ενός παραδείγματος. Αυξημένο υπολογιστικό κόστος κατασκευής του δένδρου.

23 Έξοδος με συνεχείς τιμές Η διαδικασία προσαρμόζεται ως εξής: Κάποια από τα χαρακτηριστικά χρησιμοποιούνται για ελέγχους και κάποια όχι. Τα χαρακτηριστικά που δεν χρησιμοποιήθηκαν σε ελέγχους χρησιμοποιούνται στα φύλλα για να οριστεί μια συνάρτηση ελαχίστων τετραγώνων. Το παραγόμενο δένδρο λέγεται δένδρο παλινδρόμησης (regressio tree). Το πρόβλημα είναι στο διαχωρισμό των χαρακτηριστικών.

Συλλογική μάθηση Esemble Learig

25 Κεντρική ιδέα Επιλογή μίας ομάδας ή συλλογής (esemble) υποθέσεων από το χώρο υποθέσεων και ο συνδυασμός των προβλέψεών τους. Χρήση πλειοψηφικής ψηφοφορίας Προϋπόθεση: Οι υποθέσεις της συλλογής να είναι όσο το δυνατόν πιο ανεξάρτητες. Παράδειγμα: Η χρήση πέντε υποθέσεων μειώνει ένα ρυθμό σφαλμάτων της τάξης του 1 στα 10 σε ρυθμό σφαλμάτων 1 στα 100.

Αύξηση εκφραστικής ισχύος 26

Ενδυνάμωση (boostig) 27

28 Αλγόριθμος AdaBoost fuctio AdaBoost (παραδείγματα, L, M) returs μια υπόθεση σταθμισμένης πλειοψηφίας iputs: παραδείγματα, σύνολο Ν παραδειγμάτων με ετικέτες (x 1, y 1 ) (x N, y N ) L, αλγόριθμος μάθησης Μ, ο αριθμός υποθέσεων στη συλλογή local variables: w, διάνυσμα Ν βαρυτήτων για παραδείγματα, αρχικά 1/Ν h, διάνυσμα Μ υποθέσεων z, διάνυσμα βαρυτήτων των Μ υποθέσεων for m = 1 to M do h[m] L(παραδείγματα, w) σφάλμα 0 for j = 1 to N do if h[m](x j ) y j the σφάλμα σφάλμα + w[j] for j = 1 to N do if h[m](x j ) = y j the w[j] w[j] σφάλμα/(1 σφάλμα) w Normalize(w) z[m] log (1 σφάλμα)/ σφάλμα retut Weighted-Majority(h, z)

29 Παράδειγμα Ενδυνάμωση με κολοβά δένδρα αποφάσεων (decisio stumps) στα δεδομένα του εστιατορίου

Θεωρία υπολογιστικής μάθησης Computatioal Learig Theory

31 Πιθανώς προσεγγιστικά σωστή (probably approximately correct, PAC) Υπόθεση PAC Κάθε υπόθεση που είναι σημαντικά εσφαλμένη είναι σχεδόν σίγουρο ότι θα "ανακαλυφθεί" με μεγάλη πιθανότητα μετά από ένα μικρό αριθμό παραδειγμάτων, επειδή θα κάνει εσφαλμένη πρόβλεψη. Κατά συνέπεια, κάθε υπόθεση που είναι συνεπής με ένα επαρκώς μεγάλο σύνολο παραδειγμάτων εκπαίδευσης δεν είναι πιθανό να είναι σημαντικά εσφαλμένη: δηλαδή, πρέπει να είναι πιθανώς προσεγγιστικά σωστή (probably approximately correct). Υπόθεση στασιμότητας

32 Σφάλμα υπόθεσης Σημειογραφία: Χ: το σύνολο όλων των δυνατών παραδειγμάτων. D: η κατανομή από την οποία λαμβάνονται τα παραδείγματα. Η: το σύνολο των δυνατών υποθέσεων Ν: ο αριθμός των παραδειγμάτων στο σύνολο εκπαίδευσης. σφάλμα(h) = P(h(x) f(x) x από το D) Προσεγγιστικά σωστή υπόθεση: σφάλμα(h)

33 Πιθανότητα παραπλάνησης Έστω h b H bad P(h b συμφωνεί με Ν παραδείγματα) (1 - ) N P(H bad περιέχει μία συνεπή υπόθεση) H bad (1 )N H (1 )N H (1 )N δ (1 - e ) N 1 l l Αν ένας αλγόριθμος μάθησης επιστρέψει μία υπόθεση που είναι συνεπής με τόσα πολλά παραδείγματα, τότε με πιθανότητα τουλάχιστον 1 δ έχει σφάλμα το πολύ. 1 δ H Πολυπλοκότητα δείγματος

34 Περιορισμός χώρου υποθέσεων Η πολυπλοκότητα δείγματος εξαρτάται από το μέγεθος του χώρου υποθέσεων. H 2 2 για boolea συναρτήσεις Πρέπει να περιορίσουμε το μέγεθος του χώρου υποθέσεων. Χρήση περιορισμένων γλωσσών

35 Λίστες αποφάσεων (Decisio Lists) Λογική έκφραση: x ΘαΠεριμένει(x) Πελάτες (x, Μερικοί) (Πελάτες (x, Πλήρες) Π/Σ(x)) Ισοδύναμη λίστα αποφάσεων: k-dl: Λίστες αποφάσεων με k λεκτικά ανά σύζευξη. Περιλαμβάνει τα k-dt. k-dl(): Boolea χαρακτηριστικά

36 Μάθηση με λίστες αποφάσεων (1/2) Συζεύξεις(, k) : Η γλώσσα των συζεύξεων k λεκτικών από χαρακτηριστικά. Συζεύξεις k 2 i0 i k, k O Πλήθος συνδυασμών συζεύξεων: 3 Συζεύξεις(, k) Πλήθος λιστών αποφάσεων (διαφορετικές σειρές ελέγχων): k-dl() 3 Συζεύξεις(, k) Συζεύξεις(, k)!

37 Μάθηση με λίστες αποφάσεων (2/2) Τελικά: k k O log2 2 DL k και ο απαιτούμενος αριθμός παραδειγμάτων: N 1 l 1 δ O k log 2 k Κατασκευή λιστών αποφάσεων με άπληστο τρόπο.