Διάλεξη 07: Αλγόριθμοι εκμάθησης ΜέροςΓ Συναρτήσεις & μετα-μαθησιακοί Αλγόριθμοι

Μέγεθος: px
Εμφάνιση ξεκινά από τη σελίδα:

Download "Διάλεξη 07: Αλγόριθμοι εκμάθησης ΜέροςΓ Συναρτήσεις & μετα-μαθησιακοί Αλγόριθμοι"

Transcript

1 ΕΜΠ ΔΠΜΣ Εφαρμοσμένες Μαθηματικές Επιστήμες Αλγόριθμοι Εξόρυξης Πληροφορίας Διάλεξη 07: Αλγόριθμοι εκμάθησης ΜέροςΓ Συναρτήσεις & μετα-μαθησιακοί Αλγόριθμοι

2 Αλγόριθμοι Δεδομένα input Αλγόριθμοι Εξόρυξης Πληροφορίας Εξαγόμενα output Η παρούσα διάλεξη αποτελεί το τρίτο και τελευταίο μέρος της εστίασης στον πυρήνα της διαδικασίας εξόρυξης πληροφορίας Θα μελετηθούν γραμμικά μοντέλα, μηχανές διανυσμάτων υποστήριξης, νευρωνικά δίκτυα και μετα-μαθησιακοί αλγόριθμοι 2

3 Γραμμικά μοντέλα Λειτουργούν εκ φύσεως με αριθμητικά χαρακτηριστικά Τυπική τεχνική αριθμητικής πρόβλεψης: γραμμική παλινδρόμηση (linear regression) Το αποτέλεσμα είναι γραμμικός συνδυασμός των χαρακτηριστικών Οι βαρύτητες υπολογίζονται από τα δεδομένα εκπαίδευσης Προβλεπόμενη τιμή για το πρώτο υπόδειγμα εκπαίδευσης a (1) x = w + w a + w a w k a k (1) (1) (1) w0 a0 + w1a 1 + w2a wk a (1) k = k j= 0 w j a (1) j 3

4 Ελαχιστοποίηση τετραγωνικού σφάλματος Επιλογή k +1 συντελεστών προς ελαχιστοποίηση του τετραγωνικού σφάλματος στα δεδομένα εκπαίδευσης Τετραγωνικό σφάλμα: 2 n k ( i) ( i) x wja j i= 1 j= 0 Ο υπολογισμός των συντελεστών είναι εφικτός (και αξιόπιστος) μόνο όταν ο αριθμός των διαθέσιμων υποδειγμάτων είναι (κατά πολύ) μεγαλύτερος του αριθμού των χαρακτηριστικών Μειονέκτημα γραμμικών μοντέλων (προφανώς ): υπόθεση γραμμικότητας Η ελαχιστοποίηση του απολύτου σφάλματος είναι περισσότερο απαιτητική 4

5 Ταξινόμηση (classification) Οποιαδήποτε τεχνική παλινδρόμησης μπορεί να χρησιμοποιηθεί, εκτός της αριθμητικής πρόβλεψης, επίσης και για ταξινόμηση Εκπαίδευση: υλοποίηση μίας παλινδρόμησης για κάθε τάξη Έξοδος ίση με 1 για τα υποδείγματα που ανήκουν στην τάξη, 0 για τα υπόλοιπα Πρόβλεψη: επιλογή της τάξης του μοντέλου με τη μεγαλύτερη έξοδο (τιμή συμμετοχής, membership value) Η γραμμική αυτή μέθοδος καλείται γραμμική παλινδρόμηση πολλαπλής απόκρισης, multi-response linear regression 5

6 Λογαριθμική παλινδρόμηση (logistic regression) Πρόβλημα: παραβίαση κάποιων υποθέσεων κατά την υιοθέτηση γραμμικής παλινδρόμησης σε προβλήματα ταξινόμησης Παράδειγμα: οι τιμές συμμετοχής μπορούν να προκύψουν εκτός του [0,1] Λογαριθμική (logistic) παλινδρόμηση: εναλλακτική της γραμμικής Κατασκευάζει γραμμικό μοντέλο βασισμένο σε μετασχηματισμένη μεταβλητή-στόχο Εφαρμόζεται κυρίως σε προβλήματα ταξινόμησης Αποπειράται τον απευθείας υπολογισμό της πιθανότητας κάθε τάξης (μέγιστη πιθανότητα, maximum likelihood) Γραμμικό μοντέλο πιθανότητας: P log = w 1 P 0 a 0 + w 1 a 1 + w 2 a w k a k Πιθανότητα τάξης 6

7 Παλινδρόμηση ανά ζεύγη (pairwise regression) Εναλλακτική μέθοδος παλινδρόμησης για ταξινόμηση: Μία συνάρτηση παλινδρόμησης για κάθε ζεύγος τάξεων, με χρήση υποδειγμάτων των τάξεων αυτών και μόνο Εκχώρηση εξόδου ίσης με +1 για το ένα μέλος του ζεύγους, 1 για το άλλο Η πρόβλεψη πραγματοποιείται μέσω ψηφοφορίας (voting) Η τάξη που συλλέγει τις περισσότερες ψήφους επιλέγεται ως πρόβλεψη Περισσότερο ακριβής και υπολογιστικά δαπανηρή 7

8 Γενικά περί γραμμικών μοντέλων Ακατάλληλα στην περίπτωση που τα δεδομένα παρουσιάζουν μη γραμμικές εξαρτήσεις Ωστόσο μπορούν να αποτελέσουν πρώτη ύλη για την κατασκευή περισσότερο πολύπλοκων σχημάτων (για παράδειγμα, model trees) Παράδειγμα: η γραμμική παλινδρόμηση πολλαπλής απόκρισης ορίζει ένα υπερεπίπεδο (hyperplane) για κάθε δύο τάξεις: Το παράδειγμα εκχωρείται στην τάξη 1 αντί της τάξης 2 όταν (w 0 (1) w 0 (2) )a 0 + (w 1 (1) w 1 (2) )a 1 + (w 2 (1) w 2 (2) )a (w k (1) w k (2) )a k > 0 8

9 Γραμμική παλινδρόμηση με χρήση perceptron Εναλλακτική προσέγγιση: εκμάθηση υπερεπιπέδου που διαχωρίζει τα υποδείγματα διαφορετικών τάξεων Εάν τα δεδομένα δύναται να διαχωριστούν τέλεια σε ομάδες με χρήση υπερεπιπέδου, καλούνται ως γραμμικά διαχωρίσιμα (linearly separable) Σε αυτή την περίπτωση, εφαρμόζεται ένας απλοϊκός αλγόριθμος για την εύρεση του διαχωριστικού υπερεπιπέδου Εξίσωση υπερεπιπέδου: w0 + wa 1 1+ w2a wkak = 0 a i : τιμές χαρακτηριστικών, w i : βαρύτητες 9

10 Ο αλγόριθμος εκμάθησης του perceptron Set all weights to zero Until all instances in the training data are classified correctly For each instance I in the training data If I is classified incorrectly by the perceptron If I belongs to the first class add it to the weight vector else subtract it from the weight vector the perceptron 10

11 Παράδειγμα Υποθέτουμε την ύπαρξη δύο τάξεων Αν άθροισμα>0 τάξη1, αλλιώς τάξη 2 Αν υπόδειγμα a της τάξης 1 ταξινομείται λανθασμένα, ο αλγόριθμος αυξάνει την έξοδο του a κατά a 02 + a a k 2 Επομένως το υπερεπίπεδο μετακινείται προς τη σωστή για την ταξινόμηση του υποδείγματος a κατεύθυνση Αποδεικνύεται ότι ο αλγόριθμος συγκλίνει σε πεπερασμένο αριθμό επαναλήψεων εάν τα δεδομένα είναι γραμμικά διαχωρίσιμα Το υπερεπίπεδο που προκύπτει καλείται perceptron και αποτελεί τον πρόγονο των νευρωνικών δικτύων 11

12 Οαλγόριθμοςwinnow Για προβλήματα ταξινόμησης και σύνολα δεδομένων με δυαδικά χαρακτηριστικά, υπάρχει άλλη μία εναλλακτική στο perceptron: Winnow Οι δύο μέθοδοι διαφοροποιούνται ως προς την ενημέρωση των βαρυτήτων Ο αλγόριθμος συνίσταται στην περίπτωση που το σύνολο δεδομένων περιέχει πολλά δυαδικά χαρακτηριστικά χαμηλής Winnow While some instances are misclassified for every instance a classify a using the current weights if the predicted class is incorrect if a belongs to the first class for each a i that is 1, multiply w i by a (if a i is 0, leave w i unchanged) otherwise for each a i that is 1, divide w i by a (if a i is 0, leave w i unchanged) 12

13 Επέκταση γραμμικής ταξινόμησης Οι γραμμικοί ταξινομητές αδυνατούν να μοντελοποιήσουν μη γραμμικά όρια τάξεων Τέχνασμα: Απεικόνιση χαρακτηριστικών σε νέο χώρο που αποτελείται από συνδυασμούς των τιμών των χαρακτηριστικών Για παράδειγμα: το σύνολο των γινομένων n παραγόντων που μπορούν να κατασκευαστούν από τα χαρακτηριστικά Παράδειγμα με δύο χαρακτηριστικά και n = 3: w2a1 a2 + w3a1 a2 w3a2 x = w a + Πολυώνυμα επαρκούς βαθμού μπορούν να προσεγγίσουν μη γραμμικά όρια απόφασης με την απαιτούμενη ακρίβεια 13

14 Μειονεκτήματα της προσέγγισης 1 ο μειονέκτημα: ταχύτητα 10 χαρακτηριστικά, n = 5 >2000 συντελεστές Χρήση γραμμικής παλινδρόμησης με επιλογή χαρακτηριστικών Ο χρόνος εκτέλεσης είναι ανάλογος του κύβου του αριθμού των χαρακτηριστικών 2 ο μειονέκτημα: υπερπροσαρμογή Ο αριθμός των συντελεστών είναι μεγάλος σε σχέση με τον αριθμό των υποδειγμάτων εκπαίδευσης Η δυνατότητα γενίκευσης των μοντέλων είναι περιορισμένη 14

15 Μηχανές διανυσμάτων υποστήριξης (support vector machines) Οι μηχανές διανυσμάτων υποστήριξης αποτελούν αλγορίθμους που επιτυγχάνουν εκμάθηση γραμμικών ταξινομητών Ανθεκτικοί στην υπερπροσαρμογή, καθώς μαθαίνουν ένα ειδικό γραμμικό όριο απόφασης: Το υπερεπίπεδο μέγιστου περιθωρίου (maximum margin hyperplane) Χαμηλό υπολογιστικό κόστος, ακόμη και στην περίπτωση μη γραμμικότητας Χρήση μαθηματικού τεχνάσματος για την αποφυγή δημιουργίας "ψευδο-χαρακτηριστικών" Ο μη γραμμικός χώρος ανακύπτει με έμμεσο τρόπο 15

16 Το υπερεπίπεδο μέγιστου περιθωρίου 16

17 Το υπερεπίπεδο μέγιστου περιθωρίου Έστω σύνολο δεδομένων δύο γραμμικά διαχωρίσιμων τάξεων Υπάρχει υπερεπίπεδο στο χώρο των υποδειγμάτων που ταξινομεί χωρίς λάθος όλα τα υποδείγματα εκπαίδευσης Το υπερεπίπεδο μέγιστου περιθωρίου είναι εκείνο το οποίο επιτυγχάνει το μέγιστο διαχωρισμό μεταξύ των τάξεων Ως κυρτό περίβλημα (convex hull) ενός συνόλου σημείων ορίζεται το μικρότερο δυνατό κυρτό πολύγωνο που εσωκλείει το σύνολο των σημείων: Το περίγραμμά του αναδεικνύεται όταν ενωθεί κάθε σημείο του συνόλου με κάθε άλλο σημείο με μία ευθεία γραμμή Οι δύο τάξεις είναι γραμμικά διαχωρίσιμες τα κυρτά περιβλήματά τους δεν επικαλύπτονται Ως υπερεπίπεδο μέγιστου περιθωρίου ορίζεται εκείνο με τη μέγιστη απόσταση από τα κυρτά περιβλήματα 17

18 Διανύσματα υποστήριξης Τα υποδείγματα με τη μικρότερη απόσταση από το υπερεπίπεδο μέγιστου περιθωρίου καλούνται διανύσματα υποστήριξης (support vectors) Το σύνολο των διανυσμάτων υποστήριξης καθορίζει με μοναδικό τρόπο το υπερεπίπεδο μέγιστου περιθωρίου για το πρόβλημα εκμάθησης Επομένως όλα τα υπόλοιπα υποδείγματα μπορούν να διαγραφούν χωρίς να επηρεάσουν τη θέση και τον προσανατολισμό του! Κατά συνέπεια, το υπερεπίπεδο x = w0 + w1a 1 + w2a2 μπορεί να γραφεί ως x = b + y a ( i) a α i i i is supp. vector y i : η τιμή τάξεως του υποδείγματος εκπαίδευσης a(i), (i: διάνυσμα υποστήριξης) b & a i : αριθμητικές παράμετροι που καθορίζονται από τον αλγόριθμο εκμάθησης a: υπόδειγμα ελέγχου 18

19 Εύρεση διανυσμάτων υποστήριξης x = b + y a ( i) a α i i i is supp. vector Διάνυσμα υποστήριξης: υπόδειγμα εκπαίδευσης για το οποίο α i > 0 Εύρεση διανυσμάτων υποστήριξης και καθορισμός α i & b Πρόβλημα βελτιστοποίησης με δευτεροβάθμιους περιορισμούς (constrained quadratic optimization) Υπάρχουν διαθέσιμα εργαλεία για την αντιμετώπιση αυτού ακριβώς του προβλήματος Ωστόσο, εξειδικευμένοι αλγόριθμοι είναι περισσότερο γρήγοροι Παράδειγμα: αλγόριθμος sequential minimal optimization του Platt (@weka: SMO) Σημείωση: προϋπόθεση διαχωρίσιμων δεδομένων! 19

20 Μη γραμμικές Μηχανές Διανυσμάτων Υποστήριξης Τα "ψευδο-χαρακτηριστικά" αντιπροσωπεύουν συνδυασμούς χαρακτηριστικών Η υπερπροσαρμογή δεν είναι πιθανή, καθώς το υπερεπίπεδο μέγιστου περιθωρίου είναι σταθερό Μετακινείται μόνο κατά την προσθήκη ή αφαίρεση υποδειγμάτων εκπαίδευσης που συνιστούν διανύσματα υποστήριξης Υπάρχει συνήθως μικρός αριθμός διανυσμάτων υποστήριξης συγκριτικά με το μέγεθος του συνόλου εκπαίδευσης Ο υπολογιστικός χρόνος όμως ακόμη αποτελεί ζήτημα Σε κάθε υπολογισμό του διανυσματικού γινομένου υπεισέρχονται και τα "ψευδο-χαρακτηριστικά" 20

21 Μαθηματικό τέχνασμα Αποκλεισμός των "ψευδο-χαρακτηριστικών" Υπολογισμός του διανυσματικού γινομένου πριν την υλοποίηση της μη γραμμικής απεικόνισης Παράδειγμα: αντί του x = b + y a ( i) a υπολόγισε το α i is supp. vector Αντιστοιχεί σε απεικόνιση στο χώρο των υποδειγμάτων, επεκτεινόμενο σεόλαταγινόμεναn χαρακτηριστικών Ηαπεικόνισηκαλείταισυνάρτηση πυρήνα (kernel function) Ως τώρα χρησιμοποιήθηκε η πολυωνυμική (xy) n, ωστόσο υπάρχει πληθώρα άλλων διαθέσιμων προς χρήση συναρτήσεων Εκκίνηση με n=1 (γραμμικό μοντέλο) και βηματική αύξηση αυτού ως την παύση της βελτίωσης του υπολογιζόμενου σφάλματος i x = b + α y ( a ( i) a) i i i is supp. vector i n 21

22 Θόρυβος Υπόθεση: τα δεδομένα είναι διαχωρίσιμα (στον αρχικό ή σε μετασχηματισμένο χώρο) Οι μηχανές διανυσμάτων υποστήριξης μπορούν να εφαρμοστούν επίσης σε δεδομένα με θόρυβο με την εισαγωγή μίας παραμέτρου θορύβου C ΗπαράμετροςC περιορίζει την επιρροή οποιουδήποτε από τα υποδείγματα εκπαίδευσης επί των οριακών περιοχών απόφασης Εισάγεται δηλαδή ο περιορισμός: 0 α i C Το πρόβλημα συνεχίζει να αφορά δευτεροβάθμια βελτιστοποίηση Ο βέλτιστος προσδιορισμός της παραμέτρου C επιτυγχάνεται πειραματικά 22

23 Αραιά δεδομένα Οι αλγόριθμοι μηχανών διανυσμάτων υποστήριξης επιταχύνονται στην περίπτωση που τα δεδομένα είναι αραιά (sparse, δηλαδή πολλές τιμές είναι μηδενικές) Ολόγος; Ο υπολογισμός πολλών διανυσματικών γινομένων Αραιά δεδομένα χρονικά αποδοτικός υπολογισμός των γινομένων Επανάληψη μόνο επί των μη μηδενικών τιμών Δύνανται να επεξεργασθούν αραιά σύνολα δεδομένων με δεκάδες χιλιάδων χαρακτηριστικών 23

24 Παλινδρόμηση διανυσμάτων υποστήριξης (support vector regression) Η έννοια του υπερεπιπέδου μέγιστου περιθωρίου εφαρμόζεται μονάχα στην ταξινόμηση Για αριθμητικά χαρακτηριστικά: SMOreg) Βασική ιδέα: εύρεση συνάρτησης που προσεγγίζει τα σημεία εκπαίδευσης μέσω της ελαχιστοποίησης του σφάλματος πρόβλεψης Κρίσιμη διαφοροποίηση: το σύνολο των σημείων με απόκλιση μεγαλύτερη από μία καθορισμένη από το χρήστη- παράμετρο ε αποβάλλονται Ο κίνδυνος υπερπροσαρμογής περιορίζεται μέσω της ταυτόχρονης προσπάθειας μεγιστοποίησης της ομαλότητας της συνάρτησης Διανύσματα υποστήριξης: όλαεκείνατασημείαπουβρίσκονταικοντάστην επιφάνεια της συνάρτησης Απαιτείται συμβιβασμός μεταξύ του σφάλματος πρόβλεψης και της ομαλότητας της συνάρτησης ΈλεγχοςμέσωεπιβολήςανώτατουορίουC στις ανώτατες τιμές των συντελεστών a i 24

25 Πολυεπίπεδα (multilayer) perceptrons Σύνδεση πολλών απλών όμοιων προς το perceptron μοντέλων σε μία ιεραρχική δομή: νευρωνικά δίκτυα (neural networks) Ικανά να απεικονίσουν μη γραμμικά όρια αποφάσεων Ένα perceptron περιγράφεται συχνά ως ένας τεχνητός νευρώνας Οι νευρώνες του ανθρώπινου εγκεφάλου διασυνδέονται σε μαζική κλίμακα, επιτρέποντας την αποσύνθεση ενός προβλήματος σε υποπροβλήματα που μπορούν να επιλυθούν σε επίπεδο νευρώνα Η παρατήρηση αυτή ενέπνευσε τη δημιουργία δικτύων τεχνητών νευρώνων 25

26 Παράδειγμα νευρωνικού δικτύου 26

27 Εκμάθηση πολυεπίπεδου perceptron Ζητήματα: Εκμάθηση της δομής του δικτύου Εκμάθηση των βαρών σύνδεσης Ανάστροφη μετάδοση (backpropagation): ένας συγκριτικά απλοϊκός αλγόριθμος για τον καθορισμό των βαρών ενός δικτύου δεδομένης δομής Δομή δικτύου: συνήθως καθορίζεται με πειραματισμούς ίσως και με την κατάλληλη δόση γνώσης πεδίου Συχνά ένα κρυφό (hidden) επίπεδο είναι επαρκές Ο κατάλληλος αριθμός νευρώνων για αυτό το επίπεδο καθορίζεται μέσω μεγιστοποίησης της εκτιμώμενης ακρίβειας 27

28 Ανάστροφη μετάδοση (backpropagation) Γνωστά: δεδομένα, δομή δικτύου Ζητούμενα: κατάλληλα βάρη για τις συνδέσεις του δικτύου Επικλινής κάθοδος (gradient descent) Τροποποίηση των βαρών των ενώσεων που οδηγούν στους νευρώνεςτουκρυφούεπιπέδουμεβάσητηνισχύτης συνεισφοράς κάθε νευρώνα στην τελική πρόβλεψη Sigmoid function, learning rate, standardization, early stopping, momentum 28

29 @weka LeastMedSq Robust regression using the median rather than the mean LinearRegression Standard linear regression Logistic Build linear logistic regression models MultilayerPerceptron Backpropagation neural network PaceRegression Build linear regression models using Pace regression RBFNetwork Implements a radial basis function network 29

30 @weka SimpleLinearRegression Learn a linear regression model based on a single attribute SimpleLogistic Build linear logistic regression models with built-in attribute selection SMO Sequential minimal optimization algorithm for support vector classification SMOreg Sequential minimal optimization algorithm for support vector regression VotedPerceptron Voted perceptron algorithm Winnow Mistake-driven perceptron with multiplicative updates 30

31 Μετα μαθησιακά σχήματα Θεμελιώδης ιδέα: κατασκευή πολλών εμπειρογνωμόνων ( experts ), ανάδειξη πλειοψηφούσας γνώμης εμπειρογνώμονας : ένα μοντέλο που δημιουργήθηκε με τεχνικές μηχανική μάθησης Πλεονέκτημα: Συχνά βελτιώνει σημαντικά την προβλεπτική ικανότητα Μειονέκτημα: Τα εξαγόμενα είναι πολύ δύσκολο να αναλυθούν Σχήματα: Εμφωλίαση (bagging) Ενδυνάμωση (boosting) Συσσώρευση (stacking) Κώδικες διόρθψσης σφαλμάτων εξόδου (error-correcting output codes) Εφαρμόζονται τόσο για ταξινόμηση, όσο και για αριθμητική πρόβλεψη 31

32 Εμφωλίαση (bagging) Συνδυασμός προβλέψεων μέσω καταμέτρησης ψήφων / εύρεσης μέσου όρου Bagging = bootstrap aggregating Η απλούστερη μέθοδος! Κάθε μοντέλο λαμβάνει ισοδύναμη βαρύτητα Εξιδανικευμένη έκδοση: Δειγματοληψία αρκετών συνόλων εκπαίδευσης μεγέθους n (αντί του ενός συνόλου μεγέθους n) Κατασκευή ενός ταξινομητή για κάθε σύνολο εκπαίδευσης Συνδυασμός των προβλέψεων των ταξινομητών Όταν το σχήμα εκμάθησης είναι ασταθές (unstable), ηεμφωλίαση βελτιώνει σχεδόν πάντα την αποδοτικότητα Καθώς διαφορετικά μικρές αλλαγές στα δεδομένα εκπαίδευσης μπορούν να επιφέρουν σημαντικές μεταβολές στο μοντέλο για παράδειγμα, δένδρα απόφασης 32

33 Αποσύνθεση προκατάληψης-διακύμανσης Για την ανάλυση της επιρροής επί της απόδοσης καθενός συνόλου εκπαίδευσης Υπόθεση άπειρων ταξινομητών, κατασκευασμένων με βάση διαφορετικά σύνολα εκπαίδευσης μεγέθους n Για κάθε μαθησιακό σχήμα, Bias (προκατάληψη) = αναμενόμενο σφάλμα του μεταταξινομητή σε νέα δεδομένα Variance (διακύμανση) = αναμενόμενο σφάλμα λόγω του συγκεκριμένου συνόλου εκπαίδευσης που χρησιμοποιήθηκε Συνολικό αναμενόμενο σφάλμα: bias + variance 33

34 Γενικά περί εμφωλίασης Η εμφωλίαση λειτουργεί καθώς μειώνει τη διακύμανση μέσω της καταμέτρησης ψήφων / εύρεσης μέσου όρου Σε κάποιες παθολογικές καταστάσεις το συνολικό σφάλμα μπορεί να αυξηθεί Συνήθως, η βελτίωση είναι ανάλογη του αριθμού των ταξινομητών Πρόβλημα: στην πράξη, μόνο ένα δεδομένο είναι διαθέσιμο! Λύση: παραγωγή νέων συνόλων μεγέθους n μέσω δειγματοληψίας με επανατοποθέτηση Σημαντική βελτίωση ιδιαίτερα στην περίπτωση θορύβου Για αριθμητικά χαρακτηριστικά: εύρεση μέσου όρου και όχι σύστασης Bagging, Decorate, RandomCommittee, Vote 34

35 Ταξινομητές εμφωλίασης Κατασκευή μοντέλου Let n be the number of instances in the training data For each of t iterations: Sample n instances from training set (with replacement) Apply learning algorithm to the sample Store resulting model Ταξινόμηση For each of the t models: Predict class of instance using model Return class that is predicted most often 35

36 Ενδυνάμωση (boosting) Υλοποιεί επίσης ψηφοφορία (για ταξινόμηση) / μέσο όρο (για αριθμητική πρόβλεψη) για τον συγκερασμό των εξόδων ξεχωριστών μοντέλων Ωστόσο, αποδίδει βαρύτητα στα μοντέλα με βάση την απόδοσή τους Επαναληπτική μέθοδος: τα νέα μοντέλα επηρεάζονται από την απόδοση εκείνων που κατασκευάστηκαν προηγούμενα Ενθάρρυνση εστίασης των νέων μοντέλων στα λανθασμένα με βάση τα προηγούμενα μοντέλα ταξινομημένα υποδείγματα Διαισθητική αιτιολόγηση: τα μοντέλα ως εμπειρογνώμονες πρέπει να αλληλοσυμπληρώνονται Διάφορες τεχνοτροπίες ενδυνάμωσης Μία ευρέως χρησιμοποιούμενη: AdaBoostM1 (για ταξινόμηση) 36

37 AdaBoost.M1 Κατασκευή μοντέλου Assign equal weight to each training instance For t iterations: Apply learning algorithm to weighted dataset, store resulting model Compute model s error e on weighted dataset If e = 0 or e > 0.5: Terminate model generation For each instance in dataset: If classified correctly by model: Multiply instance s weight by e/(1-e) Normalize weight of all instances Ταξινόμηση Assign weight = 0 to all classes For each of the t models (or fewer): For the class this model predicts add log e/(1-e) to this class s weight Return class with highest weight 37

38 Περισσότερα περί ενδυνάμωσης Η ενίσχυση απαιτεί βαρύτητες, ωστόσο Μπορεί να εφαρμοστεί και χωρίς αυτές Επαναληπτική δειγματοληψία με πιθανότητες εμφάνισης καθορισμένες από βάρη μειονέκτημα: δεν χρησιμοποιούνται όλα τα υποδείγματα πλεονέκτημα: αν σφάλμα> 0.5, εφικτή η επανάληψη της δειγματοληψίας Η ιδέα πηγάζει από τη θεωρία υπολογιστικής μάθησης (computational learning theory) Θεωρητικά: Το σφάλμα εκπαίδευσης φθίνει εκθετικά Επίσης: Λειτουργεί ικανοποιητικά εάν οι ταξινομητές βάσης δεν είναι περίπλοκοι και Το σφάλμα τους δεν μεγεθύνεται ταχέως 38

39 Περισσότερα περί ενδυνάμωσης Συνέχιση της διαδικασίας ενδυνάμωσης μετά το μηδενισμό του σφάλματος εκπαίδευσης; Αινιγματική παρατήρηση: το σφάλμα γενίκευσης συνεχίζει να μειώνεται! Ένας ισχυρός συνδυασμένος ταξινομητής μπορεί να δημιουργηθεί από απλοϊκούς ταξινομητές! Η ενδυνάμωση λειτουργεί με αδύναμα (weak) αρχικά μοντέλα Για παράδειγμα, με decision stumps (δένδρα ενός επιπέδου) Μοναδική προϋπόθεση: το σφάλμα δεν ξεπερνά το 0.5 LogitBoost: περισσότερο εξεζητημένο σχήμα ενδυνάμωσης, χρησιμοποιεί μέθοδο παλινδρόμησης ως αρχικό AdaBoostM1, LogitBoost, MultiBoostAB, RacedIncrementalLogitBoost 39

40 Συσσώρευση (stacking) Stacking/ stacked generalization Λιγότερο ευρέως χρησιμοποιούμενη, έναντι της εμφωλίασης και ενδυνάμωσης Δεν υπάρχει κοινά αποδεκτή μέθοδος υλοποίησης Δεν χρησιμοποιείται για το συνδυασμό μοντέλων του ίδιου τύπου Για τον συγκερασμό των προβλέψεων των αρχικών μοντέλων δεν πραγματοποιείται ψηφοφορία, αλλά χρησιμοποιείται μετα-μοντέλο εκμάθησης Αρχικά μοντέλα: επίπεδο-0 Μετα-μοντέλα: επίπεδο-1 Οι προβλέψεις των αρχικών μοντέλων αποτελούν τις εισόδους του μετα-μοντέλου Τα αρχικά μοντέλα είναι συνήθως διαφορετικά σχήματα εκμάθησης Αδύνατη η χρήση των προβλέψεων επί των δεδομένων εκπαίδευσης για τη δημιουργίά δεδομένων για το μετα-μοντέλο! Στη θέση τους, απαιτείται η χρήση σχήματος τύπου διασταυρωμένης επικύρωσης Δύσκολη η θεωρητική ανάλυση 40

41 Περισσότερα περί συσσώρευσης Εάν τα αρχικά μοντέλα εξάγουν πιθανότητες, αυτές μπορούν να χρησιμοποιηθούν ως είσοδοι για το μεταμαθησιακό σχήμα Επιλογή αλγορίθμου για χρήση ως μετα-μαθησιακό σχήμα Οποιοδήποτε σχήμα! Προτιμούνται μοντέλα σχετικά σφαιρικά και λεία, καθώς Τα αρχικά μοντέλα υλοποιούν όλη την μάθηση Με αυτό τον τρόπο μειώνεται ο κίνδυνος υπερπροσαρμογής Η συσσώρευσης μπορεί να εφαρμοστεί επίσης για αριθμητική Stacking, StackingC, Grading 41

42 Κώδικες διόρθωσης σφαλμάτων εξόδου (error-correcting output codes, ECOC) Μετατροπή προβλήματος πολλών τάξεων σε δυαδικά προβλήματα Απλοϊκό σχήμα: ένας κώδικας ανά τάξη class class vector Ιδέα: χρήση κωδικών διόρθωσης σφαλμάτων a 1000 (error-correcting codes) b 0100 Οι αρχικοί ταξινομητές δίνουν , αληθής τάξη =?? c 0010 Χρησιμοποίηση κωδικών λέξεων που d 0001 εμφανίζουν μεγάλη απόσταση κατά Hamming class class vector (Hamming distance) μεταξύ κάθε ζεύγους a Μπορεί να διορθώσει ως και (d 1)/2 σφάλματα μοναδιαίου bit b c d

43 Περισσότερα περί ECOC Δύο κριτήρια: Διαχωρισμός σειράς: ελάχιστη απόσταση μεταξύ των σειρών Διαχωρισμός στηλών: ελάχιστη απόσταση μεταξύ των στηλών και των συμπληρωμάτων τους Αίτιο; Εάν οι στήλες είναι πανομοιότυπες, οι αρχικοί ταξινομητές θα οδηγηθούν πιθανά στα ίδια σφάλματα Η διόρθωση σφάλματος αδυνατίζει όταν τα σφάλματα είναι συσχετιζόμενα 3 τάξεις μόνο 2 3 δυνατές στήλες 4 εκ των οποίων είναι συμπληρωματικές Ανέφικτος ο διαχωρισμός σειρών και στηλών Η μέθοδος λειτουργεί μόνο με προβλήματα περισσοτέρων των 3 τάξεων 43

44 Εξαντλητικοί ECOC Εξαντλητικός (exhaustive) κώδικας για k τάξεις: Οι στήλες αποτελούν κάθε δυνατή συμβολοσειρά k-στοιχείων με εξαίρεση των συμπλήρωμάτων τους και των συμβολοσειρών με μόνο 1/0 Κάθε λέξη κώδικα περιέχει 2 k 1 1bits Εξαντλητικός κώδικας, k = 4 class class vector a b c d Τάξη 1: λέξη κώδικα αποτελούμενη μόνο από άσσους Τάξη 2: 2 k 2 μηδενικά αποτελούμενα από 2 k 2 1 άσσους Τάξη i : εναλλαγές από 2 k i μηδενικά και 2 k i 1 άσσους Πολλές τάξεις το κόστος της μεθόδου γίνεται απαγορευτικό Οαριθμόςτωνστηλώναυξάνειεκθετικά 44

45 @weka AdaBoostM1 Boost using the AdaBoostM1 method AdditiveRegression Enhance the performance of a regression method by iteratively fitting the residuals AttributeSelectedClassifier Reduce dimensionality of data by attribute selection Bagging Bag a classifier; works for regression too ClassificationViaRegression Perform classification using a regression method CostSensitiveClassifier Make its base classifier cost sensitive CVParameterSelection Perform parameter selection by crossvalidation Decorate Build ensembles of classifiers by using specially constructed artificial training examples 45

46 @weka FilteredClassifier Run a classifier on filtered data Grading Metalearners whose inputs are base-level predictions that have been marked as correct or incorrect LogitBoost Perform additive logistic regression MetaCost Make a classifier cost-sensitive MultiBoostAB Combine boosting and bagging using the MultiBoosting method MultiClassClassifier Use a two-class classifier for multiclass datasets MultiScheme Use cross-validation to select a classifier from several candidates OrdinalClassClassifier Apply standard classification algorithms to problems with an ordinal class value 46

47 @weka RacedIncrementalLogitBoost Batch-based incremental learning by racing logit-boosted committees RandomCommittee Build an ensemble of randomizable base classifiers RegressionByDiscretization Discretize the class attribute and employ a classifier Stacking Combine several classifiers using the stacking method StackingC More efficient version of stacking ThresholdSelector Optimize the F-measure for a probabilistic classifier Vote Combine classifiers using average of probability estimates or numeric predictions 47

48 Τέλος Επόμενη διάλεξη: ΠαρουσιάσειςΕργασιών 48

ΔΠΜΣ: ΕΦΑΡΜΟΣΜΕΝΕΣ ΜΑΘΗΜΑΤΙΚΕΣ ΕΠΙΣΤΗΜΕΣ ΡΟΗ: ΣΤΑΤΙΣΤΙΚΗ-ΠΙΘΑΝΟΤΗΤΕΣ ΜΑΘΗΜΑ: ΑΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ ΤΕΛΙΚΗ ΕΡΓΑΣΙΑ ΔΗΜΗΤΡΑ ΤΑΤΣΙΟΥ

ΔΠΜΣ: ΕΦΑΡΜΟΣΜΕΝΕΣ ΜΑΘΗΜΑΤΙΚΕΣ ΕΠΙΣΤΗΜΕΣ ΡΟΗ: ΣΤΑΤΙΣΤΙΚΗ-ΠΙΘΑΝΟΤΗΤΕΣ ΜΑΘΗΜΑ: ΑΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ ΤΕΛΙΚΗ ΕΡΓΑΣΙΑ ΔΗΜΗΤΡΑ ΤΑΤΣΙΟΥ ΔΠΜΣ: ΕΦΑΡΜΟΣΜΕΝΕΣ ΜΑΘΗΜΑΤΙΚΕΣ ΕΠΙΣΤΗΜΕΣ ΡΟΗ: ΣΤΑΤΙΣΤΙΚΗ-ΠΙΘΑΝΟΤΗΤΕΣ ΜΑΘΗΜΑ: ΑΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ ΤΕΛΙΚΗ ΕΡΓΑΣΙΑ ΔΗΜΗΤΡΑ ΤΑΤΣΙΟΥ ΠΡΟΕΠΙΣΚΟΠΗΣΗ ΚΑΙ ΕΞΕΡΕΥΝΗΣΗ ΤΩΝ ΔΕΔΟΜΕΝΩΝ Τα προς επεξεργασία

Διαβάστε περισσότερα

ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ ΣΧΟΛΗ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ ΚΑΙ ΦΥΣΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΠΛΗΡΟΦΟΡΙΑΣ ΠΑΡΟΥΣΙΑΣΗ ΤΕΛΙΚΗΣ ΕΡΓΑΣΙΑΣ ΛΙΝΑ ΜΑΣΣΟΥ

ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ ΣΧΟΛΗ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ ΚΑΙ ΦΥΣΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΠΛΗΡΟΦΟΡΙΑΣ ΠΑΡΟΥΣΙΑΣΗ ΤΕΛΙΚΗΣ ΕΡΓΑΣΙΑΣ ΛΙΝΑ ΜΑΣΣΟΥ ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ ΣΧΟΛΗ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ ΚΑΙ ΦΥΣΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΑΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ ΠΑΡΟΥΣΙΑΣΗ ΤΕΛΙΚΗΣ ΕΡΓΑΣΙΑΣ ΛΙΝΑ ΜΑΣΣΟΥ Δ.Π.Μ.Σ: «Εφαρμοσμένες Μαθηματικές Επιστήμες» 2008

Διαβάστε περισσότερα

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων Εισηγητής: ρ Ηλίας Ζαφειρόπουλος Εισαγωγή Ιατρικά δεδοµένα: Συλλογή Οργάνωση Αξιοποίηση Data Mining ιαχείριση εδοµένων Εκπαίδευση

Διαβάστε περισσότερα

ΔΠΜΣ: ΕΦΑΡΜΟΣΜΕΝΕΣ ΜΑΘΗΜΑΤΙΚΕΣ ΕΠΙΣΤΗΜΕΣ ΑΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ ΤΕΛΙΚΗ ΕΡΓΑΣΙΑ

ΔΠΜΣ: ΕΦΑΡΜΟΣΜΕΝΕΣ ΜΑΘΗΜΑΤΙΚΕΣ ΕΠΙΣΤΗΜΕΣ ΑΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ ΤΕΛΙΚΗ ΕΡΓΑΣΙΑ Ε Θ Ν Ι Κ Ο Μ Ε Τ Σ Ο Β Ι Ο Π Ο Λ Υ Τ Ε Χ Ν Ε Ι Ο ΣΧΟΛΗ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ & ΦΥΣΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΔΠΜΣ: ΕΦΑΡΜΟΣΜΕΝΕΣ ΜΑΘΗΜΑΤΙΚΕΣ ΕΠΙΣΤΗΜΕΣ ΑΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ ΤΕΛΙΚΗ ΕΡΓΑΣΙΑ ΟΝΟΜΑΤΕΠΩΝΥΜΟ:

Διαβάστε περισσότερα

Διακριτικές Συναρτήσεις

Διακριτικές Συναρτήσεις Διακριτικές Συναρτήσεις Δρ. Δηµήτριος Τσέλιος Επίκουρος Καθηγητής ΤΕΙ Θεσσαλίας Τµήµα Διοίκησης Επιχειρήσεων Θερµικός χάρτης των XYZ ξενοδοχείων σε σχέση µε τη γεωγραφική περιοχή τους P. Adamopoulos New

Διαβάστε περισσότερα

Ι. Preprocessing (Επεξεργασία train.arff):

Ι. Preprocessing (Επεξεργασία train.arff): Ονοματεπώνυμο: Κατερίνα Αργύρη Δ.Π.Μ.Σ: Εφαρμοσμένες Μαθηματικές Επιστήμες Ακαδ. Έτος: 2008-2009 1 Για την παρούσα εργασία διατίθενται τρία σύνολα δεδομένων: Δεδομένα Εκπαίδευσης (train set αρχείο train.arff):

Διαβάστε περισσότερα

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος. Τεχνητή Νοημοσύνη 18η διάλεξη (2016-17) Ίων Ανδρουτσόπουλος http://www.aueb.gr/users/ion/ 1 Οι διαφάνειες αυτής της διάλεξης βασίζονται: στο βιβλίο Machine Learning του T. Mitchell, McGraw- Hill, 1997,

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16 HMY 795: Αναγνώριση Προτύπων Διαλέξεις 15-16 Νευρωνικά Δίκτυα(Neural Networks) Fisher s linear discriminant: Μείωση διαστάσεων (dimensionality reduction) y Τ =w x s + s =w S w 2 2 Τ 1 2 W ( ) 2 2 ( ) m2

Διαβάστε περισσότερα

Τεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος. Τεχνητή Νοημοσύνη 17η διάλεξη (2016-17) Ίων Ανδρουτσόπουλος http://.aueb.gr/users/ion/ 1 Οι διαφάνειες αυτής της διάλεξης βασίζονται: στο βιβλίο Artificia Inteigence A Modern Approach των S. Russe και

Διαβάστε περισσότερα

ΑΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ

ΑΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ ΣΧΟΛΗ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ ΚΑΙ ΦΥΣΙΚΩΝ ΕΠΙΣΤΗΜΩΝ Δ.Π.Μ.Σ. ΕΦΑΡΜΟΣΜΕΝΕΣ ΜΑΘΗΜΑΤΙΚΕΣ ΕΠΙΣΤΗΜΕΣ ΑΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ ΤΕΛΙΚΗ ΕΡΓΑΣΙΑ ΧΟΥΧΟΥΜΗΣ ΙΩΑΝΝΗΣ Το σύνολο των

Διαβάστε περισσότερα

Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Το Πολυεπίπεδο Perceptron. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων Το Πολυ Perceptron Δίκτυα Πρόσθιας Τροφοδότησης (feedforward) Tο αντίστοιχο γράφημα του δικτύου δεν περιλαμβάνει κύκλους: δεν υπάρχει δηλαδή ανατροφοδότηση της εξόδου ενός νευρώνα προς τους νευρώνες από

Διαβάστε περισσότερα

Αναγνώριση Προτύπων Ι

Αναγνώριση Προτύπων Ι Αναγνώριση Προτύπων Ι Ενότητα 1: Μέθοδοι Αναγνώρισης Προτύπων Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται

Διαβάστε περισσότερα

ΑΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ (Data Mining) Πανδή Αθηνά

ΑΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ (Data Mining) Πανδή Αθηνά ΑΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ (Data Mining) Πανδή Αθηνά Μάιος 2008 Τα δεδομένα που έχουμε προς επεξεργασία χωρίζονται σε τρία μέρη: 1. Τα δεδομένα εκπαίδευσης (training set) που αποτελούνται από 2528

Διαβάστε περισσότερα

4.3. Γραµµικοί ταξινοµητές

4.3. Γραµµικοί ταξινοµητές Γραµµικοί ταξινοµητές Γραµµικός ταξινοµητής είναι ένα σύστηµα ταξινόµησης που χρησιµοποιεί γραµµικές διακριτικές συναρτήσεις Οι ταξινοµητές αυτοί αναπαρίστανται συχνά µε οµάδες κόµβων εντός των οποίων

Διαβάστε περισσότερα

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Μάθηση και Γενίκευση. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων Μάθηση και Γενίκευση Το Πολυεπίπεδο Perceptron (MultiLayer Perceptron (MLP)) Έστω σύνολο εκπαίδευσης D={(x n,t n )}, n=1,,n. x n =(x n1,, x nd ) T, t n =(t n1,, t np ) T Θα πρέπει το MLP να έχει d νευρώνες

Διαβάστε περισσότερα

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή Τµήµα Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών ΗΜΜΥ 795: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ Ακαδηµαϊκό έτος 2010-11 Χειµερινό Εξάµηνο Τελική εξέταση Τρίτη, 21 εκεµβρίου 2010,

Διαβάστε περισσότερα

Ασκήσεις μελέτης της 19 ης διάλεξης

Ασκήσεις μελέτης της 19 ης διάλεξης Οικονομικό Πανεπιστήμιο Αθηνών, Τμήμα Πληροφορικής Μάθημα: Τεχνητή Νοημοσύνη, 2016 17 Διδάσκων: Ι. Ανδρουτσόπουλος Ασκήσεις μελέτης της 19 ης διάλεξης 19.1. Δείξτε ότι το Perceptron με (α) συνάρτηση ενεργοποίησης

Διαβάστε περισσότερα

ΑΝΔΡΟΥΛΑΚΗΣ ΜΑΝΟΣ A.M AΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ

ΑΝΔΡΟΥΛΑΚΗΣ ΜΑΝΟΣ A.M AΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ ΑΝΔΡΟΥΛΑΚΗΣ ΜΑΝΟΣ A.M. 09470015 AΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ Διδάσκων: Γιώργος Τζιραλής ΔΠΜΣ ΕΦΑΡΜΟΣΜΕΝΕΣ ΜΑΘΗΜΑΤΙΚΕΣ ΕΠΙΣΤΗΜΕΣ Στάδιο 1 ο. Προεπισκόπηση-προεπεξεργασία δεδομένων: Δίδονται τα παρακάτω

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΜΙΑ ΣΥΜΒΑΣΗ: Προκειμένου να καταστήσουμε πιο συμπαγή το συμβολισμό H : ορίζουμε Ετσι έχουμε *=[ ] an *=[ ]. H : * * ΣΗΜΕΙΩΣΗ: Στη συνέχεια εκτός αν ορίζεται

Διαβάστε περισσότερα

Το μοντέλο Perceptron

Το μοντέλο Perceptron Το μοντέλο Perceptron Αποτελείται από έναν μόνο νευρώνα McCulloch-Pitts w j x x 1, x2,..., w x T 1 1 x 2 w 2 Σ u x n f(u) Άνυσμα Εισόδου s i x j x n w n -θ w w 1, w2,..., w n T Άνυσμα Βαρών 1 Το μοντέλο

Διαβάστε περισσότερα

ΗΜΕΡΟΜΗΝΙΑ: 25/05/2009 TΕΛΙΚΗ ΕΡΓΑΣΙΑ ΝΙΚΗ ΜΟΣΧΟΥ

ΗΜΕΡΟΜΗΝΙΑ: 25/05/2009 TΕΛΙΚΗ ΕΡΓΑΣΙΑ ΝΙΚΗ ΜΟΣΧΟΥ DATA MINING ΗΜΕΡΟΜΗΝΙΑ: 25/05/2009 TΕΛΙΚΗ ΕΡΓΑΣΙΑ ΝΙΚΗ ΜΟΣΧΟΥ 1 ΠΡΟΕΠΕΞΕΡΓΑΣΙΑ ΔΕΔΟΜΕΝΩΝ Αφού δεν γνωρίζουμε κάποιο τρόπο για να επιλέξουμε εκ των προτέρων την πιο κατάλληλη και αποδοτική μέθοδο μάθησης

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διαλέξεις 11-12 Γραμμική παλινδρόμηση συνέχεια Γραμμική παλινδρόμηση συνέχεια Γραμμικές διαχωριστικές συναρτήσεις Γραμμική παλινδρόμηση (Linear regression) y = w + wx + + w

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διάλεξη 3 Επιλογή μοντέλου Επιλογή μοντέλου Θεωρία αποφάσεων Επιλογή μοντέλου δεδομένα επικύρωσης Η επιλογή του είδους του μοντέλου που θα χρησιμοποιηθεί σε ένα πρόβλημα (π.χ.

Διαβάστε περισσότερα

Αριθμητική Ανάλυση & Εφαρμογές

Αριθμητική Ανάλυση & Εφαρμογές Αριθμητική Ανάλυση & Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 2017-2018 Υπολογισμοί και Σφάλματα Παράσταση Πραγματικών Αριθμών Συστήματα Αριθμών Παράσταση Ακέραιου

Διαβάστε περισσότερα

ΚΑΤΗΓΟΡΙΕΣ ΤΑΞΙΝΟΜΗΣΗΣ

ΚΑΤΗΓΟΡΙΕΣ ΤΑΞΙΝΟΜΗΣΗΣ ΚΑΤΗΓΟΡΙΕΣ ΤΑΞΙΝΟΜΗΣΗΣ Κατευθυνόμενη ταξινόμηση (supervsed cassfcaton) Μη-κατευθυνόμενη ταξινόμηση (unsupervsed cassfcaton) Γραμμική: Lnear Dscrmnant Anayss Μη- Γραμμική: Νευρωνικά δίκτυα κλπ. Ιεραρχική

Διαβάστε περισσότερα

HY380 Αλγόριθμοι και πολυπλοκότητα Hard Problems

HY380 Αλγόριθμοι και πολυπλοκότητα Hard Problems HY380 Αλγόριθμοι και πολυπλοκότητα Hard Problems Ημερομηνία Παράδοσης: 0/1/017 την ώρα του μαθήματος ή με email: mkarabin@csd.uoc.gr Γενικές Οδηγίες α) Επιτρέπεται η αναζήτηση στο Internet και στην βιβλιοθήκη

Διαβάστε περισσότερα

ΤΟΠΟΓΡΑΦΙΚΑ ΔΙΚΤΥΑ ΚΑΙ ΥΠΟΛΟΓΙΣΜΟΙ ΑΝΑΣΚΟΠΗΣΗ ΘΕΩΡΙΑΣ ΣΥΝΟΡΘΩΣΕΩΝ

ΤΟΠΟΓΡΑΦΙΚΑ ΔΙΚΤΥΑ ΚΑΙ ΥΠΟΛΟΓΙΣΜΟΙ ΑΝΑΣΚΟΠΗΣΗ ΘΕΩΡΙΑΣ ΣΥΝΟΡΘΩΣΕΩΝ ΤΟΠΟΓΡΑΦΙΚΑ ΔΙΚΤΥΑ ΚΑΙ ΥΠΟΛΟΓΙΣΜΟΙ ΑΝΑΣΚΟΠΗΣΗ ΘΕΩΡΙΑΣ ΣΥΝΟΡΘΩΣΕΩΝ Βασίλης Δ. Ανδριτσάνος Δρ. Αγρονόμος - Τοπογράφος Μηχανικός ΑΠΘ Επίκουρος Καθηγητής ΤΕΙ Αθήνας 3ο εξάμηνο http://eclass.teiath.gr Παρουσιάσεις,

Διαβάστε περισσότερα

Γραµµικοί Ταξινοµητές

Γραµµικοί Ταξινοµητές ΚΕΣ 3: Αναγνώριση Προτύπων και Ανάλυση Εικόνας KEΣ 3 Αναγνώριση Προτύπων και Ανάλυση Εικόνας Γραµµικοί Ταξινοµητές ΤµήµαΕπιστήµης και Τεχνολογίας Τηλεπικοινωνιών Πανεπιστήµιο Πελοποννήσου 7 Ncolas sapatsouls

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Η παραπάνω ανάλυση ήταν χρήσιμη προκειμένου να κατανοήσουμε τη λογική των δικτύων perceptrons πολλών επιπέδων

Διαβάστε περισσότερα

ΣΧΟΛΗ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ ΚΑΙ ΦΥΣΙΚΩΝ ΕΠΙΣΤΗΜΩΝ

ΣΧΟΛΗ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ ΚΑΙ ΦΥΣΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΣΧΟΛΗ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ ΚΑΙ ΦΥΣΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΔΠΜΣ : ΕΦΑΡΜΟΣΜΕΝΕΣ ΜΑΘΗΜΑΤΙΚΕΣ ΕΠΙΣΤΗΜΕΣ ΡΟΗ ΠΙΘΑΝΟΝΤΗΤΕΣ ΚΑΙ ΣΤΑΤΙΣΤΙΚΗΣ ΕΡΓΑΣΙΑ 08: ΕΙΡΗΝΗ ΛΥΓΚΩΝΗ 1 Ο ΣΤΑΔΙΟ: Πριν εφαρμόσουμε οποιοδήποτε αλγόριθμο

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΧΑΡΤΟΓΡΑΦΗΣΗ ΤΟΥ ΧΩΡΟΥ ΤΩΝ ΤΑΞΙΝΟΜΗΤΩΝ Ταξινομητές Ταξινομητές συναρτ. διάκρισης Ταξινομητές επιφανειών απόφ. Παραμετρικοί ταξινομητές Μη παραμετρικοί

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson 2 1 ΧΑΡΤΟΓΡΑΦΗΣΗ ΤΟΥ ΧΩΡΟΥ ΤΩΝ ΤΑΞΙΝΟΜΗΤΩΝ Ταξινομητές Ταξινομητές συναρτ. διάκρισης Ταξινομητές επιφανειών απόφ. Παραμετρικοί ταξινομητές Μη παραμετρικοί

Διαβάστε περισσότερα

ΔΙΑΧΕΙΡΙΣΗ ΠΕΡΙΕΧΟΜΕΝΟΥ ΠΑΓΚΟΣΜΙΟΥ ΙΣΤΟΥ ΚΑΙ ΓΛΩΣΣΙΚΑ ΕΡΓΑΛΕΙΑ. Data Mining - Classification

ΔΙΑΧΕΙΡΙΣΗ ΠΕΡΙΕΧΟΜΕΝΟΥ ΠΑΓΚΟΣΜΙΟΥ ΙΣΤΟΥ ΚΑΙ ΓΛΩΣΣΙΚΑ ΕΡΓΑΛΕΙΑ. Data Mining - Classification ΔΙΑΧΕΙΡΙΣΗ ΠΕΡΙΕΧΟΜΕΝΟΥ ΠΑΓΚΟΣΜΙΟΥ ΙΣΤΟΥ ΚΑΙ ΓΛΩΣΣΙΚΑ ΕΡΓΑΛΕΙΑ Data Mining - Classification Data Mining Ανακάλυψη προτύπων σε μεγάλο όγκο δεδομένων. Σαν πεδίο περιλαμβάνει κλάσεις εργασιών: Anomaly Detection:

Διαβάστε περισσότερα

Μέθοδοι Μηχανικής Μάθησης στην επεξεργασία Τηλεπισκοπικών Δεδομένων. Δρ. Ε. Χάρου

Μέθοδοι Μηχανικής Μάθησης στην επεξεργασία Τηλεπισκοπικών Δεδομένων. Δρ. Ε. Χάρου Μέθοδοι Μηχανικής Μάθησης στην επεξεργασία Τηλεπισκοπικών Δεδομένων Δρ. Ε. Χάρου Πρόγραμμα υπολογιστικής ευφυίας Ινστιτούτο Πληροφορικής & Τηλεπικοινωνιών ΕΚΕΦΕ ΔΗΜΟΚΡΙΤΟΣ exarou@iit.demokritos.gr Μηχανική

Διαβάστε περισσότερα

Αναγνώριση Προτύπων Ι

Αναγνώριση Προτύπων Ι Αναγνώριση Προτύπων Ι Ενότητα 2: Δομικά Συστήματα Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες

Διαβάστε περισσότερα

ΕΛΕΓΧΟΣ ΠΑΡΑΓΩΓΙΚΩΝ ΔΙΕΡΓΑΣΙΩΝ

ΕΛΕΓΧΟΣ ΠΑΡΑΓΩΓΙΚΩΝ ΔΙΕΡΓΑΣΙΩΝ ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ Ανώτατο Εκπαιδευτικό Ίδρυμα Πειραιά Τεχνολογικού Τομέα ΕΛΕΓΧΟΣ ΠΑΡΑΓΩΓΙΚΩΝ ΔΙΕΡΓΑΣΙΩΝ Ενότητα: Αναγνώριση Διεργασίας - Προσαρμοστικός Έλεγχος (Process Identification) Αλαφοδήμος Κωνσταντίνος

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διαλέξεις 15 16 Λογιστική παλινδρόμηση (Logistic regression) Νευρωνικά Δίκτυα (Neural Networks) g ( x) = w x+ w T k k k0 1 ( T T WLS = X X) X T= X T Γραμμικές διαχωριστικές

Διαβάστε περισσότερα

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης Ελαχιστοποίηση συνάρτησης σφάλματος Εκπαίδευση ΤΝΔ: μπορεί να διατυπωθεί ως πρόβλημα ελαχιστοποίησης μιας συνάρτησης σφάλματος E(w)

Διαβάστε περισσότερα

Παρουσίαση 2 η : Αρχές εκτίμησης παραμέτρων Μέρος 1 ο

Παρουσίαση 2 η : Αρχές εκτίμησης παραμέτρων Μέρος 1 ο Εφαρμογές Ανάλυσης Σήματος στη Γεωδαισία Παρουσίαση η : Αρχές εκτίμησης παραμέτρων Μέρος ο Βασίλειος Δ. Ανδριτσάνος Αναπληρωτής Καθηγητής Γεώργιος Χλούπης Επίκουρος Καθηγητής Τμήμα Μηχανικών Τοπογραφίας

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διάλεξη 5 Κατανομές πιθανότητας και εκτίμηση παραμέτρων δυαδικές τυχαίες μεταβλητές Bayesian decision Minimum misclassificaxon rate decision: διαλέγουμε την κατηγορία Ck για

Διαβάστε περισσότερα

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο Πρόβλημα ο Ασκήσεις Φροντιστηρίου 5 o Φροντιστήριο Δίνεται το παρακάτω σύνολο εκπαίδευσης: # Είσοδος Κατηγορία 0 0 0 Α 2 0 0 Α 0 Β 4 0 0 Α 5 0 Β 6 0 0 Α 7 0 Β 8 Β α) Στον παρακάτω κύβο τοποθετείστε τα

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διαλέξεις 9 20 Kernel methods Support vector machines Εκπαίδευση νευρωνικών δικτύων backpropagation:. Υπολογισμός μεταβλητών δικτύου «τρέχον» w () () (2) (2) aj = wji xi ak

Διαβάστε περισσότερα

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron Βιολογικός Νευρώνας Δενδρίτες, που αποτελούν τις γραμμές εισόδου των ερεθισμάτων (βιολογικών σημάτων) Σώμα, στο οποίο γίνεται η συσσώρευση των ερεθισμάτων και

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διάλεξη 5 Κατανομές πιθανότητας και εκτίμηση παραμέτρων Κατανομές πιθανότητας και εκτίμηση παραμέτρων δυαδικές τυχαίες μεταβλητές Διαχωριστικές συναρτήσεις Ταξινόμηση κανονικών

Διαβάστε περισσότερα

Υπολογιστική Νοημοσύνη. Μάθημα 9: Γενίκευση

Υπολογιστική Νοημοσύνη. Μάθημα 9: Γενίκευση Υπολογιστική Νοημοσύνη Μάθημα 9: Γενίκευση Υπερπροσαρμογή (Overfitting) Ένα από τα βασικά προβλήματα που μπορεί να εμφανιστεί κατά την εκπαίδευση νευρωνικών δικτύων είναι αυτό της υπερβολικής εκπαίδευσης.

Διαβάστε περισσότερα

ΔΙΑΧΕΙΡΙΣΗ ΥΔΑΤΙΚΩΝ ΠΟΡΩΝ

ΔΙΑΧΕΙΡΙΣΗ ΥΔΑΤΙΚΩΝ ΠΟΡΩΝ ΑΡΙΣΤΟΤΕΛΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΟΝΙΚΗΣ ΑΝΟΙΧΤΑ ΑΚΑΔΗΜΑΙΚΑ ΜΑΘΗΜΑΤΑ ΔΙΑΧΕΙΡΙΣΗ ΥΔΑΤΙΚΩΝ ΠΟΡΩΝ Συνδυασμένη χρήση μοντέλων προσομοίωσης βελτιστοποίησης. Η μέθοδος του μητρώου μοναδιαίας απόκρισης Νικόλαος

Διαβάστε περισσότερα

Εισόδημα Κατανάλωση 1500 500 1600 600 1300 450 1100 400 600 250 700 275 900 300 800 352 850 400 1100 500

Εισόδημα Κατανάλωση 1500 500 1600 600 1300 450 1100 400 600 250 700 275 900 300 800 352 850 400 1100 500 Εισόδημα Κατανάλωση 1500 500 1600 600 1300 450 1100 400 600 250 700 275 900 300 800 352 850 400 1100 500 Πληθυσμός Δείγμα Δείγμα Δείγμα Ο ρόλος της Οικονομετρίας Οικονομική Θεωρία Διατύπωση της

Διαβάστε περισσότερα

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ ΤΕΙ Δυτικής Μακεδονίας ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ 2015-2016 Τεχνητή Νοημοσύνη Νευρώνας Perceptron Διδάσκων: Τσίπουρας Μάρκος Εκπαιδευτικό Υλικό: Τσίπουρας Μάρκος Τζώρτζης Γρηγόρης Περιεχόμενα Εισαγωγή

Διαβάστε περισσότερα

ΧΑΡΟΚΟΠΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΜΑΤΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ. Καραγιώργου Σοφία

ΧΑΡΟΚΟΠΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΜΑΤΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ. Καραγιώργου Σοφία ΧΑΡΟΚΟΠΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΜΑΤΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ Καραγιώργου Σοφία Εισαγωγή Προσομοιώνει βιολογικές διεργασίες (π.χ. λειτουργία του εγκεφάλου, διαδικασία

Διαβάστε περισσότερα

Νευρωνικά ίκτυα και Εξελικτικός

Νευρωνικά ίκτυα και Εξελικτικός Νευρωνικά ίκτυα και Εξελικτικός Προγραµµατισµός Σηµερινό Μάθηµα RBF (Radial Basis Functions) δίκτυα Παρεµβολή συνάρτησης Θεώρηµα Cover ιαχωρισµός προτύπων Υβριδική Εκµάθηση Σύγκριση µε MLP Εφαρµογή: Αναγνώριση

Διαβάστε περισσότερα

squared error, Mean absolute error, Root mean squared error) µεγάλωσαν,

squared error, Mean absolute error, Root mean squared error) µεγάλωσαν, ΣΧΟΛΗ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ ΚΑΙ ΦΥΣΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΠΜΣ ΣΤΙΣ ΕΦΑΡΜΟΣΜΕΝΕΣ ΜΑΘΗΜΑΤΙΚΕΣ ΕΠΙΣΤΗΜΕΣ ΤΕΛΙΚΗ ΕΡΓΑΣΙΑ ΑΛΓΟΡΙΘΜΟΙ ΕΞΟΡΥΞΗΣ ΠΛΗΡΟΦΟΡΙΑΣ ΈΤΟΣ 2009 ΌΝΟΜΑ : ΚΑΤΣΑΒΡΙΑΣ ΕΥΑΓΓΕΛΟΣ Α.Μ. : 09480014 ΕΞΑΜΗΝΟ

Διαβάστε περισσότερα

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON 3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPRON 3. ΕΙΣΑΓΩΓΗ: Το Perceptron είναι η απλούστερη μορφή Νευρωνικού δικτύου, το οποίο χρησιμοποιείται για την ταξινόμηση ενός ειδικού τύπου προτύπων, που είναι γραμμικά διαχωριζόμενα.

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson ΧΑΡΤΟΓΡΑΦΗΣΗ ΤΟΥ ΧΩΡΟΥ ΤΩΝ ΤΑΞΙΝΟΜΗΤΩΝ Ταξινομητές Ταξινομητές συναρτ. διάκρισης Ταξινομητές επιφανειών απόφ. Παραμετρικοί ταξινομητές Μη παραμετρικοί

Διαβάστε περισσότερα

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή Τμήμα Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών ΗΜΜΥ 795: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ Ακαδημαϊκό έτος 2010-11 Χειμερινό Εξάμηνο Practice final exam 1. Έστω ότι για

Διαβάστε περισσότερα

Ακαδημαϊκό Έτος , Χειμερινό Εξάμηνο Διδάσκων Καθ.: Νίκος Τσαπατσούλης

Ακαδημαϊκό Έτος , Χειμερινό Εξάμηνο Διδάσκων Καθ.: Νίκος Τσαπατσούλης ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΛΟΠΟΝΝΗΣΟΥ, ΤΜΗΜΑ ΤΕΧΝΟΛΟΓΙΑΣ ΤΗΛΕΠΙΚΟΙΝΩΝΙΩΝ ΚΕΣ 3: ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ ΚΑΙ ΑΝΑΛΥΣΗ ΕΙΚΟΝΑΣ Ακαδημαϊκό Έτος 7 8, Χειμερινό Εξάμηνο Καθ.: Νίκος Τσαπατσούλης ΕΡΩΤΗΣΕΙΣ ΕΠΑΝΑΛΗΨΗΣ Το παρόν

Διαβάστε περισσότερα

Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος

Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος Χιωτίδης Γεώργιος Τμήμα Λογιστικής και Χρηματοοικονομικής Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης

Διαβάστε περισσότερα

Συσχέτιση μεταξύ δύο συνόλων δεδομένων

Συσχέτιση μεταξύ δύο συνόλων δεδομένων Διαγράμματα διασποράς (scattergrams) Συσχέτιση μεταξύ δύο συνόλων δεδομένων Η οπτική απεικόνιση δύο συνόλων δεδομένων μπορεί να αποκαλύψει με παραστατικό τρόπο πιθανές τάσεις και μεταξύ τους συσχετίσεις,

Διαβάστε περισσότερα

Ανάκτηση Πληροφορίας

Ανάκτηση Πληροφορίας Το Πιθανοκρατικό Μοντέλο Κλασικά Μοντέλα Ανάκτησης Τρία είναι τα, λεγόμενα, κλασικά μοντέλα ανάκτησης: Λογικό (Boolean) που βασίζεται στη Θεωρία Συνόλων Διανυσματικό (Vector) που βασίζεται στη Γραμμική

Διαβάστε περισσότερα

ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΔΙΚΤΥO RBF. Τεχνητά Νευρωνικά Δίκτυα (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων ΔΙΚΤΥO RBF Αρχιτεκτονική δικτύου RBF Δίκτυα RBF: δίκτυα συναρτήσεων πυρήνα (radial basis function networks). Πρόσθιας τροφοδότησης (feedforward) για προβλήματα μάθησης με επίβλεψη. Εναλλακτικό του MLP.

Διαβάστε περισσότερα

5. ΤΟ ΓΕΝΙΚΟ ΓΡΑΜΜΙΚΟ ΜΟΝΤΕΛΟ (GENERAL LINEAR MODEL) 5.1 Εναλλακτικά μοντέλα του απλού γραμμικού μοντέλου: Το εκθετικό μοντέλο

5. ΤΟ ΓΕΝΙΚΟ ΓΡΑΜΜΙΚΟ ΜΟΝΤΕΛΟ (GENERAL LINEAR MODEL) 5.1 Εναλλακτικά μοντέλα του απλού γραμμικού μοντέλου: Το εκθετικό μοντέλο 5. ΤΟ ΓΕΝΙΚΟ ΓΡΑΜΜΙΚΟ ΜΟΝΤΕΛΟ (GENERAL LINEAR MODEL) 5.1 Εναλλακτικά μοντέλα του απλού γραμμικού μοντέλου: Το εκθετικό μοντέλο Ένα εναλλακτικό μοντέλο της απλής γραμμικής παλινδρόμησης (που χρησιμοποιήθηκε

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων. Διάλεξη 2

HMY 795: Αναγνώριση Προτύπων. Διάλεξη 2 HMY 795: Αναγνώριση Προτύπων Διάλεξη 2 Επισκόπηση θεωρίας πιθανοτήτων Θεωρία πιθανοτήτων Τυχαία μεταβλητή: Μεταβλητή της οποίας δε γνωρίζουμε με βεβαιότητα την τιμή (αντίθετα με τις ντετερμινιστικές μεταβλητές)

Διαβάστε περισσότερα

ΑΡΙΘΜΗΤΙΚΕΣ ΜΕΘΟΔΟΙ ΣΕ ΠΡΟΓΡΑΜΜΑΤΙΣΤΙΚΟ ΠΕΡΙΒΑΛΛΟΝ

ΑΡΙΘΜΗΤΙΚΕΣ ΜΕΘΟΔΟΙ ΣΕ ΠΡΟΓΡΑΜΜΑΤΙΣΤΙΚΟ ΠΕΡΙΒΑΛΛΟΝ ΑΡΙΘΜΗΤΙΚΕΣ ΜΕΘΟΔΟΙ ΣΕ ΠΡΟΓΡΑΜΜΑΤΙΣΤΙΚΟ ΠΕΡΙΒΑΛΛΟΝ ΜΑΘΗΜΑ 1 ο 1 Εισαγωγή Έντυπα εγχειρίδια ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΑΡΙΘΜΗΤΙΚΗ ΑΝΑΛΥΣΗ, ΑΚΡΙΒΗΣ Γ.Δ., ΔΟΥΓΑΛΗΣ Β.Α. Αριθμητική ανάλυση με εφαρμογές σε matlab & mathematica,

Διαβάστε περισσότερα

Βασίλειος Μαχαιράς Πολιτικός Μηχανικός Ph.D.

Βασίλειος Μαχαιράς Πολιτικός Μηχανικός Ph.D. Βασίλειος Μαχαιράς Πολιτικός Μηχανικός Ph.D. Μη γραμμικός προγραμματισμός: βελτιστοποίηση με περιορισμούς Πανεπιστήμιο Θεσσαλίας Σχολή Θετικών Επιστημών Τμήμα Πληροφορικής Διάλεξη 9-10 η /2017 Τι παρουσιάστηκε

Διαβάστε περισσότερα

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ ΤΕΙ Δυτικής Μακεδονίας ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ 2015-2016 Τεχνητή Νοημοσύνη Μάθηση από Παρατηρήσεις Διδάσκων: Τσίπουρας Μάρκος Εκπαιδευτικό Υλικό: Τσίπουρας Μάρκος http://ai.uom.gr/aima/ 2 Μορφές μάθησης

Διαβάστε περισσότερα

ΑΡΙΘΜΗΤΙΚΕΣ ΜΕΘΟΔΟΙ, 5 Ο ΕΞΑΜΗΝΟ, ΠΕΡΙΕΧΟΜΕΝΑ ΠΑΡΑΔΟΣΕΩΝ. Κεφ. 1: Εισαγωγή (διάρκεια: 0.5 εβδομάδες)

ΑΡΙΘΜΗΤΙΚΕΣ ΜΕΘΟΔΟΙ, 5 Ο ΕΞΑΜΗΝΟ, ΠΕΡΙΕΧΟΜΕΝΑ ΠΑΡΑΔΟΣΕΩΝ. Κεφ. 1: Εισαγωγή (διάρκεια: 0.5 εβδομάδες) ΑΡΙΘΜΗΤΙΚΕΣ ΜΕΘΟΔΟΙ, 5 Ο ΕΞΑΜΗΝΟ, 2016-2017 ΠΕΡΙΕΧΟΜΕΝΑ ΠΑΡΑΔΟΣΕΩΝ Κεφ. 1: Εισαγωγή (διάρκεια: 0.5 εβδομάδες) Κεφ. 2: Επίλυση συστημάτων εξισώσεων (διάρκεια: 3 εβδομάδες) 2.1 Επίλυση εξισώσεων 2.2 Επίλυση

Διαβάστε περισσότερα

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP) Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP) x -0,5 a x x 2 0 0 0 0 - -0,5 y y 0 0 x 2 -,5 a 2 θ η τιμή κατωφλίου Μία λύση του προβλήματος XOR Multi Layer Perceptron (MLP) x -0,5 Μία

Διαβάστε περισσότερα

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης Μάθημα 4 ο Δρ. Ανέστης Γ. Χατζημιχαηλίδης Τμήμα Μηχανικών Πληροφορικής Τ.Ε. ΤΕΙ Ανατολικής Μακεδονίας και Θράκης 2016-2017 Διευρυμένη Υπολογιστική Νοημοσύνη (ΥΝ) Επεκτάσεις της Κλασικής ΥΝ. Μεθοδολογίες

Διαβάστε περισσότερα

Εξόρυξη Γνώσης από Βιολογικά εδομένα

Εξόρυξη Γνώσης από Βιολογικά εδομένα Παρουσίαση Διπλωματικής Εργασίας Εξόρυξη Γνώσης από Βιολογικά εδομένα Καρυπίδης Γεώργιος (Μ27/03) Επιβλέπων Καθηγητής: Ιωάννης Βλαχάβας MIS Πανεπιστήμιο Μακεδονίας Φεβρουάριος 2005 Εξόρυξη Γνώσης από Βιολογικά

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Version 2 1 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΔΕΝΔΡΑ ΑΠΟΦΑΣΗΣ Πρόκειται για μια οικογένεια μη γραμμικών ταξινομητών Είναι συστήματα απόφασης πολλών σταδίων (multistage),

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Version 2 1 Άλλοι τύποι νευρωνικών δικτύων Αυτοοργανούμενοι χάρτες (Self-organizing maps - SOMs) Αναδρομικά νευρωνικά δίκτυα (Recurrent Neural Networks): γενικής

Διαβάστε περισσότερα

Κινητά Δίκτυα Επικοινωνιών. Συμπληρωματικό υλικό. Προσαρμοστική Ισοστάθμιση Καναλιού

Κινητά Δίκτυα Επικοινωνιών. Συμπληρωματικό υλικό. Προσαρμοστική Ισοστάθμιση Καναλιού Κινητά Δίκτυα Επικοινωνιών Συμπληρωματικό υλικό Προσαρμοστική Ισοστάθμιση Καναλιού Προσαρμοστικοί Ισοσταθμιστές Για να υπολογίσουμε τους συντελεστές του ισοσταθμιστή MMSE, απαιτείται να λύσουμε ένα γραμμικό

Διαβάστε περισσότερα

Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα

Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα KEΣ 3 Αναγνώριση Προτύπων και Ανάλυση Εικόνας Μη γραµµικοί ταξινοµητές Νευρωνικά ίκτυα ΤµήµαΕπιστήµης και Τεχνολογίας Τηλεπικοινωνιών Πανεπιστήµιο Πελοποννήσου Εισαγωγή Πολυεπίπεδες Perceptron Οαλγόριθµος

Διαβάστε περισσότερα

ιατµηµατικό Μεταπτυχιακό Πρόγραµµα Σπουδών ΕΦΑΡΜΟΣΜΕΝΕΣ ΜΑΘΗΜΑΤΙΚΕΣ ΕΠΙΣΤΗΜΕΣ

ιατµηµατικό Μεταπτυχιακό Πρόγραµµα Σπουδών ΕΦΑΡΜΟΣΜΕΝΕΣ ΜΑΘΗΜΑΤΙΚΕΣ ΕΠΙΣΤΗΜΕΣ ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ ΣΧΟΛΗ ΕΦΑΡΜΟΣΜΕΝΩΝ ΜΑΘΗΜΑΤΙΚΩΝ ΚΑΙ ΦΥΣΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ιατµηµατικό Μεταπτυχιακό Πρόγραµµα Σπουδών ΕΦΑΡΜΟΣΜΕΝΕΣ ΜΑΘΗΜΑΤΙΚΕΣ ΕΠΙΣΤΗΜΕΣ Τελική Εργασία στο µάθηµα Αλγόριθµοι Εξόρυξης

Διαβάστε περισσότερα

Τεχνητή Νοημοσύνη. 19η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 19η διάλεξη ( ) Ίων Ανδρουτσόπουλος. Τεχνητή Νοημοσύνη 19η διάλεξη (2016-17) Ίων Ανδρουτσόπουλος http://www.aueb.gr/users/ion/ 1 Οι διαφάνειες αυτές βασίζονται σε ύλη των βιβλίων: Artificia Inteigence A Modern Approach των S. Russe και P.

Διαβάστε περισσότερα

HMY 799 1: Αναγνώριση Συστημάτων

HMY 799 1: Αναγνώριση Συστημάτων HMY 799 : Αναγνώριση Συστημάτων Διάλεξη Γραμμική παλινδρόμηση (Linear regression) Εμπειρική συνάρτηση μεταφοράς Ομαλοποίηση (smoothing) Y ( ) ( ) ω G ω = U ( ω) ω +Δ ω γ ω Δω = ω +Δω W ( ξ ω ) U ( ξ) G(

Διαβάστε περισσότερα

Αναγνώριση Προτύπων Ι

Αναγνώριση Προτύπων Ι Αναγνώριση Προτύπων Ι Ενότητα 3: Στοχαστικά Συστήματα Αν. Καθηγητής Δερματάς Ευάγγελος Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες

Διαβάστε περισσότερα

Αριθμητικές Μέθοδοι σε Προγραμματιστικό Περιβάλλον

Αριθμητικές Μέθοδοι σε Προγραμματιστικό Περιβάλλον Τεχνολογικό Εκπαιδευτικό Ίδρυμα Κεντρικής Μακεδονίας - Σέρρες Τμήμα Μηχανικών Πληροφορικής Αριθμητικές Μέθοδοι σε Προγραμματιστικό Περιβάλλον Δρ. Δημήτρης Βαρσάμης Επίκουρος Καθηγητής Δρ. Δημήτρης Βαρσάμης

Διαβάστε περισσότερα

Υπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning

Υπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning Υπολογιστική Νοημοσύνη Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning Κεντρική ιδέα Τα παραδείγματα μάθησης παρουσιάζονται στο μηεκπαιδευμένο δίκτυο και υπολογίζονται οι έξοδοι. Για

Διαβάστε περισσότερα

Μπεϋζιανά & Νευρωνικά Δίκτυα

Μπεϋζιανά & Νευρωνικά Δίκτυα Μπεϋζιανά & Νευρωνικά Δίκτυα Εξόρυξη Δεδομένων και Αλγόριθμοι Μάθησης 4o Φροντιστήριο Σκούρα Αγγελική skoura@ceid.upatras.gr 1 ο Μέρος Φροντιστηρίου: Μπεϋζιανά Δίκτυα Εισαγωγή στα Μπεϋζιανά Δίκτυα (1/2)

Διαβάστε περισσότερα

Μοντέλα Παλινδρόμησης. Άγγελος Μάρκος, Λέκτορας ΠΤ Ε, ΠΘ

Μοντέλα Παλινδρόμησης. Άγγελος Μάρκος, Λέκτορας ΠΤ Ε, ΠΘ Μοντέλα Παλινδρόμησης Άγγελος Μάρκος, Λέκτορας ΠΤ Ε, ΠΘ Εισαγωγή (1) Σε αρκετές περιπτώσεις επίλυσης προβλημάτων ενδιαφέρει η ταυτόχρονη μελέτη δύο ή περισσότερων μεταβλητών, για να προσδιορίσουμε με ποιο

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διαλέξεις 9 10 Γραμμική παλινδρόμηση (Linear regression) Μπεϋζιανή εκτίμηση για την κανονική κατανομή Γνωστή μέση τιμή μ, άγνωστη διασπορά σ 2. Ακρίβεια λ=1/σ 2 : conjugate

Διαβάστε περισσότερα

auth Αλγόριθμοι - Τμήμα Πληροφορικής ΑΠΘ - Εξάμηνο 4ο

auth Αλγόριθμοι - Τμήμα Πληροφορικής ΑΠΘ - Εξάμηνο 4ο Σχεδίαση Αλγορίθμων Διαίρει και Βασίλευε http://delab.csd.auth.gr/courses/algorithms/ auth 1 Διαίρει και Βασίλευε Η γνωστότερη ρημέθοδος σχεδιασμού αλγορίθμων: 1. Διαιρούμε το στιγμιότυπο του προβλήματος

Διαβάστε περισσότερα

Υπολογιστική Νοημοσύνη. Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks

Υπολογιστική Νοημοσύνη. Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks Υπολογιστική Νοημοσύνη Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks Γενικά Ένα νευρωνικό δίκτυο λέγεται αναδρομικό, εάν υπάρχει έστω και μια σύνδεση από έναν νευρώνα επιπέδου i προς έναν νευρώνα επιπέδου

Διαβάστε περισσότερα

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2) Υπολογιστική Νοημοσύνη Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2) Ο κανόνας Δέλτα για συνεχείς συναρτήσεις ενεργοποίησης (1/2) Για συνεχείς συναρτήσεις ενεργοποίησης, θα θέλαμε να αλλάξουμε περισσότερο

Διαβάστε περισσότερα

Αριθμητική Ανάλυση και Εφαρμογές

Αριθμητική Ανάλυση και Εφαρμογές Αριθμητική Ανάλυση και Εφαρμογές Διδάσκων: Δημήτριος Ι. Φωτιάδης Τμήμα Μηχανικών Επιστήμης Υλικών Ιωάννινα 07-08 Πεπερασμένες και Διαιρεμένες Διαφορές Εισαγωγή Θα εισάγουμε την έννοια των διαφορών με ένα

Διαβάστε περισσότερα

Απλή Παλινδρόμηση και Συσχέτιση

Απλή Παλινδρόμηση και Συσχέτιση Απλή Παλινδρόμηση και Συσχέτιση Πωλήσεις, Δαπάνες Διαφήμισης και Αριθμός Πωλητών Έτος Πωλήσεις (χιλ ) Διαφήμιση (χιλ ) Πωλητές (Άτομα) Έτος Πωλήσεις (χιλ ) Διαφήμιση (χιλ ) Πωλητές (Άτομα) 98 050 6 3 989

Διαβάστε περισσότερα

Πολλαπλή παλινδρόμηση (Multivariate regression)

Πολλαπλή παλινδρόμηση (Multivariate regression) ΜΑΘΗΜΑ 3 ο 1 Πολλαπλή παλινδρόμηση (Multivariate regression) Η συμπεριφορά των περισσότερων οικονομικών μεταβλητών είναι συνάρτηση όχι μιας αλλά πολλών μεταβλητών Υ = f ( X 1, X 2,... X n ) δηλαδή η Υ

Διαβάστε περισσότερα

LOGO. Εξόρυξη Δεδομένων. Δειγματοληψία. Πίνακες συνάφειας. Καμπύλες ROC και AUC. Σύγκριση Μεθόδων Εξόρυξης

LOGO. Εξόρυξη Δεδομένων. Δειγματοληψία. Πίνακες συνάφειας. Καμπύλες ROC και AUC. Σύγκριση Μεθόδων Εξόρυξης Εξόρυξη Δεδομένων Δειγματοληψία Πίνακες συνάφειας Καμπύλες ROC και AUC Σύγκριση Μεθόδων Εξόρυξης Πασχάλης Θρήσκος PhD Λάρισα 2016-2017 pthriskos@mnec.gr LOGO Συμπερισματολογία - Τι σημαίνει ; Πληθυσμός

Διαβάστε περισσότερα

Αριθμητική εύρεση ριζών μη γραμμικών εξισώσεων

Αριθμητική εύρεση ριζών μη γραμμικών εξισώσεων Αριθμητική εύρεση ριζών μη γραμμικών εξισώσεων Με τον όρο μη γραμμικές εξισώσεις εννοούμε εξισώσεις της μορφής: f( ) 0 που προέρχονται από συναρτήσεις f () που είναι μη γραμμικές ως προς. Περιέχουν δηλαδή

Διαβάστε περισσότερα

ΤΕΧΝΟΛΟΓΙΑ ΛΟΓΙΣΜΙΚΟΥ Ι

ΤΕΧΝΟΛΟΓΙΑ ΛΟΓΙΣΜΙΚΟΥ Ι ΤΕΧΝΟΛΟΓΙΑ ΛΟΓΙΣΜΙΚΟΥ Ι κ. ΠΕΤΑΛΙΔΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΠΛΗΡΟΦΟΡΙΚΗΣ ΤΕ 1 Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται

Διαβάστε περισσότερα

Ξέρουμε ότι: Συνάρτηση-απεικόνιση με πεδίο ορισμού ένα σύνολο Α και πεδίο τιμών ένα σύνολο Β είναι κάθε μονοσήμαντη απεικόνιση f του Α στο Β.

Ξέρουμε ότι: Συνάρτηση-απεικόνιση με πεδίο ορισμού ένα σύνολο Α και πεδίο τιμών ένα σύνολο Β είναι κάθε μονοσήμαντη απεικόνιση f του Α στο Β. Η έννοια της ακολουθίας Ξέρουμε ότι: Συνάρτηση-απεικόνιση με πεδίο ορισμού ένα σύνολο Α και πεδίο τιμών ένα σύνολο Β είναι κάθε μονοσήμαντη απεικόνιση f του Α στο Β. Δηλαδή: f : A B Η ακολουθία είναι συνάρτηση.

Διαβάστε περισσότερα

Βασίλειος Μαχαιράς Πολιτικός Μηχανικός Ph.D.

Βασίλειος Μαχαιράς Πολιτικός Μηχανικός Ph.D. Βασίλειος Μαχαιράς Πολιτικός Μηχανικός Ph.D. Μη γραμμικός προγραμματισμός: μέθοδοι μονοδιάστατης ελαχιστοποίησης Πανεπιστήμιο Θεσσαλίας Σχολή Θετικών Επιστημών ΤμήμαΠληροφορικής Διάλεξη 6 η /2017 Τι παρουσιάστηκε

Διαβάστε περισσότερα

4. ΚΕΦΑΛΑΙΟ ΕΦΑΡΜΟΓΕΣ ΤΟΥ ΜΕΤΑΣΧΗΜΑΤΙΣΜΟΥ FOURIER

4. ΚΕΦΑΛΑΙΟ ΕΦΑΡΜΟΓΕΣ ΤΟΥ ΜΕΤΑΣΧΗΜΑΤΙΣΜΟΥ FOURIER 4. ΚΕΦΑΛΑΙΟ ΕΦΑΡΜΟΓΕΣ ΤΟΥ ΜΕΤΑΣΧΗΜΑΤΙΣΜΟΥ FOURIER Σκοπός του κεφαλαίου είναι να παρουσιάσει μερικές εφαρμογές του Μετασχηματισμού Fourier (ΜF). Ειδικότερα στο κεφάλαιο αυτό θα περιγραφούν έμμεσοι τρόποι

Διαβάστε περισσότερα

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων HMY 795: Αναγνώριση Προτύπων Διαλέξεις 17 18 Νευρωνικά Δίκτυα (Neural Networks) συνέχεια Minimum squared error procedure for classification 1 ( T T wls = X X) X b= X b Xw = b Logistic sigmoidal function

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Verson Μέθοδοι ελαχίστων τετραγώνων Least square methos Αν οι κλάσεις είναι γραμμικώς διαχωρίσιμες το perceptron θα δώσει σαν έξοδο ± Αν οι κλάσεις ΔΕΝ είναι

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΘΕΜΑ ο (2.5 µονάδες) ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ Τελικές εξετάσεις 25 Αυγούστου 26 :-4: Κατασκευάστε έναν αισθητήρα (perceptron)

Διαβάστε περισσότερα

Εφαρμογές μεθοδολογιών μηχανικής εκμάθησης στο χώρο της παραγωγής υδρογονανθράκων. Βασίλης Γαγάνης

Εφαρμογές μεθοδολογιών μηχανικής εκμάθησης στο χώρο της παραγωγής υδρογονανθράκων. Βασίλης Γαγάνης Εφαρμογές μεθοδολογιών μηχανικής εκμάθησης στο χώρο της παραγωγής υδρογονανθράκων Μέθοδοι μηχανικής εκμάθησης Εύρεση μαθηματικής έκφρασης μοντέλου (κανόνα) ο κανόνας διέπει το υπό μελέτη πρόβλημα ανάπτυξη

Διαβάστε περισσότερα

Αναγνώριση Προτύπων. Μη παραμετρικές τεχνικές Αριθμητικά. (Non Parametric Techniques)

Αναγνώριση Προτύπων. Μη παραμετρικές τεχνικές Αριθμητικά. (Non Parametric Techniques) Αναγνώριση Προτύπων Μη παραμετρικές τεχνικές Αριθμητικά Παραδείγματα (Non Parametric Techniques) Καθηγητής Χριστόδουλος Χαμζάς Τα περιεχόμενο της παρουσίασης βασίζεται στο βιβλίο: Introduction to Pattern

Διαβάστε περισσότερα

Μέτρα της οργάνωσης και της ποιότητας για τον Self-Organizing Hidden Markov Model Map (SOHMMM)

Μέτρα της οργάνωσης και της ποιότητας για τον Self-Organizing Hidden Markov Model Map (SOHMMM) Μέτρα της οργάνωσης και της ποιότητας για τον Self-Organizing Hidden Markov Model Map (SOHMMM) Γενική περιγραφή του SOHMMM Ένα υβριδικό νευρωνικό δίκτυο, σύζευξη δύο πολύ επιτυχημένων μοντέλων: -Self-Organizing

Διαβάστε περισσότερα

Μέθοδοι πολυδιάστατης ελαχιστοποίησης

Μέθοδοι πολυδιάστατης ελαχιστοποίησης Μέθοδοι πολυδιάστατης ελαχιστοποίησης με παραγώγους Μέθοδοι πολυδιάστατης ελαχιστοποίησης Δ. Γ. Παπαγεωργίου Τμήμα Μηχανικών Επιστήμης Υλικών Πανεπιστήμιο Ιωαννίνων dpapageo@cc.uoi.gr http://pc64.materials.uoi.gr/dpapageo

Διαβάστε περισσότερα