Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Σχετικά έγγραφα
Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Κεφάλαιο 6: Μεθοδολογίες με Γράφους

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Αιτιολόγηση με αβεβαιότητα

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 2 : Πληροφορία και Εντροπία Διάλεξη: Κώστας Μαλιάτσος Χρήστος Ξενάκης, Κώστας Μαλιάτσος

Ασκήσεις μελέτης της 16 ης διάλεξης

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Τεχνητή Νοημοσύνη. 16η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Κατευθυνόμενα γραφήματα. Μαθηματικά Πληροφορικής 6ο Μάθημα. Βρόχοι. Μη κατευθυνόμενα γραφήματα. Ορισμός

Κατηγοριοποίηση βάσει διανύσματος χαρακτηριστικών

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. Κατηγοριοποίηση. Αριστείδης Γ. Βραχάτης, Dipl-Ing, M.Sc, PhD

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Υπολογιστικά & Διακριτά Μαθηματικά

Τμήμα Λογιστικής και Χρηματοοικονομικής. Θεωρία Πιθανοτήτων. Δρ. Αγγελίδης Π. Βασίλειος

Κατευθυνόμενα γραφήματα. Μαθηματικά Πληροφορικής 6ο Μάθημα. Βρόχοι. Μη κατευθυνόμενα γραφήματα. Ορισμός

Λύσεις 2ης Ομάδας Ασκήσεων

Τμήμα Μηχανικών Πληροφορικής ΤΕ Δυϊκότητα. Γκόγκος Χρήστος ΤΕΙ Ηπείρου Επιχειρησιακή Έρευνα. τελευταία ενημέρωση: 1/12/2016

Κατευθυνόμενα γραφήματα. Μαθηματικά Πληροφορικής 6ο Μάθημα. Βρόγχοι. Μη κατευθυνόμενα γραφήματα. Ορισμός

Κατανομή συνάρτησης τυχαίας μεταβλητής Y=g(X) Πιθανότητες & Στατιστική 2017 Τμήμα Μηχανικών Η/Υ & Πληροφορικής, Παν. Ιωαννίνων Δ13 ( 1 )

u v 4 w G 2 G 1 u v w x y z 4

Σχεδίαση και Ανάλυση Αλγορίθμων

ΔΕΟ13 - Επαναληπτικές Εξετάσεις 2010 Λύσεις

ΔΙΑΧΕΙΡΙΣΗ ΠΕΡΙΕΧΟΜΕΝΟΥ ΠΑΓΚΟΣΜΙΟΥ ΙΣΤΟΥ ΚΑΙ ΓΛΩΣΣΙΚΑ ΕΡΓΑΛΕΙΑ. Data Mining - Classification

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΣΤΑΤΙΣΤΙΚΗ ΤΩΝ ΕΠΙΧΕΙΡΗΣΕΩΝ. Κεφάλαιο 6. Πιθανότητες

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΚΕΦΑΛΑΙΟ Μηχανική Μάθηση

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Αθανάσιος Χρ. Τζέμος Τομέας Θεωρητικής Φυσικής. Εντροπία Shannon

Θεωρία Γραφημάτων και Εφαρμογές - Διακριτά Μαθηματικά ΙΙ Σεπτέμβριος 2017

Θεωρία Πληροφορίας. Διάλεξη 4: Διακριτή πηγή πληροφορίας χωρίς μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Θεωρία Πληροφορίας. Διάλεξη 5: Διακριτή πηγή πληροφορίας με μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Χρήστος Ι. Σχοινάς Αν. Καθηγητής ΔΠΘ. Συμπληρωματικές σημειώσεις για το μάθημα: «Επιχειρησιακή Έρευνα ΙΙ»

Τεχνολογία Πολυμέσων. Ενότητα # 7: Θεωρία πληροφορίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Στοχαστικές Στρατηγικές. διαδρομής (1)

Υπολογιστικά & Διακριτά Μαθηματικά

Ειδικά θέματα Αλγορίθμων και Δομών Δεδομένων (ΠΛΕ073) Απαντήσεις 1 ου Σετ Ασκήσεων

APEIROSTIKOS LOGISMOS I

Διπλωματική Εργασία της φοιτήτριας του Τμήματος Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών της Πολυτεχνικής Σχολής του Πανεπιστημίου Πατρών

Τεχνητή Νοημοσύνη (ΥΠ23) 6 ο εξάμηνο Τμήμα Πληροφορικής και Τηλεματικής Χαροκόπειο Πανεπιστήμιο Ουρανία Χατζή

Τεχνητή Νοημοσύνη. 5η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος

Σχεδίαση & Ανάλυση Αλγορίθμων

Ανάλυση και Σχεδιασμός Μεταφορών Ι Ανάλυση Διακριτών Επιλογών

Υπολογιστικά & Διακριτά Μαθηματικά

Δομές Δεδομένων και Αλγόριθμοι

Σηματοδοτικά Παίγνια και Τέλεια Μπεϊζιανή Ισορροπία

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Υπολογιστική Νοημοσύνη. Μάθημα 9: Γενίκευση

Εργαστήριο Ασφάλειας Πληροφοριακών και Επικοινωνιακών Συστημάτων Πανεπιστήμιο Αιγαίου. Μέτρα ανωνυμίας και τεχνικές διασφάλισης της Ιδιωτικότητας

Σεραφείµ Καραµπογιάς. Πηγές Πληροφορίας και Κωδικοποίηση Πηγής 6.3-1

ΕΚΠ 413 / ΕΚΠ 606 Αυτόνοµοι (Ροµ οτικοί) Πράκτορες

Edge-coloring σε διμερή πολυγραφήματα

Συνήθεις διαφορικές εξισώσεις προβλήματα οριακών τιμών

P(n 1, n 2... n k ) = n 1!n 2! n k! pn1 1 pn2 2 pn k. P(N L, N R ) = N! N L!N R! pn L. q N R. n! r!(n r)! pr q n r, n! r 1!r 2! r k!

5.1. Προσδοκώμενα αποτελέσματα

Εισαγωγή στους Αλγορίθμους

Τηλεπικοινωνιακά Συστήματα ΙΙ

Αλγόριθμοι και Δομές Δεδομένων (IΙ) (γράφοι και δένδρα)

Μαθηματικά στην Πολιτική Επιστήμη:

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΧΑΡΑΛΑΜΠΟΣ.ΣΠ. ΛΥΚΟΥΔΗΣ - ΠΙΘΑΝΟΤΗΤΕΣ Α ΛΥΚΕΙΟΥ

Θέματα Συστημάτων Πολυμέσων

Τ Ε Ι Ιονίων Νήσων Τμήμα Εφαρμογών Πληροφορικής στη Διοίκηση και την Οικονομία. Υπεύθυνος: Δρ. Κολιός Σταύρος

Γιατί πιθανότητες; Γιατί πιθανότητες; Θεωρία πιθανοτήτων. Θεωρία Πιθανοτήτων. ΗΥ118, Διακριτά Μαθηματικά Άνοιξη 2017.

ΣΥΝΔΥΑΣΤΙΚΑ ΕΠΑΝΑΛΗΠΤΙΚΑ ΘΕΜΑΤΑ ΜΑΘΗΜΑΤΙΚΩΝ ΓΕΝΙΚΗΣ ΠΑΙΔΕΙΑΣ

Ψηφιακές Τηλεπικοινωνίες

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Διπλωματική Εργασία: «Συγκριτική Μελέτη Μηχανισμών Εκτίμησης Ελλιπούς Πληροφορίας σε Ασύρματα Δίκτυα Αισθητήρων»

ΙΑ ΟΧΙΚΕΣ ΒΕΛΤΙΩΣΕΙΣ

Αναζήτηση Κατά Βάθος. Επιμέλεια διαφανειών: Δ. Φωτάκης Συμπληρώσεις: Α. Παγουρτζής. Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών

Θέματα Συστημάτων Πολυμέσων

Αναγνώριση Προτύπων Ι

Ορισμός : Η συνάρτηση X : Ω είναι μετρήσιμη εάν 1. της τυχαίας μεταβλητής X : Ω, είναι το πεδίο τιμών της X. Δηλαδή είναι το υποσύνολο του { }

Διακριτά Μαθηματικά ΙΙ Χρήστος Νομικός Τμήμα Μηχανικών Η/Υ και Πληροφορικής Πανεπιστήμιο Ιωαννίνων 2018 Χρήστος Νομικός ( Τμήμα Μηχανικών Η/Υ Διακριτά

ΗΥ118: Διακριτά Μαθηματικά - Εαρινό Εξάμηνο 2016 Τελική Εξέταση Ιουνίου - Τετάρτη, 15/06/2016 Λύσεις Θεμάτων

ΔΕΣΜΕΥΜΕΝΕΣ Ή ΥΠΟ ΣΥΝΘΗΚΗ ΠΙΘΑΝΟΤΗΤΕΣ

Θεωρία Λήψης Αποφάσεων

Ποσοτικές Μέθοδοι., Εισηγητής: Ν.Κυρίτσης, MBA, Ph.D. Candidate,,

1 Εισαγωγή στις Συνδυαστικές Δημοπρασίες - Combinatorial Auctions

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Ασκήσεις ανακεφαλαίωσης στο μάθημα Τεχνητή Νοημοσύνη

Πίνακες Διασποράς. Χρησιμοποιούμε ένα πίνακα διασποράς T και μια συνάρτηση διασποράς h. Ένα στοιχείο με κλειδί k αποθηκεύεται στη θέση

Βασικά στοιχεία της θεωρίας πιθανοτήτων

Διαχείριση εγγράφων. Αποθήκες και Εξόρυξη Δεδομένων Διδάσκων: Μ. Χαλκίδη

έντρα ιδάσκοντες:. Φωτάκης,. Σούλιου Επιμέλεια διαφανειών:. Φωτάκης Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών Εθνικό Μετσόβιο Πολυτεχνείο

Μέθοδοι μονοδιάστατης ελαχιστοποίησης

Ορισμός : Η συνάρτηση X : Ω είναι μετρήσιμη εάν 1. της τυχαίας μεταβλητής X : Ω, είναι το πεδίο τιμών της X. Δηλαδή είναι το υποσύνολο του { }

ΤΕΙ ΛΑΜΙΑΣ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΤΕΧΝΟΛΟΓΙΑ ΥΠΟΛΟΓΙΣΤΩΝ

Η ΙΣΧΥΣ ΕΝΟΣ ΕΛΕΓΧΟΥ. (Power of a Test) ΚΕΦΑΛΑΙΟ 21

ΣΥΓΚΡΙΤΙΚΗ ΣΤΑΤΙΚΗ ΑΝΑΛΥΣΗ ΠΑΡΑΓΩΓΟΣ- ΚΑΝΟΝΕΣ ΠΑΡΑΓΩΓΙΣΗΣ

Άσκηση 3 (ανακοινώθηκε στις 14 Μαΐου 2018, προθεσμία παράδοσης: 8 Ιουνίου 2018, 12 τα μεσάνυχτα).

Τεχνητή Νοημοσύνη (ΥΠ23) 6 ο εξάμηνο Τμήμα Πληροφορικής και Τηλεματικής Χαροκόπειο Πανεπιστήμιο Ουρανία Χατζή

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ

Το Υπόδειγμα της Οριακής Τιμολόγησης

Μελετάμε την περίπτωση όπου αποθηκεύουμε ένα (δυναμικό) σύνολο στοιχειών. Ένα στοιχείο γράφεται ως, όπου κάθε.

Τυχαιοκρατικοί Αλγόριθμοι

Transcript:

Μάθημα 6 ο Δρ. Ανέστης Γ. Χατζημιχαηλίδης Τμήμα Μηχανικών Πληροφορικής Τ.Ε. ΤΕΙ Ανατολικής Μακεδονίας και Θράκης 2017-2018

Διευρυμένη Υπολογιστική Νοημοσύνη (ΥΝ) Επεκτάσεις της Κλασικής ΥΝ. Μεθοδολογίες Στατιστικές, Πιθανοτήτων, Δυνατοτήτων. Μεθοδολογίες με Γράφους. 2

Σε κάποιες περιπτώσεις στα δεδομένα του προβλήματος υπάρχει δομή η οποία μπορεί να αναπαρασταθεί με έναν γράφο. Π.χ. Συντριβάνι (Σ) Βροχή (Β) Χλοοτάπητας Υγρός (Υ) 3

o Δίκτυα Bayes. o Δένδρα Αποφάσεων. o Γνωσιακοί Χάρτες.

Τα Δίκτυα Bayes (ΔΒ) είναι εναλλακτικά γνωστά με ονόματα ως δίκτυα πεποίθησης (belief networks) καθώς και ως πιθανοτικά μοντέλα κατευθυνόμενων ακυκλικών γράφων (ΚΑΓ) (directed acyclic graphs (DAGs)). Οι κόμβοι του ΚΑΓ αναπαριστούν τυχαίες μεταβλητές, ενώ οι σύνδεσμοι αναπαριστούν εξαρτήσεις μεταξύ των μεταβλητών. 5

Ένα ΔΒ υποστηρίζει τους ακόλουθους τύπους συμπερασμού: Συμπερασμός πρόβλεψης για έναν κόμβο Χ χρησιμοποιώντας γνώση των γονέων του Χ ή/και άλλων προγόνων του Χ Συλλογιστική από πάνω προς τα κάτω. Συμπερασμός διάγνωσης για έναν κόμβο Χ χρησιμποιώντας γνώση των παιδιών του Χ ή/και άλλων απογόνων του Χ Συλλογιστική από κάτω προς τα πάνω. 6

Έστω ότι ένας άνθρωπος υποφέρει από πόνο στη μέση. Χρησιμοποιώντας συλλογιστική από κάτω προς τα πάνω μπορούμε να υπολογίσουμε την πεποίθηση ότι υπάρχει μια μη-αναπαυτική καρέκλα στο γραφείο : 7

. P(K=T) P(K=F) 0.8 0.2 P(A=T) P(A=F) 0.02 0.98 Κ P(Σ=T Κ) P(Σ=F/Κ) Καρέκλα (Κ) Άσκηση (Α) T 0.9 0.1 F 0.01 0.99 Κ Α P(Μ=T Κ,Α) P(Μ=F/Κ,Α) Συνεργάτης (Σ) Μέση (Μ) T T 0.9 0.1 T F 0.2 0.8 F T 0.9 0.1 Μ P(Π=T Μ) P(Π=F/Μ) Πόνος (Π) F F 0.01 0.99 T 0.7 0.3 F 0.1 0.9 8

Αντί η από κοινού συνάρτηση κατανομής πιθανότητας να υπολογίζεται με τον (γενικό) κανόνα αλυσίδας: P( K, A,, M, ) = P( K) P( A K) P( A, K) P( M, A, K) P( M,, A, K) Υπολογίζεται ως P( K, A,, M, ) = P( K) P( A) P( K) P( M A, K) P( M ) 9

Δοθέντος ότι ένας άνθρωπος έχει πόνο υπολογίζουμε την πεποίθηση ότι υπάρχει μια μη-αναπαυτική καρέκλα στο γραφείο: όπου και P( K = T = T) =,, { TF, } P( K = T, = T) P( = T) P( K = T, = T ) = P( K = T ) P( A) P( K = T ) P( M A, K = T ) P( = T M ) P( = T ) = P( K) P( A) P( K) P( M A, K) P( = T M ) K,,, { T, F} 10

Ένα δένδρο αποφάσεων χρησιμοποιείται για λήψη αποφάσεων. Για παράδειγμα, έστω ότι η απόφασή μας να κάνουμε περίπατο εξαρτάται από τις καιρικές συνθήκες σύμφωνα με το ακόλουθο Σχήμα, το οποίο δόθηκε από κάποιον εμπειρογνώμονα. 11

ηλιόλουστος υγρασία ουρανός συννεφιασμένος βροχερός άνεμος 75% >75% δυνατός ασθενής περίπατος όχι περίπατος περίπατος όχι περίπατος περίπατος 12

ουρανός θερμοκρασία ( o C) υγρασία (%) άνεμος κατηγορία ηλιόλουστος 20 70 δυνατός περίπατος ηλιόλουστος 25 90 δυνατός όχι περίπατος ηλιόλουστος 27 85 ασθενής όχι περίπατος ηλιόλουστος 19 95 ασθενής όχι περίπατος ηλιόλουστος 18 70 ασθενής περίπατος συννεφιασμένος 19 90 δυνατός περίπατος συννεφιασμένος 26 78 ασθενής περίπατος συννεφιασμένος 17 65 δυνατός περίπατος συννεφιασμένος 25 75 ασθενής περίπατος βροχερός 19 80 δυνατός όχι περίπατος βροχερός 15 70 δυνατός όχι περίπατος βροχερός 20 80 ασθενής περίπατος βροχερός 18 80 ασθενής περίπατος βροχερός 19 96 ασθενής περίπατος 13

Τυπικά, ένα δένδρο αποφάσεων υπολογίζεται με τεχνική τύπου διαίρει-και-βασίλευε (divide-and-conquer). Συγκεκριμένα, έστω (α) ένα σύνολο Τ δεδομένων, όπου ένα δεδομένο περιλαμβάνει Ν γνωρίσματα τα οποία είναι είτε αριθμητικά, είτε μη-αριθμητικά και (β) υπάρχουν συνολικά k κατηγορίες C 1, C 2,, C k. Τρεις είναι οι δυνατές περιπτώσεις: 14

1. Το σύνολο Τ είναι κενό. 2. Το σύνολο Τ περιλαμβάνει ένα ή περισσότερα δεδομένα τα οποία ανήκουν σε μία μόνον κατηγορία, έστω C j. Σ αυτήν την περίπτωση το δένδρο απόφασης είναι ένα φύλλο, το οποίο αντιστοιχεί στην κατηγορία C j. 3. Το Τ περιλαμβάνει δεδομένα σε περισσότερες από μία κατηγορίες. Στόχος είναι ο διαμερισμός (partition) του συνόλου Τ σε υποσύνολα, των οποίων όλα τα δεδομένα ανήκουν σε μία μόνον κατηγορία. Επιλέγουμε μια δοκιμασία (test), η οποία τυπικά χρησιμοποιεί ένα μόνον γνώρισμα, με αποτέλεσμα στο σύνολο {O 1, O 2,, O n }. Έτσι το Τ διαμερίζεται σε υποσύνολα Τ 1, Τ 2,, Τ n. 15

Συγκεκριμένα, 1. Έστω ότι επιλέγουμε μια δοκιμασία με βάση το (πρώτο) γνώρισμα «ουρανός». Στο αποτέλεσμα «συννεφιασμένος» αντιστοιχεί μόνον η κατηγορία «περίπατος». 2. Το υποσύνολο που αντιστοιχεί στο αποτέλεσμα «ηλιόλουστος» μπορεί να διαμεριστεί αν επιλέξουμε μια δοκιμασία με βάση το (τρίτο) γνώρισμα «υγρασία» με δύο αποτελέσματα: «υγρασία 75%», «υγρασία>75%». 3. Το υποσύνολο που αντιστοιχεί στο αποτέλεσμα «βροχερός» μπορεί να διαμεριστεί αν επιλέξουμε μια δοκιμασία με βάση το (τέταρτο) γνώρισμα «άνεμος» με δύο δυνατά αποτελέσματα: «δυνατός» και «ασθενής». 16

Θέλουμε κάθε φύλλο του δένδρου απόφασης που θα υπολογιστεί να περιλαμβάνει ένα σημαντικό αριθμό δεδομένων ή, ισοδύναμα, θέλουμε να διαμερίσουμε το σύνολο Τ των δεδομένων στο μικρότερο δυνατό αριθμό υποσυνόλων. Σε κάθε περίπτωση επιζητούμε τον υπολογισμό μικρών δένδρων απόφασης. Ένας τρόπος εύρεσης του μικρότερου δένδρου απόφασης είναι με τυφλή αναζήτηση (blind search). Όμως, για τα λίγα δεδομένα του προηγούμενου Πίνακα υπάρχουν περισσότερα από 10 6 δένδρα απόφασης. 17

Μια δημοφιλής ευρετική συνάρτηση που χρησιμοποιείται για την επιλογή μιας δοκιμασίας είναι η συνάρτηση κέρδους πληροφορίας η οποία βασίζεται στη συνάρτηση εντροπία (Shannon, 1948). Όσο πιο σπάνιο είναι ένα γεγονός, τόσο μεγαλύτερη να είναι η πληροφορία που προσλαμβάνουμε, όταν αυτό συμβεί. Συγκεκριμένα, έστω P A η πιθανότητα να συμβεί ένα γεγονός A. Τότε η πληροφορία που μεταφέρει το A ορίζεται ως -log 2 (P) και μετριέται σε bits. Για παράδειγμα, όταν από οκτώ ισοπίθανα γεγονότα συμβεί το ένα, τότε θεωρούμε ότι προσλαμβάνουμε πληροφορία ίση με -log 2 (8) = 3 bits. 18

Έστω ότι είναι δυνατόν να συμβούν n πιθανά γεγονότα A 1,,A n με πιθανότητες P 1,,P n, αντίστοιχα. Τότε ως εντροπία (entropy), συμβολικά info(a 1,,A n ), ορίζεται ο μέσος όρος της πληροφορίας όλων των γεγονότων, δηλ. n info(a 1,,A n ) =. - i= 1 Plog ( P) i 2 i Τα προηγούμενα χρησιμοποιούνται στη συνέχεια για να οριστεί μια ευρετική συνάρτηση κέρδους. 19

Έστω ένα σύνολο Τ δεδομένων πληθικότητας Τ και έστω freq(c j,t) ο συνολικός αριθμός των δεδομένων της κατηγορίας C j, j {1,,k}. Σύμφωνα με τα προηγούμενα, η freq( Cj, T) κατηγορία C j μεταφέρει πληροφορία ίση με log 2( T ) bits. Άρα, η εντροπία του συνόλου των κατηγοριών στο σύνολο Τ είναι: info(t)= k - i= 1 freq( C, T ) freq( C, T ) log ( ) j j T 2 T Η μέση πληροφορία στο διαμερισμό του συνόλου Τ σε n υποσύνολα Τ 1,,T n ως αποτέλεσμα εφαρμογής μιας n Ti δοκιμασίας X: info X (T)= - i= 1 info( Ti ) T 20

Η ποσότητα gain(x) = info(t)-info X (T) ονομάζεται κέρδος πληροφορίας (information gain) ή εναλλακτικά αμοιβαία πληροφορία (mutual information), όταν το σύνολο T διαμερίζεται με τη δοκιμασία X. Η επιδίωξή μας είναι να επιλέξουμε μια δοκιμασία η οποία να μεγιστοποιεί το κέρδος πληροφορίας. 21

Θεωρήστε το προηγούμενο σύνολο T δεδομένων. Υπάρχουν δύο κατηγορίες: η κατηγορία «περίπατος» με 9 δεδομένα και η κατηγορία «όχι περίπατος» με 5 δεδομένα. Η εντροπία του συνόλου T είναι 9 9 5 5 info(t) = = 0.940 bits. - log ( ) - log ( ) 2 2 14 14 14 14 22

Χρησιμοποιώντας το γνώρισμα «ουρανός» ως δοκιμασία X διαμερίζουμε το σύνολο T σε τρία υποσύνολα με εντροπία 5 2 2 3 3 info X (T) = 4 4 4 0 0 [- log 2( ) - log 2( )] + [- log 2( ) - log 2( )] 14 5 5 5 5 14 4 4 4 4 5 3 3 2 2 + [- log 2( ) - log 2( )] = 0.694 bits. 14 5 5 5 5 Άρα, το κέρδος είναι 0.940-0.694 = 0.246 bits. Χρησιμοποιώντας το γνώρισμα «άνεμος» το σύνολο T διαμερίζεται σε δύο υποσύνολα με εντροπία info X (T) = 6 3 3 3 3 [- log 2( ) - log 2( )] + 8 [- 6 log 2( 6 ) - 2 log 2( 2 )] = 0.892 bits. 14 6 6 6 6 14 8 8 8 8 Άρα, το κέρδος πληροφορίας είναι 0.940-0.892= 0.048 bits. Συνεπώς, σύμφωνα με το κριτήριο κέρδους η δοκιμασία με το γνώρισμα «ουρανός» είναι προτιμότερη. 23

Το κριτήριο κέρδους είναι μεροληπτικό υπέρ δοκιμασιών με πολλά (έστω Τ ) αποτελέσματα. Συγκεκριμένα, σ αυτήν την περίπτωση η μέση πληροφορία είναι n - i= 1 1 info( i ) T info X (T) = T = 0 διότι info(t i ) = 0. Η προαναφερθείσα μεροληψία του κριτηρίου κέρδους μπορεί να αρθεί με κανονικοποίηση (normalization) η οποία επιτυγχάνεται με την ευρετική συνάρτηση λόγος κέρδους (gain ratio) gain ratio(x) = gain(x)/splitinfo(x), n όπου splitinfo(x) = Ti Ti - log ( ) 2 i= 1 T T 24

Οι γνωσιακοί χάρτες (ΓΧ) είναι προσημασμένοι κατευθυνόμενοι γράφοι για λήψη αποφάσεων. Οι κόμβοι σε αυτούς τους χάρτες αναπαριστάνουν έννοιες ή μεταβλητές σχετιζόμενοι με κάποιο φυσικό σύστημα. Οι αιτιώδεις σύνδεσμοι μεταξύ των εννοιών του χάρτη ονομάζονται ακμές. Οι ακμές χαρακτηρίζονται από ένα πρόσημο και μία κατεύθυνση που περιγράφουν τον τρόπο με τον οποίο αλληλεπιδρούν οι κόμβοι μεταξύ τους. Συγκεκριμένα, μία ακμή από τον κόμβο Α στον Β μπορεί να είναι είτε θετική είτε αρνητική περιγράφοντας αντίστοιχα την προωθητική ή την ανασταλτική επίδραση του κόμβου Α στον κόμβο Β. 25

26

Οι ασαφείς γνωσιακοί χάρτες (ΑΓΧ) (fuzzy cognitive maps (FCM)) είναι επέκταση των κλασικών γνωσιακών χαρτών με τρεις σημαντικές διαφορές από τους ΓΧ: 1. Οι ακμές μεταξύ των κόμβων μπορούν να λαμβάνουν αριθμητικές τιμές που ονομάζονται βάρη. 2. Οι ΑΓΧ μπορούν να μοντελοποιούν δυναμικά συστήματα. Έτσι, οι ΑΓΧ μοιάζουν με τα ανατροφοδοτούμενα ΤΝΔ. 3. Όπως τα ΤΝΔ, έτσι και οι ΑΓΧ μπορούν να προσαρμόζουν τα βάρη τους μέσω της διαδικασίας της μάθησης. 27

28

Κάθε χρονική στιγμή η τιμή κάθε έννοιας A i υπολογίζεται από το άθροισμα των επιρροών όλων των υπολοίπων εννοιών σε αυτή την έννοια και τον περιορισμό της συνολικής επίδρασης με τη χρήση μίας συνάρτησης φραγής f σύμφωνα με τον παρακάτω κανόνα: A = f ( A + W A ) t+ 1 t t i i ji j i= 1, i j 29

Σε κάθε βήμα μία νέα κατάσταση των εννοιών προκύπτει μέσω του προαναφερθέντος κανόνα. Μετά από έναν αριθμό επαναλήψεων ο ΑΓΧ μπορεί να καταλήξει σε μία από τις παρακάτω καταστάσεις: 1. Σε ένα συγκεκριμένο σημείο ισορροπίας. 2. Σε έναν περιορισμένο κύκλο. 3. Σε χαοτική συμπεριφορά. Όταν ο ΑΓΧ καταλήξει σε ένα συγκεκριμένο σημείο ισορροπίας λέμε ότι ο ΑΓΧ έχει συγκλίνει. 30

o Στατιστική Αξιολόγηση Μοντέλων ΥΝ.

Είναι η απλούστερη τεχνική αξιολόγησης, η οποία περιλαμβάνει μόνο έναν υπολογιστικό κύκλο. Συγκεκριμένα, σε κάποιες περιπτώσεις, ένα σύνολο δεδομένων δίδεται διαμερισμένο σε ένα υποσύνολο εκπαίδευσης και ένα υποσύνολο εξέτασης. Σκοπός είναι η εκπαίδευση ή, ισοδύναμα, μάθηση έτσι ώστε να προκύψει μια αποδεκτή ικανότητα γενίκευσης. 32

Είναι μια τεχνική αξιολόγησης πολλών υπολογιστικών κύκλων, η οποία αποτιμά την ικανότητα γενίκευσης ενός μοντέλου εφαρμόζοντας μια απλή αξιολόγηση ανά υπολογιστικό κύκλο (π.χ. εξαντλητική σταυρωτή αξιολόγηση, άσε-k-έξω σταυρωτή αξιολόγηση ). 33

vgkabs@teiemt. gr Τηλ. 6945224802 Γραφείο B122 (Κτήριο βιβλιοθήκης) 34