Κεφάλαιο 13. Αβεβαιότητα. Τεχνητή Νοηµοσύνη - Β' Έκδοση. Ι. Βλαχάβας, Π. Κεφαλάς, Ν. Βασιλειάδης, Φ. Κόκκορας, Η. Σακελλαρίου

Σχετικά έγγραφα
Τεχνητή Νοημοσύνη (ΥΠ23) 6 ο εξάμηνο Τμήμα Πληροφορικής και Τηλεματικής Χαροκόπειο Πανεπιστήμιο Ουρανία Χατζή

Αιτιολόγηση με αβεβαιότητα

Αβέβαιη Γνώση. Κυριότερες πηγές αβεβαιότητας:

Τύποι σφαλμάτων. Σφάλματα. Πολυσημα ντικότητα Ελλιπή. Τυχαιότητα Συστηματικά. Συλλογισμός. Λάθος Μέτρηση. Επαγωγικά Σφάλματα Παραγωγικά σφάλματα

(REASONING WITH UNCERTAINTY)

Αβέβαιη και Ασαφής Γνώση

ΕφαρµογήΠλαισίου ιαχείρισης Εµπιστοσύνης σε δίκτυα Pub/Sub Τσιώλης Γεώργιος

Τεχνητή Νοημοσύνη (ΥΠ23) 6 ο εξάμηνο Τμήμα Πληροφορικής και Τηλεματικής Χαροκόπειο Πανεπιστήμιο Ουρανία Χατζή

ΕΚΠ 413 / ΕΚΠ 606 Αυτόνοµοι (Ροµ οτικοί) Πράκτορες

Κεφάλαιο 24. Κατηγοριοποίηση. Τεχνητή Νοηµοσύνη - Β' Έκδοση. Ι. Βλαχάβας, Π. Κεφαλάς, Ν. Βασιλειάδης, Φ. Κόκκορας, Η. Σακελλαρίου

Ασαφής Λογική (Fuzzy Logic)

ΕΚΠ 413 / ΕΚΠ 606 Αυτόνοµοι (Ροµ οτικοί) Πράκτορες

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Θέμα 1 ο (ΜΑΪΟΣ 2004, ΜΑΪΟΣ 2008) Να δείξετε ότι η παράγωγος της σταθερής συνάρτησης f (x) = c είναι (c) = 0. Απόδειξη

1. Πείραμα τύχης. 2. Δειγματικός Χώρος ΣΤΟΙΧΕΙΑ ΑΠΟ ΤΗ ΘΕΩΡΙΑ ΠΙΘΑΝΟΤΗΤΩΝ

ΠΕΡΙΓΡΑΦΙΚΗ ΣΤΑΤΙΣΤΙΚΗ ΑΤΑΞΙΝΟΜΗΜΕΝΑ Ε ΟΜΕΝΑ

Π Ι Θ Α Ν Ο Τ Η Τ Ε Σ

"The Project ARXIMIDIS ΙΙ is co-funded by the European Social Fund and National Resources EPEAEK ΙΙ "

Κεφάλαιο 20. Ανακάλυψη Γνώσης σε Βάσεις δεδοµένων. Τεχνητή Νοηµοσύνη - Β' Έκδοση Ι. Βλαχάβας, Π. Κεφαλάς, Ν. Βασιλειάδης, Φ. Κόκκορας, Η.

Στατιστική Ι. Ενότητα 3: Πιθανότητες. Δρ. Γεώργιος Κοντέος Τμήμα Διοίκησης Επιχειρήσεων Γρεβενών

Σκοπός του μαθήματος. Έλεγχος μηδενικής υπόθεσης OR-RR. Έλεγχος μηδενικής υπόθεσης. Σφάλαμα τύπου Ι -Σφάλμα τύπου ΙΙ 20/4/2013

Συναρτησιακές Εξαρτήσεις. Βάσεις εδοµένων Ευαγγελία Πιτουρά 1

Κεφάλαιο 14. Ασάφεια. Τεχνητή Νοηµοσύνη - Β' Έκδοση. Ι. Βλαχάβας, Π. Κεφαλάς, Ν. Βασιλειάδης, Φ. Κόκκορας, Η. Σακελλαρίου

HMY 795: Αναγνώριση Προτύπων. Διάλεξη 2

ΕΡΩΤΗΣΕΙΣ ΚΑΤΑΝΟΗΣΗΣ ΑΛΓΕΒΡΑ Α ΛΥΚΕΙΟΥ

K15 Ψηφιακή Λογική Σχεδίαση 7-8: Ανάλυση και σύνθεση συνδυαστικών λογικών κυκλωμάτων

Τεχνητή Νοημοσύνη (ΥΠ23) 6 ο εξάμηνο Τμήμα Πληροφορικής και Τηλεματικής Χαροκόπειο Πανεπιστήμιο Ουρανία Χατζή

Σχολικός Σύµβουλος ΠΕ03

HY118- ιακριτά Μαθηµατικά

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

ιάγνωση και Επιδιόρθωση Βλαβών

1 Συνοπτική ϑεωρία. 1.1 Νόµοι του Προτασιακού Λογισµού. p p p. p p. ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΡΗΤΗΣ Τµήµα Επιστήµης Υπολογιστών

Μηχανική Μάθηση Μερωνυµιών για Αναγνώριση Γεγονότων

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων

ΗΥ118: Διακριτά Μαθηματικά - Εαρινό Εξάμηνο 2016 Τελική Εξέταση Ιουνίου - Τετάρτη, 15/06/2016 Λύσεις Θεμάτων

Αναλυτική Στατιστική

Τμήμα Λογιστικής και Χρηματοοικονομικής. Θεωρία Πιθανοτήτων. Δρ. Αγγελίδης Π. Βασίλειος

Πληροφοριακά Συστήματα & Περιβάλλον

Περιεχόμενα 3ης Διάλεξης 1 Σύνοψη Προηγούμενου Μαθήματος 2 Δεσμευμένη Πιθανότητα 3 Bayes Theorem 4 Στοχαστική Ανεξαρτησία 5 Αμοιβαία (ή πλήρης) Ανεξαρ

Συναρτησιακές Εξαρτήσεις Σχεδιασμός Βάσεων Δεδομένων

ΣΗΜΕΙΩΣΕΙΣ ΜΕΛΕΤΗΣ ΙΟΥΝΙΟΥ 2016 (version ) είναι: ( ) f =

Περιεχόμενα 3ης Διάλεξης 1 Σύνοψη Προηγούμενου Μαθήματος 2 Δεσμευμένη Πιθανότητα 3 Bayes Theorem 4 Στοχαστική Ανεξαρτησία 5 Αμοιβαία (ή πλήρης) Ανεξαρ

Τ Ε Ι Ιονίων Νήσων Τμήμα Εφαρμογών Πληροφορικής στη Διοίκηση και την Οικονομία. Υπεύθυνος: Δρ. Κολιός Σταύρος

2. Missing Data mechanisms

ΠΙΘΑΝΟΤΗΤΕΣ Δειγματικός Χώρος. Ενδεχόμενα {,,..., }.

ΑΣΚΗΣΕΙΣ ΠΙΘΑΝΟΤΗΤΩΝ του Παν. Λ. Θεοδωρόπουλου 0

cov(x, Y ) = E[(X E[X]) (Y E[Y ])] cov(x, Y ) = E[X Y ] E[X] E[Y ]

Συστήματα Γνώσης. Θεωρητικό Κομμάτι Μαθήματος Ενότητα 2: Βασικές Αρχές Αναπαράστασης Γνώσης και Συλλογιστικής

Άσκηση 1. i) α) ============================================================== α > 0. Πρέπει κατ αρχήν να ορίζεται ο λογάριθµος, δηλ.

ΓΕΝΙΚΟ ΛΥΚΕΙΟ ΝΕΣΤΟΡΙΟΥ

ΕΦΑΡΜΟΣΜΕΝΗ ΣΤΑΤΙΣΤΙΚΗ I Παντελής Δημήτριος Τμήμα Μηχανολόγων Μηχανικών

ΑΝΤΙΚΕΙΜΕΝΟ ΜΑΘΗΜΑΤΟΣ

ΑΠΑΝΤΗΣΕΙΣ - ΥΠΟ ΕΙΞΕΙΣ ΣΤΙΣ ΕΡΩΤΗΣΕΙΣ

Γιατί πιθανότητες; Γιατί πιθανότητες; Θεωρία πιθανοτήτων. Θεωρία Πιθανοτήτων. ΗΥ118, Διακριτά Μαθηματικά Άνοιξη 2017.

Η παρούσα αξία της επένδυσης αν αυτή υλοποιηθεί άµεσα είναι 0 K 0 1 K

Περίληψη ϐασικών εννοιών στην ϑεωρία πιθανοτήτων

ιαγνωστικός Συλλογισµός και Λήψη Ιατρικής Απόφασης

ΒΑΣΙΚΕΣ ΕΝΝΟΙΕΣ ΛΟΓΙΚΗΣ

ΠΟΛΥΚΡΙΤΗΡΙΑ ΥΠΟΣΤΗΡΙΞΗ ΑΠΟΦΑΣΕΩΝ. Χάρης Δούκας, Πάνος Ξυδώνας, Ιωάννης Ψαρράς

ΛΥΜΕΝΕΣ ΑΣΚΗΣΕΙΣ ΣΤΙΣ ΠΙΘΑΝΟΤΗΤΕΣ (Νο2) ΧΡΗΣΙΜΕΣ ΣΧΕΣΕΙΣ έ ώ ό έ ώ. ώ ό. ί ό ό 1, 1,2,, 1,,,,,,, 1,2,,, V ό V V. ή ό ί ά ύ. ό, ί ί ή έ ύ.

ΤΕΙ ΔΥΤΙΚΗΣ ΜΑΚΕΔΟΝΙΑΣ Μεταπτυχιακό Τραπεζικής & Χρηματοοικονομικής

Η ΙΣΧΥΣ ΕΝΟΣ ΕΛΕΓΧΟΥ. (Power of a Test) ΚΕΦΑΛΑΙΟ 21

ΠΙΘΑΝΟΤΗΤΑ ΚΑΙ ΒΑΣΙΚΕΣ Ι ΙΟΤΗΤΕΣ ΤΗΣ (Συνέχεια)

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 2 : Πληροφορία και Εντροπία Διάλεξη: Κώστας Μαλιάτσος Χρήστος Ξενάκης, Κώστας Μαλιάτσος

ΑΣΑΦΗΣ ΛΟΓΙΚΗ. Οικονόμου Παναγιώτης Δρ. Ε. Παπαγεωργίου 1

ΣΗΜΕΙΩΣΕΙΣ ΓΙΑ ΤΟ ΜΑΘΗΜΑ ΣΤΑΤΙΣΤΙΚΗ ΓΙΑ ΠΟΛΙΤΙΚΟΥΣ ΜΗΧΑΝΙΚΟΥΣ ΜΕΡΟΣ Β

HY118-Διακριτά Μαθηματικά

Για το Θέμα 1 στα Μαθηματικά Γενικής Παιδείας Γ Λυκείου

ΓΕΝΙΚΗΣ ΠΑΙΔΕΙΑΣ ΜΑΘΗΜΑΤΙΚΑ- 1 o ΔΙΑΓΩΝΙΣΜΑ

Α. α) ίνεται η συνάρτηση F(x)=f(x)+g(x). Αν οι συναρτήσεις f, g είναι παραγωγίσιµες, να αποδείξετε ότι: F (x)=f (x)+g (x).

ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΡΗΤΗΣ Τµήµα Επιστήµης Υπολογιστών. HY-217: Πιθανότητες - Χειµερινό Εξάµηνο 2014 ιδάσκων : Π. Τσακαλίδης. Λύσεις εύτερης Σειράς Ασκήσεων

Κεφάλαιο 8. Βασικές Αρχές Αναπαράστασης Γνώσης και Συλλογιστικής. Τεχνητή Νοηµοσύνη - Β' Έκδοση

6 ο ΜΑΘΗΜΑ Έλεγχοι Υποθέσεων

Σχεδιασµός και δράση στον πραγµατικό κόσµο

Συναρτησιακές Εξαρτήσεις

ν ν = 6. όταν είναι πραγµατικός αριθµός.

3.1 ΔΕΙΓΜΑΤΙΚΟΙ ΧΩΡΟΙ ΕΝΔΕΧΟΜΕΝΑ

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

ΙΑ ΟΧΙΚΕΣ ΒΕΛΤΙΩΣΕΙΣ

Απλή Γραμμική Παλινδρόμηση και Συσχέτιση 19/5/2017

Ανάκτηση Πληροφορίας

Βασικά στοιχεία της θεωρίας πιθανοτήτων

Στατιστική είναι το σύνολο των μεθόδων και θεωριών που εφαρμόζονται σε αριθμητικά δεδομένα προκειμένου να ληφθεί κάποια απόφαση σε συνθήκες

Βασικές αρχές της θεωρίας των πιθανοτήτων και η εφαρµογή τους στην εκτίµηση των ασφαλιστικών κινδύνων

Μέρος Β /Στατιστική. Μέρος Β. Στατιστική. Γεωπονικό Πανεπιστήμιο Αθηνών Εργαστήριο Μαθηματικών&Στατιστικής/Γ. Παπαδόπουλος (

Πιθανότητες. Έννοια πιθανότητας Ορισμοί πιθανότητας Τρόπος υπολογισμού Πράξεις πιθανοτήτων Χρησιμότητα τους

ΠΟΛΥΚΡΙΤΗΡΙΑ ΥΠΟΣΤΗΡΙΞΗ ΑΠΟΦΑΣΕΩΝ. Χάρης Δούκας, Πάνος Ξυδώνας, Ιωάννης Ψαρράς

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΣΤΑΤΙΣΤΙΚΗ ΤΩΝ ΕΠΙΧΕΙΡΗΣΕΩΝ

ΣΤΑΤΙΣΤΙΚΗ ΕΠΕΞΕΡΓΑΣΙΑ ΓΙΑ ΤΗΝ ΑΠΟΤΙΜΗΣΗ ΤΩΝ ΑΠΟΤΕΛΕΣΜΑΤΩΝ

Στατιστική λήψη αποφάσεων

Τεχνολογίες Πληροφορικής και Επικοινωνιών (ΤΠΕ) για την υποστήριξη ιατρικών πράξεων σε νησιωτικές περιοχές στο Αιγαίο

Κεφάλαιο Τρία: Ψηφιακά Ηλεκτρονικά

π x = κπ + με κ. Στην παράγραφο αυτή θα ασχοληθούμε με συναρτήσεις οι οποίες έχουν 2

Γ2.1 Στοιχεία Αρχιτεκτονικής. Γ Λυκείου Κατεύθυνσης

1. ** α) Αν η f είναι δυο φορές παραγωγίσιµη συνάρτηση, να αποδείξετε ότι. β α. = [f (x) ηµx] - [f (x) συνx] β α. ( )

ΜΑΘΗΜΑΤΙΚΑ & ΣΤΟΙΧΕΙΑ ΣΤΑΤΙΣΤΙΚΗΣ ΓΕΝΙΚΗΣ ΠΑΙ ΕΙΑΣ Γ ΛΥΚΕΙΟΥ & ΕΠΑ.Λ. Β 20 ΜΑΪΟΥ 2013 ΑΠΑΝΤΗΣΕΙΣ. x x x 4

εσµευµένες Πιθανότητες-Λυµένα Παραδείγµατα 3. Επιλέγουµε έναν που δεν είναι άνεργος. Ποια είναι η πιθανότητα να είναι πτυχιούχος; = 0.

ΚΕΦΑΛΑΙΟ Μηχανική Μάθηση

ΘΕΜΑΤΑ ΘΕΜΑ 1. α) Να λύσετε την εξίσωση : 2 2 2x. β) Αν α είναι η ϑετική εξίσωσης του ερωτήµατος (α), να λύσετε την ανίσωση : 1 x < α.

Transcript:

Κεφάλαιο 13 Αβεβαιότητα Τεχνητή Νοηµοσύνη - Β' Έκδοση Ι. Βλαχάβας, Π. Κεφαλάς, Ν. Βασιλειάδης, Φ. Κόκκορας, Η. Σακελλαρίου

Κυριότερες πηγές αβεβαιότητας: Αβέβαιη Γνώση Ανακριβή δεδοµένα (imprecise data). Ελλιπή δεδοµένα (incomplete data) Υποκειµενικότητα ή/και ελλείψεις στην περιγραφή της γνώσης Κάθε είδους περιορισµοί που κάνουν το όλο πλαίσιο λήψης απόφασης ατελές. Ανάγκη ύπαρξης "µη ακριβών" µεθόδων συλλογισµού. Θεωρία Πιθανοτήτων Συντελεστές Βεβαιότητας (Certainty Factors) Θεωρία Dempster-Shafer Ασαφής Λογική (Fuzzy Logic). Τεχνητή Νοηµοσύνη, B' Έκδοση 2

Θεωρία Πιθανοτήτων Αν Ε είναι ένα γεγονός, η άνευ συνθηκών πιθανότητα (unconditional probability) Ρ(Ε) να συµβεί το γεγονός εκφράζεται µε έναν πραγµατικό αριθµό για τον οποίο ισχύουν: 0 Ρ(Ε) 1 Ρ(Ε) 1 αν Ε σίγουρο γεγονός Ρ(Ε) + Ρ( Ε) 1 Πιθανότητα υπό συνθήκη (conditional probability): Ιδιότητες Η πιθανότητα να ισχύει το υποθετικό συµπέρασµα Η δεδοµένης της ισχύος µόνο του γεγονότος Ε. P ( H E) P ( H E) P( E) Προσθετική Ιδιότητα: Ρ(Α Β) Ρ(Α) + Ρ(Β) - Ρ(Α Β) Πολ/στική Ιδιότητα για δύο ανεξάρτητα γεγονότα Α και Β: Ρ(Α Β) Ρ(Α) Ρ(Β) Πολ/στική Ιδιότητα για δύο µη ανεξάρτητα γεγονότα Α και Β: Ρ(Α Β) Ρ(Α) Ρ(Β Α) Τεχνητή Νοηµοσύνη, B' Έκδοση 3

Έστω ότι έχουµε ένα ζάρι: Παράδειγµα Ρ(Α) Ρ(περιττός αριθµός) 3/6 0.5 γιατί υπάρχουν 3 δυνατές τιµές (1,3,5) από σύνολο 6 δυνατών τιµών (1,2,3,4,5,6) Ρ(Β) Ρ(αριθµός 3) 3/6 0.5 γιατί υπάρχουν 3 δυνατές τιµές (1,2,3) από σύνολο 6 δυνατών τιµών (1,2,3,4,5,6) P(B A) P(αριθµός 3 δεδοµένου ότι είναι περιττός) 2/3 γιατί υπάρχουν 2 δυνατές τιµές (1,3) από σύνολο 3 δυνατών τιµών (1,3,5) Ρ(Α Β) Ρ(περιττός αριθµός και 3) Ρ(Α)* P(B A) 0.5*2/3 0.33 Ρ(Α Β)Ρ(περιττός ή 3) Ρ(Α) + Ρ(Β) - Ρ(Α Β) 0.5+0.5-0.330.67 (προσθετική ιδιότητα) Τεχνητή Νοηµοσύνη, B' Έκδοση 4

Ο Νόµος του Bayes (Bayes' rule) Επιτρέπει τον υπολογισµό πιθανοτήτων υπό συνθήκη µε χρήση άλλων πιθανοτήτων που είναι ευκολότερο να υπολογιστούν. Χρήση εκτιµήσεων αντί συχνοτήτων εµφάνισης γεγονότων. Η απλούστερη εκδοχή του νόµου του Bayes: Πιο εύκολο να χρησιµοποιηθεί, συγκριτικά µε ( ) P H E ( ) P( E) P E H P( H ) την σχέση της πιθανότητας υπό συνθήκη. Αν Η µία ασθένεια και Ε ένα σύµπτωµα που σχετίζεται µε αυτήν, τότε για τον υπολογισµό της πιθανότητας υπό συνθήκη απαιτείται πληροφορία που συνήθως δεν είναι διαθέσιµη: Πόσοι άνθρωποι στον κόσµο πάσχουν από την Η και ταυτόχρονα εµφανίζουν το σύµπτωµα Ε. Πόσοι εµφανίζουν απλά το σύµπτωµα Ε. Στο νόµο του Bayes: Ένας γιατρός µπορεί να δώσει µία εκτίµηση για το πόσοι ασθενείς που έπασχαν από την ασθένεια Η εµφάνιζαν το σύµπτωµα Ε (ποσότητα P(E H)). Αντίθετα, το κλάσµα των ασθενών µε σύµπτωµα Ε που πάσχουν από την ασθένεια Η, δηλαδή ο όρος P(Η Ε), τις περισσότερες φορές είναι αδύνατο να εκτιµηθεί. To P(H) µπορεί να υπολογιστεί από στατιστικά στοιχεία για τον συνολικό πληθυσµό. Το P(E) από στατιστικά στοιχεία του ίδιου του γιατρού. Τεχνητή Νοηµοσύνη, B' Έκδοση 5

Παράδειγµα 1 Έστω τα δύο σύνολα Η και Ε µε επτά και πέντε γεγονότα αντίστοιχα από ένα συνολικό πληθυσµό δέκα γεγονότων. Το σχήµα µας επιτρέπει να υπολογίσουµε τις απλές (άνευ συνθήκης) και τις υπό συνθήκη πιθανότητες µε απλή εφαρµογή του ορισµού τους. Η Ε P(E) 5/10 0.5 P(H) 7/10 0.7 P(H E) 2/5 0.4 P(E H) 2/7 0.287514 Στο παράδειγµα: P(H E) * P(E) P(E H)*P(H) Γνωρίζοντας τρεις από τις πιθανότητες µπορούµε να υπολογίσουµε την τέταρτη. Τεχνητή Νοηµοσύνη, B' Έκδοση 6

Παράδειγµα 2 Ορισµοί Παραµέτρων P(H) η πιθανότητα να έχει κάποιος γρίπη P(E) η πιθανότητα να έχει κάποιος πυρετό P(Ε H) η πιθανότητα να έχει κάποιος πυρετό δεδοµένου ότι έχει γρίπη P(Ε H) η πιθανότητα να έχει κάποιος πυρετό δεδοµένου ότι δεν έχει γρίπη εδοµένα P(H)0.0001 P(E Η)0.8 P(Ε H)0.1 Ερωτήσεις 1) Ποια η πιθανότητα να έχει κάποιος πυρετό; P(E) P(E H) + P(E H) (από ορισµό πιθαν. υπό συνθήκη) P(E H)*P(H) + P(Ε H)* P( H) 0.8 * 0.0001 + 0.1*(1-0.0001) 0.0008 + 0.09999 0.10007 2) Ποια η πιθανότητα να έχει κάποιος γρίπη δεδοµένου ότι έχει πυρετό; P(H E) P(H)*P(E H)/P(E) (Bayes) 0.0001 * 0.8/0.10007 0.0007994 3) Ποια η πιθανότητα να έχει κάποιος γρίπη δεδοµένου ότι δεν έχει πυρετό; P(H E) P(H)*P( E H)/P( E) (σχέση Bαyes µε Ε αντί Ε) 0.0001*(1-0.8)/(1-0.10007) 0.0000222 Τεχνητή Νοηµοσύνη, B' Έκδοση 7

Γενική Σχέση του Νόµου του Bayes Η πιθανότητα να ισχύει το υποθετικό συµπέρασµα Η δεδοµένης της ισχύος των γεγονότων Ε 1, Ε 2,..., E k : P ( H L ) E 1 E 2 E k P ( E1 E 2 L E k H ) P( 1 2 L k) E E E P( H ) Πρόβληµα χρήσης: για m πιθανές ασθένειες και n δυνατά συµπτώµατα από τα οποία εµφανίζονται τα k, απαιτούνται (m n) k +m+n k τιµές πιθανοτήτων, αριθµός υπερβολικά µεγάλος. Απλούστερη περίπτωση: αν τα διάφορα γεγονότα Ε θεωρούνται ανεξάρτητα το ένα από το άλλο, τότε απαιτούνται µόνο m n+m+n τιµές πιθανοτήτων. Χρήση Θεωρίας Πιθανοτήτων - Συµπεράσµατα είτε τα διάφορα γεγονότα θεωρούνται ανεξάρτητα (ευκολότεροι υπολογισµοί σε βάρος της ακρίβειας των συλλογισµών) ή καταγράφονται αναλυτικά όλες οι πιθανότητες και οι µεταξύ του συσχετίσεις (ακριβή συµπεράσµατα, µε υψηλό όµως υπολογιστικό κόστος). Εναλλακτική προσέγγιση: Συντελεστές βεβαιότητας. Τεχνητή Νοηµοσύνη, B' Έκδοση 8

Συντελεστές Βεβαιότητας (Certainty Factors) (1/2) Αριθµητικές τιµές που εκφράζουν τη βεβαιότητα για την αλήθεια µιας πρότασης ή γεγονότος. if γεγονός then υποθετικό συµπέρασµα µε βεβαιότητα CF Παράδειγµα: if πυρετός then γρίπη CF 0.8 Παίρνουν τιµές στο διάστηµα [-1, +1] 1 : απόλυτη βεβαιότητα για το ψευδές της πρότασης. +1 : απόλυτη βεβαιότητα για την αλήθεια της πρότασης. 0 : άγνοια. Τιµές βεβαιότητας και στην τιµή του γεγονότος του κανόνα: Παράδειγµα: if πυρετός CF 1 0.7 then γρίπη CF 0.8 τελική βεβαιότητα κανόνα: 0.7x0.80.56 Αν υπάρχουν περισσότερα από ένα γεγονότα στο αριστερό τµήµα του κανόνα τα οποία συνδέονται µε AND (ή OR) τότε ως συντελεστής βεβαιότητας του αριστερού τµήµατος θεωρείται η µικρότερη (ή η µεγαλύτερη) τιµή CF που εµφανίζεται. Τεχνητή Νοηµοσύνη, B' Έκδοση 9

Συντελεστές Βεβαιότητας (Certainty Factors) (2/2) Αν δύο διαφορετικοί κανόνες συνάγουν το ίδιο υποθετικό συµπέρασµα µε βεβαιότητες CF p και CF n, τότε η συνολική βεβαιότητα είναι: Αν CF p και CF n > 0, τότε: CF CF p +CF n (1-CF p ) CF p +CF n CF n CF p Αν CF p και CF n < 0, τότε: CF CF p +CF n (1+CF p ) CF p +CF n +CF n CF p CFp + CFn Αν CF p και CF n ετερόσηµα, τότε: CF 1 min( CFp, CF ) Παράδειγµα: if πυρετός then γρίπη CF 0.8 if βήχας then γρίπη CF 0.5 Συµπερασµατικά: Αντί για συχνότητες εµφάνισης γεγονότων που πρέπει να µετρηθούν, χρησιµοποιούνται συντελεστές βεβαιότητας που έχουν εκτιµηθεί από ειδικούς. Οι υπολογισµοί κατά το συνδυασµό βεβαιοτήτων είναι απλούστεροι, λόγω της παραδοχής της ανεξαρτησίας των γεγονότων. Πρέπει να αποφεύγεται η ταυτόχρονη χρήση κανόνων που αναστρέφουν τη σχέση αιτίας-αποτελέσµατος. Π.χ. if A then B και if Β then Α n Τεχνητή Νοηµοσύνη, B' Έκδοση 10

Παράδειγµα Έστω ότι δύο κανόνες οδηγούν στο ίδιο υποθετικό συµπέρασµα Β, κάτω όµως από διαφορετικές παραδοχές, δηλαδή: if Α then Β CF 0.8 if C AND D AND E then B CF 0.6 Αν ο χρήστης εισάγει τα δεδοµένα A, C, D και E µε βεβαιότητες: CF(A)0.5, CF(C)0.9, CF(D)0.7 και CF(E)0.5 τότε: H ενεργοποίηση του πρώτου κανόνα δίνει: CF p (B)0.5 * 0.8 0.4 H ενεργοποίηση του δεύτερου κανόνα δίνει: CF n (B)0.6 * min(0.9, 0.7, 0.5) 0.6 * 0.5 0.3 Επειδή τα CF p και CF n είναι και τα δύο θετικά, η συνολική βεβαιότητα του υποθετικού συµπεράσµατος Β θα είναι: CF(B) 0.4 + 0.3 - (0.4 x 0.3) 0.58 Τεχνητή Νοηµοσύνη, B' Έκδοση 11

ίκτυα Πιθανοτήτων (Bayesian Probability Networks) Αντιµετωπίζουν το πρόβληµα της αλληλεπίδρασης των πιθανοτήτων. Στον πραγµατικό κόσµο τα διάφορα γεγονότα δεν αλληλεπιδρούν όλα το ένα µε το άλλο αλλά µερικώς. εν χρειάζεται να υπολογίζονται οι πιθανότητες όλων των συνδυασµών γεγονότων. Απαγορεύεται η ύπαρξη βρόχων µέσα στο δίκτυο. εν γίνεται ταυτόχρονη χρήση κανόνων που αντιστρέφουν την σχέση αιτίας-αποτελέσµατος. Τεχνητή Νοηµοσύνη, B' Έκδοση 12

ίκτυα Συµπερασµού (Inference Networks) (1/2) Παραλλαγή των δικτύων πιθανοτήτων. Οι κανόνες υποδηλώνουν µία "χαλαρή" συνεπαγωγή: if γεγονός then υποθετικό συµπέρασµα µε βαθµό ισχύος S Περίπτωση Υλοποίησης: µε τη χρήση των µεγεθών Εύνοια Γεγονότος (Odds - Ο) Λογική Επάρκεια (Logical Sufficiency LS) Λογική Αναγκαιότητα (Logical Necessity LN) O ( E) P 1 ( E) P( E) ( E H) ( E H) P LS P O ( H E) O( H) LN P ( E H) ( E H) P O ( H E) O( H) Τεχνητή Νοηµοσύνη, B' Έκδοση 13

ίκτυα Συµπερασµού (Inference Networks) (2/2) Γενική µορφή κανόνα σε δίκτυα συµπερασµού:. P o (H): πιθανότητα να ισχύει το υποθετικό συµπέρασµα Η όταν απουσιάζει οποιαδήποτε ένδειξη για την ισχύ του γεγονότος Ε. Αν γίνει γνωστή η ύπαρξη του Ε τότε και η πιθανότητα του Η αλλάζει σε P(H E). Όλες οι αλλαγές προωθούνται µέσα στο δίκτυο των κανόνων Παράδειγµα δικτύου συµπερασµού: X ( LS Y 1 4, LN1 0.5 ) ( LS, LN ) p ( Y ) 0.1 2 10 2 0. 2 o p Z ( Z ) 0.2 o P o (Y) και P o (Z): αρχικές τιµές πιθανότητας για τα Υ και Ζ, χωρίς να υπάρχει οποιασδήποτε γνώση για το Χ Έστω ότι η τιµή του Χ γίνεται γνωστή. Μετά από πράξεις, η τελική µορφή του δικτύου: X ) Y (, ) Z ( LS1 4, LN1 0.5 LS LN P( Y X ) 0.307 2 10 2 0. 2 E ( LS, LN ) P( Z X ) 0.252 H P o ( H ) Τεχνητή Νοηµοσύνη, B' Έκδοση 14

Προσέγγιση Dempster-Shafer (D-S) (1/2) εν απαιτείται η συλλογή όλων των απλών και των υπό συνθήκη πιθανοτήτων. Λογισµός µε αριθµητικές τιµές πεποίθησης (belief) Πλαίσιο διάκρισης (frame of discernment). Αν U{A, B, C} πιθανές ασθένειες τότε: Pow(U) { {}, {A}, {B}, {C}, {A, B}, {A, C}, {B, C}, {A, B, C} } πιθανές διαγνώσεις. ιαζευγµένες Προτάσεις: {Α, Β} σηµαίνει "ασθένεια Α ή Β". Στοιχεία του U που δεν ανήκουν σε ένα στοιχείο του Pow(U), (π.χ. η ασθένεια C στο {Α, Β}), κάνουν σαφή την άρνηση του αντίστοιχου υποθετικού συµπεράσµατος. {}: null hypothesis Τεχνητή Νοηµοσύνη, B' Έκδοση 15

Προσέγγιση Dempster-Shafer (2/2) Η βασική κατανοµή πιθανότητας (basic probability assignment - bpa) είναι µία απεικόνιση: m: Pow(U) [0,1] δηλαδή το µέτρο της πεποίθησης που υπάρχει για το κατά πόσο ισχύει το υποθετικό συµπέρασµα που εκφράζεται µε το συγκεκριµένο στοιχείο του U. η πεποίθηση m({a, B})0.3, δε µοιράζεται στα {Α} και {Β} αλλά αφορά το {Α, Β}. ισχύει m({})0 X Pow ( ) 1 ( U m X ) Η ποσότητα m(x) εκφράζει το πόσο ισχυρή είναι η πεποίθηση για το ότι ένα συγκεκριµένο στοιχείο του U ανήκει στο X αλλά όχι σε κάποιο από τα τυχόν υποσύνολα του X. Η συνολική πεποίθηση (belief) ότι ένα στοιχείο του U ανήκει στο Χ καθώς και στα τυχόν υποσύνολα του Χ συµβολίζεται µε Bel(X) Bel ( X ) m( Y ) Y X Τεχνητή Νοηµοσύνη, B' Έκδοση 16

Dempster-Shafer vs. Bayes Bayes: η απουσία άλλων ενδείξεων για τις δυνατές εκδοχές τις καθιστά ισοπίθανες. Dempster-Shafer: η απουσία κάποιων ενδείξεων θέτει την πιθανότητα (likelihood) κάθε εκδοχής κάπου στο διάστηµα [0, 1]. Κανόνας Dempster-Shafer Αν m 1 και m 2 δύο ανεξάρτητες εκτιµήσεις (βασικές κατανοµές πιθανότητας) που αποδίδουν κάποιο βαθµό πεποίθησης στα στοιχεία του Pow(U), τότε αυτές συνδυάζονται σε µία τρίτη εκτίµηση m 3 m 1 m 2 µε τρόπο που ορίζεται µε τον κανόνα D-S: m (A) m m (A) 3 1 2 A Pow U ) 1 (X) X, Y U : X Y A 1 2 ( (X) ( Y) m m m m X, Y U : X Y 1 2 (Y) Τεχνητή Νοηµοσύνη, B' Έκδοση 17

Παράδειγµα: ιάγνωση Ασθένειας Έστω U{A, B, C} το σύνολο των δυνατών ασθενειών που µπορεί να διαγνωσθούν. Πιθανές ιαγνώσεις Pow(U){{}, {A}, {B}, {C}, {A,B}, {A,C}, {B,C}, {A,B,C}} m( {{ }, {A}, {B}, {C}, {A, B}, {A, C}, {B, C}, {A, B, C} } ) 1 υποδηλώνει τη βεβαιότητα ότι η διάγνωση βρίσκεται κάπου στα στοιχεία του Pow(U) αλλά ελλείψει άλλων ενδείξεων δεν είναι δυνατό να δοθεί ιδιαίτερη βαρύτητα σε κάποιο Bayes: θα έπρεπε κάθε στοιχείο του Pow(U) να θεωρηθεί ισοπίθανο Έστω ότι γίνεται διαθέσιµη επιπλέον πληροφορία, (π.χ. πραγµατοποιούνται ιατρικές εξετάσεις) και προκύπτει ότι η ασθένεια είναι µία από τις A ή Β µε βαθµό πίστης 0.7 m1( {Α, Β} ) 0.7 m1( {{ }, {A}, {B}, {C}, {A, C}, {B, C}, {A, B, C}} ) 0.3 ηλαδή, η έλλειψη πίστης σε ένα από τα υποθετικά συµπεράσµατα του Pow(U), ισοδυναµεί αυτόµατα µε ισόποσο βαθµό πίστης στα υπόλοιπα στοιχεία του Pow(U), χωρίς όµως να δίνεται ιδιαίτερη προτίµηση σε κάποιο από αυτά. Bayes: απαιτείται ο υπολογισµός µεγάλου αριθµού υπό συνθήκη πιθανοτήτων, κάτι που είναι υπολογιστικά ακριβό και πολλές φορές αδύνατο. Πώς µπορεί να συνδυαστούν δύο ανεξάρτητες εκτιµήσεις (π.χ. δύο ιατρών) σε µία; Τεχνητή Νοηµοσύνη, B' Έκδοση 18

Παράδειγµα: Συνδυασµός ιαγνώσεων Έστω ότι δύο γιατροί εξετάζουν ανεξάρτητα τον ασθενή και δίνουν την εκτίµησή τους m 1 και m 2 αντίστοιχα, για την αρρώστια από την οποία αυτός πάσχει. Γιατρός 1 Γιατρός 2 υνατές περιπτώσεις διάγνωσης m 1 Bel 1 m 2 Bel 2 {Α} 0.05 0.05 0.15 0.15 {Β} 0 0 0 0 {C} 0.05 0.05 0.05 0.05 {A, B} 0.15 0.2 0.05 0.2 {A, C} 0.1 0.2 0.2 0.4 {B, C} 0.05 0.1 0.05 0.1 {A, B, C} 0.6 1 0.5 1 π.χ. Bel 1 ({A,B}) m 1 ({A,B}) + m 1 ({A}) + m 1 ({B}) 0.015 + 0.05 + 0 0.2 Οι δύο ανεξάρτητες εκτιµήσεις m 1 και m 2 µπορεί να συνδυαστούν στην m 3 χρησιµοποιώντας τον κανόνα Dempster-Shafer: m 3 A Pow m X, Y (U):X Y A 1(X) m2(y) Pow (A) m1 m2(a) 1 m (X) m ( Y) ( U ) X, Y Pow(U):X Y 1 2 Τεχνητή Νοηµοσύνη, B' Έκδοση 19 Bel ( X ) m( Y ) Y X

Παράδειγµα: Συνδυασµός Εκτιµήσεων (1/2) m 3 m 1 m 2 m 1 {Α} {Β} {C} {A,B} {A,C} {B,C} {A,B,C} m 2 0.05 0 0.05 0.15 0.1 0.05 0.6 {Α} 0.15 {Α}.0075 { } 0 { }.0075 {Α}.0225 {Α}.015 { }.0075 {Α}.09 {Β} 0 { }.0 {Β} 0 { }.0 {Β}.0 { }.0 {Β}.0 {Β}.0 {C} 0.05 { }.0025 { } 0 {C}.0025 { }.0075 {C}.005 {C}.0025 {C}.03 {A,B} 0.05 {Α}.0025 {Β} 0 { }.0025 {Α,B}.0075 {Α}.005 {Β}.0025 {A,B}.03 {A,C} 0.2 {Α}.01 { } 0 {C}.01 {Α}.03 {Α,C}.02 {C}.01 {A,C}.012 {B,C} 0.05 { }.0025 {Β} 0 {C}.0025 {Β}.0075 {C}.005 {B,C}.0025 {B,C}.03 {A,B,C} 0.5 {Α}.025 {Β} 0 {C}.025 {Α,B}.075 {Α,C}.05 {B,C}.025 {A,B,C}.3 Τεχνητή Νοηµοσύνη, B' Έκδοση 20

Παράδειγµα: Συνδυασµός Εκτιµήσεων (2/2) υνατές περιπτώσεις διάγνωσης m 3 Bel 3 {Α} 0.21 0.21 {Β} 0.01 0.01 {C} 0.09 0.09 {A, B} 0.12 0.34 {A, C} 0.20 0.50 {B, C} 0.06 0.16 {A, B, C} 0.31 1.00 Bel ( X ) m( Y ) Y X Η αρχική εκτίµηση ότι η ασθένεια είναι µία από τις Α ή Β αποδυναµώθηκε. η διάγνωση βρίσκεται µάλλον στο σύνολο {A,C} επειδή Bel 3 ({A})>Bel 3 ({C}), αρχίζει να διαφαίνεται ότι η τελική διάγνωση είναι η Α Η παραπάνω συνδυασµένη εκτίµηση µπορεί να συνδυαστεί εκ νέου µε µια άλλη εκτίµηση (π.χ. 3 ου ιατρού). Τεχνητή Νοηµοσύνη, B' Έκδοση 21