Μηχανική Μάθηση: γιατί;

Σχετικά έγγραφα
ΚΕΦΑΛΑΙΟ Μηχανική Μάθηση

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

Κατηγοριοποίηση βάσει διανύσματος χαρακτηριστικών

Πανεπιστήμιο Δυτικής Μακεδονίας. Τμήμα Μηχανικών Πληροφορικής & Τηλεπικοινωνιών. Τεχνητή Νοημοσύνη. Ενότητα 7: Μηχανική μάθηση

Μάθηση με παραδείγματα Δέντρα Απόφασης

Μάθηση εννοιών. Έννοιες: συναρτήσεις που επιστρέφουν λογική τιμή

Ασκήσεις μελέτης της 16 ης διάλεξης

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ

Ειδικά θέματα Αλγορίθμων και Δομών Δεδομένων (ΠΛΕ073) Απαντήσεις 1 ου Σετ Ασκήσεων

Τεχνητή Νοημοσύνη. 14η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

ΔΙΔΑΚΤΙΚΕΣ ΜΕΘΟΔΟΙ ΠΑΛΙΕΣ ΜΕΘΟΔΟΙ ΔΙΔΑΣΚΑΛΙΑΣ

Διδακτική της Πληροφορικής ΙΙ

Υπολογιστικά & Διακριτά Μαθηματικά

Υπολογιστικά & Διακριτά Μαθηματικά

Τεχνητή Νοημοσύνη. 16η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Μελέτη Περίπτωσης : 2.1

ΕΠΛ 211: Θεωρία Υπολογισμού και Πολυπλοκότητας. Διάλεξη 2: Μαθηματικό Υπόβαθρο

Πληροφορική 2. Τεχνητή νοημοσύνη

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Κρυπτογραφία. Έλεγχος πρώτων αριθών-παραγοντοποίηση. Διαφάνειες: Άρης Παγουρτζής Πέτρος Ποτίκας

Μέθοδοι μονοδιάστατης ελαχιστοποίησης

ΛΟΓΙΣΜΟΣ ΜΙΑΣ ΜΕΤΑΒΛΗΤΗΣ, ΕΣΠΙ 1

Μέθοδοι μονοδιάστατης ελαχιστοποίησης

Τεχνητή Νοημοσύνη. 15η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Αλγόριθμοι Ταξινόμησης Μέρος 4

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Τροχιές μάθησης. learning trajectories. Διδάσκων: Κωνσταντίνος Π. Χρήστου. Παιδαγωγικό Τµήµα Νηπιαγωγών. επ. Κωνσταντίνος Π.

ΕΠΛ 211: Θεωρία Υπολογισμού και Πολυπλοκότητας. Διάλεξη 3: Ντετερμινιστικά Πεπερασμένα Αυτόματα (DFA)

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. Κατηγοριοποίηση. Αριστείδης Γ. Βραχάτης, Dipl-Ing, M.Sc, PhD

Μέθοδοι εκμάθησης ταξινομητών από θετικά παραδείγματα με αριθμητικά χαρακτηριστικά. Νικόλαος Α. Τρογκάνης Διπλωματική Εργασία

Διδάσκοντες: Δ. Φωτάκης, Δ. Σούλιου Επιμέλεια διαφανειών: Δ. Φωτάκης. Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών

Δυναμικός Κατακερματισμός. Βάσεις Δεδομένων Ευαγγελία Πιτουρά 1

Έννοιες Φυσικών Επιστημών Ι

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΨΥΧΟΛΟΓΙΑ (ΨΧ 00)

Υπολογιστικά & Διακριτά Μαθηματικά

Σχέσεις. Διμελής Σχέση. ΣτοΊδιοΣύνολο. Αναπαράσταση

Ασκήσεις μελέτης της 19 ης διάλεξης

Ψηφιακές Τηλεπικοινωνίες. Βέλτιστος Δέκτης

Δομές Δεδομένων. Δημήτρης Μιχαήλ. Κατακερματισμός. Τμήμα Πληροφορικής και Τηλεματικής Χαροκόπειο Πανεπιστήμιο

ΑΝΑΛΥΣΗ ΚΑΤΗΓΟΡΙΚΩΝ ΔΕΔΟΜΕΝΩΝ. Σ. ΖΗΜΕΡΑΣ Τμήμα Μαθηματικών Κατεύθυνση Στατιστικής και Αναλογιστικών- Χρηματοοικονομικών Μαθηματικών Σάμος

! Εάν ο αριθμός διαθέτει περισσότερα bits, χρησιμοποιούμε μεγαλύτερες δυνάμεις του 2. ! Προσοχή στη θέση του περισσότερο σημαντικού bit!

Κατανεμημένα Συστήματα Ι

f x 0 για κάθε x και f 1

Εισαγωγή στη Θεωρία Αποφάσεων. Λήψη απλών αποφάσεων για έναν πράκτορα

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 2 : Πληροφορία και Εντροπία Διάλεξη: Κώστας Μαλιάτσος Χρήστος Ξενάκης, Κώστας Μαλιάτσος

Πράξεις με δυαδικούς αριθμούς

Δυναμικός Κατακερματισμός. Βάσεις Δεδομένων Ευαγγελία Πιτουρά 1

Δυναμικός Κατακερματισμός. Βάσεις Δεδομένων Ευαγγελία Πιτουρά 1

Υπολογιστικής Σκέψης

Αλγόριθμοι Αναζήτησης

Κατανεμημένα Συστήματα Ι

Όρια Αλγόριθμων Ταξινόμησης. Εισαγωγή στην Ανάλυση Αλγορίθμων Μάγια Σατρατζέμη

Ταξινόμηση κάδου και ταξινόμηση Ρίζας Bucket-Sort και Radix-Sort

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΑΝΑΛΥΣΗ ΑΛΓΟΡΙΘΜΩΝ

Πανεπιστήμιο Δυτικής Μακεδονίας. Τμήμα Μηχανικών Πληροφορικής & Τηλεπικοινωνιών. Διακριτά Μαθηματικά. Ενότητα 4: Εισαγωγή / Σύνολα

ΙΑ ΟΧΙΚΕΣ ΒΕΛΤΙΩΣΕΙΣ

των σχολικών μαθηματικών

Μη γράφετε στο πίσω μέρος της σελίδας

ΑΝΑΦΟΡΑ ΚΑΙΝΟΤΟΜΙΑΣ (STATE OF THE ART) ΤΟΥ ENTELIS ΕΚΔΟΣΗ EΥΚΟΛΗΣ ΑΝΑΓΝΩΣΗΣ

Διακριτά Μαθηματικά ΙΙ Χρήστος Νομικός Τμήμα Μηχανικών Η/Υ και Πληροφορικής Πανεπιστήμιο Ιωαννίνων 2018 Χρήστος Νομικός ( Τμήμα Μηχανικών Η/Υ Διακριτά

Ενότητα 2: Οι Θεµελιώδεις Αρχές των Ψηφιακών Εικόνων

Σχέσεις. ιδάσκοντες:. Φωτάκης,. Σούλιου Επιμέλεια διαφανειών:. Φωτάκης. Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών

1 Εισαγωγή στις Συνδυαστικές Δημοπρασίες - Combinatorial Auctions

Δυναμικός Κατακερματισμός. Βάσεις Δεδομένων Ευαγγελία Πιτουρά 1

Μέρος IV. Πολυδιάστατες τυχαίες μεταβλητές. Πιθανότητες & Στατιστική 2017 Τμήμα Μηχανικών Η/Υ & Πληροφορικής, Παν. Ιωαννίνων Δ15 ( 1 )

Αξιοποίηση της συσχέτισης μεταξύ λέξεων για τη βελτίωση του προσεγγιστικού φιλτραρίσματος πληροφορίας

ΕΥΡΕΣΗ ΕΛΑΧΙΣΤΩΝ ΜΟΝΟΠΑΤΙΩΝ & ΚΑΤΗΓΟΡΙΕΣ ΑΛΓΟΡΙΘΜΩΝ

Εισαγωγή στην Ανάλυση Αλγορίθμων

Διακριτά Μαθηματικά ΙΙ Χρήστος Νομικός Τμήμα Μηχανικών Η/Υ και Πληροφορικής Πανεπιστήμιο Ιωαννίνων 2018 Χρήστος Νομικός ( Τμήμα Μηχανικών Η/Υ Διακριτά

Διπλωματική Εργασία: «Συγκριτική Μελέτη Μηχανισμών Εκτίμησης Ελλιπούς Πληροφορίας σε Ασύρματα Δίκτυα Αισθητήρων»

Θεωρία Υπολογισμού και Πολυπλοκότητα Κανονικές Γλώσσες (1)

ΣΤΑΤΙΣΤΙΚΗ ΕΠΙΧΕΙΡΗΣΕΩΝ ΕΙΔΙΚΑ ΘΕΜΑΤΑ ΚΕΦΑΛΑΙΟ 9. Κατανομές Δειγματοληψίας

ΕΥΡΕΣΗ ΕΛΑΧΙΣΤΩΝ ΜΟΝΟΠΑΤΙΩΝ & ΚΑΤΗΓΟΡΙΕΣ ΑΛΓΟΡΙΘΜΩΝ

KEΦΑΛΑΙΟ 2 Θεωρία Χαρτοφυλακίου

ιαίρει-και-βασίλευε ημήτρης Φωτάκης Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών Εθνικό Μετσόβιο Πολυτεχνείο

Στατιστική Επιχειρήσεων Ι

Κοινωνικογνωστικές θεωρίες μάθησης. Διδάσκουσα Φ. Αντωνίου

Υλοποίηση Συστήματος Ανίχνευσης Εισβολών σε Περιβάλλον Android για Ασύρματα Δίκτυα Πρόσβασης

, και. είναι σταθερές (χρονικά αμετάβλητες), προκύπτει το χρονικά αμετάβλητο φίλτρο Kalman (Time Invariant Kalman Filter):

Αναγνώριση Προτύπων Ι

Π(n) : 1 + a + + a n = an+1 1 a 1. a 1. + a k+1 = ak+2 1

i=1 i=1 i=1 (x i 1, x i +1) (x 1 1, x k +1),

ΚΑΤΑΝΟΜΗ ΠΥΚΝΟΤΗΤΑΣ ΠΙΘΑΝΟΤΗΤΑΣ

ΑΛΛΑΓΗ ΣΤΗ ΔΙΔΑΣΚΑΛΙΑ ΤΩΝ ΜΑΘΗΜΑΤΙΚΏΝ:

ΑΣΥΜΠΤΩΤΙΚΗ ΑΝΑΛΥΣΗ & ΠΡΟΣΘΕΣΗ

Συντομότερες Διαδρομές

Υπολογιστικά & Διακριτά Μαθηματικά

Διάλεξη 17: Συμφωνία με Βυζαντινά Σφάλματα. ΕΠΛ 432: Κατανεμημένοι Αλγόριθμοι

Υπολογιστικό Πρόβληµα

Διαχείριση εγγράφων. Αποθήκες και Εξόρυξη Δεδομένων Διδάσκων: Μ. Χαλκίδη

Πανεπιστήμιο Κρήτης, Τμήμα Επιστήμης Υπολογιστών HY463 - Συστήματα Ανάκτησης Πληροφοριών Εαρινό Εξάμηνο. Φροντιστήριο 3.

Τεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

8. Πολλαπλές μερικές παράγωγοι

Κεφάλαιο 5. Το Συμπτωτικό Πολυώνυμο

Λήψη απόφασης σε πολυπρακτορικό περιβάλλον. Θεωρία Παιγνίων

Κατανεμημένα Συστήματα Ι

1 + nx. 2 +nx n 1 + x n

ΤΙΤΛΟΣ ΑΝΑΦΟΡΑΣ: ΕΦΑΡΜΟΓΗ ΚΑΙ ΑΠΟΤΕΛΕΣΜΑΤΑ ΣΕ ΕΠΙΛΕΓΜΕΝΕΣ ΠΕΡΙΤΠΩΣΕΙΣ

Αναδρομικές Σχέσεις «ιαίρει-και-βασίλευε»

Transcript:

Μηχανική Μάθηση

Μηχανική Μάθηση: γιατί; Απαραίτητη για να μπορεί ο πράκτορας να ανταπεξέρχεται σε άγνωστα περιβάλλοντα Δεν είναι δυνατόν ο σχεδιαστής να προβλέψει όλα τα ενδεχόμενα περιβάλλοντα. Χρήσιμη σαν μέθοδος κατασκευής του πράκτορα. Αντί να προγραμματίζουμε την πραγματικότητα ας εκθέσουμε τον πράκτορα στην πραγματικότητα. Τροποποιεί τη διαδικασία λήψης απόφασης του πράκτορα έτσι ώστε να βελτιώνεται η απόδοσή του.

Μηχανική μάθηση: τι είναι; Η μελέτη υπολογιστικών μεθόδων για την απόκτηση νέας γνώσης, νέων δεξιοτήτων και νέων τρόπων οργάνωσης της υπάρχουσας γνώσης (Carbonell, 1987). Ένα πρόγραμμα υπολογιστή θεωρείται ότι μαθαίνει από την εμπειρία Ε σε σχέση με μια κατηγορία εργασιών Τ και μια μετρική απόδοσης Ρ, αν η απόδοσή του σε εργασίες της Τ, όπως μετράται από την Ρ, βελτιώνεται με την εμπειρία Ε (Mitchell, 1997). Κάτι μαθαίνει όταν αλλάζει τη συμπεριφορά του κατά τέτοιο τρόπο ώστε να αποδίδει καλύτερα στο μέλλον (Witten & Frank, 2000). Μάθηση = απόκτηση νέας γνώσης κατά την αλληλεπίδραση με το περιβάλλον + αξιοποίηση της νέας γνώσης για την βελτίωση της συμπεριφοράς στο περιβάλλον.

Είδη μηχανικής μάθησης Μάθηση με επίβλεψη ή μάθηση με παραδείγματα ή επαγωγική μάθηση Το σύστημα μαθαίνει μια συνάρτηση από ένα σύνολο δεδομένων. Η συνάρτηση περιγράφει ένα μοντέλο στο οποίο εμπίπτουν τα δεδομένα. Κάποιος επιβλέπει το σύστημα και υποδεικνύει τη σωστή τιμή εξόδου της συνάρτησης για τα δεδομένα που εξετάζονται. Μάθηση χωρίς επίβλεψη Το σύστημα ανακαλύπτει μόνο του συσχετίσεις ή ομάδες σε ένα σύνολο δεδομένων και δημιουργεί πρότυπα, χωρίς να γνωρίζει εκ των προτέρων και χωρίς να του υποδεικνύει κάποιος αν υπάρχουν πρότυπα, πόσα είναι αυτά και ποιά είναι.

Επιβλεπόμενη ή επαγωγική μάθηση Το σύστημα μαθαίνει μια συνάρτηση f από παραδείγματά της. Η συνάρτηση λέγεται συνάρτηση στόχου. Ένα παράδειγμα είναι ένα ζεύγος (x, f(x)), όπου x είναι η είσοδος και f(x) η έξοδος της συνάρτησης. Π.χ. O O X X X, +1 Το πρόβλημα: βρές μια υπόθεση h που προσεγγίζει την f, δοθέντος ενός συνόλου παραδειγμάτων (σύνολο εκπαίδευσης). Μια υπόθεση είναι συνεπής με τα παραδείγματα αν συμφωνεί με την f σε όλα τα παραδείγματα. Αυτή είναι μια υπεραπλουστευτική εκδοχή της πραγματικής μάθησης o Αγνοεί προϋπάρχουσα γνώση o Υποθέτει ντετερμινιστικό, πλήρως παρατηρήσιμο περιβάλλον o Υποθέτει ότι υπάρχουν διαθέσιμα παραδείγματα o Υποθέτει ότι ο πράκτορας θέλει να μάθει την f

Βασικά προβλήματα στην επαγωγική μάθηση Το πρόβλημα της επαγωγής Πώς προσδιορίζουμε πότε μια υπόθεση είναι καλή; Μια καλή υπόθεση πρέπει να γενικεύεται σωστά, δηλαδή να προβλέπει ορθά παραδείγματα που δεν έχουν εξεταστεί. Πώς επιλέγουμε ανάμεσα σε πολλές, συνεπείς με τα παραδείγματα, υποθέσεις; Το ξυράφι του Ockham: προτιμήστε την απλούστερη υπόθεση που συμφωνεί με τα παραδείγματα. Πώς προσδιορίζουμε αν ένα πρόβλημα μάθησης είναι εφικτό; Πώς είμαστε σίγουροι ότι ο χώρος των υποθέσεων Η περιλαμβάνει την πραγματική συνάρτηση, αφού δεν γνωρίζουμε ποιά είναι η πραγματική συνάρτηση;

Αναπαράσταση συνόλου εκπαίδευσης Τα παραδείγματα περιγράφονται με βάση τα χαρακτηριστικά τους (Boolean, διακριτές, ή συνεχείς τιμές). Ταξινομούνται ως θετικά ή αρνητικά. Π.χ. Σύνολο εκπαίδευσης για τη μάθηση της συνάρτησης Wait: X {0,1}.

Αναπαράσταση υποθέσεων: Δέντρα απόφασης Το πραγματικό δέντρο απόφασης για τη συνάρτηση Wait: X {0,1}.

Εκφραστικότητα δέντρων απόφασης Τα δέντρα απόφασης μπορούν να αναπαραστήσουν οποιαδήποτε συνάρτηση των χαρακτηριστικών εισόδου. Π.χ. Για Boolean συναρτήσεις κάθε γραμμή του πίνακα αλήθειας αντιστοιχεί σε μια διαδρομή από τη ρίζα στα φύλλα του δέντρου απόφασης. Για οποιοδήποτε σύνολο εκπαίδευσης μπορούμε να κατασκευάσουμε δέντρο απόφασης με τόσα φύλλα όσα τα παραδείγματα και μια διαδρομή για κάθε φύλλο (εκτός αν η f δεν είναι ντετερμινιστική), αλλά αυτό πιθανότατα δεν θα γενικεύεται για νέα παραδείγματα. Προτιμούμε να βρούμε πιο συμπαγή δέντρα απόφασης.

Πόσο μεγάλος είναι ο χώρος υποθέσεων; Πόσα διακριτά δέντρα απόφασης υπάρχουν για n Boolean χαρακτηριστικά; = Πόσες διακριτές Boolean συναρτήσεις; =Πόσοι διακριτοί πίνακες αλήθειας με 2 n γραμμές ο καθένας; 2 2n Π.χ. Για 6 χαρακτηριστικά υπάρχουν 18,446,744,073,709,551,616 δέντρα απόφασης.

Μάθηση δέντρου απόφασης Στόχος: Να βρεθεί ένα μικρό δέντρο, συνεπέςμετοσύνολοεκπαίδευσης. Ιδέα: (Αναδρομικά) επιλέγεται το «πιο σημαντικό» χαρακτηριστικό σαν ρίζα του (υπο) δέντρου.

Επιλογή χαρακτηριστικού Ιδέα: ένα καλό χαρακτηριστικό διαχωρίζει το σύνολο εκπαίδευσης σε υποσύνολα που, στην ιδανική περίπτωση περιλαμβάνουν μόνο θετικά ή μόνο αρνητικά παραδείγματα. Π.χ. Το Patrons είναι καλύτερη επιλογή από το Type. Δίνει πληροφορία για την ταξινόμηση των παραδειγμάτων.

Πληροφορία (1) Πληροφορία = απάντηση σε ερώτηση. Η ποσότητα πληροφορίας που περιέχεται σε μια απάντηση εξαρτάται από την προηγούμενη γνώση που έχουμε. Όσο λιγότερα ξέρω για την απάντηση αρχικά, τόσο περισσότερη πληροφορία περιέχεται στην απάντηση. Η θεωρία της πληροφορίας μετρά το περιεχόμενο πληροφορίας σε bits. 1 bit είναι αρκετό για να απαντηθεί μια boolean ερώτηση με εκ των προτέρων πιθανότητα <0.5,0.5>. Γενικά, αν οι ενδεχόμενες n απαντήσεις σε μια ερώτηση έχουν εκ των προτέρων πιθανότητες P 1,...,Pn το περιεχόμενο πληροφορίας Ι της πραγματικής απάντησης είναι n ( P 1,...,P ) = P log Pi I n i 2 i= 1

Πληροφορία (2) Έστω ότι έχουμε p θετικά και n αρνητικά παραδείγματα στο σύνολο εκπαίδευσης. Η ερώτηση που μας ενδιαφέρει είναι «για ένα δεδομένο παράδειγμα, ποιά είναι η σωστή ταξινόμηση;» Μια εκτίμηση της ποσότητας πληροφορίας που περιέχεται σε μια σωστή απάντηση είναι I p n, p + n p + n = p log p + n 2 p p + n n log p + n 2 n p + n Στο παράδειγμα του εστιατορίου έχουμε p=n=6 οπότε χρειαζόμαστε 1 bit πληροφορίας. Κάθε χαρακτηριστικό A διαχωρίζει το σύνολο εκπαίδευσης Ε σε υποσύνολα E i, καθένα από τα οποία (ελπίζουμε) χρειάζεται λιγότερη πληροφορία για να ολοκληρωθεί η ταξινόμηση. Έστω ότι ένα E i έχει p i θετικά και n i αρνητικά παραδείγματα. Τότε για να ταξινομηθεί ένα νέο παράδειγμα, χρειάζονται p i ni I, bits pi + ni pi + ni

Πληροφορία (3) Ο αναμενόμενος αριθμός bits που απαιτούνται για να ταξινομηθεί ένα παράδειγμα, μετά τον έλεγχο του χαρακτηριστικού Α, σε όλα τα κλαδιά του δέντρου απόφασης είναι rem p + n i i i i ( A) = I, + i p n pi + ni pi + ni Οπότε το κέρδος πληροφορίας από τον έλεγχο ενός χαρακτηριστικού Α είναι η διαφορά μεταξύ της πληροφορίας που απαιτούνταν αρχικά και της πληροφορίας που απαιτείται μετά τον έλεγχο, δηλαδή IG p p + n ( A) = I, rem( A) p n p + n Καλύτερο χαρακτηριστικό είναι αυτό με το μεγαλύτερο κέρδος ( ή αλλιώς, αυτό με το μικρότερο υπόλοιπο). n

Το δέντρο απόφασης που προκύπτει Απλούστερο από το πραγματικό. Δεν υπάρχει λόγος για πιο πολύπλοκη υπόθεση με βάση το μικρό αριθμό παραδειγμάτων στο σύνολο εκπαίδευσης.

Αποτίμηση Πώς ξέρουμε ότι h f ; (το πρόβλημα της επαγωγής του Hume) Δοκιμάζουμε την h σε ένα καινούριο σύνολο παραδειγμάτων (σύνολο ελέγχου) με την ίδια κατανομή. Κάνουμε μάθηση-δοκιμή για διαφορετικού μεγέθους σύνολα εκπαίδευσης και ελέγχου και παρακολουθούμε την καμπύλη μάθησης. Καμπύλη μάθησης = % ορθότητας στο σύνολο ελέγχου ως συνάρτηση του μεγέθους του συνόλου εκπαίδευσης.