Υπολογιστική Νοημοσύνη. Μάθημα 9: Γενίκευση

Σχετικά έγγραφα
ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Υπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning

Εισαγωγή στους Νευρώνες. Κυριακίδης Ιωάννης 2013

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

LOGO. Εξόρυξη Δεδομένων. Δειγματοληψία. Πίνακες συνάφειας. Καμπύλες ROC και AUC. Σύγκριση Μεθόδων Εξόρυξης

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Ρεφανίδης Γιάννης. Οκτώβριος

f x g x f x g x, x του πεδίου ορισμού της; Μονάδες 4 είναι οι παρατηρήσεις μιας ποσοτικής μεταβλητής Χ ενός δείγματος μεγέθους ν και w

(f(x)+g(x)) =f (x)+g (x), x R

Α.Τ.Ε.Ι ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΠΟΛΥΜΕΣΩΝ ΕΡΓΑΣΤΗΡΙΟ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ. Σχήμα 1 Η λειτουργία του νευρώνα

Υπολογιστική Νοημοσύνη. Μάθημα 13: Αναδρομικά Δίκτυα - Recurrent Networks

Αριθμητικές Μέθοδοι σε Προγραμματιστικό Περιβάλλον

ΠΑΝΕΠΙΣΤΗΜΙΟ ΠΕΙΡΑΙΩΣ ΤΜΗΜΑ ΣΤΑΤΙΣΤΙΚΗΣ ΚΑΙ ΑΣΦΑΛΙΣΤΙΚΗΣ ΕΠΙΣΤΗΜΗΣ Εξετάσεις στο μάθημα ΠΙΘΑΝΟΤΗΤΕΣ Ι

Υπερπροσαρμογή (Overfitting) (1)

ΠΕΙΡΑΜΑΤΙΚΕΣ ΠΡΟΣΟΜΟΙΩΣΕΙΣ ΚΕΦΑΛΑΙΟ 4. είναι η πραγματική απόκριση του j δεδομένου (εκπαίδευσης ή ελέγχου) και y ˆ j

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 2ο Φροντιστήριο

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

ΚΕΦΑΛΑΙΟ 5. Matlab GUI για FWSVM και Global SVM

ΕΦΑΡΜΟΣΜΕΝΗ ΣΤΑΤΙΣΤΙΚΗ Ι Συμπληρωματικές Σημειώσεις Δημήτριος Παντελής

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

ΑΡΧΗ 1ΗΣ ΣΕΛΙΔΑΣ Γ ΗΜΕΡΗΣΙΩΝ

ΑΡΧΗ 1ΗΣ ΣΕΛΙΔΑΣ Γ ΗΜΕΡΗΣΙΩΝ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕΔΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

Υπολογιστική Νοημοσύνη. Μάθημα 10: Ομαδοποίηση με Ανταγωνιστική Μάθηση - Δίκτυα Kohonen

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

Υπολογιστική Νοημοσύνη. Μάθημα 12: Παραδείγματα Ασκήσεων 2

ΜΑΘΗΜΑΤΙΚΑ & ΣΤΟΙΧΕΙΑ ΣΤΑΤΙΣΤΙΚΗΣ ΓΕΝΙΚΗΣ ΠΑΙ ΕΙΑΣ 2015 ΕΚΦΩΝΗΣΕΙΣ

Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος

ΕΡΩΤΗΜΑΤΑ σε ΝΕΥΡΩΝΙΚΑ

Αναγνώριση Προτύπων Ι

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. 16η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Βασικές Έννοιες Στατιστικής & Μέθοδοι Πρόβλεψης

1.2 Απλός Κινητός Μέσος (Simple -equally-weighted- Moving Average)

ΑΡΧΗ 1ΗΣ ΣΕΛΙΔΑΣ Γ ΗΜΕΡΗΣΙΩΝ

Κατηγοριοποίηση βάσει διανύσματος χαρακτηριστικών

ΑΡΧΗ 1ΗΣ ΣΕΛΙΔΑΣ Γ ΗΜΕΡΗΣΙΩΝ

Μέθοδοι Μηχανικής Μάθησης στην επεξεργασία Τηλεπισκοπικών Δεδομένων. Δρ. Ε. Χάρου

Π Α Ν Ε Λ Λ Η Ν Ι Ε Σ Μ Α Θ Η Μ Α Τ Ι Κ Α K A I Σ Τ Ο Ι Χ Ε Ι Α Σ Τ Α Τ Ι Σ Τ Ι Κ Η

ΠΙΘΑΝΟΤΗΤΕΣ -ΤΥΧΑΙΕΣ ΜΕΤΑΒΛΗΤΕΣ(τελικές εξετάσεις πλη12)

Σκοπός μας είναι να εκπαιδεύσουμε το ΝΝ ώστε να πάρει από τα δεδομένα μόνο την «σοφία» που υπάρχει μέσα τους. Αυτή είναι η έννοια της γενίκευσης.

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #8: Βελτιστοποίηση Συστημάτων Ασαφούς Λογικής. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

Έλεγχος Υποθέσεων. Δρ. Αθανάσιος Δαγούμας, Επ. Καθηγητής Οικονομικής της Ενέργειας & των Φυσικών Πόρων, Πανεπιστήμιο Πειραιώς

Το μοντέλο Perceptron

Δέντρα Απόφασης (Decision(

Stochastic Signals Class Estimation Theory. Andreas Polydoros University of Athens Dept. of Physics Electronics Laboratory

Υλοποίηση Συστήματος Ανίχνευσης Εισβολών σε Περιβάλλον Android για Ασύρματα Δίκτυα Πρόσβασης

Στατιστική Επιχειρήσεων Ι

pdf: X U(a, b) 0, x < a 1 b a, a x b 0, x > b

ΟΙΚΟΝΟΜΕΤΡΙΑ. Β μέρος: Ετεροσκεδαστικότητα. Παπάνα Αγγελική

Εφαρμοσμένη Στατιστική Δημήτριος Μπάγκαβος Τμήμα Μαθηματικών και Εφαρμοσμένων Μαθηματικών Πανεπισ τήμιο Κρήτης 2 Μαΐου /23

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΜΑΘΗΜΑΤΙΚΑ ΚΑΙ ΣΤΟΙΧΕΙΑ ΣΤΑΤΙΣΤΙΚΗΣ Γ' ΛΥΚΕΙΟΥ ΓΕΝΙΚΗΣ ΠΑΙ ΕΙΑΣ 2006 ΕΚΦΩΝΗΣΕΙΣ

Backpropagation Multilayer Feedforward Δίκτυα. Κυριακίδης Ιωάννης 2013

Συστήματα Αυτομάτου Ελέγχου ΙΙ Ασκήσεις Πράξης

ΚΑΤΗΓΟΡΙΕΣ ΤΑΞΙΝΟΜΗΣΗΣ

HMY 799 1: Αναγνώριση Συστημάτων

ΚΕΦΑΛΑΙΟ 3ο ΤΥΧΑΙΟΙ ΑΡΙΘΜΟΙ ΕΛΕΓΧΟΣ ΤΥΧΑΙΟΤΗΤΑΣ

Απλή Γραμμική Παλινδρόμηση και Συσχέτιση 19/5/2017

ΠΕΡΙΕΧΟΜΕΝΑ ΠΡΟΛΟΓΟΣ 7. ΚΕΦΑΛΑΙΟ 1: Εισαγωγικές Έννοιες 13

HMY 795: Αναγνώριση Προτύπων

Εισαγωγή στα Τεχνητά Νευρωνικά Δίκτυα. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Κεφ. Ιο ΒΑΣΙΚΕΣ ΕΝΝΟΙΕΣ ΘΕΩΡΙΑΣ ΠΙΘΑΝΟΤΗΤΩΝ

Κατανεμημένα Συστήματα Ι

4.4 Βάσεις Δεδομένων με πολλές Μεταβλητές

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

ΣΤΑΤΙΣΤΙΚΗ ΕΠΙΧΕΙΡΗΣΕΩΝ

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Λύσεις θεμάτων επαναληπτικών πανελληνίων εξετάσεων 2014 Στο μάθημα: «Μαθηματικά και Στοιχεία Στατιστικής» Γενικής Παιδείας ΗΜΕΡΗΣΙΑ ΓΕ.Λ.

Εφαρμοσμένη Κρυπτογραφία Ι

Μέθοδοι μονοδιάστατης ελαχιστοποίησης

Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Εισόδημα Κατανάλωση

Σ ΤΑΤ Ι Σ Τ Ι Κ Η. Statisticum collegium iv

Χ. Εμμανουηλίδης, 1

Διαστήματα εμπιστοσύνης. Δρ. Αθανάσιος Δαγούμας, Επ. Καθηγητής Οικονομικής της Ενέργειας & των Φυσικών Πόρων, Πανεπιστήμιο Πειραιώς

ΚΕΦΑΛΑΙΟ 6 ΕΛΑΧΙΣΤΑ ΤΕΤΡΑΓΩΝΑ

Μάιος 02. Αναγνωστόπουλος - Παν. Αθηνών 1

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται σε άλλου τύ

Τεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

iii ΠΕΡΙΕΧΟΜΕΝΑ Πρόλογος

Τεχνητά Νευρωνικά Δίκτυα. Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης

Διαδικασία Ελέγχου Μηδενικών Υποθέσεων

Συστήματα Αυτόματου Ελέγχου

Στατιστική Επιχειρήσεων ΙΙ

Νευρωνικά ίκτυα και Εξελικτικός. Σηµερινό Μάθηµα. επανάληψη Γενετικών Αλγορίθµων 1 η εργασία Επανάληψη νευρωνικών δικτύων Ασκήσεις εφαρµογές

ΠΟΛΥΩΝΥΜΑ. Λυμένα Παραδείγματα

ΑΠΑΝΤΗΣΕΙΣ. Επιμέλεια: Ομάδα Μαθηματικών της Ώθησης

ΑΝΑΓΝΩΡΙΣΗ ΠΡΟΤΥΠΩΝ. ΕΝΟΤΗΤΑ: Γραμμικές Συναρτήσεις Διάκρισης. ΔΙΔΑΣΚΟΝΤΕΣ: Βλάμος Π. Αυλωνίτης Μ. ΙΟΝΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

ΣΧΟΛΗ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ ΤΜΗΜΑ ΟΡΓΑΝΩΣΗΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ ΔΙΔΑΣΚΩΝ: ΘΑΝΑΣΗΣ ΚΑΖΑΝΑΣ. Οικονομετρία

Τεχνικές Προβλέψεων. Προβλέψεις

Transcript:

Υπολογιστική Νοημοσύνη Μάθημα 9: Γενίκευση

Υπερπροσαρμογή (Overfitting) Ένα από τα βασικά προβλήματα που μπορεί να εμφανιστεί κατά την εκπαίδευση νευρωνικών δικτύων είναι αυτό της υπερβολικής εκπαίδευσης. Το συνολικό σφάλμα για τα παραδείγματα εκπαίδευσης γίνεται πάρα πολύ μικρό, αλλά γίνεται υπερβολικά μεγάλο σε άλλα παραδείγματα. Λέμε τότε ότι το νευρωνικό δίκτυο δεν γενικεύει (generalizes) καλά. Αντίστοιχο παράδειγμα έχουμε κατά την προσέγγιση δεδομένων με πολυώνυμα ελαχίστων τετραγώνων (βλέπε παράδειγμα επόμενης διαφάνειας). 2

Παράδειγμα 3

Μέγεθος νευρωνικού δικτύου Το πρόβλημα της υπερ-εκπαίδευσης παρουσιάζεται σε νευρωνικά δίκτυα με πολύ μεγάλο αριθμό νευρώνων στο κρυφό επίπεδο, σε σχέση πάντα με το πλήθος των παραδειγμάτων. Από την άλλη, μικρός αριθμός νευρώνων οδηγεί σε αδυναμία μάθησης. Η επιλογή του βέλτιστου αριθμού νευρώνων στο κρυφό επίπεδο απαιτεί συνήθως πειραματισμό. Ένας εμπειρικός κανόνας προτείνει: όπου: W είναι ο αριθμός των βαρών N > ε είναι η επιθυμητή % τελική τιμή σφάλματος (π.χ. 10% λάθος κατηγοριοποίηση σε νέα δεδομένα). N είναι ο αριθμός των παραδειγμάτων εκπαίδευσης που, για το δεδομένο δίκτυο, απαιτούνται για να επιτευχθεί τιμή σφάλματος σε νέα παραδείγματα ίση με ε. W ε 4

Τροποποίηση της συνάρτησης σφάλματος Τροποποιούμε τη συνάρτηση σφάλματος ως εξής: MSEREG 1 = γ Ν Ν 2 1 ( αi οi ) + (1 γ ) i= 1 Ν Ν i= 1 w 2 j όπου γ είναι ο συντελεστής σφάλματος (π.χ. γ=0.5). Η παραπάνω συνάρτηση σφάλματος ευνοεί τους μικρούς συντελεστές βαρύτητας. Δυσκολία στον καθορισμό του συντελεστή γ. Η συνάρτηση σφάλματος MSEREG μπορεί να χρησιμοποιηθεί με όλες τις μεθόδους εκπαίδευσης που έχουν παρουσιαστεί. (MATLAB) net.trainparam.ratio = 0.5 5

Παράδειγμα (1/5) Το σχήμα δείχνει 24 σημεία γύρω από τη συνάρτηση του ημιτόνου (με διακεκομμένη γραμμή είναι η πραγματική συνάρτηση). 6

Παράδειγμα (2/5) Δίκτυο με 20 LOGSIG - 1 PURELIN, εκπαίδευση με τη μέθοδο TRAINSCG, σφάλμα MSE, για 1000 εποχές. 7

Παράδειγμα (3/5) Δίκτυο με 20 LOGSIG - 1 PURELIN, εκπαίδευση με τη μέθοδο TRAINSCG, σφάλμα MSEREG, για 1000 εποχές. 8

Αυτόματη ομαλοποίηση (Automated regularization) Η μέθοδος εκπαίδευσης της αυτόματης ομαλοποίησης είναι παραλλαγή της μεθόδου TRAINLM, με στόχο την ομαλοποίηση των αποτελεσμάτων. Βασίζεται σε στατιστικές μεθόδους. Μετρά πόσες παράμετροι του δικτύου (βάρη) χρειάζονται πραγματικά. Υλοποιείται στο Matlab με τη μέθοδο TRAINBR. 9

Παράδειγμα (4/5) Δίκτυο με 20 LOGSIG-1 PURELIN, εκπαίδευση με τη μέθοδο TRAINBR, για 1000 εποχές. 10

Πρόωρη διακοπή (1/2) (Early Stopping) Τα διαθέσιμα δεδομένα διαιρούνται σε τρεις ομάδες: Τα δεδομένα εκπαίδευσης (training data) Τα δεδομένα επαλήθευσης (validation data) Τα δεδομένα ελέγχου (test data) - προαιρετικά Ένας συνήθης ποσοστιαίος διαχωρισμός είναι 50-25-25. Η εκπαίδευση γίνεται μόνο με τα δεδομένα εκπαίδευσης. Κατά την εκπαίδευση παρακολουθείται και το σφάλμα στα δεδομένα επαλήθευσης. Εάν κατά την εκπαίδευση συμβεί το σφάλμα στα δεδομένα επαλήθευσης να αυξηθεί για συγκεκριμένο αριθμό συνεχόμενων εποχών, η εκπαίδευση διακόπτεται και επιστρέφονται οι παράμετροι που αντιστοιχούσαν στο μικρότερο σφάλμα των δεδομένων επαλήθευσης. 11

Πρόωρη διακοπή (2/2) (Early Stopping) Τα δεδομένα ελέγχου χρησιμοποιούνται για να ελέγχουν την ισοκατανομή των δεδομένων επαλήθευσης. Εάν τα δεδομένα ελέγχου παρουσιάσουν ελάχιστο σφάλμα σε αρκετά διαφορετικό σημείο της εκπαίδευσης σε σχέση με τα δεδομένα επαλήθευσης, πραγματοποιείται νέος χωρισμός των δεδομένων σε κατηγορίες. Η τεχνική πρόωρης διακοπής δεν έχει ως αποτέλεσμα την κατασκευή καλύτερου νευρωνικού δικτύου, αλλά την ανίχνευση προβλημάτων γενίκευσης κατά την εκπαίδευση με οποιαδήποτε μέθοδο, άρα μπορεί να αποτελέσει ένδειξη για την επιλογή μιας άλλης μεθόδου (π.χ. της TRAINBR). 12

Παράδειγμα (5/5) Δίκτυο με 20 LOGSIG - 1 PURELIN, εκπαίδευση με τη μέθοδο TRAINSCG, σφάλμα MSE, χρήση δεδομένων επαλήθευσης ομοιόμορφα κατανεμημένων ανάμεσα στα δεδομένα εκπαίδευσης, για 35 εποχές (μετά σταμάτησε...). 13

K-πλή Διασταυρωμένη επικύρωση (K-fold cross validation) Χωρίζουμε τυχαία τα δεδομένα σε Κ ίσα υποσύνολα (συνήθως Κ=10) Κάνουμε εκπαίδευση με τα Κ-1 υποσύνολα και το τελευταίο χρησιμοποιείται για επαλήθευση. Η διαδικασία επαναλαμβάνεται Κ φόρες, κάθε φορά και με διαφορετικό σύνολο επαλήθευσης. Τα Κ εκπαιδευμένα δίκτυα χρησιμοποιούνται για την τελική πρόβλεψη (π.χ. πλειοψηφία ή μέσος όρος). 14