Βελτιστοποίηση Συστημάτων & Υδροπληροφορική Νευρωνικά Δίκτυα Χρήστος Μακρόπουλος Τομέας Υδατικών Πόρων και Περιβάλλοντος Εθνικό Μετσόβιο Πολυτεχνείο

Σχετικά έγγραφα
Βελτιστοποίηση Συστημάτων & Υδροπληροφορική Νευρωνικά Δίκτυα Χρήστος Μακρόπουλος Τομέας Υδατικών Πόρων και Περιβάλλοντος Εθνικό Μετσόβιο Πολυτεχνείο

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Το μοντέλο Perceptron

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο

Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Α.Τ.ΕΙ ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΠΟΛΥΜΕΣΩΝ. ΕΡΓΑΣΤΗΡΙΟ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ

Τεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητά Νευρωνικά Δίκτυα. Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΚΑΤΗΓΟΡΙΕΣ ΤΑΞΙΝΟΜΗΣΗΣ

4.3. Γραµµικοί ταξινοµητές

Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #12: Εισαγωγή στα Nευρωνικά Δίκτυα. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

Πληροφοριακά Συστήματα Διοίκησης

Ασκήσεις μελέτης της 19 ης διάλεξης

ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΜΑΘΗΣΗ ΔΙΚΤΥA LVQ και SOM. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΧΑΡΟΚΟΠΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΜΑΤΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ. Καραγιώργου Σοφία

Πληροφοριακά Συστήματα & Περιβάλλον

Τεχνητή Νοημοσύνη. TMHMA ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΕΧΝΟΛΟΓΙΑΣ ΥΠΟΛΟΓΙΣΤΩΝ. Εξάμηνο 5ο Οικονόμου Παναγιώτης & Ελπινίκη Παπαγεωργίου. Νευρωνικά Δίκτυα.

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)

Απλή Γραμμική Παλινδρόμηση και Συσχέτιση 19/5/2017

Υπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning

Ενδεικτική πολυ-εργασία 1 - εφαρμογή στην υπολογιστική όραση

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #8: Βελτιστοποίηση Συστημάτων Ασαφούς Λογικής. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΠΜΣΕ ΣΤΗΝ ΕΦΑΡΜΟΣΜΕΝΗ ΠΛΗΡΟΦΟΡΙΚΗ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΚΑΙ ΕΞΕΛΙΚΤΙΚΟΙ ΑΛΓΟΡΙΘΜΟΙ

MATLAB. Εισαγωγή στο SIMULINK. Μονάδα Αυτόματης Ρύθμισης και Πληροφορικής

Αναγνώριση Προτύπων Ι

Μέθοδοι μονοδιάστατης ελαχιστοποίησης

Εισόδημα Κατανάλωση

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΔΙΑΧΕΙΡΙΣΗ ΥΔΑΤΙΚΩΝ ΠΟΡΩΝ

Αριθμητική Ανάλυση & Εφαρμογές

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

Μέθοδοι μονοδιάστατης ελαχιστοποίησης

Υπολογιστική Νοημοσύνη. Μάθημα 12: Παραδείγματα Ασκήσεων 2

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

Βασίλειος Μαχαιράς Πολιτικός Μηχανικός Ph.D.

Παραδείγματα (1 ο σετ) Διανυσματικοί Χώροι

Περιληπτικά, τα βήματα που ακολουθούμε γενικά είναι τα εξής:

1.2 Εξισώσεις 1 ου Βαθμού

ΕΦΑΡΜΟΣΜΕΝΗ ΣΤΑΤΙΣΤΙΚΗ Ι Συμπληρωματικές Σημειώσεις Δημήτριος Παντελής

Μοντέλα Παλινδρόμησης. Άγγελος Μάρκος, Λέκτορας ΠΤ Ε, ΠΘ

Πληροφορική 2. Τεχνητή νοημοσύνη

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Λύσεις θεμάτων εξεταστικής περιόδου Ιανουαρίου Φεβρουαρίου 2015

Εισαγωγή στα Τεχνητά Νευρωνικά Δίκτυα. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΚΕΦΑΛΑΙΟ 10 ΥΠΟΠΡΟΓΡΑΜΜΑΤΑ

Μαθηματικά. Ενότητα 3: Εξισώσεις και Ανισώσεις 1 ου βαθμού. Σαριαννίδης Νικόλαος Τμήμα Λογιστικής και Χρηματοοικονομικής

Σειρά: Επεξεργασία Δεδομένων Εκδοση/Ημ.νία: #3.1/ Συγγραφέας: Μίχος Θεόδωρος, Φυσικός

ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Λ. Ζαχείλας. Επίκουρος Καθηγητής Εφαρμοσμένων Μαθηματικών Τμήμα Οικονομικών Επιστημών Πανεπιστήμιο Θεσσαλίας. Οικονομική Δυναμική 29/6/14

FORTRAN και Αντικειμενοστραφής Προγραμματισμός

ΕΛΕΓΧΟΣ ΠΑΡΑΓΩΓΙΚΩΝ ΔΙΕΡΓΑΣΙΩΝ

Ιωάννα Ανυφαντή, Μηχανικός Περιβάλλοντος Επιβλέπων: Α. Ευστρατιάδης, ΕΔΙΠ ΕΜΠ. Αθήνα, Ιούλιος 2018

Ανάπτυξη και δηµιουργία µοντέλων προσοµοίωσης ροής και µεταφοράς µάζας υπογείων υδάτων σε καρστικούς υδροφορείς µε χρήση θεωρίας νευρωνικών δικτύων

Μέθοδοι Μηχανικής Μάθησης στην επεξεργασία Τηλεπισκοπικών Δεδομένων. Δρ. Ε. Χάρου

Κινητά Δίκτυα Επικοινωνιών. Συμπληρωματικό υλικό. Προσαρμοστική Ισοστάθμιση Καναλιού

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

Στη C++ υπάρχουν τρεις τύποι βρόχων: (a) while, (b) do while, και (c) for. Ακολουθεί η σύνταξη για κάθε μια:

94 Η χρήση των νευρωνικών µοντέλων για την κατανόηση της δοµής και λειτουργίας τού εγκεφάλου. = l b. K + + I b. K - = α n

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

11 ΣΥΝΗΘΕΙΣ ΔΙΑΦΟΡΙΚΕΣ ΕΞΙΣΩΣΕΙΣ

ΤΟΠΟΓΡΑΦΙΚΑ ΔΙΚΤΥΑ ΚΑΙ ΥΠΟΛΟΓΙΣΜΟΙ ΑΝΑΣΚΟΠΗΣΗ ΘΕΩΡΙΑΣ ΣΥΝΟΡΘΩΣΕΩΝ

Αριθμητική Ανάλυση και Εφαρμογές

Κάθε φορά, που νιώθουμε τρελή λαχτάρα να μιλήσουμε για ευθείες, φανταζόμαστε εξισώσεις της παρακάτω μορφής : y = αx + β

3.7 Παραδείγματα Μεθόδου Simplex

QR είναι ˆx τότε x ˆx. 10 ρ. Ποιά είναι η τιµή του ρ και γιατί (σύντοµη εξήγηση). P = [X. 0, X,..., X. (n 1), X. n] a(n + 1 : 1 : 1)

ΒΑΣΙΚΕΣ ΕΝΝΟΙΕΣ ΚΑΙ ΜΑΘΗΜΑΤΙΚΗ ΔΙΑΤΥΠΩΣΗ, Διαλ. 2. Ανωτάτη Σχολή Παιδαγωγικής και Τεχνολογικής Εκπαίδευσης 8/4/2017

6. Στατιστικές μέθοδοι εκπαίδευσης

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

ΔΙΟΙΚΗΣΗ ΠΑΡΑΓΩΓΗΣ. ΕΝΟΤΗΤΑ 4η ΠΡΟΒΛΕΨΗ ΖΗΤΗΣΗΣ

ΓΡΑΜΜΙΚΗ ΑΛΓΕΒΡΑ (ΗΥ-119)

Μαθηματική Εισαγωγή Συναρτήσεις

Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται σε άλλου τύ

Πανεπιστήμιο Ιωαννίνων ΟΙΚΟΝΟΜΙΚΑ ΤΟΥ ΠΕΡΙΒΑΛΛΟΝΤΟΣ Διδάσκων:

Παραδείγματα (2) Διανυσματικοί Χώροι

Μέρος V. Ανάλυση Παλινδρόμηση (Regression Analysis)

Μαθηματική Εισαγωγή Συναρτήσεις

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

Μέθοδοι πολυδιάστατης ελαχιστοποίησης

Παραδείγματα Απαλοιφή Gauss Απαλοιφή Gauss-Jordan Παραγοντοποίηση LU, LDU

Θέματα Εξετάσεων Σεπτεμβρίου 2010:

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Κεφάλαιο 4: Επιλογή σημείου παραγωγής

Κεφάλαιο 5. Το Συμπτωτικό Πολυώνυμο

Εθνικό Μετσόβιο Πολυτεχνείο Τομέας Υδατικών Πόρων και Περιβάλλοντος. Τεχνολογία Συστημάτων Υδατικών Πόρων

Συνέλιξη Κρουστική απόκριση

Εισαγωγή στην υδροπληροφορική και βελτιστοποίηση συστημάτων υδατικών πόρων

Ένα αναλογικό σήμα περιέχει άπειρες πιθανές τιμές. Για παράδειγμα ένας απλός ήχος αν τον βλέπαμε σε ένα παλμογράφο θα έμοιαζε με το παρακάτω:

ΦΥΣΙΚΗ ΓΕΝΙΚΗΣ ΠΑΙΔΕΙΑΣ Α ΛΥΚΕΙΟΥ

Transcript:

Βελτιστοποίηση Συστημάτων & Υδροπληροφορική Νευρωνικά Δίκτυα Χρήστος Μακρόπουλος Τομέας Υδατικών Πόρων και Περιβάλλοντος Εθνικό Μετσόβιο Πολυτεχνείο

Νευρωνικά Δίκτυα Βασίζονται στη χρήση μιας προσέγγισης μάλλον απλοϊκής του τρόπου λειτουργίας του νευρικού συστήματος μέσω μαθηματικών συναρτήσεων. Πρώτη αναφορά: W.S. McCulloh & W. Ps, A logcal calculus of deas mmanen n Nervous acv, Bull. Mahemacal Bophscs, Vol. 5, 943, pp.5-33.

Μια από τις πρώτες πετυχημένες απόπειρες machne learnng Βασίζεται στην εξής απλή και μάλλον αισθητικής φύσης υπόθεση εργασίας: Γεγονός: οι άνθρωποι μαθαίνουν χρησιμοποιώντας τους νευρώνες τους εγκέφαλος Στόχος: θέλουμε να κάνουμε τους υπολογιστές να μαθαίνουν Άρα: φτιάχνω ένα σύστημα που μοιάζει με νευρώνες και ελπίζω οτι θα συμπεριφέρεται με τον ίδιο τρόπο...

Το βιολογικό πρότυπο Δενδρίτες & Συνάψεις: προσοχή όπως και στους γενετικούς εργαζόμαστε σε αρκετά αφαιρετικό επίπεδο σε σχέση με την αρχική βιολογική ιδέα

Το απλοποιημένο βιολογικό πρότυπο άξονας δενδρίτες συνάψεις Τα σήματα ταξιδεύουν μέσω του νευρώνα και προκαλούν την έκκριση νευροδιαβιβαστικών ουσιών στις συνάψεις. Οι νευρο-διαβιβαστικές ουσίες προκαλούν αντιδράσεις στους δενδρίτες των νευρώνων που βρίσκονται μετά τις συνάψεις. Οι αντιδράσεις αυτές προκαλούν σήματα στους νευρώνες μετά τις συνάψεις. Το μέγεθος/ένταση του σήματος εξαρτάται από τη δύναμη του συνδέσμου της σύναψης.

Τεχνητός Νευρώνας ή αντιληπτήρας Μοντέλο McCullogh-Ps Είσοδοι 3 3... Συνάρτηση Μεταφοράς f, Έξοδος n- n- n n Μεταφράζει μια σειρά εισόδων σε μια έξοδο με τη βοήθεια: βαρών και μιας συνάρτησης «μεταφοράς» ή αλλιώς «ενεργοποίησης»

Παράδειγμα συνάρτησης μεταφοράς: Έξοδος: Sep Funcon Εδώ με θ = 0 Το θ ονομάζεται κατώφλι ενεργοποίησης Είσοδος:

Ενεργοποίηση του νευρώνα Συνεχίζοντας με την βιολογική αναλογία, ο νευρώνας ενεργοποιείται μόνο όταν το «σήμα» είναι αρκετα «δυνατό». Αυτό προκύπτει: Είτε από τη μορφή της συνάρτησης ενεργοποίησης πχ. sep funcon hreshold Είτε μετά από σύγκριση με μια «συνθήκη ενεργοποίησης»

Στην ουσία τι κάνει ένας αντιληπτήρας με αυτή τη απλή συνάρτηση μεταφοράς; Μπορεί να πεί Ναι/Οχι ή αλλιώς Ανήκει/Δεν Ανήκει. Αρα μπορεί να «αποφασίσει» αν ένα δείγμα με κάποια χαρακτηριστικά ανήκει σε ένα σύνολο ή όχι χωρίζοντας το δείγμα σε δυο μέρη. Πως ξέρει ποιό δείγμα ανήκει σε ποιό μέρος; του δεινουμε εμείς ένα σετ σωστών απαντήσεων και προσαρμόζουμε τα βάρη έτσι ώστε να απαντά σωστά.

Ένα παράδειγμα πιο κοντά στα δικά μας: πχ σύστημα έγκαιρης προειδοποίησης πλημμυρών 5 X W = 4 + X W = + Κατώφλι θ=4 f HL O Να στείλω SMS για έγκαιρη προειδοποίηση από πλημμύρα ή οχι; Η σημασία της παραμέτρου Χ στο πρόβλημα είναι μεγαλύτερη βλ. Flood forecasng: : βροχή, : παροχή, στο προηγούμενο βήμα

Πώς όμως υπολογίζουμε τα βάρη: Εκπαίδευση Διαδικασία η οποία με δεδομένα «σωστά» σύνολα εισόδων-εξόδων, τροποποιεί τις μεταβλητές του ΝΔ πχ τα βάρη για να αναγκάσει το ΝΔ να δώσει τη «σωστή» απάντηση εξόδου. Στην ουσία: ένα πρόβλημα βαθμονόμησης σε ένα «γενικό» μοντέλο. Τύποι εκπαίδευσης: Αυτόνομη, Μη Αυτόνομη, Επιβεβλημένη, Ανταγωνιστική, Κανόνας Δέλτα LMS, Hll-Clmbng

Εποπτευόμενη Εκπαίδευση supervsed ranng Κατά την εποπτευόμενη εκπαίδευση η απόκριση του ΝΔ σε ένα σύνολο εισόδου συγκρίνεται με την επιθυμητή απόκριση. Αν αυτές διαφέρουν τότε το ΝΔ υπολογίζει ένα σφάλμα. Το σφάλμα χρησιμοποιείται ώστε να γίνουν οι απαραίτητες τροποποιήσεις των συντελεστών βάρους, ώστε η απόκριση να πλησιάσει την επιθυμητή και το σφάλμα να προσεγγίσει ή δυνατόν το μηδέν. Η τροποποίηση γίνεται με κάποιο βήμα βλ. κάναβο δεξιά που ονομάζεται learnng rae Οι χρησιμοποιούμενες μέθοδοι για την ελαχιστοποίηση του σφάλματος είναι οι ίδιες που εφαρμόζονται σε διάφορες τεχνικές ελαχιστοποιήσεως

Μη εποπτευόμενη εκπαίδευση unsupervsed ranng Δεν δίνουμε «σωστές» τιμές εξόδου και το ΑΝΝ πρέπει να αποφασίσει μόνο του τί είναι σωστό: στην ουσία να βρεί κρυμμένες δομές. Self-organzaon: selforganzng map SOM, Kohonen neorks/maps

Περιγραφή του προβλήματος Δεδομένα: Σύνολα τιμών είσοδοι, έξοδος:,, Για παράδειγμα ως: =g + z ; Όπου z τυχαίος θόρυβος Πρόβλημα: Yπολογίστε τα βάρη [,, k] με τα οποία ελαχιστοποιείται το σφάλμα. Με άλλα λόγια: υπολογίστε ένα ΝΔ δηλ. ένα F, το οποίο προσομοιώνει την άγνωστη συνάρτηση g για κάθε.

Πρόκειται για περίπτωση βελτιστοποίησης ελαχιστοποίησης με μέγιστη κλιση seepes descend

Με άλλα λόγια: Αν ακολουθήσουμε την αρνητική κλίση, κατεβαίνουμε πιο γρήγορα και άρα για κάθε: Έχουμε πάντα:

Seepes descen για ένα νευρώνα Νευρώνας: T ou Δεδομένα:,,...,,,, N N Σφάλμα: T ou E Μάθηση: ελαχιστοποίηση με σταδιακή με κάποιο βήμα μεταβολή βαρών κατα τη μέγιστη κλίση της επιφάνειας απόκρισης: T T c c E c Inpus Weghs Oupu Bas p 3 p p f a 3 b p f b p p p f a 3 3

απλή εκπαίδευση ΝΔ Learnng Threshold Rae Sensor values Desred Oupu Weghs Response of NN TH LR X X Z C C S N X X C+C IFS>TH,,0 0,50 0,0 0,00 0,00 0,00 0,0 0,30 0,00 0,00 0,00 0,00 0,50 0,0 0,00,00,00 0,0 0,30 0,00 0,30 0,30 0,00 0,50 0,0,00 0,00,00 0,30 0,50 0,30 0,00 0,30 0,00 0,50 0,0,00,00,00 0,50 0,70 0,50 0,70,0,00 0,50 0,0 0,00 0,00 0,00 0,50 0,70 0,00 0,00 0,00 0,00 0,50 0,0 0,00,00,00 0,50 0,70 0,00 0,70 0,70,00 0,50 0,0,00 0,00,00 0,50 0,70 0,50 0,00 0,50 0,00 0,50 0,0,00,00,00 0,70 0,90 0,70 0,90,60,00 0,50 0,0 0,00 0,00 0,00 0,70 0,90 0,00 0,00 0,00 0,00 0,50 0,0 0,00,00,00 0,70 0,90 0,00 0,90 0,90,00 0,50 0,0,00 0,00,00 0,70 0,90 0,70 0,00 0,70,00 0,50 0,0,00,00,00 0,70 0,90 0,70 0,90,60,00 Error Correcon Ne Weghs E R W W Z-N LR E R+ R+ 0,00 0,00 0,0 0,30,00 0,0 0,30 0,50,00 0,0 0,50 0,70 0,00 0,00 0,50 0,70 0,00 0,00 0,50 0,70 0,00 0,00 0,50 0,70,00 0,0 0,70 0,90 0,00 0,00 0,70 0,90 0,00 0,00 0,70 0,90 0,00 0,00 0,70 0,90 0,00 0,00 0,70 0,90 0,00 0,00 0,70 0,90

Συνηθισμένες Συναρτήσεις Μεταφοράς ή αλλιώς Ενεργοποίησης Έξοδος Έξοδος Έξοδος Είσοδος Έξοδος Είσοδος Είσοδος Είσοδος Προφανώς το αποτέλεσμα δεν χρειάζεται να είναι 0-. Μπορεί να είναι και οποιαδήποτε ενδιάμεση τιμή Με τον κατάλληλο πολλαπλασιαστή μπορεί να είναι επίσης τιμή σε οποιοδήποτε διάστημα Επίσης το αποτέλεσμα μπορεί να είναι ή να μεταφράζεται ως πιθανότητα: μια Gauss συνάρτηση μεταφοράς μπορεί να θεωρηθεί συνάρτηση πυκνότητας πιθανότητας. Σε αυτή τη περίπτωση το αποτέλεσμα είναι;

Παρόλα αυτά, τι δεν μπορεί να κάνει ποτέ ένας αντιληπτήρας μόνος του όσο καλά κι αν ορίσουμε τα βάρη; Οι αντιληπτήρες είναι γραμμικοί διαχωριστές και κατα συνέπεια δεν μπορούν να διαχωρίσουν κατηγορίες που δεν διαχωρίζονται γραμμικά πχ περνώντας μια ευθεία/ένα επίπεδο κτλ ανάμεσα στις κατηγορίες

Νευρωνικά Δίκτυα Σε ποιο σύνθετα προβλήματα μπορώ βάλω πολλούς νευρώνες αντιληπτήρες μαζί σε ένα δίκτυο: Είσοδοι Έξοδος Ένα ΝΔ αποτελείται από πολλούς νευρώνες οι οποίοι συνδέονται μέσω μιας συγκεκριμένης αρχιτεκτονικής. Στόχος είναι η «μετάφραση» των εισόδων σε συγκεκριμένες «σωστές» εξόδους μέσω κυρίως - του προσδιορισμού βαρών.

Συναρτήσεις ΝΔ Είσοδοι Έξοδοι,,,, 4 4 4 3 3 3 f f f f,,, 3 3 f f f 4 3, 3 f Ou 3 Επίπεδο Είσοδος/Εξοδος κόμβου

Βασικά Χαρακτηριστικά Συσχετίζει οποιεσδήποτε εισόδους-εξόδους. Υπολογίζει άγνωστες και εν δυνάμη πολυδάπανες συναρτήσεις σε ελάχιστο χρόνο RT, GA Εκπαιδεύεται συγκρίνει την νέα πληροφορία με την ήδη υπάρχουσα γνώση Ταξινομεί την νέα πληροφορία Δημιουργεί νέες κατηγορίες όταν πρέπει Έχει Baesan aude belef funcons

Τι κάνουμε με ΝΔ και τι όχι Οι δύο βασικές χρήσεις είναι: α κατηγοριοποίηση και β προσομοίωση άγνωστης συνάρτησης Συγκεκριμένα με ένα ΝΔ μπορούμε να προσομοιώσουμε οποιαδήποτε συνάρτηση μέχρι οποιοδήποτε βαθμό ακρίβειας Unversal Appromaon Theorem, Cbenko, 989 Δεν χρησιμοποιούνται για την λύση προβλημάτων που έχουν να κάνουν με συμβολικά μαθηματικά Χρησιμοποιούνται μόνο αν υπάρχουν δεδομένα daa drven mehods που να χρησιμοποιούνται για μάθηση. Δεν μπορούν να προσομοιώσουν φαινόμενα που δεν «περιέχονται» μέσα στα δεδομένα μάθησης ranng daa.

Έχουμε αγνωστες συναρτήσεις που θα θέλαμε να υπολογίσουμε χωρίς να γράψουμε τις εξισώσεις τους;. Μουσώνες: snofall n Asa, emperaure degrees n Norhes Europe, pressure zones occurrng n Europe and Asa, surface emperaures occurrng n Araban sea, emperaure values occurrng a ear before n Indan Ocean. Βραχυπρόθεσμη πρόβλεψη ζήτησης: prevous da demand, populaon sze, las ear s monhl average, eek da 3. Ανίχνευση προβλήματος στην ποιότητα νερού ύδρευσης: πχ ρίψη ουσιών τρομοκρατικό χτύπημα ph, urbd, emperaure, chlorne resdual, oal organc carbon

Εφαρμογές: Αναγνώριση γραφής: OCR Opcal Characer Recognon Που βρίσκει ο αλγόριθμος τις τιμές εκπαίδευσης; To ίδιο και με τη φωνή Sr Και βέβαια

Τύποι ΝΔ Δίκτυα πρόσθιας τροφοδότησης feedforard ANN Αντιληπτήρας Πολλαπλών Επιπέδων mullaer percepron Δίκτυα ανάστροφης τροφοδότησης feedback/recurren ANN

Αντιληπτήρες πολλαπλών επιπέδων MLP Ένα από τα πιο συνηθισμένα Νευρωνικά Δίκτυα Δίκτυο πρόσθιας τροφοδότησης feed forard Γενίκευση του μονοστρωματικού percepron Εποπτευόμενη supervsed μάθηση Αρχιτεκτονική: επίπεδο εισόδου ή περισσότερα «κρυμμένα» επίπεδα επίπεδο εξόδου Εκπαίδευση με τον αλγόριθμο ανάστροφης διάδοσης σφάλματος Back Propagaon 3

MLP Ένα mul level percepron έχει τα εξής χαρακτηριστικά: Κάθε κρυμμένος νευρώνας περιέχει μια ΜΗ-ΓΡΑΜΜΙΚΗ συνάρτηση ενεργοποίησης acvaon funcon Η συνάρτηση αυτή είναι ΔΙΑΦΟΡΙΣΙΜΗ Τα κρυμμένα επίπεδα προσδίδουν στο δίκτυο την δυνατότητα να «μάθει» πολύπλοκα πρότυπα Δεν επιτρέπονται συνδέσεις μεταξύ επιπέδων που δεν ανήκουν σε διαδοχικά επίπεδα Δεν επιτρέπονται συνδέσεις μεταξύ νευρώνων του ίδιου επιπέδου 3

Γιατί πολλαπλά επίπεδα; Όρια αποφάσεων MLP -laer: Επίπεδα A B B A A B -laer: Κυρτά A B B A A B 3-laer: Οτιδήποτε A B B A A B

Μάθηση στα ΝΔ: Κανόνας Δέλτα Σφάλμα: N W F N E ; Κανόνας διόρθωσης βαρών: j j ne j j j W E c, c είναι κάποια σταθερή συνήθως παράμετρος «μάθησης»

Διαδικασία Inpu Desred Oupu

Ο υπολογισμός των βαρών όμως γίνεται δύσκολος... MLP με p επίπεδα τα ενδιάμεσα λέγονται κρυφά Δεδομένα:,,...,,,, N N Σφάλμα: ; ou W F E ;...,...,,...,,,...,,...,, p pt ou T M a k T M a k W F M k e M k e k kt k kt Ο κανόνας είναι κάπως πιο δύσκολος ou p- p

Υπολογισμός με ολική βελτιστοποίηση Αρκεί ακόμα και ένα επίπεδο για να προσομοιώσουμε μη-γραμμικές συναρτήσεις. Στη περίπτωση αυτή το πρόβλημα υπολογισμού βαρών μπορεί να λυθεί με βελτιστοποίηση Πχ. Για τη συνάρτηση: ou F ; W M k k e, kt a k

Βελτιστοποίηση βαθμονόμηση T a e W F E E c,, Βάρη για το επίπεδο εξόδου ένας νευρώνας: Βάρη για το κρυφό επίπεδο πολλοί νευρώνες,,,,,,,,,,,,,,,,,,,, j a a j j j T j T j a a a j a j j j j j e e W F c a a e e e e W F E E c T T T T T T Ή βέβαια με γενετικούς!

Εναλλακτικά μάθηση «προς τα πίσω» backpropagaon Αυτή είναι η πιο γενική περίπτωση και πιο συνηθισμένη για τα MLP και βασίζεται σε επίλυση σε βήματα/επαναλήψεις. Υπολογίζουμε πρώτα τις αλλαγές των βαρών στον νευρώνα εξόδου Υπολογίζουμε τις υπόλοιπες αλλαγές προς τα πίσω ξεκινώντας από το επίπεδο p-, και περνώντας προς τα πίσω το τοπικό σφάλμα.

Παράδειγμα v 0 0 v X v Y v X Y v 0 v 0

Παράδειγμα v 0 = 0 = v =- = X v =0 =0 Y X v =0 =- Y v = = 0 = v 0 =

Παράδειγμα v =- = X =0 v =0 =0 Y X = v =0 =- Y v = = Είσοδος: 0 Επιθυμητή Έξοδος: 0

Παράδειγμα u = v =- = X =0 v =0 =0 Y X = v =0 =- Y v = = Πέρασμα κατά την ΕΥΘΕΙΑ φορα Υπολογίζουμε τις ενεργοποιήσεις ου επιπέδου u = u u 0 0 00

Παράδειγμα z = v =- = X =0 v =0 =0 Y X = v =0 v = z = =- Υπολογίζουμε τις εξόδους του πρώτου επιπέδου, περνώντας τις ενεργοποιήσεις που υπολογίσαμε προηγουμένως στη συνάρτηση ενεργοποίησης: = Y Εδώ για λόγους απλότητας: z = u z = u

Παράδειγμα z = v =- = X =0 v =0 =- Y = v =0 X = v = =0 = z = Υπολογίζουμε τις εξόδους του ου laer: Y = a 0 a

Παράδειγμα Διόρθωση κατά cδ = ηαπάντηση σωστό. Δ = - =, Δ = -0 = v =- = X =0 X = v =0 v =0 v = =- =0 = = - d d 0 = - Πέρασμα κατά την ΑΝΤΙΘΕΤΗ ΦΟΡΑ με η = -c z j j j

για c=0. v =- Παράδειγμα z =- = z= z= Δ=- Δ=- X =0 v =0 =- z =- X = v =0 v = =0 = z =- z =-4 Υπολογίζουμε τις αλλαγές στα βάρη για το ο επίπεδο, με βάση τον κανόνα: z j j j 47

Παράδειγμα για c=0. X =0 v =0 v =- = -. = 0.9 X = v =0 v = = -0. = 0.6 Οι αλλαγές στα βάρη είναι: + = + 0. * - = 0.9 48

Παράδειγμα v =- = - X =0 = = - v =0 X = v =0 = 0 = - v = = - Υπολογίζουμε τα : g ' u k k k 0 49

Παράδειγμα X =0 v =0 v =- = = - X = v =0 v = = - = - Τα διαδίδονται προς την αντίθετη κατεύθυνση: 0

Παράδειγμα = 0 v =- X =0 v =0 = = - X = v =0 = 0 = - v = = - Και πολλαπλασιάζοντας με τις εισόδους: v v j j j 5

Παράδειγμα v = - = 0.9 X =0 v = 0 = -. v = 0. X = v = 0.8 Τέλος, αλλάζουμε τα βάρη. = -0. = 0.6 v v j j j 5

Παράδειγμα z =. X =0 v = - v = 0 = -. = 0.9 X = v = 0. v = 0.8 = -0. = 0.6 z =.8 Επαναλαμβάνουμε την διαδικασία χρησιμοποιώντας το ίδιο πρότυπο 53

Παράδειγμα z =. v = - = 0.9 X =0 = -. = 0.63 v = 0 X = v = 0. = -0. = -0.4 v = 0.8 = 0.6 z =.8 Τώρα, οι έξοδοι βρίσκονται πιο κοντά στις επιθυμητές: 0 54

Γενική Διαδικασία Επιλογή της αρχιτεκτονικής του δικτύου κρυμμένα επίπεδα, αριθμός νευρώνων, συνάρτηση μάθησης, συνάρτηση ενεργοποίησης: Δυστυχώς δεν υπάρχει σωστή απάντηση σ αυτό ral and error + Οcham s razor Αρχικοποίηση του δικτύου βάρη, παράμετροι Έλεγχος και προεπεξεργασία δεδομένων Παρουσίαση του συνόλου δεδομένων Εκπαίδευση του δικτύου Επαναλήψεις εώς κάποιο καθορισμένο σημείο με βάση προκαθορισμένα κριτήρια Παρουσίαση του συνόλου ελέγχου Αξιολόγηση αποτελεσμάτων και αν χρειαστεί, αλλαγή παραμέτρων και/ή αρχιτεκτονικής και εκ νέου εκπαίδευση του δικτύου Τι πρόβλημα προβλέπετε να έχουμε με αυτή την διαδικασία μάθησης; Τι πρόβλημα θα έχουμε πάντα; 55

Malab. nnsar. nfool. load es daa save ne see eghs ne.l. Creae ranng daa npus, oupus, ran an ANN 3. To run oupus=nenpus 3. nsool. Load es daa polluon moral, ran. Evaluae for polluoninpu 3. Command lne: oupus = nepolluoninpus 4. nprool:. nes check confuson mar.. Φτιάξτε ένα νέο vneard and add o se 3. Θυμηθείτε: [a;b] [a b]

Αναφορές Η παρουσίαση χρησιμοποίησε υλικό, σχήματα και παραδείγματα από αντίστοιχες παρουσιάσεις των συναδέλφων: Α. Αργυρίου. Εργαστήριο Φυσικής της Ατμόσφαιρας, Παν/μιο Πάτρας P. Andras, Unvers of Necasle Ν. Σίμου και Β. Σπύρου, Εργαστήριο Εικόνας, Βίντεο και Πολυμέσων, ΕΜΠ Γ. Παπαδουράκη, ΤΕΙ Κρήτης