Βελτιστοποίηση Συστημάτων & Υδροπληροφορική Νευρωνικά Δίκτυα Χρήστος Μακρόπουλος Τομέας Υδατικών Πόρων και Περιβάλλοντος Εθνικό Μετσόβιο Πολυτεχνείο

Σχετικά έγγραφα
Βελτιστοποίηση Συστημάτων & Υδροπληροφορική Νευρωνικά Δίκτυα Χρήστος Μακρόπουλος Τομέας Υδατικών Πόρων και Περιβάλλοντος Εθνικό Μετσόβιο Πολυτεχνείο

Βασικές αρχές εκπαίδευσης ΤΝΔ: το perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Το μοντέλο Perceptron

Το Πολυεπίπεδο Perceptron. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 4 o Φροντιστήριο

Α.Τ.ΕΙ ΚΡΗΤΗΣ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΚΑΙ ΠΟΛΥΜΕΣΩΝ. ΕΡΓΑΣΤΗΡΙΟ ΤΕΧΝΗΤΩΝ ΝΕΥΡΩΝΙΚΩΝ ΔΙΚΤΥΩΝ

Τεχνητή Νοημοσύνη. 17η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

ΚΑΤΗΓΟΡΙΕΣ ΤΑΞΙΝΟΜΗΣΗΣ

Τεχνητά Νευρωνικά Δίκτυα. Τσιριγώτης Γεώργιος Τμήμα Μηχανικών Πληροφορικής ΤΕΙ Ανατολικής Μακεδονίας & Θράκης

ΤΜΗΜΑ ΔΙΟΙΚΗΣΗΣ ΕΠΙΧΕΙΡΗΣΕΩΝ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

4.3. Γραµµικοί ταξινοµητές

Ασκήσεις μελέτης της 19 ης διάλεξης

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #12: Εισαγωγή στα Nευρωνικά Δίκτυα. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

Ποσοτικές Μέθοδοι στη Διοίκηση Επιχειρήσεων ΙΙ Σύνολο- Περιεχόμενο Μαθήματος

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

Πληροφοριακά Συστήματα Διοίκησης

ΧΑΡΟΚΟΠΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΜΑΤΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ. Καραγιώργου Σοφία

Τεχνητή Νοημοσύνη. 18η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Τεχνητή Νοημοσύνη. TMHMA ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΕΧΝΟΛΟΓΙΑΣ ΥΠΟΛΟΓΙΣΤΩΝ. Εξάμηνο 5ο Οικονόμου Παναγιώτης & Ελπινίκη Παπαγεωργίου. Νευρωνικά Δίκτυα.

ΑΝΤΑΓΩΝΙΣΤΙΚΗ ΜΑΘΗΣΗ ΔΙΚΤΥA LVQ και SOM. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Εισόδημα Κατανάλωση

Αναγνώριση Προτύπων Ι

Πληροφοριακά Συστήματα & Περιβάλλον

Υπολογιστική Νοημοσύνη. Μάθημα 12: Παραδείγματα Ασκήσεων 2

Υπολογιστική Νοημοσύνη. Μάθημα 4: Μάθηση στον απλό τεχνητό νευρώνα (2)

ΕΦΑΡΜΟΣΜΕΝΗ ΣΤΑΤΙΣΤΙΚΗ Ι Συμπληρωματικές Σημειώσεις Δημήτριος Παντελής

Απλή Γραμμική Παλινδρόμηση και Συσχέτιση 19/5/2017

Ενδεικτική πολυ-εργασία 1 - εφαρμογή στην υπολογιστική όραση

Υπολογιστική Νοημοσύνη. Μάθημα 6: Μάθηση με Οπισθοδιάδοση Σφάλματος Backpropagation Learning

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

ΕΛΕΓΧΟΣ ΠΑΡΑΓΩΓΙΚΩΝ ΔΙΕΡΓΑΣΙΩΝ

ΕΥΦΥΗΣ ΕΛΕΓΧΟΣ. Ενότητα #8: Βελτιστοποίηση Συστημάτων Ασαφούς Λογικής. Αναστάσιος Ντούνης Τμήμα Μηχανικών Αυτοματισμού Τ.Ε.

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΠΜΣΕ ΣΤΗΝ ΕΦΑΡΜΟΣΜΕΝΗ ΠΛΗΡΟΦΟΡΙΚΗ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ ΚΑΙ ΕΞΕΛΙΚΤΙΚΟΙ ΑΛΓΟΡΙΘΜΟΙ

MATLAB. Εισαγωγή στο SIMULINK. Μονάδα Αυτόματης Ρύθμισης και Πληροφορικής

Μέθοδοι μονοδιάστατης ελαχιστοποίησης

Εκπαίδευση ΤΝΔ με ελαχιστοποίηση του τετραγωνικού σφάλματος εκπαίδευσης. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν.

ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΔΙΑΧΕΙΡΙΣΗ ΥΔΑΤΙΚΩΝ ΠΟΡΩΝ

Εισαγωγή στα Τεχνητά Νευρωνικά Δίκτυα. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

FORTRAN και Αντικειμενοστραφής Προγραμματισμός

Αριθμητική Ανάλυση & Εφαρμογές

Στη C++ υπάρχουν τρεις τύποι βρόχων: (a) while, (b) do while, και (c) for. Ακολουθεί η σύνταξη για κάθε μια:

Σειρά: Επεξεργασία Δεδομένων Εκδοση/Ημ.νία: #3.1/ Συγγραφέας: Μίχος Θεόδωρος, Φυσικός

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

Μέθοδοι μονοδιάστατης ελαχιστοποίησης

Βασίλειος Μαχαιράς Πολιτικός Μηχανικός Ph.D.

Παραδείγματα (1 ο σετ) Διανυσματικοί Χώροι

Περιληπτικά, τα βήματα που ακολουθούμε γενικά είναι τα εξής:

1.2 Εξισώσεις 1 ου Βαθμού

Πληροφορική 2. Τεχνητή νοημοσύνη

Μοντέλα Παλινδρόμησης. Άγγελος Μάρκος, Λέκτορας ΠΤ Ε, ΠΘ

Λύσεις θεμάτων εξεταστικής περιόδου Ιανουαρίου Φεβρουαρίου 2015

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Μαθηματικά. Ενότητα 3: Εξισώσεις και Ανισώσεις 1 ου βαθμού. Σαριαννίδης Νικόλαος Τμήμα Λογιστικής και Χρηματοοικονομικής

ΚΕΦΑΛΑΙΟ 10 ΥΠΟΠΡΟΓΡΑΜΜΑΤΑ

ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

Κεφάλαιο 4: Επιλογή σημείου παραγωγής

Λ. Ζαχείλας. Επίκουρος Καθηγητής Εφαρμοσμένων Μαθηματικών Τμήμα Οικονομικών Επιστημών Πανεπιστήμιο Θεσσαλίας. Οικονομική Δυναμική 29/6/14

3.7 Παραδείγματα Μεθόδου Simplex

Ιωάννα Ανυφαντή, Μηχανικός Περιβάλλοντος Επιβλέπων: Α. Ευστρατιάδης, ΕΔΙΠ ΕΜΠ. Αθήνα, Ιούλιος 2018

Μέρος V. Ανάλυση Παλινδρόμηση (Regression Analysis)

Ανάπτυξη και δηµιουργία µοντέλων προσοµοίωσης ροής και µεταφοράς µάζας υπογείων υδάτων σε καρστικούς υδροφορείς µε χρήση θεωρίας νευρωνικών δικτύων

Αριθμητική Ανάλυση και Εφαρμογές

ΓΡΑΜΜΙΚΗ ΑΛΓΕΒΡΑ (ΗΥ-119)

Μέθοδοι Μηχανικής Μάθησης στην επεξεργασία Τηλεπισκοπικών Δεδομένων. Δρ. Ε. Χάρου

94 Η χρήση των νευρωνικών µοντέλων για την κατανόηση της δοµής και λειτουργίας τού εγκεφάλου. = l b. K + + I b. K - = α n

Κινητά Δίκτυα Επικοινωνιών. Συμπληρωματικό υλικό. Προσαρμοστική Ισοστάθμιση Καναλιού

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

11 ΣΥΝΗΘΕΙΣ ΔΙΑΦΟΡΙΚΕΣ ΕΞΙΣΩΣΕΙΣ

Παραδείγματα Απαλοιφή Gauss Απαλοιφή Gauss-Jordan Παραγοντοποίηση LU, LDU

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

ΤΟΠΟΓΡΑΦΙΚΑ ΔΙΚΤΥΑ ΚΑΙ ΥΠΟΛΟΓΙΣΜΟΙ ΑΝΑΣΚΟΠΗΣΗ ΘΕΩΡΙΑΣ ΣΥΝΟΡΘΩΣΕΩΝ

Κεφάλαιο 4: Επιλογή σημείου παραγωγής

ΦΥΣΙΚΗ ΓΕΝΙΚΗΣ ΠΑΙΔΕΙΑΣ Α ΛΥΚΕΙΟΥ

Κεφάλαιο 5. Το Συμπτωτικό Πολυώνυμο

Γ ΛΥΚΕΙΟΥ ΚΥΜΑΤΑ ΦΥΣΙΚΗ ΠΡΟΣΑΝΑΤΟΛΙΣΜΟΥ. Επιμέλεια: ΑΓΚΑΝΑΚΗΣ A.ΠΑΝΑΓΙΩΤΗΣ, Φυσικός.

Κάθε φορά, που νιώθουμε τρελή λαχτάρα να μιλήσουμε για ευθείες, φανταζόμαστε εξισώσεις της παρακάτω μορφής : y = αx + β

Συνέλιξη Κρουστική απόκριση

Αντικείμενο του κεφαλαίου είναι: Ανάλυση συσχέτισης μεταξύ δύο μεταβλητών. Εξίσωση παλινδρόμησης. Πρόβλεψη εξέλιξης

QR είναι ˆx τότε x ˆx. 10 ρ. Ποιά είναι η τιµή του ρ και γιατί (σύντοµη εξήγηση). P = [X. 0, X,..., X. (n 1), X. n] a(n + 1 : 1 : 1)

Εφαρμοσμένη Στατιστική

ΒΑΣΙΚΕΣ ΕΝΝΟΙΕΣ ΚΑΙ ΜΑΘΗΜΑΤΙΚΗ ΔΙΑΤΥΠΩΣΗ, Διαλ. 2. Ανωτάτη Σχολή Παιδαγωγικής και Τεχνολογικής Εκπαίδευσης 8/4/2017

6. Στατιστικές μέθοδοι εκπαίδευσης

ΔΙΟΙΚΗΣΗ ΠΑΡΑΓΩΓΗΣ. ΕΝΟΤΗΤΑ 4η ΠΡΟΒΛΕΨΗ ΖΗΤΗΣΗΣ

Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται σε άδειες χρήσης Creative Commons. Για εκπαιδευτικό υλικό, όπως εικόνες, που υπόκειται σε άλλου τύ

Μαθηματική Εισαγωγή Συναρτήσεις

Πανεπιστήμιο Ιωαννίνων ΟΙΚΟΝΟΜΙΚΑ ΤΟΥ ΠΕΡΙΒΑΛΛΟΝΤΟΣ Διδάσκων:

Παραδείγματα (2) Διανυσματικοί Χώροι

Μαθηματική Εισαγωγή Συναρτήσεις

Τεχνητή Νοημοσύνη. 19η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

Μέθοδοι πολυδιάστατης ελαχιστοποίησης

Transcript:

Βελτιστοποίηση Συστημάτων & Υδροπληροφορική Νευρωνικά Δίκτυα Χρήστος Μακρόπουλος Τομέας Υδατικών Πόρων και Περιβάλλοντος Εθνικό Μετσόβιο Πολυτεχνείο

Νευρωνικά Δίκτυα Βασίζονται στη χρήση μιας προσέγγισης μάλλον απλοϊκής του τρόπου λειτουργίας του νευρικού συστήματος μέσω μαθηματικών συναρτήσεων. Πρώτη αναφορά: W.S. McCulloh & W. Ps, A logcal calculus of deas mmanen n Nervous acv, Bull. Mahemacal Bophscs, Vol. 5, 943, pp.5-33.

Μια από τις πρώτες πετυχημένες απόπειρες machne learnng

Τί είναι machne learnng? Η προσπάθεια να φτιάξουμε αλγόριθμους που να έχουν τις δεξιότητες του ανθρώπινου εγκεφάλου! Πχ. Βλέπω, αναγνωρίζω, μαθαίνω, συμπεραίνω, συνθέτω elemenar m dear

Ποια η γενική διαδικασία του Machne Learnng?

Και σε τί διαφοροποιείται από τον άλλο σημαντικό όρο της εποχής το deep learnng

Ποια η βασική υπόθεση εργασίας στην περίπτωση των ΝΔ; Βασίζεται στην εξής απλή και μάλλον αισθητικής φύσης υπόθεση εργασίας: Γεγονός: οι άνθρωποι μαθαίνουν χρησιμοποιώντας τους νευρώνες τους εγκέφαλος Στόχος: θέλουμε να κάνουμε τους υπολογιστές να συμπεριφέρονται όπως ένας εγκέφαλος. Άρα: φτιάχνω ένα σύστημα που μοιάζει με εγκέφαλο δηλ. ένα σύνολο νευρώνων και ελπίζω οτι θα συμπεριφέρεται με τον ίδιο τρόπο...

Το βιολογικό πρότυπο Δενδρίτες & Συνάψεις: προσοχή όπως και στους γενετικούς εργαζόμαστε σε αρκετά αφαιρετικό επίπεδο σε σχέση με την αρχική βιολογική ιδέα

Το απλοποιημένο βιολογικό πρότυπο άξονας δενδρίτες συνάψεις Τα σήματα ταξιδεύουν μέσω του νευρώνα και προκαλούν την έκκριση νευροδιαβιβαστικών ουσιών στις συνάψεις. Οι νευρο-διαβιβαστικές ουσίες προκαλούν αντιδράσεις στους δενδρίτες των νευρώνων που βρίσκονται μετά τις συνάψεις. Οι αντιδράσεις αυτές προκαλούν σήματα στους νευρώνες μετά τις συνάψεις. Το μέγεθος/ένταση του σήματος εξαρτάται από τη δύναμη του συνδέσμου της σύναψης.

Τεχνητός Νευρώνας ή αντιληπτήρας Μοντέλο McCullogh-Ps Είσοδοι 3 3... Συνάρτηση Μεταφοράς f, Έξοδος n- n- n n Μεταφράζει μια σειρά εισόδων σε μια έξοδο με τη βοήθεια: βαρών και μιας συνάρτησης «μεταφοράς» ή αλλιώς «ενεργοποίησης»

Παράδειγμα συνάρτησης μεταφοράς: Έξοδος: Sep Funcon Εδώ με θ 0 Το θ ονομάζεται κατώφλι ενεργοποίησης Είσοδος:

Ενεργοποίηση του νευρώνα Συνεχίζοντας με την βιολογική αναλογία, ο νευρώνας ενεργοποιείται μόνο όταν το «σήμα» είναι αρκετα «δυνατό». Αυτό προκύπτει: Είτε από τη μορφή της συνάρτησης ενεργοποίησης πχ. sep funcon hreshold Είτε μετά από σύγκριση με μια «συνθήκη ενεργοποίησης»

Στην ουσία τι κάνει ένας αντιληπτήρας με αυτή τη απλή συνάρτηση μεταφοράς; Μπορεί να πεί Ναι/Οχι ή αλλιώς Ανήκει/Δεν Ανήκει. Αρα μπορεί να «αποφασίσει» αν ένα δείγμα με κάποια χαρακτηριστικά ανήκει σε ένα σύνολο ή όχι χωρίζοντας το δείγμα σε δυο μέρη. Πως ξέρει ποιό δείγμα ανήκει σε ποιό μέρος; του δίνουμε εμείς ένα σετ σωστών απαντήσεων και προσαρμόζουμε τα βάρη έτσι ώστε να απαντά σωστά.

Ένα παράδειγμα πιο κοντά στα δικά μας: πχ σύστημα έγκαιρης προειδοποίησης πλημμυρών: Να στείλω SMS για έγκαιρη προειδοποίηση από πλημμύρα ή όχι; 5 X βροχή W 4 + + SUM με κατώφλι θ4 f HL O X παροχή W Η σημασία της παραμέτρου Χ στο πρόβλημα είναι μεγαλύτερη βλ. Flood forecasng: : βροχή, : παροχή, στο προηγούμενο βήμα

Πώς όμως υπολογίζουμε τα βάρη; Εκπαίδευση Διαδικασία η οποία με δεδομένα «σωστά» σύνολα εισόδων-εξόδων, τροποποιεί τις μεταβλητές του ΝΔ πχ τα βάρη για να αναγκάσει το ΝΔ να δώσει τη «σωστή» απάντηση εξόδου. Στην ουσία: ένα πρόβλημα βαθμονόμησης σε ένα «γενικό» μοντέλο. Τύποι εκπαίδευσης: Αυτόνομη, Μη Αυτόνομη, Επιβεβλημένη, Ανταγωνιστική, Κανόνας Δέλτα LMS, Hll-Clmbng

Εποπτευόμενη Εκπαίδευση supervsed ranng Κατά την εποπτευόμενη εκπαίδευση η απόκριση του ΝΔ σε ένα σύνολο εισόδου συγκρίνεται με την επιθυμητή απόκριση. Αν αυτές διαφέρουν τότε το ΝΔ υπολογίζει ένα σφάλμα. Το σφάλμα χρησιμοποιείται ώστε να γίνουν οι απαραίτητες τροποποιήσεις των συντελεστών βάρους, ώστε η απόκριση να πλησιάσει την επιθυμητή και το σφάλμα να προσεγγίσει ή δυνατόν το μηδέν. Η τροποποίηση γίνεται με κάποιο βήμα βλ. κάναβο δεξιά που ονομάζεται learnng rae Οι χρησιμοποιούμενες μέθοδοι για την ελαχιστοποίηση του σφάλματος είναι οι ίδιες που εφαρμόζονται σε διάφορες τεχνικές ελαχιστοποιήσεως

Μη εποπτευόμενη εκπαίδευση unsupervsed ranng Δεν δίνουμε «σωστές» τιμές εξόδου και το ΑΝΝ πρέπει να αποφασίσει μόνο του τί είναι σωστό: στην ουσία να βρεί κρυμμένες δομές. Self-organzaon: selforganzng map SOM, Kohonen neorks/maps

Περιγραφή του προβλήματος Δεδομένα: Σύνολα τιμών είσοδοι, έξοδος:,, Για παράδειγμα ως: g + z ; Όπου z τυχαίος θόρυβος Πρόβλημα: Yπολογίστε τα βάρη [,, k] με τα οποία ελαχιστοποιείται το σφάλμα. Με άλλα λόγια: υπολογίστε ένα ΝΔ δηλ. ένα F, το οποίο προσομοιώνει την άγνωστη συνάρτηση g για κάθε.

Πρόκειται για περίπτωση βελτιστοποίησης ελαχιστοποίησης με μέγιστη κλιση seepes descend

Με άλλα λόγια: Αν ακολουθήσουμε την αρνητική κλίση, κατεβαίνουμε πιο γρήγορα και άρα για κάθε: Έχουμε πάντα:

Seepes descen για ένα νευρώνα Νευρώνας: T ou Δεδομένα:,,...,,,, N N Σφάλμα: T ou E Μάθηση: ελαχιστοποίηση με σταδιακή με κάποιο βήμα μεταβολή βαρών κατα τη μέγιστη κλίση της επιφάνειας απόκρισης: T T c c E c + + Inpus Weghs Oupu Bas p 3 p p f a 3 + + + + b p f b p p p f a 3 3

απλή εκπαίδευση ΝΔ Learnng Threshold Rae Sensor values Desred Oupu Weghs Response of NN TH LR X X Z C C S N X X C+C IFS>TH,,0 0,50 0,0 0,00 0,00 0,00 0,0 0,30 0,00 0,00 0,00 0,00 0,50 0,0 0,00,00,00 0,0 0,30 0,00 0,30 0,30 0,00 0,50 0,0,00 0,00,00 0,30 0,50 0,30 0,00 0,30 0,00 0,50 0,0,00,00,00 0,50 0,70 0,50 0,70,0,00 0,50 0,0 0,00 0,00 0,00 0,50 0,70 0,00 0,00 0,00 0,00 0,50 0,0 0,00,00,00 0,50 0,70 0,00 0,70 0,70,00 0,50 0,0,00 0,00,00 0,50 0,70 0,50 0,00 0,50 0,00 0,50 0,0,00,00,00 0,70 0,90 0,70 0,90,60,00 0,50 0,0 0,00 0,00 0,00 0,70 0,90 0,00 0,00 0,00 0,00 0,50 0,0 0,00,00,00 0,70 0,90 0,00 0,90 0,90,00 0,50 0,0,00 0,00,00 0,70 0,90 0,70 0,00 0,70,00 0,50 0,0,00,00,00 0,70 0,90 0,70 0,90,60,00 Error Correcon Ne Weghs E R W W Z-N LR E R+ R+ 0,00 0,00 0,0 0,30,00 0,0 0,30 0,50,00 0,0 0,50 0,70 0,00 0,00 0,50 0,70 0,00 0,00 0,50 0,70 0,00 0,00 0,50 0,70,00 0,0 0,70 0,90 0,00 0,00 0,70 0,90 0,00 0,00 0,70 0,90 0,00 0,00 0,70 0,90 0,00 0,00 0,70 0,90 0,00 0,00 0,70 0,90

Συνηθισμένες Συναρτήσεις Μεταφοράς ή αλλιώς Ενεργοποίησης Έξοδος Έξοδος Έξοδος Είσοδος Έξοδος Είσοδος Είσοδος Είσοδος Προφανώς το αποτέλεσμα δεν χρειάζεται να είναι 0-. Μπορεί να είναι και οποιαδήποτε ενδιάμεση τιμή Με τον κατάλληλο πολλαπλασιαστή μπορεί να είναι επίσης τιμή σε οποιοδήποτε διάστημα Επίσης το αποτέλεσμα μπορεί να είναι ή να μεταφράζεται ως πιθανότητα: μια Gauss συνάρτηση μεταφοράς μπορεί να θεωρηθεί συνάρτηση πυκνότητας πιθανότητας. Σε αυτή τη περίπτωση το αποτέλεσμα είναι;

Παρόλα αυτά, τι δεν μπορεί να κάνει ποτέ ένας αντιληπτήρας μόνος του όσο καλά κι αν ορίσουμε τα βάρη; Οι αντιληπτήρες είναι γραμμικοί διαχωριστές και κατα συνέπεια δεν μπορούν να διαχωρίσουν κατηγορίες που δεν διαχωρίζονται γραμμικά πχ περνώντας μια ευθεία/ένα επίπεδο κτλ ανάμεσα στις κατηγορίες

Νευρωνικά Δίκτυα Σε ποιο σύνθετα προβλήματα μπορώ βάλω πολλούς νευρώνες αντιληπτήρες μαζί σε ένα δίκτυο: Είσοδοι Έξοδος Ένα ΝΔ αποτελείται από πολλούς νευρώνες οι οποίοι συνδέονται μέσω μιας συγκεκριμένης αρχιτεκτονικής. Στόχος είναι η «μετάφραση» των εισόδων σε συγκεκριμένες «σωστές» εξόδους μέσω κυρίως - του προσδιορισμού βαρών.

Συναρτήσεις ΝΔ Είσοδοι Έξοδοι,,,, 4 4 4 3 3 3 f f f f,,, 3 3 f f f 4 3, 3 f Ou 3 Επίπεδο Είσοδος/Εξοδος κόμβου

Βασικά Χαρακτηριστικά Συσχετίζει οποιεσδήποτε εισόδους-εξόδους. Υπολογίζει άγνωστες και εν δυνάμη πολυδάπανες συναρτήσεις σε ελάχιστο χρόνο RT, GA Εκπαιδεύεται συγκρίνει την νέα πληροφορία με την ήδη υπάρχουσα γνώση Ταξινομεί την νέα πληροφορία Δημιουργεί νέες κατηγορίες όταν πρέπει Έχει Baesan aude belef funcons

Τι κάνουμε με ΝΔ και τι όχι Οι δύο βασικές χρήσεις είναι: α κατηγοριοποίηση και β προσομοίωση άγνωστης συνάρτησης Συγκεκριμένα με ένα ΝΔ μπορούμε να προσομοιώσουμε οποιαδήποτε συνάρτηση μέχρι οποιοδήποτε βαθμό ακρίβειας Unversal Appromaon Theorem, Cbenko, 989 Δεν χρησιμοποιούνται για την λύση προβλημάτων που έχουν να κάνουν με συμβολικά μαθηματικά Χρησιμοποιούνται μόνο αν υπάρχουν δεδομένα daa drven mehods που να χρησιμοποιούνται για μάθηση. Δεν μπορούν να προσομοιώσουν φαινόμενα που δεν «περιέχονται» μέσα στα δεδομένα μάθησης ranng daa.

Έχουμε αγνωστες συναρτήσεις που θα θέλαμε να υπολογίσουμε χωρίς να γράψουμε τις εξισώσεις τους;. Μουσώνες: snofall n Asa, emperaure degrees n Norhes Europe, pressure zones occurrng n Europe and Asa, surface emperaures occurrng n Araban sea, emperaure values occurrng a ear before n Indan Ocean. Βραχυπρόθεσμη πρόβλεψη ζήτησης: prevous da demand, populaon sze, las ear s monhl average, eek da 3. Ανίχνευση προβλήματος στην ποιότητα νερού ύδρευσης: πχ ρίψη ουσιών τρομοκρατικό χτύπημα ph, urbd, emperaure, chlorne resdual, oal organc carbon

Εφαρμογές: Αναγνώριση γραφής: OCR Opcal Characer Recognon Που βρίσκει ο αλγόριθμος τις τιμές εκπαίδευσης; To ίδιο και με τη φωνή Sr Και βέβαια

Τύποι ΝΔ Δίκτυα πρόσθιας τροφοδότησης feedforard ANN Αντιληπτήρας Πολλαπλών Επιπέδων mullaer percepron Δίκτυα ανάστροφης τροφοδότησης feedback/recurren ANN

Αντιληπτήρες πολλαπλών επιπέδων MLP Ένα από τα πιο συνηθισμένα Νευρωνικά Δίκτυα Δίκτυο πρόσθιας τροφοδότησης feed forard Γενίκευση του μονοστρωματικού percepron Εποπτευόμενη supervsed μάθηση Αρχιτεκτονική: επίπεδο εισόδου ή περισσότερα «κρυμμένα» επίπεδα επίπεδο εξόδου Εκπαίδευση με τον αλγόριθμο ανάστροφης διάδοσης σφάλματος Back Propagaon 33

MLP Ένα mul level percepron έχει τα εξής χαρακτηριστικά: Κάθε κρυμμένος νευρώνας περιέχει μια ΜΗ-ΓΡΑΜΜΙΚΗ συνάρτηση ενεργοποίησης acvaon funcon Η συνάρτηση αυτή είναι ΔΙΑΦΟΡΙΣΙΜΗ Τα κρυμμένα επίπεδα προσδίδουν στο δίκτυο την δυνατότητα να «μάθει» πολύπλοκα πρότυπα Δεν επιτρέπονται συνδέσεις μεταξύ επιπέδων που δεν ανήκουν σε διαδοχικά επίπεδα Δεν επιτρέπονται συνδέσεις μεταξύ νευρώνων του ίδιου επιπέδου 34

Γιατί πολλαπλά επίπεδα; Όρια αποφάσεων MLP -laer: Επίπεδα A B B A A B -laer: Κυρτά A B B A A B 3-laer: Οτιδήποτε A B B A A B

Μάθηση στα ΝΔ: Κανόνας Δέλτα Σφάλμα: N W F N E ; Κανόνας διόρθωσης βαρών: j j ne j j j W E c +, c είναι κάποια σταθερή συνήθως παράμετρος «μάθησης»

Διαδικασία Inpu Desred Oupu

Ο υπολογισμός των βαρών όμως γίνεται δύσκολος... MLP με p επίπεδα τα ενδιάμεσα λέγονται κρυφά Δεδομένα:,,...,,,, N N Σφάλμα: ; ou W F E ;...,...,,...,,,...,,...,, + + p pt ou T M a k T M a k W F M k e M k e k kt k kt Ο κανόνας είναι κάπως πιο δύσκολος ou p- p

Υπολογισμός με ολική βελτιστοποίηση Αρκεί ακόμα και ένα επίπεδο για να προσομοιώσουμε μη-γραμμικές συναρτήσεις. Στη περίπτωση αυτή το πρόβλημα υπολογισμού βαρών μπορεί να λυθεί με βελτιστοποίηση Πχ. Για τη συνάρτηση: ou F ; W M k k + e, kt a k

Βελτιστοποίηση βαθμονόμηση T a e W F E E c + +,, Βάρη για το επίπεδο εξόδου ένας νευρώνας: Βάρη για το κρυφό επίπεδο πολλοί νευρώνες,,,,,,,,,,,,,,,,,,,, j a a j j j T j T j a a a j a j j j j j e e W F c a a e e e e W F E E c T T T T T T + + + + + + Ή βέβαια με γενετικούς!

Εναλλακτικά μάθηση «προς τα πίσω» backpropagaon Αυτή είναι η πιο γενική περίπτωση και πιο συνηθισμένη για τα MLP και βασίζεται σε επίλυση σε βήματα/επαναλήψεις. Υπολογίζουμε πρώτα τις αλλαγές των βαρών στον νευρώνα εξόδου Υπολογίζουμε τις υπόλοιπες αλλαγές προς τα πίσω ξεκινώντας από το επίπεδο p-, και περνώντας προς τα πίσω το τοπικό σφάλμα.

Παράδειγμα v 0 0 v X v Y v X Y v 0 v 0

Παράδειγμα v 0 0 v - X v 0 0 Y X v 0 - Y v 0 v 0

Παράδειγμα v - X 0 v 0 0 Y X v 0 - Y v Είσοδος: 0 Επιθυμητή Έξοδος: 0

Παράδειγμα u v - X 0 v 0 0 Y X v 0 - Y v Πέρασμα κατά την ΕΥΘΕΙΑ φορα Υπολογίζουμε τις ενεργοποιήσεις ου επιπέδου u u u 0+ 0 + 0 0+ +

Παράδειγμα z v - X 0 v 0 0 Y X v 0 v z - Υπολογίζουμε τις εξόδους του πρώτου επιπέδου, περνώντας τις ενεργοποιήσεις που υπολογίσαμε προηγουμένως στη συνάρτηση ενεργοποίησης: Y Εδώ για λόγους απλότητας: z u z u

Παράδειγμα z v - X 0 v 0 - Y v 0 X v 0 z Υπολογίζουμε τις εξόδους του ου laer: Y a + 0 + a + +

Παράδειγμα v - X 0 X v 0 v 0 v - 0 - d d 0 - Διόρθωση Βαρών κατά cδ cσωστό απάντηση. Δ - -, Δ 0- - + η z j j j

για c0. v - Παράδειγμα z - z z Δ- Δ- X 0 v 0 - z - X v 0 v 0 z - z -4 Υπολογίζουμε τις αλλαγές στα βάρη για το ο επίπεδο, με βάση τον κανόνα: + η z j j j 49

Παράδειγμα για c0. X 0 v 0 v - -. 0.9 X v 0 v -0. 0.6 Οι αλλαγές στα βάρη είναι: + + 0. * - 0.9 50

Παράδειγμα v - - X 0 - v 0 X v 0 0 - v - δ Υπολογίζουμε τα : δ g' u k k k δ δ + 0 5

Παράδειγμα δ v - X 0 - v 0 X v 0 - v δ - Τα διαδίδονται προς την αντίθετη κατεύθυνση: δ δ + 0

Παράδειγμα δ 0 v - X 0 v 0 δ - X v 0 δ 0 - v δ - Και πολλαπλασιάζοντας με τις εισόδους: v + v ηδ j j j 53

Παράδειγμα v - 0.9 X 0 v 0 -. v 0. X v 0.8 Τέλος, αλλάζουμε τα βάρη. -0. 0.6 v + v ηδ j j j 54

Παράδειγμα z. X 0 v - v 0 -. 0.9 X v 0. v 0.8-0. 0.6 z.8 Επαναλαμβάνουμε την διαδικασία χρησιμοποιώντας το ίδιο πρότυπο 55

Παράδειγμα z. v - 0.9 X 0 -. 0.63 v 0 X v 0. -0. -0.4 v 0.8 0.6 z.8 Τώρα, οι έξοδοι βρίσκονται πιο κοντά στις επιθυμητές: 0 56

Γενική Διαδικασία Επιλογή της αρχιτεκτονικής του δικτύου κρυμμένα επίπεδα, αριθμός νευρώνων, συνάρτηση μάθησης, συνάρτηση ενεργοποίησης: Δυστυχώς δεν υπάρχει σωστή απάντηση σ αυτό ral and error + Οcham s razor Αρχικοποίηση του δικτύου βάρη, παράμετροι Έλεγχος και προεπεξεργασία δεδομένων Παρουσίαση του συνόλου δεδομένων Εκπαίδευση του δικτύου Επαναλήψεις εώς κάποιο καθορισμένο σημείο με βάση προκαθορισμένα κριτήρια Παρουσίαση του συνόλου ελέγχου Αξιολόγηση αποτελεσμάτων και αν χρειαστεί, αλλαγή παραμέτρων και/ή αρχιτεκτονικής και εκ νέου εκπαίδευση του δικτύου Τι πρόβλημα προβλέπετε να έχουμε με αυτή την διαδικασία μάθησης; Τι πρόβλημα θα έχουμε πάντα; 57

Malab. nnsar. nfool. load es daa save ne see eghs ne.l. Creae ranng daa npus, oupus, ran an ANN 3. To run oupusnenpus 3. nsool. Load es daa polluon moral, ran. Evaluae for polluoninpu 3. Command lne: oupus nepolluoninpus 4. nprool:. nes check confuson mar.. Φτιάξτε ένα νέο vneard and add o se 3. Θυμηθείτε: [a;b] [a b]

Αναφορές Η παρουσίαση χρησιμοποίησε υλικό, σχήματα και παραδείγματα από αντίστοιχες παρουσιάσεις των συναδέλφων: Α. Αργυρίου. Εργαστήριο Φυσικής της Ατμόσφαιρας, Παν/μιο Πάτρας P. Andras, Unvers of Necasle Ν. Σίμου και Β. Σπύρου, Εργαστήριο Εικόνας, Βίντεο και Πολυμέσων, ΕΜΠ Γ. Παπαδουράκη, ΤΕΙ Κρήτης

Αξίζει επίσης να δείτε αυτό: hps://.ouube.com/ach?varcaruvnk k&0s