Μπεϋζιανά & Νευρωνικά Δίκτυα

Σχετικά έγγραφα
Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

Solution Series 9. i=1 x i and i=1 x i.

ΚΥΠΡΙΑΚΗ ΕΤΑΙΡΕΙΑ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ 6/5/2006

Fractional Colorings and Zykov Products of graphs

ΚΥΠΡΙΑΚΗ ΕΤΑΙΡΕΙΑ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ 19/5/2007

Other Test Constructions: Likelihood Ratio & Bayes Tests

Bayesian statistics. DS GA 1002 Probability and Statistics for Data Science.

Αιτιολόγηση με αβεβαιότητα

C.S. 430 Assignment 6, Sample Solutions

HY380 Αλγόριθμοι και πολυπλοκότητα Hard Problems

ΚΥΠΡΙΑΚΗ ΕΤΑΙΡΕΙΑ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ 24/3/2007

Phys460.nb Solution for the t-dependent Schrodinger s equation How did we find the solution? (not required)

Example Sheet 3 Solutions

CHAPTER 25 SOLVING EQUATIONS BY ITERATIVE METHODS

Κατηγοριοποίηση. Εξόρυξη Δεδομένων και Αλγόριθμοι Μάθησης. 2 ο Φροντιστήριο. Σκούρα Αγγελική

1η εργασία για το μάθημα «Αναγνώριση προτύπων»

2 Composition. Invertible Mappings

EE512: Error Control Coding

HMY 795: Αναγνώριση Προτύπων

Math 6 SL Probability Distributions Practice Test Mark Scheme

Overview. Transition Semantics. Configurations and the transition relation. Executions and computation

Πανεπιστήμιο Κύπρου Πολυτεχνική Σχολή

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON

Lecture 2. Soundness and completeness of propositional logic

ΕΚΠ 413 / ΕΚΠ 606 Αυτόνοµοι (Ροµ οτικοί) Πράκτορες

ΕΚΠ 413 / ΕΚΠ 606 Αυτόνοµοι (Ροµ οτικοί) Πράκτορες

Every set of first-order formulas is equivalent to an independent set

Μάθηση Λανθανόντων Μοντέλων με Μερικώς Επισημειωμένα Δεδομένα (Learning Aspect Models with Partially Labeled Data) Αναστασία Κριθαρά.

Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

6.3 Forecasting ARMA processes

DESIGN OF MACHINERY SOLUTION MANUAL h in h 4 0.

ΕΙΣΑΓΩΓΗ ΣΤΗ ΣΤΑΤΙΣΤΙΚΗ ΑΝΑΛΥΣΗ

Main source: "Discrete-time systems and computer control" by Α. ΣΚΟΔΡΑΣ ΨΗΦΙΑΚΟΣ ΕΛΕΓΧΟΣ ΔΙΑΛΕΞΗ 4 ΔΙΑΦΑΝΕΙΑ 1

w o = R 1 p. (1) R = p =. = 1

«Τεχνογλωσσία VIII» Εξαγωγή πληροφοριών από κείμενα

Section 8.3 Trigonometric Equations

HMY 795: Αναγνώριση Προτύπων

Example of the Baum-Welch Algorithm

ΔΙΑΧΕΙΡΙΣΗ ΠΕΡΙΕΧΟΜΕΝΟΥ ΠΑΓΚΟΣΜΙΟΥ ΙΣΤΟΥ ΚΑΙ ΓΛΩΣΣΙΚΑ ΕΡΓΑΛΕΙΑ. Data Mining - Classification

Statistical Inference I Locally most powerful tests

Μηχανική Μάθηση Hypothesis Testing

ΚΥΠΡΙΑΚΟΣ ΣΥΝΔΕΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY 21 ος ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ Δεύτερος Γύρος - 30 Μαρτίου 2011

Ανάκτηση Πληροφορίας

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 5 o Φροντιστήριο

Calculating the propagation delay of coaxial cable

HMY 795: Αναγνώριση Προτύπων

ST5224: Advanced Statistical Theory II

5. Choice under Uncertainty

Νευρωνικά ίκτυα και Εξελικτικός. Σηµερινό Μάθηµα. επανάληψη Γενετικών Αλγορίθµων 1 η εργασία Επανάληψη νευρωνικών δικτύων Ασκήσεις εφαρµογές

Concrete Mathematics Exercises from 30 September 2016

HMY 795: Αναγνώριση Προτύπων

HMY 795: Αναγνώριση Προτύπων. Διάλεξη 2

SOLUTIONS TO MATH38181 EXTREME VALUES AND FINANCIAL RISK EXAM

Problem Set 3: Solutions

Instruction Execution Times

Numerical Analysis FMN011

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Second Order Partial Differential Equations

CHAPTER 48 APPLICATIONS OF MATRICES AND DETERMINANTS

The Simply Typed Lambda Calculus

2. THEORY OF EQUATIONS. PREVIOUS EAMCET Bits.

Neural'Networks' Robot Image Credit: Viktoriya Sukhanova 123RF.com

Elements of Information Theory

ENGR 691/692 Section 66 (Fall 06): Machine Learning Assigned: August 30 Homework 1: Bayesian Decision Theory (solutions) Due: September 13

6.1. Dirac Equation. Hamiltonian. Dirac Eq.

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

Partial Differential Equations in Biology The boundary element method. March 26, 2013

Αναγνώριση Προτύπων (Pattern Recognition) Μπεϋζιανή Θεωρία Αποφάσεων (Bayesian Decision Theory) Π. Τσακαλίδης

Parametrized Surfaces

Homework 3 Solutions

Approximation of distance between locations on earth given by latitude and longitude

Διακριτικές Συναρτήσεις

Estimation for ARMA Processes with Stable Noise. Matt Calder & Richard A. Davis Colorado State University

ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΡΗΤΗΣ. Ψηφιακή Οικονομία. Διάλεξη 10η: Basics of Game Theory part 2 Mαρίνα Μπιτσάκη Τμήμα Επιστήμης Υπολογιστών

Ordinal Arithmetic: Addition, Multiplication, Exponentiation and Limit

Δέντρα Απόφασης (Decision(

ΚΥΠΡΙΑΚΗ ΕΤΑΙΡΕΙΑ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ 11/3/2006

A Note on Intuitionistic Fuzzy. Equivalence Relation

Reminders: linear functions

Απόκριση σε Μοναδιαία Ωστική Δύναμη (Unit Impulse) Απόκριση σε Δυνάμεις Αυθαίρετα Μεταβαλλόμενες με το Χρόνο. Απόστολος Σ.

Υπολογιστική Φυσική Στοιχειωδών Σωματιδίων

4.6 Autoregressive Moving Average Model ARMA(1,1)

b. Use the parametrization from (a) to compute the area of S a as S a ds. Be sure to substitute for ds!

HOMEWORK 4 = G. In order to plot the stress versus the stretch we define a normalized stretch:

Εξόρυξη Γνώσης από Βιολογικά εδομένα

Διδάσκουσα: Χάλκου Χαρά,

SCHOOL OF MATHEMATICAL SCIENCES G11LMA Linear Mathematics Examination Solutions

3.4 SUM AND DIFFERENCE FORMULAS. NOTE: cos(α+β) cos α + cos β cos(α-β) cos α -cos β

IIT JEE (2013) (Trigonomtery 1) Solutions

A Bonus-Malus System as a Markov Set-Chain. Małgorzata Niemiec Warsaw School of Economics Institute of Econometrics

Πρόβλημα 1: Αναζήτηση Ελάχιστης/Μέγιστης Τιμής

Εργαστήριο Ανάπτυξης Εφαρμογών Βάσεων Δεδομένων. Εξάμηνο 7 ο

Homework 8 Model Solution Section

The challenges of non-stable predicates

Potential Dividers. 46 minutes. 46 marks. Page 1 of 11

Το μοντέλο Perceptron

Areas and Lengths in Polar Coordinates

ΤΜΗΜΑ ΔΙΑΧΕΙΡΙΣΗΣ ΠΛΗΡΟΦΟΡΙΩΝ. Μοντέλο 3 Μ οοποοιοης. Αξιολόγηση αποτελεσμάτων συσταδοποίησης. Μπαμπαλιάρης Αθανάσιος.

Ασκήσεις μελέτης της 19 ης διάλεξης

Homomorphism in Intuitionistic Fuzzy Automata

Transcript:

Μπεϋζιανά & Νευρωνικά Δίκτυα Εξόρυξη Δεδομένων και Αλγόριθμοι Μάθησης 4o Φροντιστήριο Σκούρα Αγγελική skoura@ceid.upatras.gr

1 ο Μέρος Φροντιστηρίου: Μπεϋζιανά Δίκτυα

Εισαγωγή στα Μπεϋζιανά Δίκτυα (1/2) Πρόκειται για κατηγοριοποιητές που κάνουν αποτίμηση πιθανοτήτων και όχι πρόβλεψη. Αυτό πολλές φορές είναι πιο χρήσιμο και αποτελεσματικό. Εδώ οι προβλέψεις έχουν έναν βαθμό και σκοπός είναι το αναμενόμενο κόστος να ελαχιστοποιείται. Βασίζεται στη στατιστική θεωρία κατηγοριοποίησης του Bayes. Στόχος είναι να κατηγοριοποιηθεί ένα δείγμα Χ σε μια από τις δεδομένες κατηγορίες C1,C2,..,Cn χρησιμοποιώντας ένα μοντέλο πιθανότητας που ορίζεται σύμφωνα με τη θεωρία του Bayes. Ένα Bayesian δίκτυο είναι ένα γραφικό μοντέλο που κωδικοποιεί πιθανοτικές σχέσεις ανάμεσα σε ένα σύνολο μεταβλητών.

Εισαγωγή στα Μπεϋζιανά Δίκτυα (2/2) 1. Κάθε κατηγορία χαρακτηρίζεται από μια εκ των προτέρων πιθανότητα. 2. Υποθέτουμε πως το δεδομένο δείγμα Χ ανήκει σε μια κλάση Ci. 3. Βασισμένοι στους ορισμούς και τα παραπάνω καθορίζουμε την εκ των υστέρων πιθανότητα.

Μπεϋζιανοί κατηγοριοποιητές Ο πιο γνωστός Bayesian κατηγοριοποιητής είναι ο naive Bayesian κατηγοριοποιητής. Υποθέτει πως η επίδραση ενός γνωρίσματος σε μια δεδομένη κατηγορία είναι ανεξάρτητη από τις τιμές των άλλων γνωρισμάτων. Ένας άλλος Bayesian κατηγοριοποιητής είναι τα Bayesian Belief Networks Είναι γραφικά μοντέλα που επιτρέπουν την παρουσίαση των εξαρτήσεων μεταξύ των υποσυνόλων των γνωρισμάτων

Κανόνας Bayes Σημαντικός νόμος πιθανοτήτων, ο οποίος είναι γνωστός ως κανόνας του Bayes (1700μΧ). Με απλό τρόπο ο κανόνας του Bayes μπορεί να εκφραστεί ως εξής: Όπου Ρ(a) είναι η πιθανότητα του γεγονότος a και P(a b) είναι η δεσμευμένη πιθανότητα του a δεδομένου του γεγονότος b.

Παράδειγμα εφαρμογής Κανόνα Bayes Για παράδειγμα ας υποθέσουμε ότι η μηνιγγίτιδα μπορεί να προκαλέσει δύσκαμπτο λαιμό σε ποσοστό 50%. Επιπλέον υποθέτουμε ότι γνωρίζουμε από πληθυσμιακές μελέτες ότι ένας στους 50.000 ανθρώπους έχουν μηνιγγίτιδα και ένας στους 20 έχει δύσκαμπτο λαιμό. Θέλουμε να βρούμε την πιθανότητα ένας ασθενής που παραπονιέται για δύσκαμπτο να έχει μηνιγγίτιδα. Αναλυτικότερα πόσο πιθανή είναι η μηνιγγίτιδα δοθέντος δύσκαμπτου λαιμού.

Παράδειγμα εφαρμογής Κανόνα Bayes P(μηνιγγίτιδα δύσκαμπτος λαιμός) = P(δύσκαμπτος λαιμός μηνιγγίτιδα) x Ρ(μηνιγγίτιδα) / Ρ(δύσκαμπτος λαιμός)= Επομένως εάν ένας ασθενής παραπονιέται ότι έχει δύσκαμπτο λαιμό τότε η πιθανότητα αυτό να οφείλεται από μηνιγγίτιδα είναι μόνο 0.0002

Πεποιθήσεις - Ενδείξεις Ο όρος πεποιθήσεις (beliefs) αναφέρεται στην πιθανότητα του να είναι μια μεταβλητή σε μία συγκεκριμένη κατάσταση. Οι εκ των προτέρων πεποιθήσεις (a-priori beliefs) αποτελούν ειδική περίπτωση πεποιθήσεων που βασίζονται αποκλειστικά σε πρότερη πληροφορία. Η ένδειξη (evidence) είναι πληροφορία σχετικά με μία τρέχουσα κατάσταση.

Παραλλαγή κανόνα Bayes χρησιμοποιώντας πεποιθήσεις - ενδείξεις Ένας περισσότερο πολύπλοκος τρόπος έκφρασης του κανόνα του Bayes ο οποίος περιλαμβάνει υπόθεση, πρότερη εμπειρία και ένδειξη είναι ο εξής: Με την παραπάνω σχέση μπορούμε να ανανεώσουμε την πεποίθησή μας για την υπόθεση Η δοθείσας της πρόσθετης ένδειξης Ε και της πρότερης εμπειρίας c Ο αριστερός όρος P(H E,c) ονομάζεται μεταγενέστερη (posterior) πιθανότητα ή αλλιώς πιθανότητα της υπόθεσης Η αφού λάβουμε υπόψη τη συνέπεια της ένδειξης Ε στην πρότερη εμπειρία c Ο όρος P(H c) καλείται εκ των προτέρων (a-priori) πιθανότητα της Η δοθείσας μόνο της c Ο όρος Ρ(Ε Η,c) καλείται πιθανοφάνεια (likelihood) και δίνει την πιθανότητα της ένδειξης αν δεχτούμε ότι η υπόθεση Η και η πρότερη πληροφορία c είναι αληθείς (true) Τέλος ο όρος Ρ(Ε c) είναι ανεξάρτητος του H και μπορεί να θεωρηθεί ως παράγοντας κανονικοποίησης

Απεικόνιση Bayesian Δικτύων Ένα Bayesian δίκτυο είναι ένας άκυκλος γράφος Κάθε μεταβλητή σε ένα Bayesian δίκτυο αναπαριστάται με έναν κόμβο Κάθε κόμβος διαθέτει καταστάσεις ή διαφορετικά ένα σύνολο από πιθανές τιμές που αντιστοιχούν σε κάθε μεταβλητή Οι κόμβοι συνδέονται μεταξύ τους με κατευθυνόμενα βέλη (πλευρές-edges) τα οποία φανερώνουν την αλληλεξάρτηση των μεταβλητών υποδεικνύοντας και την κατεύθυνση της επιρροής Σε κάθε κόμβο αντιστοιχεί και ένας πίνακας υπό συνθήκη πιθανοτήτων (conditional probability table)

Απεικόνιση Bayesian Δικτύων Σύνολο μεταβλητών και σύνολο κατευθυνόμενων συνδέσμων Κάθε μεταβλητή έχει ένα πεπερασμένο σύνολο αμοιβαία αποκλειόμενων καταστάσεων Οι μεταβλητές μαζί με τους κατευθυνόμενους συνδέσμους σχηματίζουν έναν κατευθυνόμενο γράφο Για κάθε μεταβλητή Α με γονείς Β 1, Β 2,..Β ν υπάρχει ένας πίνακας εξαρτημένων πιθανοτήτων P(A Β 1, Β 2,..Β ν )

Πίνακες πιθανοτήτων Η υπό συνθήκη πιθανότητα καθορίζεται μαθηματικά με τη σχέση Ρ(x p1,p2,..pn), και εκφράζει την πιθανότητα του να βρίσκεται η μεταβλητή Χ σε μια κατάσταση x εάν ο πατέρας Ρ1 βρίσκεται στην κατάσταση p1, ο πατέρας Ρ2 στην κατάσταση p2,..., και ο πατέρας Ρn στην κατάσταση pn. Οι κόμβοι που δεν έχουν πατέρα έχουν κι αυτοί πίνακα υπό συνθήκη πιθανοτήτων για κάθε κατάσταση του κόμβου

1 ο Παράδειγμα Bayesian Δικτύου Κόμβοι, πλευρές και καταστάσεις σε ένα Βayesian Δίκτυο

2 ο Παράδειγμα Bayesian Δικτύου Εδώ έχουμε ένα simple Bayesian network για τα δεδομένα weather Έχει έναν κόμβο για καθέναν από τα 4 χαρακτηριστικά outlook, temperature, humidity, και windy και ένα για το class attribute play Σε κάθε πίνακα παρουσιάζεται η κατανομή πιθανότητας που χρησιμοποιείται για την πρόβλεψη των πιθανοτήτων της class για κάθε δοσμένο instance. Το άθροισμα των πιθανοτήτων σε κάθε γραμμή είναι πάντα 1

Naïve Bayesian Classification The naïve Bayesian classifier, or simple Bayesian classifier, works as follows in 4 steps: 1. Let D be a training set of tuples and their associated class labels. Each tuple is represented by an n-dimensional attribute vector, X = (x1, x2,, xn), depicting n measurements made on the tuple from n attributes, respectively, A1, A2,, An

Naïve Bayesian Classification 2. Suppose that there are m classes, C1, C2,, Cm. Given a tuple, X, the classifier will predict that X belongs to the class having the highest posterior probability, conditioned on X. That is, the naïve Bayesian classifier predicts that tuple X belongs to the class Ci if and only if P(Ci X) > P(Cj X) for 1 j m, j i. Thus we maximize P(Ci X). The class Ci for which P(Ci X) is maximized is called the maximum posteriori hypothesis. By Bayes theorem

Naïve Bayesian Classification 3. Given data sets with many attributes, it would be extremely computationally expensive to compute P(X Ci). In order to reduce computation in evaluating P(X Ci), the naive assumption of class conditional independence is made. This presumes that the values of the attributes are conditionally independent of one another, given the class label of the tuple (i.e., that there are no dependence relationships among the attributes). Thus, We can easily estimate the probabilities P(x1 Ci), P(x2 Ci),, P(xn Ci) from the training tuples. Recall that here xk refers to the value of attribute Ak for tuple X.

Naïve Bayesian Classification 4. In order to predict the class label of X, P(Xj Ci)P(Ci) is evaluated for each class Ci. The classifier predicts that the class label of tuple X is the class Ci if and only if P(Xj Ci)P(Ci) > P(Xj Cj)P(Cj), 1 j m, j i. In other words, the predicted class label is the class Ci for which P(Xj Ci)P(Ci) is the maximum.

Παράδειγμα: Naïve Bayesian Classification

2 ο Μέρος Φροντιστηρίου: Νευρωνικά Δίκτυα

Εισαγωγή στα Νευρωνικά δίκτυα (1/4) Οι μέθοδοι εδώ χρησιμοποιούν τα νευρωνικά δίκτυα για να κατασκευάζουν ένα μοντέλο κατηγοριοποίησης ή πρόβλεψης Το μοντέλο που παράγεται από το δίκτυο εφαρμόζεται για να προβλέψει τις κατηγορίες των μη κατηγοριοποιημένων δειγμάτων

Εισαγωγή στα Νευρωνικά δίκτυα (2/4) Βήματα: Αναγνώριση των χαρακτηριστικών εισόδου και εξόδου Κατασκευή ενός δικτύου με την κατάλληλη αρχιτεκτονική Επιλογή του σωστού συνόλου εκπαίδευσης Εκπαίδευση του δικτύου με βάση ένα αντιπροσωπευτικό σύνολο δεδομένων που θα απεικονίζονται έτσι ώστε να μεγιστοποιηθεί η δυνατότητα του δικτύου να αναγνωρίζει τα πρότυπα Έλεγχος του δικτύου με χρήση κατάλληλου συνόλου ελέγχου που θα είναι ανεξάρτητο από το σύνολο εκπαίδευσης

Εισαγωγή στα Νευρωνικά δίκτυα (3/4) Αποτελούνται από νευρώνες με βάση την νευρωνική δομή του εγκεφάλου Επεξεργάζονται τα στοιχεία ένα κάθε φορά και μαθαίνουν συγκρίνοντας τη κατηγοριοποίηση τους για μια εγγραφή με τη γνωστή πραγματική κατηγοριοποίηση της εγγραφής. Τα λάθη από την αρχική κατηγοριοποίηση της πρώτης εγγραφής επανατροφοδοτούνται στο δίκτυο και χρησιμοποιούνται για να τροποποιήσουν τον αλγόριθμο δικτύων τη δεύτερη φορά. Η διαδικασία αυτή γίνεται ακολουθιακά.

Εισαγωγή στα Νευρωνικά δίκτυα (4/4) Ένα νευρώνας σε ένα τεχνητό νευρωνικό δίκτυο περιλαμβάνει: ένα σύνολο βαρών (wi)εισερχόμενων συσχετιζόμενων με τις τιμές (xi) και μια συνάρτηση που αθροίζει τα βάρη και αντιστοιχεί τα αποτελέσματα σε μια έξοδο (y) Το δίκτυο οργανώνεται σε επίπεδα. Υπάρχουν νευρώνες: 1. Εισόδου 2. Κρυφού επιπέδου 3. Εξόδου

Συνάρτηση Ενεργοποίησης Εάν x ki είναι η i-οστή είσοδος του k νευρώνα, w ki : το i-οστό συναπτικό βάρος του k νευρώνα και η συνάρτηση ενεργοποίησης του νευρωνικού δικτύου, τότε η έξοδος y k του k νευρώνα δίνεται από την εξίσωση: Συναρτήσεις ενεργοποίησης: Η συνάρτηση ενεργοποίησης μπορεί να είναι βηματική, γραμμική, μη γραμμική, στοχαστική. Βηματική συνάρτηση ενεργοποίησης Γραμμική συνάρτηση ενεργοποίησης Η γραμμική συνάρτηση ενεργοποίησης μπορεί να είναι: ή οποιαδήποτε άλλη γραμμική συνάρτηση. Μη γραμμική συνάρτηση ενεργοποίησης Η μη γραμμική συνάρτηση ενεργοποίησης που χρησιμοποιείται συνήθως στα νευρωνικά δίκτυα καλείται σιγμοειδής συνάρτηση:

Νευρωνικά δίκτυα στο WEKA (1/2) WEKA provides user control of training parameters: # of iterations or epochs ( training time ) Increment of weight adjustments in back propagation ( learning rate ) Controls on varying changes to increments ( momentum )

Νευρωνικά δίκτυα στο WEKA (2/2) Momentum: the learning rate Epochs: the number of passes it will take through the data The network stops when the specified number of epochs is reached With autobuild set, hidden layers are added and connected up

Perceptron networks (Based on http://hagan.okstate.edu/4_perceptron.pdf) Δεδομένα εκπαίδευσης : {p 1, t 1 } {p 2,t 2 } {p n,t n } where p is an input to the network and t is the corresponding correct (target) output The output of the network is given by a = hardlim(wp + b)

Single-Neuron Perceptron Example of a two-input perceptron with one neuron

Παράδειγμα 1: Υπολογισμός βαρών σε Single-Neuron Perceptron

Παράδειγμα 1: Υπολογισμός βαρών σε Single-Neuron Perceptron Τυχαία αρχικοποίηση: w =[1.0, 0.8], b=0 Perceptron Learning Rule for updating the weights First we define the perceptron error e = t a = target output Με βάση τον Perceptron Learning Rule, για το παράδειγμα της προηγούμενης διαφάνειας έχουμε τελικά w =[3, 0.2]. Αναλυτική λύση του παραδείγματος θα βρείτε στη διεύθυνση http://hagan.okstate.edu/4_perceptron.pdf

Παράδειγμα 2: Υπολογισμός βαρών σε Single-Neuron Perceptron Βρείτε τα βάρη και τη παράμετρο b ενός single neuron perceptron για τα ακόλουθα τρία προβλήματα κατηγοριοποίησης Ενδεικτική λύση:

Παράδειγμα 3: Υπολογισμός βαρών σε Multilayer Perceptron Υπολογίστε τα βάρη του πολυεπίπεδου Perceptron που λύνει το ακόλουθο πρόβλημα κατηγοριοποίησης

Γενική Αρχιτεκτονική ενός Multilayer Perceptron

Παράδειγμα 3: Υπολογισμός βαρών σε Multilayer Perceptron First Boundary: a 1 1 = Second Boundary: a 2 1 = hardlim 1 0 p + 0.5 hardlim 0 1 p + 0.75 First Subnetwork

Παράδειγμα 3: Υπολογισμός βαρών σε Multilayer Perceptron Third Boundary: Fourth Boundary: Second Subnetwork

Παράδειγμα 3: Υπολογισμός βαρών σε Multilayer Perceptron Total Network W 2 = 1 1 0 0 b 2 = 1.5 0 0 1 1 1.5 W 3 = 1 1 b 3 = 0.5

Απορίες?