Νευρωνικά ίκτυα και Εξελικτικός

Σχετικά έγγραφα
Μέθοδοι Μηχανών Μάθησης για Ευφυή Αναγνώριση και ιάγνωση Ιατρικών εδοµένων

Νευρωνικά ίκτυα και Εξελικτικός. Σηµερινό Μάθηµα. επανάληψη Γενετικών Αλγορίθµων 1 η εργασία Επανάληψη νευρωνικών δικτύων Ασκήσεις εφαρµογές

ΔΙΚΤΥO RBF. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

ΚΥΠΡΙΑΚΗ ΕΤΑΙΡΕΙΑ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ 19/5/2007

3.4 SUM AND DIFFERENCE FORMULAS. NOTE: cos(α+β) cos α + cos β cos(α-β) cos α -cos β

Νευρωνικά Δίκτυα στο Matlab

ΚΥΠΡΙΑΚΗ ΕΤΑΙΡΕΙΑ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ 6/5/2006

Reminders: linear functions

Approximation of distance between locations on earth given by latitude and longitude

Second Order RLC Filters

PARTIAL NOTES for 6.1 Trigonometric Identities

Ασκήσεις μελέτης της 19 ης διάλεξης

ΨΗΦΙΑΚΗ ΕΠΕΞΕΡΓΑΣΙΑ ΕΙΚΟΝΑΣ

Αναγνώριση Προτύπων. Μη παραμετρικές τεχνικές Αριθμητικά. (Non Parametric Techniques)

EPL 603 TOPICS IN SOFTWARE ENGINEERING. Lab 5: Component Adaptation Environment (COPE)

Meta-Learning and Universality

Διακριτικές Συναρτήσεις

ΕΙΣΑΓΩΓΗ ΣΤΗ ΣΤΑΤΙΣΤΙΚΗ ΑΝΑΛΥΣΗ

Main source: "Discrete-time systems and computer control" by Α. ΣΚΟΔΡΑΣ ΨΗΦΙΑΚΟΣ ΕΛΕΓΧΟΣ ΔΙΑΛΕΞΗ 4 ΔΙΑΦΑΝΕΙΑ 1

Bayesian statistics. DS GA 1002 Probability and Statistics for Data Science.

HMY 795: Αναγνώριση Προτύπων. Διαλέξεις 15-16

Homework 3 Solutions

ST5224: Advanced Statistical Theory II

2 Composition. Invertible Mappings

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Other Test Constructions: Likelihood Ratio & Bayes Tests

Partial Differential Equations in Biology The boundary element method. March 26, 2013

EE512: Error Control Coding

Τεχνητή Νοημοσύνη. 19η διάλεξη ( ) Ίων Ανδρουτσόπουλος.

Πρόβλημα 1: Αναζήτηση Ελάχιστης/Μέγιστης Τιμής

Ordinal Arithmetic: Addition, Multiplication, Exponentiation and Limit

Nowhere-zero flows Let be a digraph, Abelian group. A Γ-circulation in is a mapping : such that, where, and : tail in X, head in

Statistical Inference I Locally most powerful tests

The challenges of non-stable predicates

Μοντέλο Perceptron πολλών στρωμάτων Multi Layer Perceptron (MLP)

Προσομοίωση Νευρωνικού Δικτύου στο MATLAB. Κυριακίδης Ιωάννης 2013

Affine Weyl Groups. Gabriele Nebe. Summerschool GRK 1632, September Lehrstuhl D für Mathematik

ΚΥΠΡΙΑΚΗ ΕΤΑΙΡΕΙΑ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ 24/3/2007

Solutions to the Schrodinger equation atomic orbitals. Ψ 1 s Ψ 2 s Ψ 2 px Ψ 2 py Ψ 2 pz

Repeated measures Επαναληπτικές μετρήσεις

Section 8.3 Trigonometric Equations

HMY 795: Αναγνώριση Προτύπων

ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΡΗΤΗΣ. Ψηφιακή Οικονομία. Διάλεξη 7η: Consumer Behavior Mαρίνα Μπιτσάκη Τμήμα Επιστήμης Υπολογιστών

Numerical Analysis FMN011

Overview. Transition Semantics. Configurations and the transition relation. Executions and computation

Πανεπιστήμιο Αιγαίου

5.4 The Poisson Distribution.

Fractional Colorings and Zykov Products of graphs

Areas and Lengths in Polar Coordinates

HMY 795: Αναγνώριση Προτύπων

Modbus basic setup notes for IO-Link AL1xxx Master Block

Lecture 2: Dirac notation and a review of linear algebra Read Sakurai chapter 1, Baym chatper 3

ω ω ω ω ω ω+2 ω ω+2 + ω ω ω ω+2 + ω ω+1 ω ω+2 2 ω ω ω ω ω ω ω ω+1 ω ω2 ω ω2 + ω ω ω2 + ω ω ω ω2 + ω ω+1 ω ω2 + ω ω+1 + ω ω ω ω2 + ω

ΜΟΝΤΕΛΑ ΛΗΨΗΣ ΑΠΟΦΑΣΕΩΝ

ΧΑΡΟΚΟΠΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΜΑΤΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ. Καραγιώργου Σοφία

Νευρωνικά ίκτυα. Σηµερινό Μάθηµα

Ασκήσεις Φροντιστηρίου «Υπολογιστική Νοημοσύνη Ι» 3ο Φροντιστήριο

6.3 Forecasting ARMA processes

CHAPTER 48 APPLICATIONS OF MATRICES AND DETERMINANTS

Inverse trigonometric functions & General Solution of Trigonometric Equations

Math 6 SL Probability Distributions Practice Test Mark Scheme

Instruction Execution Times

Areas and Lengths in Polar Coordinates

ΠΑΝΕΠΙΣΤΗΜΙΟ ΜΑΚΕ ΟΝΙΑΣ ΟΙΚΟΝΟΜΙΚΩΝ ΚΑΙ ΚΟΙΝΩΝΙΚΩΝ ΕΠΙΣΤΗΜΩΝ ΤΜΗΜΑ ΕΦΑΡΜΟΣΜΕΝΗΣ ΠΛΗΡΟΦΟΡΙΚΗΣ ΝΕΥΡΩΝΙΚΑ ΙΚΤΥΑ

Μάθηση και Γενίκευση. "Τεχνητά Νευρωνικά Δίκτυα" (Διαφάνειες), Α. Λύκας, Παν. Ιωαννίνων

Estimation for ARMA Processes with Stable Noise. Matt Calder & Richard A. Davis Colorado State University

Αναγνώριση Προτύπων Ι

SCHOOL OF MATHEMATICAL SCIENCES G11LMA Linear Mathematics Examination Solutions

HY380 Αλγόριθμοι και πολυπλοκότητα Hard Problems

ΠΕΡΙΕΧΟΜΕΝΑ. Μάρκετινγκ Αθλητικών Τουριστικών Προορισμών 1

The Simply Typed Lambda Calculus

ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΥΠΡΟΥ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ. ΕΠΛ342: Βάσεις Δεδομένων. Χειμερινό Εξάμηνο Φροντιστήριο 10 ΛΥΣΕΙΣ. Επερωτήσεις SQL

CRASH COURSE IN PRECALCULUS

ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ Αίθουσα Νέα Κτίρια ΣΗΜΜΥ Ε.Μ.Π. Ανάλυση Κυρίων Συνιστωσών (Principal-Component Analysis, PCA)

Trigonometric Formula Sheet

Σχέσεις, Ιδιότητες, Κλειστότητες

ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ Αίθουσα Νέα Κτίρια ΣΗΜΜΥ Ε.Μ.Π.

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Jesse Maassen and Mark Lundstrom Purdue University November 25, 2013

4.6 Autoregressive Moving Average Model ARMA(1,1)

An Inventory of Continuous Distributions

Γραµµικοί Ταξινοµητές

Πανεπιστήµιο Κύπρου Πολυτεχνική Σχολή

1. Πόσοι αριθμοί μικρότεροι του διαιρούνται με όλους τους μονοψήφιους αριθμούς;

ΚΥΠΡΙΑΚΟΣ ΣΥΝΔΕΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY 21 ος ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ Δεύτερος Γύρος - 30 Μαρτίου 2011

Ατομική Διπλωματική Εργασία ΑΠΟΚΑΤΑΣΤΑΣΗ ΜΕΡΙΚΩΣ ΕΠΙΚΑΛΥΜΜΕΝΩΝ ΕΙΚΟΝΩΝ ΠΡΟΣΩΠΟΥ ΜΕ ΔΙΚΤΥΑ HOPFIELD ΚΑΙ ΜΗΧΑΝΕΣ BOLTZMANN.

Phys460.nb Solution for the t-dependent Schrodinger s equation How did we find the solution? (not required)

Tutorial on Multinomial Logistic Regression

ANSWERSHEET (TOPIC = DIFFERENTIAL CALCULUS) COLLECTION #2. h 0 h h 0 h h 0 ( ) g k = g 0 + g 1 + g g 2009 =?

Abstract Storage Devices

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Example Sheet 3 Solutions

Δρ. Βασίλειος Γ. Καμπουρλάζος Δρ. Ανέστης Γ. Χατζημιχαηλίδης

ΓΕΩΠΟΝΙΚΟ ΠΑΝΕΠΙΣΤΗΜΙO ΑΘΗΝΩΝ ΤΜΗΜΑ ΑΞΙΟΠΟΙΗΣΗΣ ΦΥΣΙΚΩΝ ΠΟΡΩΝ & ΓΕΩΡΓΙΚΗΣ ΜΗΧΑΝΙΚΗΣ

ΑΚΑ ΗΜΙΑ ΕΜΠΟΡΙΚΟΥ ΝΑΥΤΙΚΟΥ ΜΑΚΕ ΟΝΙΑΣ ΣΧΟΛΗ ΜΗΧΑΝΙΚΩΝ ΠΤΥΧΙΑΚΗ ΕΡΓΑΣΙΑ

ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ ΣΧΟΛΗ ΗΛΕΚΤΡΟΛΟΓΩΝ ΜΗΧΑΝΙΚΩΝ ΚΑΙ ΜΗΧΑΝΙΚΩΝ ΥΠΟΛΟΓΙΣΤΩΝ

Strain gauge and rosettes

Lecture 2. Soundness and completeness of propositional logic

Χρονοσειρές Μάθημα 3

Ζωντανό Εργαστήριο Thessaloniki Active and Healthy Ageing Living Lab Παρακολούθηση ατόμων στο σπίτι σε πραγματικό χρόνο

Transcript:

Νευρωνικά ίκτυα και Εξελικτικός Προγραµµατισµός Σηµερινό Μάθηµα RBF (Radial Basis Functions) δίκτυα Παρεµβολή συνάρτησης Θεώρηµα Cover ιαχωρισµός προτύπων Υβριδική Εκµάθηση Σύγκριση µε MLP Εφαρµογή: Αναγνώριση Προσώπου

RBF (Radial Basis Functions) δίκτυα Στα perceptron δίκτυα η ενεργοποίηση των µονάδων βασίζεται στο εσωτερικό γινόµενο µεταξύ του διανύσµατος εισόδου και των βαρών του δικτύου Στα RBF δίκτυα η ενεργοποίηση των κρυφών µονάδων βασίζεται στην απόσταση του διανύσµατος εισόδου από το πρότυπο διάνυσµα. Τα RBF δίκτυα έχουν αλγόριθµους εκπαίδευσης πιο γρήγορους από τα MLPs Παρεµβολή συνάρτησης Τα RBF προέρχονται από τεχνικές παρεµβολής συναρτήσεων Αυτέςοιτεχνικέςχρησιµοποιούν συναρτήσειςωςβάσειςπουτοποθετούνσε καθένα από τα δείγµατα εκπαίδευσης Και υπολογίζουν τους τελεστές w k ώστε το µικτό µοντέλο να έχει µηδαµινό σφάλµα h( x N h( x) = w ϕ k = k ( n ( x x ) = Φw ( n ( i ( x x ) = t w = Φ t ( N i ) = wkϕ k = 2

Παρεµβολή συνάρτησης RBF δίκτυα Τα RBF είναι εµπρός τροφοδοτούµενα δίκτυα, που αποτελούνται από: ένα κρυφό επίπεδο ακτινικού kernel, που εκτελεί µηγραµµικό µετασχηµατισµό του πεδίου εισόδου (αύξηση διαστατικότητας) ένα επίπεδο εξόδου, γραµµικών νευρόνων, που εκτελεί γραµµικό µετασχηµατισµόγιαναπροβλέψει το επιθυµητό στόχο. 3

Θεώρηµα Cover ιαχωρισµός προτύπων Ένα πολύπλοκο πρόβληµα κατηγοριοποίησης προτύπων που αποτιµάται µηγραµµικά σε διανυσµατοχώρο µεγαλύτερης διαστατικότητας είναι πιο πιθανό να είναι γραµµικά διαχωρίσιµο. Αντιστοίχηση εισόδου-κρυµµένου επιπέδου Κάθε κρυµµένος νευρώνας σε ένα RBF δίκτυο ρυθµίζεται ώστε να καλύπτει µια περιοχή του δειγµατοχώρου µιας ακτινικά συµµετρικής συνάρτησης. Η ενεργοποίηση ενός κρυφού νευρώνα εξαρτάται από την απόσταση µεταξύ του διανύσµατος εισόδου και του πρότυπου διανύσµατος µ ϕ j ( x ) = f ( x ) Ως συναρτήσεις συνηθίζονται οι Gaussian µεκέντροµ j 4

Αντιστοίχηση κρυµµένου επιπέδουεξόδου Οι µονάδες εξόδου σχηµατίζουν γραµµικούς συνδυασµούς των κρυµµένων µονάδων για να προβλέψουν την έξοδο Η ενεργοποίηση µιας µονάδας γίνεται απότοεσωτερικόγινόµενο του διανύσµατος φ µετοδιάνυσµαβαρών w y k = N j= w jk ϕ j ( x ) j + w 0k RBF δίκτυα 5

Υβριδική Εκµάθηση Τα RBF εκπαιδεύονται ακολουθώντας µια υβριδική τεχνική που δρα σε δύο στάδια: Μη επιτηρούµενη (Unsupervised) επιλογή RBF κέντρων τέτοιων ώστε να ταιριάζουν στην κατανοµήτωνδειγµάτων εκπαίδευσης Γίνεται αργά και επαναληπτικά µετη βοήθεια διαφόρων τεχνικών Επιτηρούµενος (Supervised) υπολογισµός βαρών εξόδου ώστε να ελαχιστοποιεί το τετραγωνικό σφάλµα µεταξύ εξόδου και στόχων Γίνεται µε αντιστροφή πινάκων Unsupervised επιλογή κέντρων Τυχαία επιλογή κέντρων Τυχαία επιλέγονται κάποια δείγµατα ως RBF κέντρα (γρήγορο) Ηπαράµετρος σ j µπορεί να υπολογιστεί ως η µέση απόσταση µεταξύ γειτονικών κέντρων Clustering Εναλλακτικά, τα RBF κέντρα µπορούν να υπολογιστούν µε clustering π.χ k-means Ηπαράµετρος σ j µπορεί να υπολογιστεί από την απόκλιση των δειγµάτων του κάθε cluster 6

Supervised υπολογισµός βαρών Τα βάρη υπολογίζονται µετηµέθοδο της ψευδοαντιστροφής Για το δείγµα (x i, d i ) ηέξοδοςθαείναι y ( xi ) = wϕ ( xi ) +... + wm ϕ ( xi ) Θα θέλαµε w ) = d ϕ ( xi t ) +... + wϕ ( xi t i Supervised υπολογισµός βαρών Αυτός θα µπορούσε να γραφεί T [ ϕ ( x i )... ϕm ( xi ) ][ w... wm ] = di Καιγιαόλαταδείγµατα ϕ ( x )... ϕm ( x )... [ w... w ϕ( xn )... ϕm ( xn ) ] T = [ d... d N ] T 7

Supervised υπολογισµός βαρών Αν θέσουµε: ϕ( x t ) Φ = ϕ( xn t ) Τότε γράφεται: w Φ... w d =... d N......... ϕ ( x ϕ ( x N t t ) ) Οπότε µεφ + T + T [ w... w] = Φ [ d... d N ] Ψευδό - Αντίστροφος Ένας πίνακας Φ έχει µοναδικό ψευδοαντίστροφο το Φ + που ικανοποιεί τις συνθήκες + ΦΦ Φ = Φ + + Φ ΦΦ + + Φ Φ = ( Φ Φ) Φ Φ + = Φ + = ( ΦΦ + T ) T 8

Σύγκριση µε MLP Αρχιτεκτονική: τα RBF έχουν ένα µόνο κρυφό επίπεδο. τα MLP µπορούν να έχουν περισσότερα κρυφά επίπεδα. Μοντέλο Νευρώνα: Στα RBF το µοντέλο νευρώνα (µη γραµµικό) τουκρυφούεπιπέδουείναι διαφορετικό από αυτό του επιπέδου εξόδου (γραµµικό). Στα MLP οι κρυφοί νευρώνες και οι νευρώνες εξόδου έχουν το ίδιο µοντέλο νευρώνα. Application: FACE RECOGNITION PhD thesis by Jonathan Howell 9

Datasets (Sussex) All ten images for classes 0-3 from the Sussex database, nose-centred and subsampled to 25x25 before preprocessing Dataset Sussex database (university of Sussex) 00 images of 0 people (8-bit grayscale, resolution 384 x 287) for each individual, 0 images of head in different pose from face-on to profile Designed to asses performance of face recognition techniques when pose variations occur 0

Approach: Face unit RBF A face recognition unit RBF neural networks is trained to recognize a single person. Training uses examples of images of the person to be recognized as positive evidence, together with selected confusable images of other people as negative evidence. Network Architecture Input layer contains 25*25 inputs which represent the pixel intensities (normalized) of an image. Hidden layer contains p+a neurons: p hidden pro neurons (receptors for positive evidence) a hidden anti neurons (receptors for negative evidence) Output layer contains two neurons: One for the particular person. One for all the others. The output is discarded if the absolute difference of the two output neurons is smaller than a parameter R.

RBF Architecture for one face recognition Supervised Output units Linear RBF units Non-linear Unsupervised Input units Hidden Layer Hidden nodes can be: Pro neurons: Evidence for that person. Anti neurons: Negative evidence. The number of pro neurons is equal to the positive examples of the training set. For each pro neuron there is either one or two anti neurons. Hidden neuron model: Gaussian RBF function. 2

Training and Testing Centers: of a pro neuron: the corresponding positive example of an anti neuron: the negative example which is most similar to the corresponding pro neuron, with respect to the Euclidean distance. Spread: average distance of the center from all other centers. So the spread σ n of a hidden neuron n is n h σn = t t H 2 where H is the number of hidden neurons and t is the center of neuron Weights: i determined using the pseudo-inverse method. A RBF network with 6 pro neurons, 2 anti neurons discarded 23% of the images of the test set and classified correctly 96% of the non discarded images. h 3