Primjena neuronskih mreža

Σχετικά έγγραφα
Backpropagation Multilayer Feedforward Δίκτυα. Κυριακίδης Ιωάννης 2013

INTELIGENTNO UPRAVLJANJE

Kaskadna kompenzacija SAU

Pismeni ispit iz matematike Riješiti sistem jednačina i diskutovati rješenja sistema u zavisnosti od parametra: ( ) + 1.

Numerička matematika 2. kolokvij (1. srpnja 2009.)

PRIMJER 3. MATLAB filtdemo

Pismeni ispit iz matematike GRUPA A 1. Napisati u trigonometrijskom i eksponencijalnom obliku kompleksni broj, zatim naći 4 z.

Zadaci sa prethodnih prijemnih ispita iz matematike na Beogradskom univerzitetu

(P.I.) PRETPOSTAVKA INDUKCIJE - pretpostavimo da tvrdnja vrijedi za n = k.

M086 LA 1 M106 GRP. Tema: Baza vektorskog prostora. Koordinatni sustav. Norma. CSB nejednakost

Strojno učenje Struktura metoda/algoritama strojnog učenja. Tomislav Šmuc

18. listopada listopada / 13

Konstruisati efikasan algoritam znači dati skup preciznih uputstava kako doći do rešenja zadatog problema Algoritmi se mogu opisivati:

3.1 Granična vrednost funkcije u tački

RIJEŠENI ZADACI I TEORIJA IZ

Algoritmi zadaci za kontrolni

ELEKTROTEHNIČKI ODJEL

III VEŽBA: FURIJEOVI REDOVI

Prikaz sustava u prostoru stanja

Elementi spektralne teorije matrica

APROKSIMACIJA FUNKCIJA

Strukture podataka i algoritmi 1. kolokvij 16. studenog Zadatak 1

Računarska grafika. Rasterizacija linije

DISKRETNA MATEMATIKA - PREDAVANJE 7 - Jovanka Pantović

Tri osnovna tipa optimizacije struktura. Topološka optimizacija betonskih konstrukcija. Dimenzionalna optimizacija. Optimizacija oblika

Funkcije dviju varjabli (zadaci za vježbu)

TRIGONOMETRIJSKE FUNKCIJE I I.1.

Sortiranje prebrajanjem (Counting sort) i Radix Sort

MATEMATIKA Pokažite da za konjugiranje (a + bi = a bi) vrijedi. a) z=z b) z 1 z 2 = z 1 z 2 c) z 1 ± z 2 = z 1 ± z 2 d) z z= z 2

Apsolutno neprekidne raspodele Raspodele apsolutno neprekidnih sluqajnih promenljivih nazivaju se apsolutno neprekidnim raspodelama.

2 tg x ctg x 1 = =, cos 2x Zbog četvrtog kvadranta rješenje je: 2 ctg x

2.2 Srednje vrijednosti. aritmetička sredina, medijan, mod. Podaci (realizacije varijable X): x 1,x 2,...,x n (1)

Προσομοίωση Νευρωνικού Δικτύου στο MATLAB. Κυριακίδης Ιωάννης 2013

FAKULTET PROMETNIH ZNANOSTI

Novi Sad god Broj 1 / 06 Veljko Milković Bulevar cara Lazara 56 Novi Sad. Izveštaj o merenju

numeričkih deskriptivnih mera.

Α. ΤΕΙ ΚΡΗΤΗΣ Τµήµα Εφαρµοσµένης Πληροφορικής και Πολυµέσων Εργαστήριο Νευρωνικών Δικτύων

IZVODI ZADACI ( IV deo) Rešenje: Najpre ćemo logaritmovati ovu jednakost sa ln ( to beše prirodni logaritam za osnovu e) a zatim ćemo

2. Ako je funkcija f(x) parna onda se Fourierov red funkcije f(x) reducira na Fourierov kosinusni red. f(x) cos

5. Karakteristične funkcije

Teorijske osnove informatike 1

Zavrxni ispit iz Matematiqke analize 1

Osnovni primer. (Z, +,,, 0, 1) je komutativan prsten sa jedinicom: množenje je distributivno prema sabiranju

Računarska grafika. Rasterizacija linije

IspitivaƬe funkcija: 1. Oblast definisanosti funkcije (ili domen funkcije) D f

UNIVERZITET U NIŠU ELEKTRONSKI FAKULTET SIGNALI I SISTEMI. Zbirka zadataka

PREPOZNAVANJE UZORAKA

Matematička analiza 1 dodatni zadaci

Πραγματοποίηση Νευρωνικών Δικτύων με το Matlab. Νευρωνικά Δίκτυα

Matematika 1 - vježbe. 11. prosinca 2015.

INTEGRALNI RAČUN. Teorije, metodike i povijest infinitezimalnih računa. Lucija Mijić 17. veljače 2011.

Riješeni zadaci: Limes funkcije. Neprekidnost

( , treći kolokvij) 3. Na dite lokalne ekstreme funkcije z = x 4 + y 4 2x 2 + 2y 2 3. (20 bodova)

MJERA I INTEGRAL 2. kolokvij 30. lipnja (Knjige, bilježnice, dodatni papiri i kalkulatori nisu dozvoljeni!)

MATRICE I DETERMINANTE - formule i zadaci - (Matrice i determinante) 1 / 15

Program testirati pomoću podataka iz sledeće tabele:

SISTEMI NELINEARNIH JEDNAČINA

Cauchyjev teorem. Postoji više dokaza ovog teorema, a najjednostvniji je uz pomoć Greenove formule: dxdy. int C i Cauchy Riemannovih uvjeta.

41. Jednačine koje se svode na kvadratne

Enkodiranje i dekodiranje

Termovizijski sistemi MS1TS

Funkcija gustoće neprekidne slučajne varijable ima dva bitna svojstva: 1. Nenegativnost: f(x) 0, x R, 2. Normiranost: f(x)dx = 1.

Periodičke izmjenične veličine

1. Nacrtati i objasniti algoritam propagacije greške unazad (back propagation).

3. OSNOVNI POKAZATELJI TLA

Eliminacijski zadatak iz Matematike 1 za kemičare

Algoritmi i strukture podataka - 1.cas

KONVEKSNI SKUPOVI. Definicije: potprostor, afin skup, konveksan skup, konveksan konus. 1/5. Back FullScr

IZVODI ZADACI (I deo)

DRUGI KOLOKVIJUM IZ MATEMATIKE 9x + 6y + z = 1 4x 2y + z = 1 x + 2y + 3z = 2. je neprekidna za a =

PARCIJALNI IZVODI I DIFERENCIJALI. Sama definicija parcijalnog izvoda i diferencijala je malo teža, mi se njome ovde nećemo baviti a vi ćete je,

Linearna algebra 2 prvi kolokvij,

2. KOLOKVIJ IZ MATEMATIKE 1

Mate Vijuga: Rijeseni zadaci iz matematike za srednju skolu

π π ELEKTROTEHNIČKI ODJEL i) f (x) = x 3 x 2 x + 1, a = 1, b = 1;

Trigonometrija 1. Trigonometrijska kružnica. Razumijevanje postupka izrade složenijeg matematičkog problema iz osnova trigonometrije

1 Promjena baze vektora

Zadaci iz trigonometrije za seminar

Dijagonalizacija operatora

6 Polinomi Funkcija p : R R zadana formulom

Riješeni zadaci: Nizovi realnih brojeva

Operacije s matricama

Uvod u teoriju brojeva

Klasifikacija blizu Kelerovih mnogostrukosti. konstantne holomorfne sekcione krivine. Kelerove. mnogostrukosti. blizu Kelerove.

Trigonometrija 2. Adicijske formule. Formule dvostrukog kuta Formule polovičnog kuta Pretvaranje sume(razlike u produkt i obrnuto

Dvanaesti praktikum iz Analize 1

4 Numeričko diferenciranje

Grafičko prikazivanje atributivnih i geografskih nizova

TOPOLOŠKOM OPTIMIRANJU KONSTRUKTIVNIH ELEMENATA

Program za tablično računanje Microsoft Excel

( , 2. kolokvij)

DUALNOST. Primjer. 4x 1 + x 2 + 3x 3. max x 1 + 4x 2 1 3x 1 x 2 + x 3 3 x 1 0, x 2 0, x 3 0 (P ) 1/9. Back FullScr

Mašinsko učenje. Regresija.

Moguća i virtuelna pomjeranja

MATEMATIKA 2. Grupa 1 Rexea zadataka. Prvi pismeni kolokvijum, Dragan ori

Ρεφανίδης Γιάννης. Οκτώβριος

GLAZBENA UMJETNOST. Rezultati državne mature 2010.

Ispitivanje toka i skiciranje grafika funkcija

1. Pojam fazi skupa. 2. Pojam fazi skupa. 3. Funkcija pripadnosti, osobine i oblici. 4. Funkcija pripadnosti, osobine i oblici

Otpornost R u kolu naizmjenične struje

Transcript:

INTELIGENTNO UPRAVLJANJE Primjena neuronskih mreža Vanr. Prof.dr. Lejla Banjanovic-Mehmedovic Neural Networks in Matlab net = newff(minmax(d), [h o], {'tansig', 'tansig'}, 'traincgf'); net = train(net, D, L); test_out = sim(net, testd); where: D is training data feature vectors (row vector) L is labels for training data testd is testing data feature vectors h is number of hidden units o is number of outputs 1

Neuronske mreže kao aproksimatori funkcija Ulaz: Pomoćna varijabla: Izlaz: i x i x i, x n i x, 1, 2 Skup podataka za treniranje: T zi z i z i,, z n i 1, 2, y i G x i z i G x1, y1,, xm, ym z T Definicija problema aproksimacije funkcije Problem aproksimacije je određivanje optimalnih vrijednosti parametara θ = θ * uz koje je funkcija F najbolja aproksimacija funkcije G: Kao mjera kvaliteta: F(, x), G( x) F(, x), G( x), R n( ) p F(, x), G( x) G( x) F(, x) G( ) F(, ) dx p x x C N v1 v1 Stone Weierstrassov-ova teorema Kolmogorov teorema 1 p 2 N 2 G( x( v)) F(, x( v)) G( x( v)) F(, x( v)) 2

Primjer 1. Problem računanja pritiska idealnog plina. p = nrt/v Način kreiranja uzoraka iz eksperimentalnih mjerenja. Ulazne varijable su masa i zapremina, a izlazna varijabla je pritisak, tj. ulazno-izlazni parovi za proces treniranja su oblika: G((n(i),V(i),p(i)). Primjer 1. Najveći zahtjevi u rješavanju datog problema: u određivanju strukture odgovarajuće neuronske mreže, forme aktivacionih funkcija, funkcija učenja. 3

Primjer 1: neuronske mreže kao aproksimatori funkcije % Postavljanje parametara treniranja n=1:100; % molarna masa [mol] p = nrt/v V=linspace(2,50,100); % zapremina [m^3] T=293.15; % konstanta - termodinamicka temperatura [K] (25 [C]) R=8.314472; %univerzalna plinska konstanta [J/(Kmol)] target = n*r*t./v; %prema zakonu za idealne plinove pv=nrt input = [n;v]; %ulazne varijable su masa i zapremina % Kreiranje neuronske mreže net = newff([min(n) max(n);min(v) max(v)],[5 1], {'logsig','purelin'},'trainlm'); % Parametri treniranja mreže. net.trainparam.show=nan; net.trainparam.epochs=100; net.trainparam.lr=0.05; net.trainparam.goal=1e-3; Primjer 1: neuronske mreže kao aproksimatori funkcije % Treniranje mreže. net=train(net,input(:,1:2:100),target(1:2:100)); input(: target(1:2:100)); % Testiranje trenirane mreže. output=sim(net,input); greska=(output-target)*100/max(target); % Prikaz rezultata plot(target,'o'); %zeljeni pritisak hold on plot(output, 'g*'); %dobijeni pritisak title('treniranje neuronske mreže'); 4

Primjer 2. Primjena neuronske mreže u aproksimaciji sljedeće složenije funkcije : y sin( x)cos(3 x) Primjer 2: neuronske mreže kao aproksimatori funkcije % Kreiranje neuronske mreže net2=newff([-pi pi], [50 1], {'tansig' 'purelin'}); % Postavljanje parametara treniranja net2.performfcn='mse'; net2.trainfcn='traingdx'; % algoritam ucenja opadajuci gradijent net2.trainparam.epochs=5000; % maksimalan broj epoha net2.trainparam.goal=0.0001; % ciljna greška % Definisanje uzoraka treniranja x=-pi:0.1:pi; y=sin(x).*cos(3*x); P=x; T=y; % Treniranje mreže [trained_net2, tr]=train(net2,p,t); % Testiranje trenirane mreže x_t=-pi:0.15:pi; y_t=sim(trained_net2,x_t); 5

Primjer 3: Aproksimacija funcije prema ulaznim uzorcima P1 = [1 1-2 -1 0]; P2 = [ 2-2 2 1 0]; % Ulazni uzorci P1 & P2 T = [0 1 0 1 0.5]; % Izlazna vrijednost T P = [P1; P2]; % kreiranje matrice ulaza net = newff([-2 2; -3 3],[5 1],{'tansig' 'purelin'}); % 2-5-1 Neur. mreža sa ulaznim opsegom Y = sim(net,p); net.trainparam.epochs = 100; % Treniranje određeni broj epoha net = train(net,p,t); YTrained = sim(net,p); u1 = -2:0.25:2; N1 = length(u1); u2 = -3:0.25:3; N2 = length(u2); for j = 1: N1 for i = 1: N2 y(i,j) = sim(net,[u1(j); u2(i)]); end; end; figure(2); plot3(p1,p2,t, 'ko', P1,P2,YTrained,'rx'); hold; mesh(u1, u2, y ); grid; hold off xlabel('p1'); ylabel('p2'); zlabel('y'); h=title('2-ulaza 5-slojeva 1-izlaz FF Neuron'); set(h,'fontsize',12); RBF MREŽE NEWRB dodaje neurone u skriveni sloj RBF mreže sve dok se ne dostigne specificirana srednja kvadratna greška. Radial basis funkcija za implementaciju u Matlabu: net = newrb(p,t,goal,spread, MN, DF) gdje su : P ulazni vektor podataka T ciljni vektor izlaza GOAL srednje kavadratna greška (default = 0.0) SPREAD širina radial basis funkcija (default = 1.0) MN maksimalan broj neurona, default Q. DF broj neurona koji se dodaje između prikaza, default = 25. 6

Primjer 4. RBF mreže kao aproksimatori Generisati ulazne podatke za funkciju 2 yx ( ) x 3x kada je 4 x 4 Izvršiti aprokimaciju sa RBF neuronskom mrežom. Rješavanje problema pomoću MATLAB/Neural Network Toolboxa % Generisanje podataka (ukupno dobivamo 41 podatak) x=-4:0.05:4; 05:4; y=x.*x+3*x; P=x;T=y; % Grafički prikaz podataka plot(p,t, o ) grid; xlabel( time (s) ); ylabel( output ); title( parabola ) 7

Rezultati treniranja RBF mreže net1=newrb(p,t,0.01); %Simulacija podataka a= sim(net1,p); %Grafički prikaz rezultata i greške plot(p,a-t,p,t) Treniranje unaprijednih neuralnih mreža Inkrementalno treniranje: [net,a,e]=adapt(net,p,t) adaptwb težine i pragovi se pridružuju vlastitim funkcijama learngd težine i pragovi se pomjeraju u smjeru negativnog gradijenta funkcije prefomanse; množenje negativnog gradijenta sa brzinom učenja lr leardgdm najbrži spust sa momentumom, (pored lr i mc), brža konvergencija shodno trendu greške površi 8

Treniranje Feedforward neuralnih mreža Batch mod [net,a,e]=train(net,p,t) Traingd ekvivalentan inkrementalnoj funkciji learngd Traingdm gradijentni spust sa momentumom, ekvivalent leargdm, sa nekim specifičnostima Brže treniranje Feedforward neuronskih mreža Traingda (adaptivna brzina učenja, drži veličinu koraka dovoljno velikom, koliko je proces učenja stabilan) Traingdx (kombinuje brzinu adaptivnog učenja sa momentumom) Trainrp (Rprop)- Rezilientna Backpropagacija 9

Konjugirani gradijentni algoritmi Traincgf (Fletcher Powell CG) ima najmanje zahtjeve storiranja nego ostali konjugirani gradijentni algoritmi. Traincgp (Polak-Ribiere CG) neznatno veći zahtjevi storiranja nego traincgf. Brža konvergencija na nekim problemima. Traincgb (Powell-Beale CG) neznatno veći zahtjevi storiranja nego traincgf. Generalno brža konvergencija. Trainscg (skalirani Conj. Grad.) - skalirani konjugirani gradijentni algoritmi. Jedini konjugirani gradijentni algoritam koji ne zahtjeva linijsku pretragu. Kvazi-Njutunovi algoritmi Trainbfg (BFGS kvazi Njutunov) zahtjeva storiranje aproksimirane Hesijan matrice i ima više proračuna pri svakoj iteraciji nego ostali konjugirani gradijentni algoritmi, ali obično konv. u nekoliko iteracija. Trainoss (1-step sekanta) kompromis izmedju konjugiranih gradijentnih i kvazi-newtunovih metoda. Trainlm (Levenberg-Marquardt) najbrži algoritam treniranja za mreže srednje veličine; ima ograničenja na memoriju, kada je trenirajući set velik. Trainbr Bayesova regularizacija; modifikacija LM algoritma; reducira teškoće odredjenja optimalne mrežne arhitekture. 10