1. Nacrtati i objasniti algoritam propagacije greške unazad (back propagation).

Σχετικά έγγραφα
UNIVERZITET U NIŠU ELEKTRONSKI FAKULTET SIGNALI I SISTEMI. Zbirka zadataka

3.1 Granična vrednost funkcije u tački

DISKRETNA MATEMATIKA - PREDAVANJE 7 - Jovanka Pantović

PARCIJALNI IZVODI I DIFERENCIJALI. Sama definicija parcijalnog izvoda i diferencijala je malo teža, mi se njome ovde nećemo baviti a vi ćete je,

IZVODI ZADACI ( IV deo) Rešenje: Najpre ćemo logaritmovati ovu jednakost sa ln ( to beše prirodni logaritam za osnovu e) a zatim ćemo

Osnovni primer. (Z, +,,, 0, 1) je komutativan prsten sa jedinicom: množenje je distributivno prema sabiranju

Teorijske osnove informatike 1

Elementi spektralne teorije matrica

PRAVA. Prava je u prostoru određena jednom svojom tačkom i vektorom paralelnim sa tom pravom ( vektor paralelnosti).

Računarska grafika. Rasterizacija linije

KVADRATNA FUNKCIJA. Kvadratna funkcija je oblika: Kriva u ravni koja predstavlja grafik funkcije y = ax + bx + c. je parabola.

Apsolutno neprekidne raspodele Raspodele apsolutno neprekidnih sluqajnih promenljivih nazivaju se apsolutno neprekidnim raspodelama.

numeričkih deskriptivnih mera.

IZVODI ZADACI (I deo)

Kaskadna kompenzacija SAU

SISTEMI NELINEARNIH JEDNAČINA

Operacije s matricama

Ispitivanje toka i skiciranje grafika funkcija

Računarska grafika. Rasterizacija linije

M086 LA 1 M106 GRP. Tema: Baza vektorskog prostora. Koordinatni sustav. Norma. CSB nejednakost

Zavrxni ispit iz Matematiqke analize 1

IspitivaƬe funkcija: 1. Oblast definisanosti funkcije (ili domen funkcije) D f

Iskazna logika 3. Matematička logika u računarstvu. novembar 2012

2 tg x ctg x 1 = =, cos 2x Zbog četvrtog kvadranta rješenje je: 2 ctg x

Linearna algebra 2 prvi kolokvij,

MATRICE I DETERMINANTE - formule i zadaci - (Matrice i determinante) 1 / 15

41. Jednačine koje se svode na kvadratne

Trigonometrija 2. Adicijske formule. Formule dvostrukog kuta Formule polovičnog kuta Pretvaranje sume(razlike u produkt i obrnuto

Pismeni ispit iz matematike Riješiti sistem jednačina i diskutovati rješenja sistema u zavisnosti od parametra: ( ) + 1.

XI dvoqas veжbi dr Vladimir Balti. 4. Stabla

18. listopada listopada / 13

Strukture podataka i algoritmi 1. kolokvij 16. studenog Zadatak 1

Osnovne teoreme diferencijalnog računa

INTELIGENTNO UPRAVLJANJE

7 Algebarske jednadžbe

Pismeni ispit iz matematike GRUPA A 1. Napisati u trigonometrijskom i eksponencijalnom obliku kompleksni broj, zatim naći 4 z.

ELEKTROTEHNIČKI ODJEL

IZRAČUNAVANJE POKAZATELJA NAČINA RADA NAČINA RADA (ISKORIŠĆENOSTI KAPACITETA, STEPENA OTVORENOSTI RADNIH MESTA I NIVOA ORGANIZOVANOSTI)

Dvanaesti praktikum iz Analize 1

KOMUTATIVNI I ASOCIJATIVNI GRUPOIDI. NEUTRALNI ELEMENT GRUPOIDA.

Dijagonalizacija operatora

INTEGRALNI RAČUN. Teorije, metodike i povijest infinitezimalnih računa. Lucija Mijić 17. veljače 2011.

IZVODI ZADACI (I deo)

5. Karakteristične funkcije

Numerička matematika 2. kolokvij (1. srpnja 2009.)

APROKSIMACIJA FUNKCIJA

KVADRATNA FUNKCIJA. Kvadratna funkcija je oblika: Kriva u ravni koja predstavlja grafik funkcije y = ax + bx + c. je parabola.

Veleučilište u Rijeci Stručni studij sigurnosti na radu Akad. god. 2011/2012. Matematika. Monotonost i ekstremi. Katica Jurasić. Rijeka, 2011.

Linearna algebra 2 prvi kolokvij,

Obrada signala

Algoritmi zadaci za kontrolni

a M a A. Može se pokazati da je supremum (ako postoji) jedinstven pa uvodimo oznaku sup A.

Zadaci sa prethodnih prijemnih ispita iz matematike na Beogradskom univerzitetu

III VEŽBA: FURIJEOVI REDOVI

(P.I.) PRETPOSTAVKA INDUKCIJE - pretpostavimo da tvrdnja vrijedi za n = k.

I.13. Koliki je napon između neke tačke A čiji je potencijal 5 V i referentne tačke u odnosu na koju se taj potencijal računa?

Inženjerska grafika geometrijskih oblika (5. predavanje, tema1)

Sortiranje prebrajanjem (Counting sort) i Radix Sort

2log. se zove numerus (logaritmand), je osnova (baza) log. log. log =

METODA SEČICE I REGULA FALSI

Konstruisanje. Dobro došli na... SREDNJA MAŠINSKA ŠKOLA NOVI SAD DEPARTMAN ZA PROJEKTOVANJE I KONSTRUISANJE

OSNOVI ELEKTRONIKE VEŽBA BROJ 1 OSNOVNA KOLA SA DIODAMA

Cauchyjev teorem. Postoji više dokaza ovog teorema, a najjednostvniji je uz pomoć Greenove formule: dxdy. int C i Cauchy Riemannovih uvjeta.

Verovatnoća i Statistika I deo Teorija verovatnoće (zadaci) Beleške dr Bobana Marinkovića

4.7. Zadaci Formalizam diferenciranja (teorija na stranama ) 343. Znajući izvod funkcije x arctg x, odrediti izvod funkcije x arcctg x.

21. ŠKOLSKO/OPĆINSKO/GRADSKO NATJECANJE IZ GEOGRAFIJE GODINE 8. RAZRED TOČNI ODGOVORI

Riješeni zadaci: Limes funkcije. Neprekidnost

radni nerecenzirani materijal za predavanja R(f) = {f(x) x D}

RIJEŠENI ZADACI I TEORIJA IZ

ASIMPTOTE FUNKCIJA. Dakle: Asimptota je prava kojoj se funkcija približava u beskonačno dalekoj tački. Postoje tri vrste asimptota:

Matematička analiza 1 dodatni zadaci

5 Ispitivanje funkcija

Klasifikacija blizu Kelerovih mnogostrukosti. konstantne holomorfne sekcione krivine. Kelerove. mnogostrukosti. blizu Kelerove.

PID: Domen P je glavnoidealski [PID] akko svaki ideal u P je glavni (generisan jednim elementom; oblika ap := {ab b P }, za neko a P ).

1 Promjena baze vektora

Zadaci iz trigonometrije za seminar

Eliminacijski zadatak iz Matematike 1 za kemičare

Trigonometrijske nejednačine

Riješeni zadaci: Nizovi realnih brojeva

Matematka 1 Zadaci za drugi kolokvijum

Funkcije dviju varjabli (zadaci za vježbu)

NOMENKLATURA ORGANSKIH SPOJEVA. Imenovanje aromatskih ugljikovodika

Kontrolni zadatak (Tačka, prava, ravan, diedar, poliedar, ortogonalna projekcija), grupa A

Betonske konstrukcije 1 - vežbe 3 - Veliki ekscentricitet -Dodatni primeri

Prediktor-korektor metodi

MATEMATIKA 2. Grupa 1 Rexea zadataka. Prvi pismeni kolokvijum, Dragan ori

1. Pojam fazi skupa. 2. Pojam fazi skupa. 3. Funkcija pripadnosti, osobine i oblici. 4. Funkcija pripadnosti, osobine i oblici

Konstruisati efikasan algoritam znači dati skup preciznih uputstava kako doći do rešenja zadatog problema Algoritmi se mogu opisivati:

OBLAST DEFINISANOSTI FUNKCIJE (DOMEN) Pre nego što krenete sa proučavanjem ovog fajla, obavezno pogledajte fajl ELEMENTARNE FUNKCIJE, jer se na

PRIMJER 3. MATLAB filtdemo

1.4 Tangenta i normala

TRIGONOMETRIJSKE FUNKCIJE I I.1.

radni nerecenzirani materijal za predavanja

DRUGI KOLOKVIJUM IZ MATEMATIKE 9x + 6y + z = 1 4x 2y + z = 1 x + 2y + 3z = 2. je neprekidna za a =

POTPUNO RIJEŠENIH ZADATAKA PRIRUČNIK ZA SAMOSTALNO UČENJE

10. STABILNOST KOSINA

Ovo nam govori da funkcija nije ni parna ni neparna, odnosno da nije simetrična ni u odnosu na y osu ni u odnosu na

nvt 1) ukoliko su poznate struje dioda. Struja diode D 1 je I 1 = I I 2 = 8mA. Sada je = 1,2mA.

3. razred gimnazije- opšti i prirodno-matematički smer ALKENI. Aciklični nezasićeni ugljovodonici koji imaju jednu dvostruku vezu.

SKUPOVI I SKUPOVNE OPERACIJE

Transcript:

1. Nacrtati i objasniti algoritam propagacije greške unazad (back propagation). Backpropagation je algoritam ucenja primenjen kod viseslojnih feedforward mreza ciji neuroni imaju kontinualnu diferencijabilnu aktivacionu funkciju. Prvo se zadaju ulazni parametri I ocekivani izlazi. Racunanje se obavlja u dva koraka: prvo se racunaju izlazi svakog sloja do zadnjeg, izlaznog sloja, a zatim se generise signal greske koji se salje od izlaznog sloja ka prethodnim slojevima I popravljaju se tezine. Tako se greska salje za sve slojeve unazad po jedan sloj I racuna, sve do ulaznog sloja I popravljaju se tezine. 2. Definisati pojam kresanja neuralne mreže, i kada se koristi. Kresanje je ukidanje odredjenog broja neurona I konekcija I da pri tome redukovana mreza radi ispravno. Koristi se kada je potrebno da se smanji kompleksnost same mreze (povecanje performansi) I da se poboljsa generalizacija. Moze se poceti obucavanje mreze koja je prevelika za dati problem, to se uvidi I krene se sa uklanjanjem neurona (veza) da bi se svela na dovoljnu velicinu. 3. Koja dva tipa implementacije algoritma back propagation postoje, i koje su razlike. 1)Inkrementalni režim rada apdejtujemo pojačanja posle svakog odbirka (izračunavamo apdejt I apdejtujemo pojačanja za svaki uzorak) 2)Batch mod(p.p.) primenimo za sve uzorke, pa onda izračunamo Δ nad svim uzorcima pa tek onda apdejtujemo pojačanja

4. Nacrtati i objasniti algoritam propagacije greške unazad (back propagation), batch tipa. Postupak je isti kao za inkrementalni mod u pod 1, samo sto se ovde prvo primene svi ulazi, izracunaju se izlazi mreze I tek onda se radi racunanje greske. Dakle gore smo imali situaciju da dodje jedan ulaz, izracuna se do izlaza I onda se racuna greska I salje unazad, pa se tako nastavlja dalje. Ovde se greska ne racuna posle svakog ulaza, nego prvo prodju svi ulazi I njihove greske sa saberu I samo jednom se updatuju tezine. 5. Definisati preobučavanje, kako nastaje i koje su metode borbe protiv preobučavanja i ukratko ih objasniti. Kresanje mreze oznacava rucno uklanjanje cvorova I grana koji najmanje doprinose gresci. Weight decay oznacava softversko nestajanje odredjene grane tezina grane tezi nuli, sem ako se ne desi pojacanje te grane. Da se mreza ne specijalizuje i da za slican set podataka radi skup za obucavanje mora da bude dovoljno veliki (veliki broj podataka) i da na celom opsegu imamo dovoljno odbiraka (da bude regularan).ako na skupu za obucavanje imamo male promena na ulazu one ne uticu puno na promenu na izalzu (ne bi trebalo). Ako utice puno (prelazi u drugu klasu) to znaci da je potrebno preobucavanje date mrze (imamo suvise slozenu mrezu za dati problem). 1) Slabljenje pojacanja - Pojacanja koja uticu na performansu (ne uticu) izbacujemo w ij (k+1)=(- ηde/dw ij )(k)- Ʒ ω ij (k) <=> E' = E+γΣω ij 2 Ʒε[0,1] Svako takvo pojačanje preko Ʒ dovodimo do 0 2) Potkresivanje veze i čvorova Ukidamo čvorove i veze(grane) koje najmanje doprinose grešci. Ako izbacimo neki čvor ili granu i greška se ne povećava ili se povećava malo onda možemo izbaciti čvor ili granu.

6. Struktura neuralnih mreža zasnovanih na funcijama radijalne osnove (Radial basis function networks). Predstavlja neuralnu mrežu sa tri sloja čvorova: 1. ulaznim, 2. izlaznim i 3. skrivenim (jezgrima) Ulazni sloj sluzi da se prihvate ulazi u mrezu, skriveni ima aktivacionu funkciju sa radijalnom osnovom (npr. e^(-n^2)) I izlaz je neuron koji sve to sabira. Tezine su povezane sa ulaznog sa svih neurona na sve neurone skrivenog sloja I svi sa skrivenog su povezani sa svim sa izlaznog sloja. Svaki čvor skrivenog sloja predstavlja jednu f-ju radijalne osnove sa pridruženom centralnom pozicijom i širinom. 7. Definisati i objasniti uticaj konstante obučavanja na proceduru obučavanja mreže. Konstanta obucavanja oznacava koliko ce jako nove promene biti primenjene na trenutne tezine. Što je η veće algoritam brže konvergira ako je preveliko divergira eksperimentalno od 10-3 do 10. Povećavamo η u toku obučavanja ako greška opada u više iteracija konzistentno. Prevelike vrednosti dovode do velikih promena tezina (overshooting) sto prouzrokuje nemogucnost da se dodje do lokalnog minimum, dok premale vrednosti previse sporo konvergiraju ka minimumu.

8. Definisati Hopfield-ove mreže i skicirati njihovu strukturu. Hopfield-ova mreža je jednoslojna rekurentna mreža (vraća izlaze na ulaze). Radi u diskretnom I kontinualnom vremenu. Asinhorono pravilo apdejtovanja apdejtujemo y I odmah promenimo to novo y za računanje nekog drugog y. Sinhorono pravilo apdejtovanja novu vrednost y promenimo tek u sledećoj iteraciji Izlazi mogu biti unipolarni, bipolarni, digitalni. Ulazi se dovode samo jednom u mrežu (prvi put), a posle se sklone i mreža onda radi sama. Izlazi iz svakog neurona se vraćaju na ulaze svih drugih neurona sem na sebe. Pojačanja su simetrična ωij=ωji i važi ωii=0. Pravilo apdejtovanja y i =sgn(σ( j=1,j!=i, n )ω ij y j +x i -ɵ i 9. Kako se odreduju pojačanja kod Hopfield-ove asocijativne memorije, kada je potrebno zapamtiti odreden broj oblika? Bipolarni binarni vektori: (1)W=Σ( k=1, p ) x k (x k ) T -pi <=>(2)ω ij =Σ( k=1, p )x i k *x j k i!= j ω ii =0 (1)Oduzima se p uzoraka puta I da bi na dijagonalama matrice bile nule (I je jedinična matrica). (2)Nema oduzimanja jer smo kod ovog naglasili da je ω ii jednako 0. Unipolarni binarni vektori: ω ij = Σ( k=1, p )(2x i k -1)( 2x jk -1) i!=j ω ii =0

10. Koje su vrste obučavanja neuralnih mreža zasnovanih na funkcijama radijalne osnove. RBFN se zasniva na hibridnom obučavanju: 1)supervizijsko učenje za izlazni sloj 2)nesupervizijsko za ulazni sloj 1)Za izlazni sloj se može primeniti delta pravilo obučavanja ω iq = η (d i y i) Zg (imamo tačan odgovor d) 2)nesupervizijsko se zasniva na tome da se nađu m q i σ q. m q se nalazi primenjujući Honen-ovo pravilo obučavanja Δm najbliže =η(x-m najbliže ), nađemo centar najbliži x-y i njega menjamo, ostale ne diramo, dok se σ q od hoc σ q = m q -m najbliže /γ. Može se trenirati preko back propagation algoritma i time postati u potpunosti supervizijska. 11. Objasniti pojam momentum-a, koje su prednosti njegove primene i skicirati primer. Poboljšavamo pojačanje tako što kada pronalazimo apdejt pojačanja uzimamo dosta i od prethodnog. Bez momentuma putanja ima veće oscilacije (leva u odnosu na desnu). Poboljšava usmeravanje ka cilju I ako smo na pravom putu i ako smo preterali sa η. Povećava (poboljšava) konvergenciju. Primenjuje se kod batch moda. Δω(t) = -ηδ(obrnuto)e(t)+αδω(t-1) αε[0,1] Uzima se obično α=0.9

12. Definisati nesupervizijsko obučavanje neuralnih mreža zasnovanih na funkcijama radijalne osnove, i objasniti kako ono funkcioniše. Nesupervizijsko se zasniva na tome da se nađu m q i σ q. m q se nalazi primenjujući Honen-ovo pravilo obučavanja Δm najbliže =η(x-m najbliže ), nađemo centar najbliži x-y i njega menjamo, ostale ne diramo, dok se σ q od hoc σ q = m q -m najbliže /γ. Može se trenirati preko back propagation algoritma i time postati u potpunosti supervizijska. 13. Definisati preobučavanje, i objasniti metodu ranog zaustavljanja. Zašto se koristi metoda ranog zaustavljanja? Preobucavanje predstavlja pojam koji oznacava previse dobru obuku mreze za obucavajuce podatke, dok ce greska biti veoma velika za neke druge vrednosti ulaznih podataka (npr test podaci). Javlja se kada ima previse parametara koji se mogu obuciti, pa mreza pocinje dobro da uci, ali lose da generalizuje. Metoda ranog zaustavljanja se koristi kao metod borbe protiv overfittinga (pojava kada se prekompleksna mreza specijalizuje za ulazne podatke sa obucavanja I ne ume vise dobro da generalizuje za podatke sa simulacije). Realizuje se tako sto se uporedo sa obucavanjem mreze gleda greska na nekom nezavisnom skupu podataka. Sve dok greska za njih ne raste, to znaci da mreza krece da se specijalizuje za trening podatke, a to je potrebno izbeci Metoda ranog zaustavljanja se realizuje na sledeci nacin: paralelno sa obucavanjem mreze na podacima za obuku, mreza se testira sa nekim drugim podacima I sve dok se greska smanjuje, vrsi se obucavanje na osnovnom skupu. Kada greska pocne da raste, obucavanje se prekida. 14. Koje su prednosti, a koji nedostaci Hopfield-ovih mreža? Brzo I lako obucavanje I jako dobro prepoznavanje oblika su prednosti. Nedostaci su ogranicenost onoga sto se prepoznaje, neplanirana stablina stanja I nesigurno vracanje (odnosi se na Hopfildovu memoriju, kada je prenatrpana sa razlicitim oblicima, ako je mala razlika izmedju oblika, moze se destiti da se vrati pogresan oblik).

CRTANJE 15. Nacrtati neuralnu feedforward neuralnu mrežu koja treba da klasifikuje četiri različita oblika, a postoje merenja boje i težine. Mreža poseduje dva skrivena sloja sa po tri neurona. Predložiti aktivacione funkcije neurona u svim slojevima, i objasniti kodiranje izlaznih podataka. Ulazni sloj ima tri neurona sa linearnim aktivacionim funkcijama I na prvi je povezana velicina, drugi boja, treci tezina. Skriveni sloj ima tri neurona, izlazni ima cetiri neurona. Aktivacione funkcije za skriveni I izlazni sloj su npr. sigmoidne fje. Prvi neuron u izlaznom sloju ako je 1, onda je to prvi oblik, ako je drugi neuron 1, drugi oblik itd. 16. Potrebno je napraviti neuralnu mrežu koja će aproksimirati funkciju koja ima tri maksimuma. Skicirati neuralnu mrežu zasnovanu na funciji radijalne osnove, čiji je ulaz x koordinata, a izlaz vrednost funkcije. Kako izgledaju sve funkcije aktivacije ovih neurona? Postoji ulazni sloj sa jednim neuronom (aktivaciona funkcija je linearna), sledeci sloj je skriveni sloj sa tri neurona sa aktivacionom funkcijom sa radijalnom osnovom. Izlazni sloj je jedan neuron sa linearnom(nisam siguran) aktivacionom funkcijom. Ulazni sloj (taj jedan neuron) ima po jednu granu ka svakom od tri neurona sakrivenog sloja, i svaki neuron skrivenog sloja ima po jednu granu ka izlaznom neuronu. 17. Definisati Hopfield-ovu mreže sa četiri neurona, napisati matricu pojačanja i skicirati strukturu. Koje probleme može da rešava Hopfield-ova mreža. Hopfildova mreza je mreza gde je izlaz svakog neurona povezan na ulaz svih ostalih neurona. Pocetni ulazi se pustaju jednom, nakon cega se uklanjaju. Tezine su simetricne. Izlazi se update-uju sve dok mreza ne postane stabilna. Matrica pojacanja se dobija formulom: suma(od k=1 do n) Xi*XiT-pI Moze da resava problem u kojima je potrebno prepoznati ulazni vektor, npr kada je potrebno prepoznati oblike (slika se sastoji od piksela, pa zapamti crne piksele).

18. Nacrtati neuralnu feedforward neuralnu mrežu koja treba da klasifikuje četiri različita oblika, a postoje merenja veličine, boje i težine. Mreža poseduje jedan skriveni sloj sa tri neurona. Predložiti aktivacione funkcije neurona u svim slojevima, i objasniti kodiranje izlaznih podataka. Tri ulazna neurona za velicinu, boju I tezinu, skriveni sloj ima tri neurona, a izlazni sloj ima dva neurona koju mogu da daju cetiri razlicita oblika binarnim vrednostima. Y1Y2: 00 prvi oblik 01 drugi oblik 10 treci oblik 11 cetvrti oblik 19. Koje su prednosti povećavanja vrednosti konstante obučavanja, a koji su loše posledice? 20. Kako se odreduju pojačanja kod Hopfield-ove asocijativne memorije, kada je potrebno zapamtiti 5 oblika? 21. Nacrtati mrežu koja za ulaz ima x i y koordinate, izlaz su joj dve funkcije z1 i z2.