Tehisnärvivõrgud ja nende rakendused. Eduard Petlenkov, Automaatikainstituut

Σχετικά έγγραφα
Funktsiooni diferentsiaal

Lokaalsed ekstreemumid

Geomeetrilised vektorid

Vektorid II. Analüütiline geomeetria 3D Modelleerimise ja visualiseerimise erialale

Kompleksarvu algebraline kuju

Matemaatiline analüüs I iseseisvad ülesanded

HAPE-ALUS TASAKAAL. Teema nr 2

Matemaatiline analüüs I iseseisvad ülesanded

MATEMAATIKA TÄIENDUSÕPE MÕISTED, VALEMID, NÄITED, ÜLESANDED LEA PALLAS VII OSA

MATEMAATIKA TÄIENDUSÕPE MÕISTED, VALEMID, NÄITED LEA PALLAS XII OSA

ITI 0041 Loogika arvutiteaduses Sügis 2005 / Tarmo Uustalu Loeng 4 PREDIKAATLOOGIKA

Kirjeldab kuidas toimub programmide täitmine Tähendus spetsifitseeritakse olekuteisendussüsteemi abil Loomulik semantika

Graafiteooria üldmõisteid. Graaf G ( X, A ) Tippude hulk: X={ x 1, x 2,.., x n } Servade (kaarte) hulk: A={ a 1, a 2,.., a m } Orienteeritud graafid

4.2.5 Täiustatud meetod tuletõkestusvõime määramiseks

Ruumilise jõusüsteemi taandamine lihtsaimale kujule

2.2.1 Geomeetriline interpretatsioon

9. AM ja FM detektorid

T~oestatavalt korrektne transleerimine

1 Funktsioon, piirväärtus, pidevus

Ehitusmehaanika harjutus

Jätkusuutlikud isolatsioonilahendused. U-arvude koondtabel. VÄLISSEIN - COLUMBIA TÄISVALATUD ÕÕNESPLOKK 190 mm + SOOJUSTUS + KROHV

Kontekstivabad keeled

Keerukusteooria elemente

YMM3740 Matemaatilne analüüs II

HSM TT 1578 EST EE (04.08) RBLV /G

4.1 Funktsiooni lähendamine. Taylori polünoom.

Funktsioonide õpetamisest põhikooli matemaatikakursuses

Ecophon Line LED. Süsteemi info. Mõõdud, mm 1200x x x600 T24 Paksus (t) M329, M330, M331. Paigaldusjoonis M397 M397

HULGATEOORIA ELEMENTE

Krüptoräsid (Hash- funktsioonid) ja autentimine. Kasutatavaimad algoritmid. MD5, SHA-1, SHA-2. Erika Matsak, PhD

PLASTSED DEFORMATSIOONID

Excel Statistilised funktsioonid

Compress 6000 LW Bosch Compress LW C 35 C A ++ A + A B C D E F G. db kw kw /2013

Sissejuhatus mehhatroonikasse MHK0120

Formaalsete keelte teooria. Mati Pentus

Vektoralgebra seisukohalt võib ka selle võrduse kirja panna skalaarkorrutise

Kontekstivabad keeled

1 Reaalarvud ja kompleksarvud Reaalarvud Kompleksarvud Kompleksarvu algebraline kuju... 5

Energiabilanss netoenergiavajadus

Vektorid. A=( A x, A y, A z ) Vektor analüütilises geomeetrias

6.6 Ühtlaselt koormatud plaatide lihtsamad

Planeedi Maa kaardistamine G O R. Planeedi Maa kõige lihtsamaks mudeliks on kera. Joon 1

Aritmeetilised ja loogilised operaatorid. Vektor- ja maatriksoperaatorid

Eesti koolinoorte XLVIII täppisteaduste olümpiaadi

Ülesanne 4.1. Õhukese raudbetoonist gravitatsioontugiseina arvutus

Arvuteooria. Diskreetse matemaatika elemendid. Sügis 2008

Ecophon Square 43 LED

Matemaatika VI kursus Tõenäosus, statistika KLASS 11 TUNDIDE ARV 35

STM A ++ A + A B C D E F G A B C D E F G. kw kw /2013

2-, 3- ja 4 - tee ventiilid VZ

6 Mitme muutuja funktsioonid

Punktide jaotus: kodutööd 15, nädalatestid 5, kontrolltööd 20+20, eksam 40, lisapunktid Kontrolltööd sisaldavad ka testile vastamist

Kihilised konstruktsioonid (Seinad, katused): U-arvu leidmine Niiskuse jaotus konstruktsioonis Temperatuuri jaotus konstruktsioonis

7.7 Hii-ruut test 7.7. HII-RUUT TEST 85

1 Kompleksarvud Imaginaararvud Praktiline väärtus Kõige ilusam valem? Kompleksarvu erinevad kujud...

Mathematica kasutamine

Semantiline analüüs. Süntaksipuu dekoreeritakse tüübi- ja muu kontekstist sõltuva

KATEGOORIATEOORIA. Kevad 2010

Digitaaltehnika Loengukonspekt

ISC0100 KÜBERELEKTROONIKA

Eesti elektrienergia hinna analüüs ja ühesammuline prognoosimine ARIMA tüüpi mudelitega

KATEGOORIATEOORIA. Kevad 2016

Algoritmid ja andmestruktuurid Ülesannete kogu

KORDAMINE RIIGIEKSAMIKS V teema Vektor. Joone võrrandid.

Ακρότατα'Συναρτησιακών'μίας' Συνάρτησης:'Πρόβλημα+ +4α'

1.1. NATURAAL-, TÄIS- JA RATSIONAALARVUD

Sisukord. 2 Programmeerimiskeel C


Prisma. Lõik, mis ühendab kahte mitte kuuluvat tippu on prisma diagonaal d. Tasand, mis. prisma diagonaal d ja diagonaaltasand (roheline).

NÄIDE KODUTÖÖ TALLINNA TEHNIKAÜLIKOOL. Elektriajamite ja jõuelektroonika instituut. AAR0030 Sissejuhatus robotitehnikasse

RF võimendite parameetrid

SORTEERIMINE JA FILTREERIMINE

Tuletis ja diferentsiaal

Statistiline andmetöötlus, VL-0435 sügis, 2008

KORDAMINE RIIGIEKSAMIKS VII teema Vektor. Joone võrrandid.

Suhteline salajasus. Peeter Laud. Tartu Ülikool. peeter TTÜ, p.1/27

Skalaar, vektor, tensor

Matemaatilised ja trigonomeetrilised funktsioonid

28. Sirgvoolu, solenoidi ja toroidi magnetinduktsiooni arvutamine koguvooluseaduse abil.

1 MTMM Kõrgem matemaatika, eksamiteemad 2014

Eesti koolinoorte XLIX täppisteaduste olümpiaad

ESF5511LOX ESF5511LOW ET NÕUDEPESUMASIN KASUTUSJUHEND 2 EL ΠΛΥΝΤΉΡΙΟ ΠΙΆΤΩΝ ΟΔΗΓΊΕΣ ΧΡΉΣΗΣ 21 HU MOSOGATÓGÉP HASZNÁLATI ÚTMUTATÓ 41

2. HULGATEOORIA ELEMENTE

Matemaatiline statistika ja modelleerimine

ohutuks koormakinnituseks maanteetranspordil

Sõiduki tehnonõuded ja varustus peavad vastama järgmistele nõuetele: Grupp 1 Varustus

MATEMAATIKA RAKENDUSED, REAALSETE PROTSESSIDE UURIMINE

MATEMAATILISEST LOOGIKAST (Lausearvutus)

PORTATIIVNE KÄSIVINTS

Andmeanalüüs molekulaarbioloogias

Vahendid Otsus Analüüs: Analüüsi Riskantseid Otsuseid

ALGEBRA I. Kevad Lektor: Valdis Laan

5. OPTIMEERIMISÜLESANDED MAJANDUSES

SIDESÜSTEEMID JA VÕRGUD

Arvutatavad statistikud. Programmi LSTATS kasutamisjuhend

ELEKTRIMÕÕTMISTE TÄIENDKOOLITUS

1 Entroopia ja informatsioon

2. Normi piiride määramine

Skalaar, vektor, tensor

Kasutus- ja paigaldusjuhend Juhtseade tuleohutussüsteemidele

Transcript:

Tehisnärvivõrgud ja nende rakendused 1

Bioloogiline neuron ja bioloogilised närvivõrgud 2

Tehisneuron tehisneuroni sisendite vektor: X = x M 1 x n tehis neuroni kaalukoefitsientide vektor: W = [ w K ] 1 w n kaalutud summaator mittelineaarne element summatori funktsioon: x1 NET = W X = K+ x n [ w1k wn] M = w1 x1 + wn xn 3

Aktiverimisfunktsioonid (1) OUT=f(NET) Sigmoid funktsioonid on ülemise ja alumise raja (0 ja 1 või -1 ja 1) vahel monotoonselt kasvavad pidevad funktsioonid. 1 Logistiline funktsioon 2 Hüperboolne tangens OUT 1 = 1 + e NET OUT = e e NET NET + e e NET NET 4

Aktiverimisfunktsioonid (2). 3 Lineaarne funktsioon OUT = k NET k = tan(α ) = const 4 Astmefunktsioon 0, kui NET < θ OUT = 1, kui NET θ 1, OUT = 1, kui NET < θ kui NET θ 5 Gaussi funktsioon OUT = ( NET m) 1 2 2σ e 2πσ 5

Aktiverimisfunktsiooni valik Üldjuhul, aktiveerimisfunktsiooni valik sõltub: konkreetsest ülesandest (sisendite ja väljundite väärtusteest ja füüsilisest interpretatsioonist) närvivõrgu realiseerimisviisist (arvutil või elektrilise skeemi kujul) kasutatavast õppimisalgoritmist 6

Tehisnärvivõrgud (1) Tehisnärvivõrk on bioloogiliste närvivõrkude mudelite kogum. Närvivõrk on andmetöötlus süsteem, mis koosneb suurest arvust lihtsatest ja omavahel tugevalt seotud tehisneuronitest. Tehisneuronid on ühendatud arhitektuuri, mis on võetud inimese ajukoorest. 7

Tehisnärvivõrgud (2) Tehisnärvivõrgud Otsesuunatud rekurentsed (tagasisidega) hetero-assotsiatiivsed auto-assotsiatiivsed 8

Otsesuunatud närvivõrgud ja mitmekihiline pertseptron Otsesuunatuks nimetatakse närvivõrku, milles iga neuroni väljund võib olla seotud ainult järgmisel kihil oleva neuroni sisendiga. N I N O N H - sisendkiht - väljundkiht - peidetud kihid igaüks igaühega wijl i j l - kaalukoefitsiendid, kus - on neuroni sisendi number - neuroni järjekorra number - kihi number 9

Kahekihilise pertseptroni matemaatiline funktsioon x1 y1 w111 L wn 11 X = M ; Y = M ; W1 = M O M ; x n y m w 1k1 L wnk1 Θ 1 θ11 w112 L wk12 = M ; W2 = M O M ; θ k 1 w 1m2 L wkm2 Θ 2 θ = M 12 θ m 2 ; F 1 F 2 - peidetud kihi neuronite aktiveerimisfunktsioon; - väljund kihi neuronite aktiveerimisfunktsioon. Y = F2 ( W2 ( F1 ( W1 X Θ1)) Θ 2 ) 144 2443 esimese kihi väljund 144444 2444443 närvivõrgu väljund 10

Peidetud kihi neuronite arvu valik (1) Neuronite arvu valik peidetud kihil sõltub: Lahendava ülesande keerukusest Andmete kogust ja kvaliteedist Nõutavast närvivõrgu sisendite ja väljundite arvust Närvivõrgu koostaja kogemustest 11

Peidetud kihi neuronite arvu valik (1) Kui neuroneid või peidetud neuronite kihte on võrgus liiga vähe, siis: Võrgu õpetamisalgoritm ei koondu ja võrk töötab ebakorrektselt; Võrk ei reageeri aproksimeeritava funktsiooni järskvõnkumistele. 12

Peidetud kihi neuronite arvu valik (2) Kui neuroneid või kihte võrgus on liiga palju, siis: Võrgu töökiirus võib olla väga madal ning vaja on väga suurt mälu mahtu; Võib tekkida nii nimetatud üleõppimise efekt: väljundvektor hakkab kajastama mitteolulisi detaile sõltuvuses, näiteks, müra ja ebatäpsed andmed; võrgu käitumine võib muutuda ebastabiilseks: väljund hakkab väga kõvasti ja ettearvamatult reageerima väikestele sisendvektori väärtuste muutustele; võrk võib kaotada võime üldistada: piirkonnas, kus õpetamisel on kasutada vähe ette teatud andmeid võib aproksimatsiooni täpsus olla kehv väljundvektori väärtused on juhuslikud. 13

14 Rekurentsed närvivõrgud (1) Rekurentseks ehk tagasisidestatuks nimetatakse närvivõrku, milles signaalid levivad nii sisendist väljundi poole, kui ka vastassuunas. )) (, 1), ( ), (, ), ( ( ) ) ) ( 1) ( ) ( ) ( ( ( ( ) ( 2 1 1 1 2 2 n t y t y m t u t u f n t y t y m t u t u W F W F t y nn = = +Θ +Θ = K K M M

Rekurentsed närvivõrgud (2) Elman i võrk Rekurentseks nimetatakse peidetud kihti, millel iga neuroni väljundid on seotud kõikide selle kihi neuronite sisenditega. W r w = M wr 11 1 L O L w w 1r M rr kus r on rekurentse kihi neuronite arv; Y ( t) = f X ( t) = Y nn h ( U ( t), X ( t), W, B) ( t 1) 15

Närvivõrkude õpetamine Närvivõrgu sobivate parameetrite (konkreetse ülesande jaoks) valiku protsessi nimetatakse närvivõrgu õpetamiseks (või treenimiseks). Stone-Weierstrassi teoreem: Kahekihiline pertseptron sobiva neuronite arvuga peidetud kihil on võimeline aproksimeerima suvalist pidevat funktsiooni. Sontag i teoreem Kahekihiline rekurentne närvivõrk sobiva neuronite arvuga peidetud kihil on võimeline aproksimeerima suvalist funktsiooni, millel on lõplik arv katkevuspunkte. 16

Õpetamine (Supervised learning) Õpetamiseks nimetatakse meetodit, mis baseerub teadaolevatel sisend- ja väljundvektori väärtuste kogumil. Y p NN ( X ) = Y Y p 0 X on sisendväärtuste vektor; ) Yp on nendele sisendväärtustele vastavate etalonväljundväärtuste vektor Y on närvivõrgu väljundite vektor, mis vastab sisendile X NN on närvivõrgu funktsioon (Y=NN(X)) 17

Iseorganiseeruvad närvivõrgud Iseorganiseeruvaks nimetatakse närvivõrku, mis on võimeline häälestama oma kaalukoefitsiente lähtudes ainult sisendvektori väärtustest. d N = i= 1 2 j ( xi Wij ( t)), j = 1, K, M Kohonen i võrk 18

Iseõppimine (Unsupervised learning) Iseõppiv närvivõrk on võimeline häälestama oma kaalukoefitsiente lähtudes ainult sisendvektori väärtustest. Iseõppiva võrgu korral fikseeritakse sihifunktsioon, mille ekstreemum tagatakse võrgu parameetrite muutmisega. Õigesti valitud sihifunktsiooni ekstreemumi saavutamine tagab ka võrgu väljundis õiged väljundvektori väärtused. 19

Õpetamine Võrgu õpetamise protsess koosneb kolmest sammust: 1. võrgu väljundvektori väärtuste arvutamine olemasolevate parameetrite alusel; 2. võrgu vea arvutamine lähtudes õpetamismeetodi poolt määratud kriteeriumist (Näiteks, arvutatud võrgu väljundväärtuse ja etteantud etalonväärtuse vahe); 3. võrgu parameetrite väärtuse ümberarvutamine lähtudes õpetamismeetodi poolt määratud algoritmist. 20

Gradient vea pöördlevi meetod (1) Veafunktsioon: J ( W, Θ) = ( k Y p Y p d 2 ) Yp X p - närvivõrgu väljundvektor Y p = NN ( X, W, Θ) p -treeninguks kasutatavad sisendvektori väärtused; NN - närvivõrgu funktsioon; d Yp - vastavad väljundvektori etalonväärtused. Õpetamise (optimeerimise) ülesanne seisneb veafunktsiooni minimiseerimisel: min J ( W, Θ) 21

22 Gradient vea pöördlevi meetod (2) ), ( 1 n x x F K = 2 1 1 ), ( x F x F x x F n K K = 2 1 1 ), ( x F x F x x F n K K ), ( Θ W J Θ = Θ J W J W J ), (

Globaalse miinimumi leidmise probleem 23

Kohonen i iseorganiseerumise algoritm (1) 1. Alguses (t=0) kõikidele kaalukoefitsientidele antakse juhuslikke algväärtusi ning määratakse raadiust R, mis määrab iga neuroni ümbrust U(R); 2. Närvivõrgu sisenditele antakse sisendvektorit X(t)=[x 1 (t),,x N (t)]; 3. iga neuroni j jaoks arvutatakse kaugust sisendvektori X(t) ja kaalukoefitsientide vektori W ij vahel: d j N = i= 1 ( x i W ij ( t)) 2, j = 1, K, M ; 24

Kohonen i iseorganiseerumise algoritm (2) 4. Valitakse neuronit j *, mille kaugus on minimaalne: min(d 1,d 2,,d M )=d j* ; 5. Muudetakse neuroni j * ja tema ümbruses U j* (R) asuvate neuronite kaalukoefitsiente: W ij ( t + 1) = W ( t) + λ( t)( x ( t) W ( t)), ij j U (R), i = 1, K, N; j 6. Järgmisel iteratsioonil (t=t+1) korratakse algoritmi teisest sammust uuesti. i ij 25

Närvivõrkude rakendused (1) 1. Lähendamine (Aproksimeerimine) d = g(x) Lähendamise ülesandeks on konstrueerida sellise närvivõrgu, et ta realiseeriks funktsiooni g(x), st iga tema sisendi x puhul, närvivõrgu väljund d nn peab olema võrdne funktsiooni g(x) väärtusega d (või temast kuivõrd võimalikult lähedal): g nn (x) g( x) g ( x) on närvivõrguga realiseeritav funktsioon. nn 26

Närvivõrkude rakendused (2) 2. Assotsiatsioon a) autoassotsiatsioon Närvivõrgu autoassotsiatsiooni ülesandeks on pidada meeles hulka vektoreid. Need vektorid antakse tema sisenditele järjestikult. Siis esitatakse närvivõrgule vektorid koos müraga (rikutud vektorid) ja närvivõrk peab leidma ja andma väljundile temale vastava originaalse vektori (ilma mürata). b) heteroassotsiatsioon Heteroassotsiatsioon erineb autoassotsiatsioonist selles, et igale sisendvektorile on vastavusse pandud oma väljundvektor, mis võib temast erineda. 27

Närvivõrkude rakendused (3) 3. Mustrite klassifitseerimine Mustrite klassifitseerimise ülesande puhul peab olema etteantud fikseeritud klasside arv. Iga muster (sisendvektor) kuulub ühele (või mitmele) nendest klassidest. Närvivõrgu õppimiseks mustrite klassifitseerimiseks võib kasutada nii õpetamise kui ka iseõppimise algoritme. Õpetamisalgoritmi kasutamisel mustrite klassifitseerimiseks iga õpetamisel kasutatava sisendvektori jaoks peab olema määratud temale vastav etalonväljund, mis ütleb millele klassile kuulub käesolev sisend. Kui niisugust a priorset informatsiooni klassidele kuulumise kohta ei ole, õpetamist kasutada ei saa. Klassifitseerida mustreid tuleb siis iseõppivate närvivõrkude abil. 28

Närvivõrkude rakendused (4) 4. Ennustamine x(t) - ajas muutuv protsess x( n 1), x( n 2), K, x( n M ) on teada Ülesandeks on ennustada protsessi (funktsiooni) olekut (väärtust) käesoleval ajahetkel x. (n). Ennustamise viga: e( n) = x( n) x n n 1, K, n M ), x(n) xˆ ( n) ˆ( on funktsiooni tegelik väärtus on närvivõrguga ennustatud väärtus e( n) 0 kus 29

Närvivõrkude rakendused (5) 5. Juhtimine { u( t), y( )} Plant : t u(t) y(t) on süsteemi juhtimissisend, on temale vastav süsteemi väljund. Juhtimise ülesandeks on saavutada nõutavat süsteemi dünaamikat, mida kirjeldab etalonmudel (reference model): Reference model :{ r( t), d( t) } r(t) d(t) on seadesuurus (juhtimissüsteemi sisend) on soovitav juhitava süsteemi väljund, lim d( t) y( t) = t 0 30