Satura rādītājs Apmācīšanās piemērs... 44

Σχετικά έγγραφα
Rekurentās virknes. Aritmētiskā progresija. Pieņemsim, ka q ir fiksēts skaitlis, turklāt q 0. Virkni (b n ) n 1, kas visiem n 1 apmierina vienādību

ESF projekts Pedagogu konkurētspējas veicināšana izglītības sistēmas optimizācijas apstākļos Vienošanās Nr. 2009/0196/1DP/

Rīgas Tehniskā universitāte. Inženiermatemātikas katedra. Uzdevumu risinājumu paraugi. 4. nodarbība

Compress 6000 LW Bosch Compress LW C 35 C A ++ A + A B C D E F G. db kw kw /2013

Logatherm WPS 10K A ++ A + A B C D E F G A B C D E F G. kw kw /2013

FIZIKĀLO FAKTORU KOPUMS, KAS VEIDO ORGANISMA SILTUMAREAKCIJU AR APKĀRTĒJO VIDI UN NOSAKA ORGANISMA SILTUMSTĀVOKLI

Tēraudbetona konstrukcijas

Īsi atrisinājumi Jā, piemēram, 1, 1, 1, 1, 1, 3, 4. Piezīme. Uzdevumam ir arī vairāki citi atrisinājumi Skat., piemēram, 1. zīm.

PREDIKĀTU LOĢIKA. Izteikumu sauc par predikātu, ja tas ir izteikums, kas ir atkarīgs no mainīgiem lielumiem.

LATVIJAS RAJONU 33. OLIMPIĀDE. 4. klase

LU A.Liepas Neklātienes matemātikas skola /2011.m.g. sagatavošanās olimpiāde matemātikā

ATTĒLOJUMI UN FUNKCIJAS. Kopas parasti tiek uzskatītas par fiksētiem, statiskiem objektiem.

Rīgas Tehniskā universitāte Enerģētikas un elektrotehnikas fakultāte Vides aizsardzības un siltuma sistēmu institūts

Andrejs Rauhvargers VISPĀRĪGĀ ĶĪMIJA. Eksperimentāla mācību grāmata. Atļāvusi lietot Latvijas Republikas Izglītības un zinātnes ministrija

ATTIECĪBAS. Attiecības - īpašība, kas piemīt vai nepiemīt sakārtotai vienas vai vairāku kopu elementu virknei (var lietot arī terminu attieksme).

1. Testa nosaukums IMUnOGLOBULĪnS G (IgG) 2. Angļu val. Immunoglobulin G

Komandu olimpiāde Atvērtā Kopa Atrisinājumi 7. klasei

Komandu olimpiāde Atvērtā Kopa. 8. klases uzdevumu atrisinājumi

KOMBINATORIKAS UN VARBŪTĪBU TEORIJAS ELEMENTI. matemātikas profīlkursam vidusskolā

TIEŠĀ UN NETIEŠĀ GRADIENTA ANALĪZE

ΣΤΟΧΑΣΤΙΚΕΣ ΔΙΕΡΓΑΣΙΕΣ & ΒΕΛΤΙΣΤΟΠΟΙΗΣΗ Αίθουσα Νέα Κτίρια ΣΗΜΜΥ Ε.Μ.Π.

Atrisinājumi Latvijas 64. matemātikas olimpiāde 3. posms x 1. risinājums. Pārveidojam doto izteiksmi, atdalot pilno kvadrātu:

Agnis Andžāns, Julita Kluša /95. m.g. matemātikas olimpiāžu uzdevumi ar atrisinājumiem

2. PLAKANU STIEŅU SISTĒMU STRUKTŪRAS ANALĪZE

LATVIJAS REPUBLIKAS 45. OLIMPIĀDE

Donāts Erts LU Ķīmiskās fizikas institūts

LATVIJAS REPUBLIKAS 38. OLIMPIĀDE

INSTRUKCIJA ERNEST BLUETOOTH IMMOBILIZER

Mehānikas fizikālie pamati

Lai atvēru dokumentu aktivējiet saiti. Lai atgrieztos uz šo satura rādītāju, lietojiet taustiņu kombināciju CTRL+Home.

Jauna tehnoloģija magnētiskā lauka un tā gradienta mērīšanai izmantojot nanostrukturētu atomārās gāzes vidi

Laboratorijas darbu apraksts (I semestris)

ATRISINĀJUMI LATVIJAS REPUBLIKAS 32. OLIMPIĀDE

AGNIS ANDŽĀNS, DACE BONKA, ZANE KAIBE, LAILA ZINBERGA. Matemātikas sacensības klasēm uzdevumi un atrisinājumi 2009./2010.

Lai atvēru dokumentu aktivējiet saiti. Lai atgrieztos uz šo satura rādītāju, lietojiet taustiņu kombināciju CTRL+Home.

1. uzdevums. 2. uzdevums

DEKLARĀCIJA PAR VEIKSTSPĒJU

Oriģinālu signālu apstrādes paņēmienu izveide un izpēte konkurētspējīgu IT tehnoloģiju radīšanai

PĀRSKATS par valsts nozīmes jonizējošā starojuma objekta VSIA LVĢMC radioaktīvo atkritumu glabātavas Radons vides monitoringa rezultātiem 2017.

Datu lapa: Wilo-Yonos PICO 25/1-6

Datu lapa: Wilo-Yonos PICO 25/1-4

Būvfizikas speckurss. LBN Ēku norobežojošo konstrukciju siltumtehnika izpēte. Ūdens tvaika difūzijas pretestība

ĒKU ENERGOEFEKTIVITĀTE.

Lielais dānis Nilss Bors

MULTILINGUAL GLOSSARY OF VISUAL ARTS

Jauni veidi, kā balansēt divu cauruļu sistēmu

6. LATVIJAS UNIVERSITĀTES ĶĪMIJAS FAKULTĀTES JAUNO ĶĪMIĶU KONKURSA 2.KĀRTAS UZDEVUMU ATBILDES 8.-9.klases uzdevumi

Labojums MOVITRAC LTE-B * _1114*

Ķermeņa inerce un masa. a = 0, ja F rez = 0, kur F visu uz ķermeni darbojošos spēku vektoriālā summa

Vispārīgā bioloģija ; Dzīvības ķīmija Biologi-2017 Laboratorijas darbs 2

LATVIJAS RAJONU 43. OLIMPIĀDE

Lielumus, kurus nosaka tikai tā skaitliskā vērtība, sauc par skalāriem lielumiem.

FIZ 2.un 3.daļas standartizācija 2012.gads

Atlases kontroldarbs uz Baltijas valstu ķīmijas olimpiādi 2013.gada 07.aprīlī

6.4. Gaismas dispersija un absorbcija Normālā un anomālā gaismas dispersija. v = f(λ). (6.4.1) n = f(λ). (6.4.2)

Gaismas difrakcija šaurā spraugā B C

TROKSNIS UN VIBRĀCIJA

Fizikas valsts 66. olimpiāde Otrā posma uzdevumi 12. klasei

Salaspils kodolreaktora gada vides monitoringa rezultātu pārskats

Bioloģisko materiālu un audu mehāniskās īpašības. PhD J. Lanka

Saskaņots ZVA

GRAFOANALITISKO DARBU UZDEVUMI ELEKTROTEHNIKĀ UN ELEKTRONIKĀ VISPĀRĪGI NORĀDĪJUMI

Salaspils kodolreaktora gada vides monitoringa rezultātu pārskats

6.2. Gaismas difrakcija Gaismas difrakcijas veidi

Lai atvēru dokumentu aktivējiet saiti. Lai atgrieztos uz šo satura rādītāju, lietojiet taustiņu kombināciju CTRL+Home.

2. Kā tu uztver apkārtējo pasauli? Kas tev ir svarīgāk: redzēt, dzirdēt, sajust?

LATVIJAS REPUBLIKAS 35. OLIMPIĀDE

Datu lapa: Wilo-Stratos PICO 15/1-6

P. Leščevics, A. GaliĦš ELEKTRONIKA UN SAKARU TEHNIKA

fx-82es PLUS fx-85es PLUS fx-95es PLUS fx-350es PLUS

Προσομοίωση Νευρωνικού Δικτύου στο MATLAB. Κυριακίδης Ιωάννης 2013

Uponor PE-Xa. Ātrs, elastīgs, uzticams

Norādījumi par dūmgāzu novadīšanas sistēmu

Taisnzobu cilindrisko zobratu pārvada sintēze

5. un 6.lekcija. diferenciālvienādojumiem Emdena - Faulera tipa vienādojumi. ir atkarīgas tikai no to attāluma r līdz lodes centram.

Elektronikas pamati 1. daļa

Elektromagnētiskās svārstības un viļņi

Uzlabotas litija tehnoloģijas izstrāde plazmas attīrīšanas iekārtu (divertoru) aktīvo virsmu aizsardzībai

Sērijas apraksts: Wilo-Stratos PICO-Z

3. Eirokodekss Tērauda konstrukciju projektēšana

6. Pasaules valstu attīstības teorijas un modeļi

ΧΑΡΟΚΟΠΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ & ΤΗΛΕΜΑΤΙΚΗΣ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΝΕΥΡΩΝΙΚΑ ΔΙΚΤΥΑ. Καραγιώργου Σοφία

Laboratorijas darbs disciplīnā Elektriskās sistēmas. 3-FAŽU ĪSSLĒGUMU APRĒĶINAŠANA IZMANTOJOT DATORPROGRAMMU PowerWorld version 14

Kaulu vielmaiņas bioķīmiskos marķierus

Temperatūras izmaiħas atkarībā no augstuma, atmosfēras stabilitātes un piesārħojuma

Fizikas 63. valsts olimpiādes. III posms

LIETOŠANAS INSTRUKCIJA: INFORMĀCIJA ZĀĻU LIETOTĀJAM. Metforal 850 mg apvalkotās tabletes Metformini hydrochloridum

Νευρωνικά Δίκτυα στο Matlab

UDK ( ) Ko743

Ο ΠΕΡΙ ΤΕΛΩΝΕΙΑΚΟΥ ΚΩΔΙΚΑ ΝΟΜΟΣ ΤΟΥ 2004

3. O ΑΛΓΟΡΙΘΜΟΣ ΤΟΥ PERCEPTRON

Monitoringa statistiskā puse - Ainārs Auniņš

RĪGAS TEHNISKĀ UNIVERSITĀTE ENERĢĒTIKAS UN ELEKTROTEHNIKAS FAKULTĀTE INDUSTRIĀLĀS ELEKTRONIKAS UN ELEKTROTEHNIKAS INSTITŪTS

Modificējami balansēšanas vārsti USV

ENERGOSTANDARTS PĀRSPRIEGUMU AIZSARDZĪBA VIDSPRIEGUMA ELEKTROTĪKLOS

Lai atvēru dokumentu aktivējiet saiti. Lai atgrieztos uz šo satura rādītāju, lietojiet taustiņu kombināciju CTRL+Home.

Αλγόριθμοι. Α. Υπολογιστικά Προβλήματα. Β. Εισαγωγή στους Αλγόριθμους. Γ. ομή Αλγόριθμων. Δ. ομές εδομένων

Darbā neriskē ievēro darba drošību! DROŠĪBAS PRASĪBAS, VEICOT DARBUS ELEKTROIETAISĒS DARBA AIZSARDZĪBA

Ārtipa uzskaites sadalnes uzstādīšanai ārpus telpām ar 1 un 2 skaitītājiem UAB "ArmetLina"

7. Eirokodekss, lietojamība un attīstība Pāreja no LBN uz Eirokodekss projektēšanas normatīviem. 01/11/2013

Transcript:

Satura rādītās. Neironu tīkli skaitļošanas paradigma... 3.. Neironu tīkls kā skaitļošanas sistēma... 3.. Bioloģiskie neironu tīkli... 4. Mākslīgais neirons... 7.. Neirona uzbūves un darbības pamatprincipi... 7.. Vienkārši neirona piemēri... 8... Piemērs #. Loģiskā UN (x AND x ) modelēšana... 8... Piemērs #. Funkcias NOT (x AND x ) modelēšana... 9.3. Summēšanas funkciu veidi....4. Aktivitātes funkciu veidi... 3. Neironu tīklu topoloģia... 6 3.. Lineāras un nelineāras problēmas... 6 3.. XOR modelēšana ar divu slāņu neironu tīklu... 7 3.3. Neironu tīklu topoloģiu veidi... 8 3.3.. Vienvirziena tīkli... 8 3.3.. Rekursīvie tīkli... 3.4. Neironu tīkla un tā darbības notācia vairāku slāņu topoloģiā... 4. Neironu tīkla apmācīšanās... 4 4.. Apmācības process... 4 4.. Apmācīšanās paradigmas... 6 4... Apmācīšanās ar skolotāu... 7 4... Neuzraudzītā apmācīšanās... 8 4..3. Apmācīšanās ar pastiprināumu... 8 4.3. Apmācīšanās likumi... 9 4.3.. Apmācīšanās ar kļūdu labošanu... 9 4.3.. Heba apmācīšanās... 3 4.3.3. Apmācīšanās ar konkurenci... 3 5. Vienslāņa perceptrons... 3 5.. Perceptrona uzbūve... 3 5.. Ar perceptronu risināmu problēmu piemēri... 33 5... Funkcia NOT (x AND x )... 33 5... Ciparu atpazīšana... 34 5..3. Normalizācia un denormalizācia... 34 5.3. Perceptrona darbināšana... 35 6. Vienslāņa perceptrona apmācīšanās... 37 6.. Kvadrātiskās kļūdas metode... 37 6... Algoritma apraksts... 37 6... Dinamiska apmācīšanās parametra izmantošana... 4 6..3. Apmācīšanās piemērs... 4 6..4. Teorētiskā bāze... 4 6.. Perceptrona apmācīšanās ar pseido-apgrieztās matricas metodi... 44 6... Algoritma apraksts... 44 6... Apmācīšanās piemērs... 44 7. Vairākslāņu perceptrons... 46 7.. Vairākslāņu perceptrona uzbūve... 46 7.. Vairākslāņu perceptrona darbināšana... 47 7.3. Vairākslāņu perceptrona apmācīšanās ar kļūdu atgriezeniskās izplatīšanās metodi 48 8. Kohonena tīkls... 5

8.. Paraugu klāsterizācia un Kohonena tīkls... 5 8.. Ar Kohonena tīklu risināmas problēmas piemērs... 5 8.3. Kohonena tīkla uzbūves un darbības principi... 53 8.4. Kohonena tīkla darbināšana... 55 8.5. Kohonena tīkla apmācīšanās... 56 8.5.. Apmācīšanās algoritms... 56 8.5.. Apmācīšanās procesa parametru kontrole... 59

. Neironu tīkli skaitļošanas paradigma.. Neironu tīkls kā skaitļošanas sistēma Datoriem kļūstot aizvien spēcīgākiem un tehnoloģiām aizvien spēcīgākām, rodas iespēa sākt izmantot datorus arī tādu problēmu risināšanai, kas līdz šim biušas tikai cilvēku kompetencē. Daudzas šādas problēmas cilvēkam ir salīdzinoši viegli paveicamas (piemēram, atpazīt seu vai sašķirot ābolus skaistaos un ne tik skaistos), tai pat laikā datoram tās var būt ļoti smagas. Ņemot vērā to, ka ir tādas problēmas, kuras cilvēki risina daudz vieglāk nekā tradicionālie algoritmi (sekvenciāla, uz loģiku balstīta rēķināšana), varētu padomāt, ka skaitļošanas mehānismā, kuru izmanto cilvēks, ir kaut kas tāds, ko būtu vērts izzināt un iestrādāt algoritmos, lai tie kļūtu gudrāki. Jau no pašiem pirmsākumiem neironu tīklu izpēti ir motivēusi atziņa, ka cilvēka smadzenes rēķina pilnīgi savādākā veidā, nekā to dara parastie ciparu datori. Smadzenes ir ļoti kompleksa, nelineāra un paralēla informācias apstrādes sistēma. Smadzenēm ir ļoti apomīga un spēcīga struktūra un līdz ar to spēa veidot pašām savus noteikumus, ko mēs saucam par pieredzi. [Haykin, 999] Vispārīgi runāot, neironu tīkls (eb, precīzāk, mākslīgais neironu tīkls (artificial neural network)) ir mašīna, kas ir veidota, lai modelētu smadzeņu darbību noteikta uzdevuma sasniegšanai vai problēmas risināšanai [Haykin, 999]. Īsi varētu teikt, ka neironu tīkls ir cilvēka smadzeņu modelis. Tomēr āsaka, ka, salīdzinot ar cilvēka smadzenēm, mākslīgie neironu tīkli pagaidām vēl ir uzskatāmi tikai par ļoti vienkāršotiem un ir tikai divas īpašības (principi), ko ikviens neironu tīkls ir garantēti pārņēmis no smadzenēm:. Apmācība kā informācias ieguves veids. Neironu tīkls zināšanas iegūst apmācības ceļā, kaut arī ir zināmas teorias gatavu neironu tīklu ģenerēšanai;. Konekcionisms. Neironu tīkls sastāv no liela daudzuma t.s. neironu, un to savstarpēo saišu stiprums nosaka tīklā glabātās zināšanas. Neironu tīkls ir informācias apstrādes sistēma, kas sastāv no relatīvi liela skaita skaitļošanas elementu (sauktu par neironiem) un savu spēu veikt noteiktu uzdevumu ieguvusi apmācības ceļā. Katrs neirons (eb, precīzāk, mākslīgais neirons (artificial neuron)) ir relatīvi vienkārša skaitļošanas vienība, tomēr liels daudzums neironu, kas zināmā veidā savienoti viens ar otru, kopā var paveikt ļoti sarežģītus uzdevumus. Bioloģiskā neirona takts frekvence ir aptuveni 6 kārtas zemāka nekā mūsdienu procesoriem (aptuveni ms), tomēr cilvēka smadzeņu potenciālu nodrošina vismaz milardi neironu, kas katrs savienots ar citiem neironiem ar vairāku tūkstošu saišu starpniecību, un to kopskaits sasniedz 6 trilonus. Vai ir vērts runāt par smadzeņu modeļiem un cilvēku rīcības atdarināšanu pirms kaut cik manāma (salīdzinot ar smadzenēm) mākslīgo neironu tīkla apoma sasniegšanas? Neironu tīklu pētniekiem ir ticība un pārliecība, ka var, o kā gan savādāk viņi attaisnotu savu darbošanos šaā sfērā. Turklāt atsevišķos praktiskos uzdevumos neironu tīkli au ir pierādīuši savu noderīgumu un pārsvaru pār citām skaitļošanas metodēm. Neironu tīklu laikmets sākās 943. gadā ar Makaloka un Pitsa (McCulloch and Pitts) darbu A logical calculus of the ideas immanent in nervous activity. 3

Svarīgs moments agrīnaā neironu tīklu attīstībā bia Rozenblata (Rosenblatt) un viņa līdzstrādnieku izstrādātais t.s. perceptrons Masačūsetsas tehnoloģiskaā institūtā (MIT) 958. gadā. Trieciens neironu tīklu attīstībā bia 969. gadā izdotā Minska un Peiperta (Minsky and Papert) izdotā grāmata, kurā tika parādīts, ka perceptrona modelis nespē atrisināt pat tik vienkāršas problēmas kā t.s. XOR problēma, kur nu vēl sarežģītākas. Līdz ar šo daudzos neironu tīklu proektos tika samazināts vai noņemts finansēums, un pētīumus turpināa tikai entuziasti. Tikai 5 gadus vēlāk, kad tika pārkāpti vairāki teorētiski, kā arī tehnoloģiski ierobežoumi neironu tīklu attīstība sākās ar aunu sparu. Tika izgudrota t.s. neironu tīklu apmācība ar kļūdu atgriezeniskās izplatīšanās metodi (error back-propagation) un uz šādiem tīkliem vairs neattiecās Minska un Peiperta ierobežoumi. Tieši uz vairākslāņu perceptrona bāzēti neironu tīklu modeļi mūsdienās vairākumā gadīumu tiek asociēti ar neironu tīkliem.. gs. 8.-9. gados tika piedāvāti dažādi neironu tīklu modeļi, piemēram, Radiālo bāzes funkciu (RBF) tīkli un t.s. support vector machines, no kuriem pēdēais atsevišķos literatūras avotos tiek parādīts kā ārpus neironu tīklu paradigmas esošs. Blakus tam,. gs. 9. gados ir sākusies, kā šī virziena pārstāvi nereti sauc 3. paaudzes neironu tīklu eb pulsēošo neironu tīklu (pulsed/spiking neural networks) attīstība, kas pretendē uz vairāku līdz šim neironu tīklu modeļos nesastaptu bioloģisku principu pielietošanu... Bioloģiskie neironu tīkli Kaut arī pakāpe, ar kuru dažādi mākslīgo neironu tīklu modeļi atbilst bioloģiskaiem analogiem atšķiras, tomēr bioloģiskie neironu tīkli (visbiežāk cilvēka smadzenes) ir uzskatāmi vismaz par sākotnēo iedvesmas avotu neironu tīklu virziena attīstībai. Arī starp pētniekiem ir atšķirība vieni uzskata, ka bioloģiskā atbilstība (plausibility) ir būtiska, kamēr citi par svarīgāku vērtē konkrēta modeļa noderīgumu konkrētu problēmu risināšanā. Neskatoties uz atšķirībām pieeās, tomēr būtu nepieciešamība īsumā saprast galvenais bioloģisko neironu un bioloģisko neironu tīklu uzbūves un darbības principus. Starp bioloģiskā neirona (piemēram, smadzeņu vai nervu šūnas) un mākslīgā neirona struktūru ir cieša analoģia. Atsevišķo neironu struktūra atšķiras salīdzinoši nedaudz, a salīdzina dažādas sugas, lielākās atšķirības ir starp sistēmu organizāciu, kurās neirons ir elements. Neirons eb nervu šūna ir nervu sistēmas galvenais elements. Kā au katrai šūnai, arī neironam ir ķermenis, saukts par somu (soma). No somas iziet neskaitāmi izaugumi, kurus var sadalīt divās grupās tievie un biezi sazarotie dendrīti (dendrites) un resnākais aksons (axon). Ienākošie signāli nervu šūnā ienāk caur t.s. sinapsēm (synapses), bet izeošais signāls tiek aizvadīts pa aksonu, kas tālāk sazaroas, lai novadītu signālu uz vairākiem citiem neironiem. 4

Aksons Soma Dendrīti Att... Bioloģiskā neirona shematiska uzbūve. [Scherer, 997] Mākslīgie neironi no bioloģiskaiem neironiem aizguvuši šādas īpašības [Fausett, 994]:. Neirons saņem daudzus signālus;. Signālu, kas ienāk neironā, var modificēt uztverošās sinapses svars (svara vērtība); 3. Neirons veic svērto ieeas vērtību summēšanu; 4. Noteiktos apstākļos (pietiekoša ievada gadīumā) neirons izeā dod vienu signālu; 5. Izeas vērtība no noteikta neirona var nonākt daudzos citos neironos (t.i. aksons sazaroas). Tālāk tiks uzskaitītas vēl dažas mākslīgo neironu tīklu īpašības, kas radušās, iedvesmooties no bioloģiskaiem neironiem [Fausett, 994]:. Informācias apstrāde notiek lokāli (kaut arī tādi signālu pārraides līdzekļi, piemēram, hormonu darbība, kas var tikt uztverti kā vispārēa (resp., globāla) procesa kontrole);. Atmiņa ir sadalīta (distribited): 3. ilglaicīgā atmiņa (long-term memory) izvietota neironu sinapsēs eb svaros, 4. īslaicīgā atmiņa (short-term memory) atbilst signāliem, kurus izsūta neironi. 5. Sinaptiskie svari var tikt modificēti, balstoties uz pieredzi; 6. Sinapses var būt gan ar pastiprinošu, gan pavāinošu iedarbību (excitatory or inhibitory). Vēl viena būtiska īpašība, kur mākslīgie neironu tīkli atbilst to bioloģiskaiem analogiem, ir kļūdu noturība (fault tolerance). Bioloģiskās neironu sistēmas ir kļūdu noturīgas divos veidos. Pirmkārt, mēs esam atpazīt ieeas signālus, kas kaut kādā veidā atšķiras no tiem, kurus esam redzēuši iepriekš. Otrkārt, mums ir spēas pārciest pašas bioloģiskās sistēmas boāumus Caur sinapsēm ienākošie signāli neironu regulāri kairina. Ja kairināuma (neirona aktivitātes) līmenis pārsniedz noteiktu slieksni, neirons izšau (fires), resp., izeā dod noteiktu signāla impulsu. Turpretī, a neirona aktivitātes līmenis nesasniedz slieksni, tad neirons neizšāvis atgriežas iepriekšēā stāvoklī. Pēc kārtēā nervu impulsa ģenerēšanas neirons kādu brīdi zaudē 5

spēu to atkal izdarīt pat pie ļoti spēcīgas kairināmības (iestāas signālnoturības (refractoriness) (t.i., noturības nedot signālu ) periods eb, no neirona aktivitātes viedokļa, atslābums). Signālnoturība nodrošina to, ka neirons nedod signālu nepārtraukti, bet kādu laiku atpūšas un tādēādi dod iespēu ietekmei citiem neironiem. Neirons izšau Neirons kāpina aktivitāti Atslābums Att... Tipiska nervu impulsa forma. [Osowski, ] Ir vismaz 3 dažādi aspekti, kuri nodrošina, ka bioloģiskas nervu sistēmas (piemēram, smadzenes) spē efektīvi risināt sarežģītas problēmas tā, kā tas notiek:. Ļoti liels paralēli darboošos neironu skaits;. Fizikāli ķīmiskā vide (šķīdumi, membrānas utt.); 3. Noteikts darbības algoritms (ietverot gan atsevišķu neironu uzbūves un darbības principus, gan kopēo topoloģiu). Mākslīgaos neironu tīklos fizikāli ķīmiskā vide ir pilnīgi savādāka un arī neironu skaits, salīdzinot ar dabiskaām sistēmām, ir uzskatāms par niecīgu. Atliek vienīgi cerēt, ka, izveidoot pietiekoši labus algoritmus, ir iespēams vismaz daļēi iegūt priekšrocības, kuras bauda bioloģiskās nervu sistēmas salīdzināumā ar tradicionālaiem datoriem un algoritmiem. Esošā neironu tīklu izmantošanas pieredze to apstiprina un rāda, ka esošie algoritmi pat pie salīdzinoši neliela neironu skaita dod ūtamu ieguldīumu daudzu problēmu risināšanā. 6

. Mākslīgais neirons Neironu tīkls vispārīgā gadīumā sastāv no relatīvi liela daudzuma neironu. Neirons (neuron, unit, processing unit, node, processing element, cell) ir salīdzinoši vienkāršs (pret visu neironu tīklu) skaitļošanas elements. Atšķirībā no tradicionālaām skaitļošanas sistēmām, neironu tīkls ir drīzāk līdzīgs melnaai kastei katra atsevišķa neirona loma kāda konkrēta uzdevuma risināšanā nav precīzi nosakāma. Šī neironu tīklu īpašība krietni apgrūtina to konstruēšanu, testēšanu un ekspluatēšanu, tādēādi neironu tīkli nebūtu uzskatāmi par ērtu līdzekli ebkuras problēmas risināšanai. Tieši otrādi neironu tīklu piegāiens ir salīdzinoši grūts un neērts, un neironu tīkli būtu izmantoami tikai atsevišķos gadīumos, piemēram, kad tradicionālie algoritmi nedod efektīvu risināumu vai pieeamā informācia par problēmu nav pilnīga, resp., īstaā vietā nevis par katru cenu. Neirons ir salīdzinoši vienkāršs elements, tai pat laikā atsevišķa neirona uzbūve var būtiski ietekmēt visa neironu tīkla skaitļošanas spēu. Kaut arī nopietni par neironu tīkliem var runāt tikai tad, a taos ir daudzi neironi, tomēr arī viena neirona (vai dažu neironu) sistēmas izzināšana var dot lielu priekšstatu par šo datorzinātņu un mākslīgā intelekta sfēru un pat būt derīga vienkāršu problēmu risināšanai... Neirona uzbūves un darbības pamatprincipi Neirona sastāvā ietilpst šādi galvenie konstruktīvie elementi:. Svari;. Summēšanas eb izplatīšanās funkcia; 3. Aktivitātes funkcia. x x x 3 x m w w w 3 w m NET f NET (x) m i w i x i y f act ; NET >Θ ( NET) ; NET Θ Att... Mākslīgā neirona uzbūves shēma ar sliekšņveida aktivitātes funkciu (x i ieeas; w i svari; NET summēšanas vērtība; Θ slieksnis; y izea) y 7

Svari (eb sinaptiskie svari, [synaptic] weights) ir vērtības, caur kurām neironā ienāk ienākošie signāli un tādēādi tiek pamainīti. Tieši svari ir tie, kas visbūtiskāk atšķir neironu no neirona, o izplatīšanās un aktivitātes funkcias parasti noteiktai neironu grupai vai pat visam neironu tīklam ir vienādas vai ļoti līdzīgas. Tieši svari ir tie, uz kuriem iedarboas apmācības process, tos modificēot un tādēādi nodrošinot, ka neironu tīkls apmācības procesa beigās ir ieguvis spēu risināt noteiktu problēmu. Neironā parasti ir tik daudz svaru, cik ieeu (katrai ieeai atbilst tieši viens svars), atsevišķos gadīumos par vienu vairāk (papildus svars). Formulās svarus ļoti bieži apzīmē ar burtu w (no angļu valodas vārda weight) un indeksu, kas norāda svara kārtas numuru neironā, piemēram, w. Lai apzīmētu visa neironu tīkla svaru kopumu, var lietot kortežu vai matricu notāciu (t.i., pierakstu), piemēram, w vai W (a ir runa par vairāku neironu svariem). Summēšanas funkcia (propagation function) f NET ( ), kombinēot ieeas signālus un svarus, izrēķina vienu vērtību, kas tālāk tiek padota aktivitātes funkciai. Summēšanas funkcias izrēķināto vērtību parasti apzīmē ar burtu virkni NET. Tipiskākā summēšanas funkcia ir summa no ieeu un attiecīgo svaru reizināuma (parādīta Att..). Aktivitātes funkcia (activation function) f act ( ), izmantoot summēšanas funkcias vērtību NET, izrēķina neirona izeas vērtību y. Aktivitātes funkcia ir svarīgākā neirona darbības raksturotāa, kas var norādīt uz neirona spēu risināt noteiktas sarežģītības uzdevumus (piemēram, nelineārs neirons nozīmē, ka neironā ir nelineāra aktivitātes funkcia). Aktivitātes funkciu piemēri ir: lineāra, sliekšņveida, sigmoidāla. Att.. redzama sliekšņveida aktivitātes funkcia... Vienkārši neirona piemēri... Piemērs #. Loģiskā UN (x AND x ) modelēšana Apskatīsim neironu, kas aprēķina vienkāršu funkciu loģisko UN (x AND x ; Tab..). Tab... Funkcia Loģiskais UN (x AND x ). x x x AND x Loģiskā UN modelēšanai nepieciešama sistēma (t.i. neirons) ar divām ieeām un (protams) vienu izeu. Šim nolūkam izmantosim Att.. parādīto neirona modeli (ar sliekšņveida aktivitātes funkciu) ar divām ieeām un sliekšņa vērtību Θ.5. Tik vienkāršam piemēram dotaā neirona modelī nav grūti izdomāt, ka svara vērtības var būt, piemēram, attiecīgi.3 un.3 (Att..). 8

x x.3.3 w w NET.3x + x. 3 ; NET >.5 y ; NET.5 y Att... Neirons loģiskā UN modelēšanai Tab... Loģiskā UN modelēšana ar neironu, kas parādīts Att.. (NET, y neirona izrēķinātās vērtības; d vēlamā (desired) funkcias vērtība). x x NET y d x AND x..3.3.6... Piemērs #. Funkcias NOT (x AND x ) modelēšana Otraā piemērā apskatīsim funkciu kas pretēa loģiskaam UN (NOT (x AND x ); Tab..3). Tab..3. Funkcia NOT (x AND x ). x x NOT (x AND x ) Iepriekš pielietotais modelis (Att..), kurš tika lietots loģiskā UN modelēšanai, šeit neder, o, piemēram, ne pie kādiem svariem nav iespēams dabūt, ka ar ieeām attiecīgi un izeā varētu dabūt. Modelis ir āpapildina, un to veic, pievienoot papildus svara eb nobīdes (bias) ēdzienu. Papildus svaru parasti apzīmē ar b vai w. Otraā gadīumā tiek formāli uzskatīts, ka ir tāds -tais ievads, pa kuru neironā vienmēr ienāk vērtība šāda interpretācia atvieglo neirona realizāciu datorprogrammā. 9

x x x x x -.3 -.3 w w b. w -.3 -.3 w w NET.3x.3x + NET..3x x. 3 ; NET >.5 y ; NET.5 y ; NET >.5 y ; NET.5 y Att..3. Neirons funkcias NOT (x AND x ) modelēšanai. Abi varianti atšķiras pēc papildus svara pieraksta veida, bet ir funkcionāli identiski Tab..4. Funkcias NOT (x AND x ) modelēšana ar neironu, kas parādīts Att..3. x x NET y d NOT (x AND x )..7.7.4 Ieviešot papildus svaru, ir attiecīgi āpapildina neirona uzbūves shēma (sk. Att..4). x x x 3 x m w w w 3 w m b NET f NET (x) wi x i + b m i y f act ; NET >Θ ( NET) ; NET Θ Att..4. Mākslīgā neirona uzbūves shēma ar papildus svaru (salīdzināt ar Att..) y

.3. Summēšanas funkciu veidi Summēšanas (izplatīšanās) funkcia f NET ( ), kombinēot ieeas signālus un svarus, izrēķina vienu vērtību, kas tālāk tiek padota aktivitātes funkciai. Summēšanas funkcias izrēķināto vērtību parasti apzīmē ar burtu virkni NET. Viena no biežāk lietotaām summēšanas funkciām ir summa no ieeu un attiecīgo svaru reizināuma (Formula (.)). NET m i w x i i + b (.) Kā au minēts iepriekšēos piemēros, papildus svara b iesaistīšanos summēšanas funkciā var pierakstīt arī kā w, papildus pieņemot, ka x (Formula (.)). NET m i w i x i (.) (.) ir ērti pierakstīt arī matricu notāciā (Formula (.3)). NET m i w w xw ( x x... xm) (.3)... wm Par summēšanas funkciu dažos neironu tīklu modeļos lieto arī Eiklīda attālumu (Formula (.4)) vai tā kvadrātu. NET m ( x i w i ) x w (.4) i Ir neironu modeļi, kur tiek izmantotas arī eksotiskākas summēšanas/izplatīšanās funkcias (Formulas (.5), (.6), (.7)). NET m i w i x i (.5) { w } m i x i i NET max (.6) { w } m i x i i NET min (.7).4. Aktivitātes funkciu veidi Aktivitātes funkcia f act ( ), izmantoot summēšanas funkcias vērtību NET, izrēķina neirona izeas vērtību y. Aktivitātes funkcia ir svarīgākā neirona darbības raksturotāa, kas var norādīt

uz neirona spēu risināt noteiktas sarežģītības uzdevumus (piemēram, nelineārs neirons nozīmē, ka neironā ir nelineāra aktivitātes funkcia). Lineāra aktivitātes funkcia (Formula (.8)) ir triviāls aktivitātes funkcias variants, kas nenodrošina iespēu risināt sarežģītākas problēmas, tomēr dod iespēu veikt apstrādi (šaā gadīumā neirona vai neironu tīkla apmācību), izmantoot tradicionālas lineāras metodes. f lin ( NET ) NET (.8) f(net).8.6.4. -. -.4 -.6 -.8 - - -.8 -.6 -.4 -...4.6.8 NET Att..5. Lineāra aktivitātes funkcia Ja modelēamā funkcia ir bināra, t.i., tās izeā ir, piemēram, tikai vai, bet nav starpvērtību, var tikt lietota sliekšņveida aktivitātes funkcia, kas ir vienkāršākā nelineārā funkcia. kur Θ slieksnis (threshold). B; NET > Θ f Θ ( NET ), (.9) A; NET Θ f(net)..9.8.7.6.5.4.3.. -....3.4.5.6.7.8.9 NET Att..6. Sliekšņveida aktivitātes funkcia (Θ.5; A.; B.)

Praksē parasti ērtāka ir pseidolineāra aktivitātes funkcia (Formula (.)) intervālā ([A, B]) ierobežota lineārā aktivitātes funkcia, kas ir sava veida kompromiss starp lineāro un sliekšņveida funkciu. Kaut arī tā pēc būtības nav lineāra funkcia, tomēr kaut kādā tuvināumā to var pieņemt par tādu, un ērtība šeit izpaužas apstāklī, ka ir iespēams pielietot lineāras metodes neirona vai neironu tīkla apmācībā. B; NET > B f pseudo_lin ( NET ) A; NET < A (.) NET ; else..8 f(net).6.4. -. -...4.6.8. NET Att..7. Lineāra aktivitātes funkcia, kas ierobežota intervālā (A.; B.) Sigmoidālās funkcias veido S-veida grafiku. Sigmoidālās aktivitātes funkcias ir ne vien skaistas, bet arī bioloģiski pamatotas. Bez tam tās ir arī praktiski ērtas, o ļau ierobežot izeas vērtību noteiktā intervālā, kam ir ļoti vērtīgais normalizācias efekts. Sigmoidālās funkcias ir nelineārās, bet, atšķirībā no sliekšņveida funkciām arī atvasināmas. Viena no populārākaām aktivitātes funkciām ir t.s. loģistiskā aktivitātes funkcia (Formula (.)). Tās izeas vērtība ir ierobežota intervālā [, ]. kur g līknes slīpuma koeficients (gain). f log ( NET ), NET g + e (.) 3

f(net)..9.8.7.6.5.4.3.. -. - -.8 -.6 -.4 -...4.6.8 NET Att..8. Loģistiskā aktivitātes funkcia (g.) Loģistiskaai funkciai ļoti līdzīgs ir hiperboliskais tangenss, kas izeu ierobežo intervālā [-, ] (Formula (.)). x x e e f tanh ( NET ) (.) x x e + e f(net)..8.6.4. -. -.4 -.6 -.8 - -. - -.5 - -.5.5.5 NET Att..9. Hiperboliskais tangenss Abu sigmoidālo funkciu vērtīga īpašība ir tā, ka to atvasināums ir izsakāms ar pašas funkcias vērtību, kas ir ļoti nozīmīgi tāda neironu tīklu modeļa, kā perceptrons apmācībā. f log ' f ( f ) (.3) log log f ' (.4) tanh f tanh Vairākos neironu tīklu modeļos tiek lietota Gausa funkcia (Formula (.5)). 4

f Gauss ( NET ) NET σ e, (.5) kur σ (sigma) līknes slīpuma koeficients. f(net)..9.8.7.6.5.4.3.. -. - -.5 - -.5.5.5 NET Att... Gausa funkcia (σ.5) 5

3. Neironu tīklu topoloģia 3.. Lineāras un nelineāras problēmas Apskatīsim bināru loģisko funkciu izslēdzošo VAI (x XOR x ; Tab. 3.). Tab. 3.. Funkcia Izslēdzošais VAI (x XOR x ). x x x XOR x Lai kā mēs censtos, izmantoot iepriekš aprakstīto neirona modeli (Att..4), mums neizdosies to nomodelēt. Izrādās, ka XOR problēma pieder t.s. nelineāraām problēmām, t.i., kuras nevar atrisināt, novelkot vienu līniu (vienkāršoti sakot, vaadzīgas vismaz divas). (, ) (, ) (, ) (, ) Att. 3.. XOR vienkāršākā nelineārā klasifikācias problēma. Lai sadalītu punktus divās klasēs, nepieciešamas divas taisnes (ar vienu līniu tas nav iespēams) Izrādās, ka ar vienu vienīgu neironu nevar atrisināt nelineāras problēmas, kaut arī šī neirona aktivitātes funkcia būtu nelineāra. Tab. 3.. Lineāri atdalāmu n-argumentu Būla funkciu skaits [Scherer, 997]. n Skaits kopā Lineāri atdalāmo funkciu skaits 4 4 6 4 3 56 4 4 65 536 77 5 4.3* 9 94 57 6.8* 9 5 8 34 6

Cik liela nozīme ir neironu tīkla spēai risināt nelineāras problēmas? Izrādās, ka ļoti liela, un tas tā ir nelineāro problēmu lielā īpatsvara dēļ. Ja starp 6 divu argumentu Būla funkciām tikai divas ir nelineāras (XOR un ekvivalence), tad, palielinoties argumentu skaitam, nelineāru funkciu īpatsvars straui pieaug (Tab. 3.). 3.. XOR modelēšana ar divu slāņu neironu tīklu XOR iespēams modelēt ar trīs neironiem, kas izvietoti divos slāņos (slāņi ir tādi neironu kopumi, kas izvietoti viens aiz otra). Funkcia x XOR x tiek modelēta (Att. 3.) kā (x OR x ) AND NOT (x AND x ), un katra no formulā ietilpstošaām trim lineāraām funkciām (OR, NOT AND, AND) tiks modelēta ar vienu neironu, kas konstruēts pēc shēmas, kas parādīta Att..4. x x.6.6 -.3 -.3 NET.6 x +.6 x + NET.3x.3x + y ; NET >.5 ; NET.5 y ; NET ; NET >.5.5 y y.3.3 NET 3.3 y +.3 y + y y 3 ; NET3 ; NET3 >.5.5 y Att. 3.. Neironu tīkls funkcias (x XOR x ) modelēšanai Lai varētu modelēt nelineāru problēmu, neironu tīklam āatbilst šādām minimālaām prasībām:. Neironu tīklā ābūt vismaz vienam t.s. slēptaam slānim (tādam, kura izea reizē nav visa neirona izea; dotaā piemērā pie slēptā slāņa pieder neironi # un #); 7

. Neironu aktivitātes funkciai ābūt nelineārai (vismaz slēptaā slānī); dotaā piemērā tiek lietota sliekšņveida aktivitātes funkcia, kas ir nelineāra. Tab. 3.3. Neironu tīkla (Att. 3.) pārbaude (y x XOR x ). x x NET y NET y NET 3 y.44.6.7.74.6.7.74..4.44 3.3. Neironu tīklu topoloģiu veidi Neironu tīkla topoloģia eb arhitektūra ir neironu izvietoums tīklā un to savstarpēās saites. Topoloģia, blakus neirona aktivitātes funkciai, ir viena no būtiskiem aspektiem, kas nosaka neironu tīkla skaitļošanas spēu. Neironi neironu tīklā parasti tiek grupēti slāņos. Neironu tīkla topoloģiu nosaka: Neironu slānis (layer) ir neironu kopums, kas topoloģiski izvietoti kopā un kuru darbināšana un apmācība parasti notiek pēc viena algoritma. Neironu slāņu savstarpēais izvietoums un to neironu sasaiste; Neironu sasaiste slāņa ietvaros. Tipiska vairāku slāņu neironu arhitektūra ir, ka slāņi ir izvietoti virknē viens aiz otra, turklāt divu blakusesošo slāņu neironi ir savienoti katrs ar katru. Pēc neironu slāņu izkārtouma neironu tīkli iedalās divos galvenaos veidos: Vienvirziena tīkli (feedforward networks); Rekursīvie tīkli (recurrent/feedback networks). 3.3.. Vienvirziena tīkli Vienvirziena tīklos slāņi ir izkārtoti virknē pēc kārtas, līdz ar to tos var numurēt pēc kārtas. Tīkla darbināšana notiek, sākot ar ieeas slāni (nr. ) un beidzot ar izeas slāni (nr. m). Saites starp neironiem ir tikai virzienā no slāņa ar mazāku numuru uz slāni ar lielāku numuru. Neironu tīkla vienvirziena topoloģia ar 3 slāņiem parādīta Att. 3.3. Beidzamais no slāņiem ir izeas slānis. 8

Izeas slānis (output layer) ir neironu slānis, kas tieši saistīts ar apkārtēo vidi, kur tiek aizvadītas izeas vērtības. Neironu slānis, kura neironu izeas ir arī visa neironu tīkla izeas. Ieea Izea Slānis # Slānis # Att. 3.3. Vienvirziena neironu tīkls (saites tikai starp blakus slāņiem) Slānis #3 (izeas slānis) Att. 3.3 ir pilnīgi skaidrs, ka izeas slānis ir slānis #3, bet ar ieeas slāņa definēšanu nav tik vienkārši, o, izmantoot šo pieeu, neironu tīklam ir ieeas, bet ieeas slāņa nav (ir tikai izeas slānis un citi slāņi). Šaā izpratnē vienslāņa (single-layer) neironu tīkls ir tāds tīkls, kuram ir tikai viens izeas slānis (Att. 3.5). Ieea Izea Izeas slānis Att. 3.4. Vienslāņa vienvirziena neironu tīkls ar diviem neironiem Lai atvieglotu neironu tīkla realizāciu (datorprogrammā), bieži vien neironu tīkla slāņu struktūra tiek reprezentētā citā izpratnē, resp., tiek mākslīgi nodefinēts ieeas slānis, kura neironi neko nedara, bet uz kuru izeām tiek padotas neironu tīkla ieeas vērtības (Att. 3.5). 9

Šaā izpratnē neironu tīklam sanāk par vienu slāni vairāk, un visi slāņi, kas nav ne izeas, ne ieeas ir slēptie slāņi.. Ieeas slānis (input layer) ir tāds neironu slānis (iespēams, mākslīgi veidots), uz kura neironu izeām tiek uzstādītās visa neironu tīkla ieeas. Slēptais slānis (hidden layer) ir tāds neironu slānis, kas nav ne ieeas, ne izeas slānis. Ieea Izea Ieeas slānis Slēptais slānis Slēptais slānis Izeas slānis Att. 3.5. Pirmās kārtas vienvirziena neironu tīkls, iesaistot ieeas slāņa ēdzienu Var teikt, ka vienvirziena neironu tīkliem ieeas slānis vienmēr ir mākslīgs eb pseidoslānis. Lai vienas vai otras pieeas piekopšana neironu tīkla arhitektūras definēšanā neradītu saukumu, tad parasti saka nevis, piemēram, 3 vai 4 slāņu neironu tīkls (salīdzināt Att. 3.3 un Att. 3.5), bet gan neironu tīkls ar slēptaiem slāņiem. Tādēādi, vienslāņa neironu tīkls var tikt definēts kā tīkls, kurā nav slēpto slāņu (Att. 3.6). Vairākslāņu (multi-layer) neironu tīkls ir tāds neironu tīkls, kuram ir vismaz viens slēptais slānis.

Ieea Izea Ieeas slānis Izeas slānis Att. 3.6. Vienslāņa vienvirziena neironu tīkls, iesaistot ieeas slāņa ēdzienu 3.3.. Rekursīvie tīkli Rekursīvaos tīklos neironu papildus var tikt saistīti viens ar otru šādos veidos: no slāņa ar lielāku numuru uz slāni ar mazāku numuru (Att. 3.7); slāņa ietvaros (Att. 3.8). Att. 3.7. Rekursīvs neironu tīkls Vienslāņa rekursīvaam neironu tīklam, kas parādīts Att. 3.8, ieeas un izeas slānis ir viens un tas pats slānis (salīdzināt ar vienslāņa vienvirziena neironu tīklu Att. 3.4 un Att. 3.6, kur ir tikai izeas slānis, bet īsta ieeas slāņa nemaz nav.

Izea Ieea Att. 3.8. Vienslāņa rekursīva neironu tīkla piemērs (Hopfīlda modelis) 3.4. Neironu tīkla un tā darbības notācia vairāku slāņu topoloģiā Aprakstot neironu tīkla darbību, tiek lietoti dažādi apzīmēumi un notācias. Formulās svarus ļoti bieži apzīmē ar mazo burtu w un indeksu, kas norāda svara kārtas numuru neironā, piemēram, w. Ja formula attiecas nevis uz vienu neironu, bet uz visu slāni, tad ir nepieciešami divi indeksi neironam un slānim, piemēram, w 3,5 ir 3-ā neirona 5-tais svars. Atsevišķos gadīumos tiek lietots vēl trešais indekss neironu slāņa numuram (piemēram, w,3,5 ), bet praktiski (it sevišķi, realizēot datorprogrammās) šādu pierakstu lieto retāk, o, a visos viena slāņa neironos svaru skaits parasti ir vienāds, tad dažādos slāņos neironu skaiti parasti atšķiras, līdz ar ko visa neironu tīkla svaru kopumu datorprogrammā ir grūti realizēt kā vienu masīvu, bet realizācia ir ērtāk veicama katram slānim atsevišķi. Vēl sarežģītāk ir ar ieeām un izeām, o kas vienam slānim ir izea, tas otram var būt ieea (sk. vērtības y un y attēlā Att. 3., tāpēc nav skaidrs, kā būtu pareizi kodēt ar x kā ieeu vai y kā izeu. Lai atrisinātu šo notācias problēmu, var darīt šādi : pieņem, ka noteiktā laika momentā darbība (t.i., aprēķini, notiek fiksētā slānī un fiksētā neironā un atsevišķos gadīumos arī svars ir fiksēts); Dažos literatūras avotos secība ir apgriezta, t.i., pirmais indekss norāda svara numuru neironā, bet otrs neirona numuru slānī. Tiek pieņemts, ka blakusesošo slāņu neironi tiek savienoti katrs ar katru līdz ar ko viena slāņa neironu skaits ir vienāds ar nākošā slāņa svaru skaitu katrā no neironiem.

kārtēā slāņa kārtēā neirona numurs (un attiecīgi, a nepieciešams, nākošā slāņa fiksēta neirona svara numurs) tiek apzīmēts ar, iepriekšēā slāņa fiksēta neirona numurs (un attiecīgi, a nepieciešams, kārtēais svars) ar i, bet nākošā slāņa fiksēta neirona numurs ar k. 3 ieeu un izeu kodēšanai lieto simbolu o (output). Ļoti līdzīgi apzīmēumi tiek lietoti arī citos avotos, tomēr katrā avotā parasti ir nelielas izklāsta nianses, tāpēc ir svarīgi precizēt izmantoto apzīmēumu lietoumu. i- o i- i o i i+ o i+ Iepriekšēais slānis - w, Kārtēais svars w,i- w,i w,i- o w,m Kārtēais neirons + Kārtēais slānis w k, w k,- w k, w k,+ w k,n Nākošais slānis k Att. 3.9. Neironu tīkla komponenšu notācia 3 Ievēroiet, ka šo (indeksiem izmantoto) burtu i, un k alfabētiskā secība atbilst slāņu secībai. 3

4. Neironu tīkla apmācīšanās Apmācība (training; learning) ir neirona tīkla svaru vērtību (un dažreiz arī citu parametru) uzstādīšana, balstoties uz apmācības paraugiem, kas reprezentē noteiktu problēmu. Dažreiz rodas neskaidrība par to, ko īsti nozīmē apmācība (training) un ko apmācīšanās (learning). Patiesībā šie abi termini apzīmē apmēram vienu un to pašu darbību, tikai apmācīšanās ir no neironu tīkla viedokļa, bet apmācība no ārēa procesa skatupunkta. [Haykin, 999] dota šāda apmācības definīcia: Apmācīšanās ir process, kurā notiek neironu tīkla brīvo parametru pielāgošana, kas tiek veikta ar simulāciu vidē, kurā neironu tīkls ir ievietots. Apmācības algoritms ir ļoti svarīga neironu tīkla uzbūves sastāvdaļa, un katram neironu tīklu modelim tas ir atšķirīgs, tomēr var nosaukt vairākus pamatprincipus, kuri tiešāk vai netiešāk tiek pielietoti vairuma neironu tīklu apmācībā. 4.. Apmācības process Apmācības process nosaka šādu notikumu virkni (pēc [Haykin, 999]): 3. Neironu tīkls tiek darbināts noteiktā vidē; 4. Balstoties uz šo darbināšanu, neironu tīklā tiek veiktas izmaiņas brīvaos parametros; 5. Ņemot vērā veiktās izmaiņas neironu tīkla iekšēā struktūra, neironu tīkls reaģē uz vidi citā veidā. Apmācības process (training process) ir darbību kopums, kura laikā neironu tīklam noteiktā secībā vairākkārtīgi tiek padoti apmācības paraugi, pēc katra apmācības parauga vai paraugu kopuma padošanas katram neironam piemēroot apmācības algoritmu. Apmācības procesa sākumā neironu tīkla svari noteiktā veidā (parasti neauši) tiek aizpildīti ar sākuma vērtībām. Apmācības process parasti notiek pa epohām. Epoha (epoch) ir apmācības procesa daļa, kuras laikā neironu tīklam tieši vienu reizi tiek padoti visi apmācības paraugi. 4

paraugs paraugs paraugs 3 Viena parauga padošana tīklam Neironu tīkls paraugs r Att. 4.. Epoha Tikai neliela daļa apmācības algoritmu dod iespēu apmācīt neironu tīklu vienas epohas laikā, t.i. vienā solī. Parasti apmācības process ir garāks, un katrs paraugs tā laikā tiek vairākas (un pat daudzas 4 ) reizes parādīts neironu tīklam. Ir divas metodes apmācības procesa organizēšanai: vienlaidus (continuous) metode (Alg. 4-), kad svaru izmaiņa tiek veikta pēc katra parauga parādīšanas tīklam; pakešu (batch) metode (Alg. 4-), kad svaru izmaiņa tiek veikta tikai epohas beigās (t.i., pēc visu paraugu parādīšanas). Alg. 4-. Vienlaidus apmācība (continuous_training). Procedure continuous_training Input configuration nnet (neapmācīts) neironu tīkls Patterns apmācības paraugu kopums Output configuration nnet (apmācīts) neironu tīkls Using termination_criterion_met apmācības procesa beigšanas pazīme Begin Sagatavo nnet apmācībai; While Not termination_criterion_met Forall p in Patterns do Padod p ieeā tīklam nnet un darbina tīklu; Modificē nnet svarus Endforall Endwhile End Parasti apmācībai tiek izmantota tieši vienlaidus metode, tomēr atsevišķos gadīumos eksperimentāli noskaidrots, ka labākus rezultātus (ātrāka apmācīšanās, korektāka funkcias aproksimācia) var iegūt ar pakešu metodi. 4 Epohu skaits var būt mērāms pat tūkstošos. 5

Tas, vai izmantot vienlaidus vai pakešu metodi, nav teorētiski pamatoams un ir atkarīgs no situācias (neironu tīkla konfigurācia, problēmas tips un reprezentācia), tāpēc ir uzskatāms par heiristiku. Alg. 4-. Pakešu apmācība (batch_training). Procedure batch_training Input configuration nnet (neapmācīts) neironu tīkls Patterns apmācības paraugu kopums Output configuration nnet (apmācīts) neironu tīkls Using termination_criterion_met apmācības procesa beigšanas pazīme Begin Sagatavo nnet apmācībai; While Not termination_criterion_met Forall p in Patterns do Padod p ieeā tīklam nnet un darbina tīklu Endforall; Modificē nnet svarus Endwhile End 4.. Apmācīšanās paradigmas Atkarībā no ārēās vides (apmācības paraugi, papildus informācia par tiem, algoritms) ietekmes uz neironu tīklu svaru un citu parametru izmaiņu, tiek izšķirtas vairākas apmācīšanās paradigmas eb kategorias (Att. 4.). 6

Apmācīšanās Apmācīšanās ar skolotāu learning with a teacher (Uzraudzītā apmācīšanās supervised learning) Apmācīšanās bez skolotāa learning without a teacher Apmācīšanās ar pastiprināumu reinforcement learning Pašorganizēšanās self-organizing (Neuzraudzītā apmācīšanās unsupervised learning) Att. 4.. Neironu tīklu apmācības paradigmas 4... Apmācīšanās ar skolotāu Par skolotāu var nosaukt mehānismu, kuram ir informācia par vidi pārīšu formā <paraugs, vēlamā atbilde> eb, no neironu tīkla viedokļa, <ieea, izea>. Vēlamā atbilde reprezentē neironu tīkla optimālo reakciu uz doto paraugu. Darbinot neironu tīklu ar doto paraugu, tiek iegūta aktuālā atbilde (actual response). Neironu tīkla svari tiek modificēti, balstoties gan uz padoto ieeas paraugu, gan kļūdas signālu (error signal), kas tiek definēts kā starpība starp vēlamo atbildi un aktuālo atbildi. Tādēādi var teikt, ka apmācīšanās ar skolotāu tiek realizēta ar kļūdas korekcias (error correction) metodi. Apmācīšanas ar skolotāu (Att. 4.3) ir visplašāk pielietotā mašīnapmācīšanās (t.sk. neironu tīklu) paradigma. Tās populārākais pārstāvis ir vairākslāņu perceptrons. 7

Vide paraugs Skolotās vēlamā atbilde Apmācāmā sistēma aktuālā atbilde Att. 4.3. Apmācības ar skolotāu shēma (pēc [Haykin, 999]) kļūdas signāls 4... Neuzraudzītā apmācīšanās Neuzraudzītās apmācīšanās (eb pašorganizēšanās, Att. 4.4) gadīumā nav ārēā skolotāa vai cita mehānisma, kas uzraudzītu apmācības procesu. Pie šīs apmācīšanās paradigmas apmācāmā sistēma mēģina pati uztvert ieeas datu regularitāti un automātiski veido klases (resp., nosaka kā paraugi tiek klasificēti). Viena no neuzraudzītās apmācīšanās realizācias formām ir apmācīšanās ar konkurenci (competitive learning), kas tiek izmantota Kohonena modelī. Vide paraugs Apmācāmā sistēma Att. 4.4. Neuzraudzītās apmācības shēma (pēc [Haykin, 999]) 4..3. Apmācīšanās ar pastiprināumu Apmācīšanās ar pastiprināumu (reinforcement learning) ir salīdzinoši visgrūtāk uztveramā paradigma (daudzi to kļūdaini mēģina pieskaitīt neuzraudzītaai apmācībai), o, piemēram, atšķirībā no apmācības ar skolotāu, nav tieši zināms katra ieeas parauga novērtēums, bet sasniedzamais mērķis ir globālāks, līdz ar to apmācīšanās notiek ar t.s. aizturēto pastiprināumu (delayed reinforcement). Papildus faktors apmācīšanai ar pastiprināumu ir tas, ka apmācītās sistēmas izea tiek interpretēta kā darbība (action), nevis risināums vai rezultāts. 8

Piemēri problēmām, kas atbilst reinforcement learning tipa problēmām, ir tādas spēles kā šahs vai dambrete, kur katra gāiena vērtība nav precīzi izvērtēama (rezultāts uzvara, zaudēums vai neizšķirts ir zināms tikai spēles beigās), bez tam katrā solī izdarāmais gāiens vispār nav izvērtēams atrauti no visas spēles kopumā (resp., gāiens pats par sevi nevar būt ne labs, ne slikts, laba vai slikta var būt tikai spēles maniere vai izvēlētā taktika). Apmācība ar pastiprināumu nav īpaši izplatīta neironu tīklu sfērā, atsevišķas tehnoloģias neironu tīkliem būtu pieskaitāmas daļēi, vai arī tas atkarīgs no pieeas mašīnapmācības metožu klasifikāciā (piemēram, dinamiskā programmēšana (dynamic programming)). Vide paraugs Kritiķis darbības Apmācāmā sistēma pastiprināums Att. 4.5. Apmācības ar pastiprināumu shēma Apmācības ar pastiprināumu shēma ir redzama Att. 4.5: Skolotāa vietā šeit stāas t.s. kritiķis (critic), kurš atšķiras no skolotāa tādēādi, ka tam nav zināma pareizā atbilde par ieeas paraugu, tai pat laikā zināms novērtēums (kaut arī ne tik tiešs un precīzs) ir pieeams. Otra un būtiska atšķirība ir, ka apmācāmā sistēma kā izeas rezultātu nosaka darbības, kas atstā ietekmi uz vidi, no kuras nāk paraugi. Paraugu šāda tipa problēmu gadīumā parasti reprezentē vides stāvokli. 4.3. Apmācīšanās likumi Šaā sadaļā tiks apskatīti daži svarīgi ar neironu tīkliem saistītie apmācīšanās likumi. Kāds no viņiem ir iebūvēts lielā daļā apmācīšanās algoritmu. Nodaļas izklāsts balstīts uz [Haykin, 999]. 4.3.. Apmācīšanās ar kļūdu labošanu Apmācīšanās ar kļūdu labošanu (error-correction learning) balstās uz to, ka katram ieeas signālam neironā ir zināma vēlamā atbilde, tādēļ, salīdzinot vēlamo atbildi ar neironu tīkla izdoto rezultātu, var izrēķināt kļūdu, kas ir par pamatu svaru izmaiņai tīklā. Kļūda (eb kļūdas signāls) laika solī t tiek definēta kā starpība starp vēlamo atbildi un aktuālo atbildi: e ( t) d ( t) y ( t), (4.) 9

kur y neirona dotā atbilde uz ieeas signālu x ; d vēlamā atbilde uz ieeas signālu x. Svaru korekcia neironā tiek veikta ar mērķi, lai neirona dotā atbilde y būtu tuvāk vēlamaai atbildei d. Tas tiek panākts, minimizēot izpildes vērtības funkciu (cost function of performance) E, kas tiek definēta, izmantoot aprēķināto kļūdas signālu: E ( t) e ( t) (4.) Vērtības funkcias minimizācia veido apmācīšanās likumu, kuru sauc arī par deltas likumu (delta rule) vai Vidrova-Hofa (Widrow-Hoff) likumu. Atbilstoši deltas likumam, svara izmaiņa w i laika solī t tiek definēta kā: w ( t) ηe ( t) x ( t), (4.3) i kur η pozitīva konstante, apmācīšanās parametrs (learning-rate parameter). i 4.3.. Heba apmācīšanās Heba apmācīšanās postulāts (Hebb s postulate) ir vecākais un pazīstamākais no visiem apmācīšanās likumiem, kas nosaukts par godu neirofiziologam D. Hebam (Hebb). Heba apmācīšanās (Hebbian learning) idea īsi būtu noformulēama šādi: Ja divi neironi, kas atrodas vienas sinapses (sinaptiskā svara) abos galos, aktivizēas vienlaicīgi (sinhroni), tad šī sinapse tiek pastiprināta, bet, a asinhroni, tad pavāināta vai likvidēta. Vienkāršākā Heba metodes forma parādīta sekoošaā formulā: w ( t) ηy ( t) x ( t), (4.4) i kur η pozitīva konstante, apmācīšanās parametrs (learning-rate parameter). i 4.3.3. Apmācīšanās ar konkurenci Apmācīšanās ar konkurenci (competitive learning), kā au rāda nosaukums, nozīmē to, ka izeošie neironi savā starpā konkurē, kurš kļūs aktīvs (dos izeas signālu). Nosacīti var teikt, ka blakusesošos neironus savieno sinapses ar kavēošu iedarbību (lateral inhibition). Apmācīšanās ar konkurenci kontekstā parādās ēdziens neirons-uzvarētās (winning neuron), kas tiek noteikts pēc neirona aktivitātes pakāpes noteiktā laika solī. Kad starp neironiem ir noskaidrots uzvarētās, tad atbilstoši standarta apmācīšanās ar konkurenci likumam, svaru izmaiņa tiek veikta šādi: w i ( t) η ( x i w ; i ); A, (4.5) B 3

kur η pozitīva konstante, apmācīšanās parametrs (learning-rate parameter); A a neirons ir uzvarētās; B a neirons nav uzvarētās. Nedaudz sarežģītāks ir variants, kad apmācās ne tikai uzvarētās, bet arī mazākā pakāpē arī uzvarētāa neirona kaimiņi. 3

5. Vienslāņa perceptrons Vienslāņa perceptrons (single-layer perceptron, SLP) vai, vienkārši, perceptrons ir viens no atpazīstamākaiem neironu tīklu modeļiem, kuru au.g. 6. gadu sākumā piedāvāa Frenks Rozenblats (Frank Rosenblatt). Savā klasiskaā formā tas praktiski netiek izmantots, o nespē risināt nelineāras klasifikācias problēmas, tomēr ļoti daudzi neironu tīklu modeļi ir veidoušies tieši uz perceptrona bāzes, pazīstamākais no kuriem ir vairākslāņu perceptrons ar kļūdu atgriezeniskās izplatīšanās apmācības metodi. Perceptrona apmācības algoritms pārstāv t.s. uzraudzīto apmacīšanos (supervised learning) eb apmācīšanos ar skolotāu (sk. nodaļu 4..), kas ir visbiežāk pielietotā mašīnmācīšanās paradigma. Perceptrons realizē paraugu klasifikāciu (atpazīšanu) vai, no matemātiskās puses skatoties, funkcias modelēšanu (aproksimāciu). Daudzas reālās dzīves problēmas var tikt interpretētas kā klasifikācias (classification) problēmas. Piemēram, bankas darbinieks kredītu daļā klasificē klientus vismaz divās grupās taos, kuriem var un taos, kuriem nevar izsniegt kredītu. Bankas klientu klasifikācias pamatā ir zināmais katra klienta riska līmenis, kuru var noteikt ienākumu līmenis, iepriekšēo kredītsaistību izpilde utt. Balstoties uz vēsturiskaiem datiem par klientiem un par viņiem zināmo informāciu, var apmācīt neironu tīklu, kas spētu auniem klientiem izrēķināt viņu uzticamības līmeni (modelētu uzticamības funkciu). 5.. Perceptrona uzbūve Vienslāņa perceptrons sastāv no viena vai vairākiem neironiem ar vienādu ieeu skaitu (Att. 5.). Neironu skaits nosaka izeu skaitu visā neironu tīklā. Vienslāņa perceptronā visi neironi darboas paralēli kā neatkarīgi klasifikatori. 3

Ieea Izea Ieeas slānis Izeas slānis Att. 5.. Vienslāņa perceptrons ar 3 ieeām un izeām Svari ir robežās [-q; +q], kur q ir ebkurš pozitīvs skaitlis, bet parasti ievietoas intervālā [-; +]. Neironu izeošās vērtības ir intervālā [; ]. Tas attiecas arī uz ieeas slāni, tādēādi arī visa neironu tīkla ieeas vērtības ir padodamas šaā intervālā. Aktivitātes funkcia var būt gan lineāra, gan sliekšņveida, gan sigmoidāla. 5.. Ar perceptronu risināmu problēmu piemēri Problēmas parādītas ar tās reprezentēošo paraugu un tiem piesaistīto vēlamo atbilžu palīdzību. Perceptronam, kas apmācīts uz šādiem paraugiem, būtu ābūt spēīgam ne tikai apmācības laikā padotos paraugus, bet arī citus līdzīgus. 5... Funkcia NOT (x AND x ) Funkcias aprakstu sk. arī Tab..3. Problēmu reprezentē 4 paraugi P(4), kam katram ir pievienota vēlamā atbilde D(4). P D Vienosimies par tādu paraugu apzīmēšanas formu, kad paraugi (un attiecīgi arī to vēlamās atbildes) izvietotas virzienā no augšas uz leu, līdz ar to, piemēram, P (, ), D. 33

Šī problēma ir ļoti vienkārša tādā nozīmē, ka apmācībai ir pieeami un aptverami pilnīgi visi iespēamie varianti, bet visu problēmu gadīumā situācia nav tik pateicība, un tieši taos gadīumos neironu tīklu pielietošana būtu vispiemērotākā. 5... Ciparu atpazīšana Problēmu reprezentē paraugi P(), kas apzīmē dažādus ciparus, katrs paraugs ir bitu karte ar izmēru 3 4, tātad ieeu skaits neironu tīklā 3 4 8. P( ) T (T (transponētā) o paraugi izvietoti horizontāli, nevis vertikāli.) Vēlamā atbilde var tikt kodēta dažādos veidos, un ir atkarīga arī no izvēlētās neironu tīkla arhitektūras. Pirmais variants ir neironu tīkls ar vienu neironu (8 ieeas), tātad ar vienu izeu. Visas vērtības (kas atbilst cipariem) ānokodē vienā skaitlī, turklāt ar ierobežoumiem: a lietotā aktivitātes funkcia ir loģistikā, tad iespēamais intervāls ir [, ]. Šaā piemērā normalizēsim ciparu vērtības kā. + c *.5 (nekur nav teikts, ka būtu ādara tieši tā!), kur c ir attiecīgā cipara skaitliskā vērtība. Šeit iegūstam šādu vēlamo atbilžu virkni (tā kā cipari atkārtoas, daļa atbilžu ir izlaista): (..5.3.35.4.45.5.55.6.65..... ) T D ( ) 65 Otrais variants ir neironu tīkls ar 4 neironiem, kur katram no viņiem izeā būs vai (bināra vērtība), līdz ar to katru ciparu kodēs 4 bināri skaitļi: D (,4)............ T 5..3. Normalizācia un denormalizācia Darbinot neironu tīklu, mēs parasti pieņemam, ka dati, kas tiek padoti neironu tīklam, ir sagatavoti vaadzīgaā formātā, un ka rezultāts, ko dos neironu tīkls, būs saprotams mums. Normalizācia ir reālās pasaules obekta pārveidošana neironu tīklam saprotamā formā. Iepriekšēā piemērā ar ciparu atpazīšanu (sadaļa 5..) normalizācia nozīmē konkrēta cipara attēla pārveidošanu par skaitļu (piemēram un ) virknīti. Bez tam normalizācia ir cipara vērtības pārveidošana par attiecīgu kodu. Piemēram, cipara pārveidošana par.3 vienā gadīumā un ( ) otrā gadīumā. Tieši tāpat būtu āveic pretēā darbība interpretēt neirona sniegto rezultātu: 34

Denormalizācia ir neironu tīkla izeas signāla pārveidošana ārēai programmai atbilstošā vai cilvēkam saprotamā formā. Iepriekšēā piemērā ar ciparu atpazīšanu (otraā variantā ar 4 izeām) mēs padodam cipara 6 bildi ieeā neironu tīklam. Neironu tīkls izdod rezultātu ( ). Denormalizācia nozīmē interpretēt šo un virkni par ciparu 6. 5.3. Perceptrona darbināšana Perceptrona summēšanas funkcia ir summa no ieeas signālu un attiecīgo svaru reizināumiem: m i NET w x + b i i (5.) Papildus svara b iesaistīšanos summēšanas funkciā var pierakstīt arī kā w, papildus pieņemot, ka x : NET m i w i x i (5.) Perceptrona darbināšanā var izmantot gan lineāru, gan sliekšņveida, gan sigmoidālu aktivitātes funkciu. Lineārā aktivitātes funkcia: y f lin ( NET ) NET (5.3) Aprēķinu ērtībai lineāras aktivitātes funkcias vietā var izmantot pseido-lineāro: y ; NET > f pseudo_lin ( NET ) ; NET < (5.4) NET ; else Sliekšņveida aktivitātes funkcia, kuru noteiktā abstrakcias līmenī arī var iedomāties, kā lineāru funkciu: y B; NET > Θ f ( NET ), (5.5) A; NET Θ Θ kur Θ slieksnis (threshold). Loģistiskā aktivitātes funkcia:, y f log ( NET ) NET g + e (5.6) 35

kur g līknes slīpuma koeficients (gain). Alg. 5-. Vienslāņa perceptrona darbināšana (run_slp). Function run_slp (x) Returns y Input configuration w(n,m) neironu tīkla svari b(n) neironu tīkla papildus svari (bias) x(m) ieeas signāls m ieeas signāla lielums (ieeu skaits) n izeas signāla lielums, arī neironu skaits tīklā Output configuration y(n) izeas signāls Using f_act izvēlētā aktivitātes funkcia, (5.3), (5.5) vai (5.6) Begin For : To n Do NET : b(); For i: To m Do NET : NET + w(,i) * x(i) Endfor; y() : f_act (NET) Endfor End 36

6. Vienslāņa perceptrona apmācīšanās 6.. Kvadrātiskās kļūdas metode 6... Algoritma apraksts Perceptrona apmācīšanās viena no formām ir kvadrātisko kļūdu minimizācias metode, kur tiek izmantots tāds mehānisms kā gradients, kas saistīts ar aktivitātes funkcias atvasināumu. Tādēādi, pielietoot šo apmācības metodi, aktivitātes funkciai ir obligāti ābūt atvasināmai, un starp trim sadaļā 5.3 apskatītaām aktivitātes funkciām, sliekšņveida funkcia šim nolūkam diemžēl ir nederīga. Lineārās aktivitātes funkcias (5.3) (var pieņemt, ka arī (5.4)) atvasināums: f ' f ' (6.) lin pseudo_lin Loģistiskās aktivitātes funkcias (5.6) atvasināums: f ' log f log ( f log ) y( y) (6.) g g kur g līknes slīpuma koeficients (gain). Apmācīšanās balstās uz kļūdas korekciu. Kļūdu izrēķina kā starpību starp vēlamo atbildi d un aktuālo atbildi y uz paraugu s: e d y (6.3) ( s ) ( s ) Svara korekcia apmācīšanās ar kļūdu labošanu gadīumā ir proporcionāla kļūdai, kā arī ieeai un aktivitātes funkcias atvasināumam: kur η apmācīšanās parametrs. Jaunā svara vērtība izsakāma šādi: kur t apmācīšanās procesa solis. w ηx e f, (6.4) i i ' act w i ( t + ) w i ( t) + w i ( t + ), (6.5) Dažreiz svaru modificēšanā tiek izmantota t.s. inerces heiristika, kad svara izmaiņu daļēi ietekmē iepriekšēā solī izdarītā svara izmaiņa: kur α inerces (momentum) faktors. w i ( t + ) w ( t) + w ( t + ) + α w ( t), (6.6) i i Svara korekcia (6.4) lineārai aktivitātes funkciai ir precizēama šādi, o lineārās funkcias atvasināums ir : i i i w ηx e (6.7) 37

Savukārt svara korekcia (6.4) sigmoidālai aktivitātes funkciai ir precizēama šādi (sk. loģistiskās funkcias atvasināumu (6.)): w i η xie y ( y ) g (6.8) Pseidokodā Alg. 6- dots vienslāņa perceptrona apmācīšanās process. Tagad un turpmāk algoritmi tiks doti pēc vienlaidus (continuous) metodikas (Alg. 4-). Kritēris apmācīšanās procesa beigšanai ir neironu tīkla kvadrātiskās kļūdas samazināšanās zem noteikta līmeņa. Kvadrātisko kļūdu epohai aprēķina šādi: E n s e s r, (6.9) kur r kopēais paraugu skaits, n neironu skaits, ½ koeficients bez saturīgas, bet tikai ar tehnisku nozīmi. Apmācīšanās process notiek tik ilgi, kamēr kļūda ir pietiekoši liela un pārsniedz noteiktu maksimālo kļūdas līmeni ε un kamēr nav izsmelts maksimālais pieļauamo epohu skaits: E > ε epoch max_epochs (6.) Tādēādi ir iespēami divi varianti: Apmācības process ir beidzies, pateicoties mazai kvadrātiskaai kļūdai (E ε). Šaā gadīumā tiek uzskatīts, ka neirons ir veiksmīgi apmācīies. Apmācības process ir beidzies, o tika izsmelts maksimāli pieļauamais epohu skaits (epoch > max_epochs). Šaā gadīumā neironu tīkls nav apmācīies. Ņemot vērā to, ka apmācīšanās process katru reizi sākas no cita svaru komplekta (svari tiek inicializēti gadīumu veidā), dažādi apmācības procesi pie vienādiem paraugiem un vienādas neironu tīkla arhitektūras teorētiski var novest pie dažādiem rezultātiem (dažādi apmācītiem neironu tīkliem), vienkāršākaā gadīumā apmācīšanās noritēusi veiksmīgi vai neveiksmīgi. Neironu tīkla neapmācīšanās katrā atsevišķā gadīumā nav uzskatāma par lielu neveiksmi, o gradientu metodes (kas ir pamatā šai apmācībai) viens no trūkumiem ir potenciāla iespēa iekļūt t.s. lokālaā minimumā. Iemesli, kādēļ neironu tīkls varētu būt apmācīies neveiksmīgi: Pārāk mazs pieļauamo epohu skaits 5 ; Neveiksmīgi izvēlēts apmācīšanās parametrs η 6 ; Pārāk maza iepriekš noteiktā maksimālā pieļauamā kļūda ε (it sevišķi komplektā ar pārāk lielu apmācīšanas parametru η); Problēma ir nelineāra 7 ; 5 Atsevišķiem uzdevumiem var būt nepieciešami pat tūkstoši epohu. 6 Parasti par lielu. Tipiskākais lielums varētu būt ar kārtu.. Tai pat laikā dažās specifiskās konfigurāciās apmācīšanās ir iespēama ar daudz lielāku apmācīšanās parametru, un tādēļ notikt ļoti ātri. 7 Vienslāņa perceptrons spē atrisināt tikai lineāras problēmas, pat a aktivitātes funkcia ir nelineāra. 38