Dirbtiniai neuroniniai tinklai

Μέγεθος: px
Εμφάνιση ξεκινά από τη σελίδα:

Download "Dirbtiniai neuroniniai tinklai"

Transcript

1 Dirbtiniai neuroniniai tinklai Š. Raudžio paskaitų konspektas Marius Gedminas 2003 m. pavasaris (VU MIF informatikos magistrantūros studijų 2 semestras) Šis konspektas rinktas LATEXu Š. Raudžio paskaitų metu. Poroje paskaitų paskaitų aš nedalyvavau ir jas paskui nusirašiau nuo kolegų (3, 4, 5, 5, 6, 7 skyriai). Deja, laiko tvarkingai viską patikrinti ir suredaguoti dar neradau, tad patariu per daug šiuo konspektu nepasitikėti. Jei rasite klaidų ar turėsite kokių pastabų, galite jas atsiųsti man elektroninio pašto adresu mgedmin@delfi.lt. Neuroniniai tinklai 943 m. neurono modelis: s = w 0 + p w i x i čia x,..., x p įėjimai. Paskui pritaikomas slenkstis ir reikšmė keičiama į 0 arba. Tai neurono išėjimas. Vėliau buvo sugalvota rezultatą perleisti pro sigmoidinę funkciją (angl. logistic sigmoid) f(s) = + e s Šios funkcijos ypatybės: f(s) beveik tiesinė, kai s yra mažas; f(s) artėja prie 0, kai s ; f(s) artėja prie, kai s. Kartais vietoje sigmoidinės funkcijos naudojamas hiperbolinis tangentas, duodantis atsakymą iš intervalo ( ; ). Atpažinimo uždavinys Reikia suskirstyti duomenis į klases. Tarkime, kad turime du požymius: x svoris, x 2 ūgis. Norime atskirti berniukus nuo mergaičių. Tai gali padaryti vienas neuronas, tinkamai parinkus svorius w i : s = x w + x 2 w 2 + w 0 s = 0 yra skeliamasis paviršius. s > 0 berniukai, s < 0 mergaitės. Jei įtrauksime sigmoidinę funkciją, tuomet f(s) > 0.5 berniukai, f(s) < 0.5 mergaitės.

2 Sudėtingesniais atvejais vieno neurono nepakanka reikia tinklo, sudaryto iš kelių sluoksnių. Pvz., keturi neuronai pirmajame sluoksnyje duoda rezultatus y,..., y 4, o penktasis neuronas antrajame sluoksnyje juos ima kaip įvestis. Dirbtinis neuroninis tinklas rinkinys tarpusavyje sujungtų neuronų. Labiausiai paplitusios yra dvi dirbtinių neuroninių tinklų rūšys: vienasluoksnis perceptronas arba tiesiog perceptronas (angl. single layer perceptron; SLP) tiesiog vienas neuronas. daugiasluoksnis perceptronas (angl. multilayer perceptron; MLP) daug neuronų, išdėstytų sluoksniais. Kiekvieno sluoksnio neuronų išėjimai sujungti su kito iš eilės sluoksnio neuronų įėjimais. Įėjimo sluoksnis pradiniai duomenys; išėjimo sluoksnis paskutiniame sluoksnyje esantys neuronai ir jų išėjimai; visi kiti sluoksniai vadinami paslėptais. Didžioji dauguma dirbtinių neuroninių tinklų yra SLP arba MLP. MLP su vienu paslėtu sluoksniu gali modeliuoti bet kokio sudėtingumo atpažinimo paviršių. Prognozavimo uždavinys Perceptronus galima naudoti ir prognozavimui. MLP su vienu paslėtu sluoksniu gali aproksimuoti bet kokią funkciją (jei tame sluoksnyje yra pakankamai neuronų). 2 Vienasluoksniai ir daugiasluoksniai perceptronai ir jų mokymo principas Kas yra vienasluoksniai ir daugiasluoksniai perceptronai parašyta praeitame skyriuje. Problema: kaip reikėtų rasti perceptrono koeficientus w i? Sprendimas: perceptroną reikia apmokyti. Turime rinkinį mokymo vektorių (x,..., x p, t ),..., (x n,..., x np, t n ). Čia x ji įėjimo reikšmės, t j tikslas (desired target). Apibrėžkime kainos funkciją c = n ( tj f(w x j + + w p x jp + w 0 ) ) 2 j= Norime ją minimizuoti. Tai būtų trivialu, jei nebūtų netiesinės f-jos f. Minimizavimui (apmokymui) yra daug įvairių metodų error back propagation, conjugate gradient ir t.t. 3 Klasifikavimo uždavinys. Statistinis klasifikavimas. Mokymas vienasluoksniu perceptronu. Kas yra klasifikavimo uždavinys žr. pirmąjį skyrių. Statistinis klasifikavimas Įvertiname kiekvienos klasės pasiskirstymo tankį f i (x). Tarkime, kad klasių yra dvi. Jei kažkuriame taške f (x) > 0, o f 2 (x) = 0, aišku, jog šis taškas priklauso pirmajai klasei ir atvirkščiai, jei f (x) = 0, o f 2 (x) > 0, taškas 2

3 priklauso antrajai klasei. Ką daryti, jei f (x) > 0 ir f 2 (x) > 0? Galime tiesiog imti klasę, kurios tankis tame taške didesnis: g(x) = ln ( f (x) ) f 2 (x) Jei g(x) > 0, reiškia, f (x) > f 2 (x) ir x priskiriame pirmajai klasei; jei g(x) < 0, reiškia, f (x) < f 2 (x) ir x priskiriame antrajai. Kai kurios klasės pasitaiko dažniau nei kitos. Jei klasių pasirodymo tikimybės yra q ir q 2 (q + q 2 = ), galime lyginti ne f (x) ir f 2 (x), o q f (x) ir q 2 f 2 (x). Galima taip pat atsižvelgti į klaidos kainą (geriau suklysti į saugesnę pusę). Sprendimas vienasluoksniu perceptronu Žr. pavyzdį pirmame skyriuje. Turime perceptroną: g(x) = x w + x 2 w 2 + w 0 Kaip rasti koeficientus? Nuostolių funkcija: c = n ( tj f(w x j + + w p x jp + w 0 ) ) 2 j= n mokymo duomenų kiekis, p požymių skaičius, x j mokymo vektorius, t j trokštamas išėjimas tam vektoriui. Kas toliau?. atsitiktinė paieška prigeneruojame 0 20 variantų svorių ir ieškome geriausio rezultato 2. genetiniai algoritmai ieškome rajono, kuriame yra teisingas variantas ir toliau dirbame tame rajone 3. mažiausiųjų kvadratų metodas sprendžiame lygčių sistemą c w = 0 c w 2 = 0 Jei f-ja turi daug minimumų, gali būti sunku surasti teisingą atsakymą. Niutono metodu w t+ = w t η c w η mokymo žingsnis. Jei jis per didelis, diverguosime.. Mokymo žingsnį galima reguliuoti pagal sėkmę: jei sekasi didiname, jei nesiseka mažiname. Beje, galima ir atsisakyti nuo atsakymo pateikimo, t.y. atsakyti nežinau, modelis per silpnas šiam atvejui. Pradedant mokyti reikia paduoti pradinius svorius. Vienasluoksniam perceptronui jų reikšmės nesvarbios, tad galime imti nuliukus. 3

4 4 Tiesinė ir kvadratinė diskriminantinės funkcijos Prielaida: duomenys yra normaliai pasiskirstę. µx = Ex vidurkis (aka matematinė viltis), σ 2 = E(x µ) 2 variacija, σ dispersija. Normalinis tankis yra f(x) = 2πσ e 2 (x µ)σ 2 (x µ) Bendru atveju p-matėje erdvėje (daugiamatis) normalinis tankis yra f(x) = (2π) p/2 Σ /2 e 2 (x µ) T Σ (x µ) Čia Σ kovariacinės matrica. x bei µ šiuo atveju yra vektoriai. Taigi, jei turime dvi klases su vidurkiais µ, µ 2 ir kovariacinėmis matricomis Σ, Σ 2, gauname štai tokią diskriminantinę funkciją: g(x) = 2 (x µ ) T Σ (x µ ) 2 ln( Σ )+ 2 (x µ 2) T Σ 2 (x µ 2)+ 2 ln( Σ 2 ) Ji vadinama kvadratine diskriminantine funkcija. Jei g(x) > 0, tai x priklauso pirmajai klasei, jei g(x) < 0, antrajai. Dar galime pridėti kitus daugiklius (tikimybes, klaidos kainos įverčius, etc. žr. aukščiau). Problema: kaip turint mažai duomenų gauti kovariacinę matricą? Tada galime nutarti, kad Σ 2 = Σ = Σ, nors tai netiesa. Gauname tiesinę funkciją g(x) = w T x + w 0 = i w i x i + w 0 kur w = Σ(µ µ 2 ), w 0 = 2 wt (µ + µ 2 ) Tai Fišerio tiesinė diskriminantinė funkcija. 5 Perceptrono evoliucija mokymo metu (klasifikavimo uždavinys) Klaidos funkcija w sf = N N ( tα f(w T x α + w 0 ) ) 2 α= šią funkciją minimizuojam. Tarkime, kad koordinates perkeliam į duomenų vidurkį, t.y. vidurkis visada yra 0. ΣΣ α = 0 vidurkis, N = N 2 objektų nėra(?), w t=0 = 0 pradiniai svoriai. t α {, +}. Funkcija pas mus tiesinė f(x) = x w = w 0 cost w = const(x () x (2). Geometrinė prasmė tokia: sujungiame t sričių vidurkius atkarpa ir per jos vidurį išvedame statmeną tiesę. Tai Euklidinio atstumo klasifikatorius. D(X, X (2) ) D(X, X () ) atstumai nuo vidurkio iki tiesės lygūs. 4

5 Fišerio atveju gautume W F = S (X () X (2) ). Per vidurį gauname W t = ( S ) () (2) (X X ) η(t ). }{{}.... Haley narys T.y. perceptronas duoda tą patį Fišerio klasifikatorių, tik prie diagonalinių elementų pridėtas šioks toks triukšmas, kuris artėja prie nulio, kai t. Atraminių vektorių klasifikavimas Idėja: tarp artimiausių kaimynų atstumas mažiausias. Imame tris artimiausius kaimynus (du iš vienos klasės, trečią iš kitos) ir brėžiam tarp jų tiesę, kad ji būtų labiausiai nuo jų visų nutolusi. 6 Statistinis prognozavimas Po klasifikavimo dažniausiai sutinkamas uždavinukas yra prognozavimas. prognozuoti taip: y = w i x i + w 0 Galima Formulė tinka, jei turime normalinį pasiskirstymą. Svarbiausias dalykas atrinkti visus rodiklius x i. Na ir žinoti, ką nori prognozuoti (y). Vienas iš prognozavimo būdų imti vidurkį. Kitas imti artimiausią variantą iš turimos imties. Trečias mažiausiųjų kvadratų metodas: minimizuojam paklaidų kvadratų sumą ( ) 2 c = n p y α w i x α i + w 0 n α= Taip daro statistikai. Su neuroniniais tinklais turime c = n ( n y α f ( p w i x α ) ) 2 i + w 0 α= Reikia normuoti prognoziojamą dydį, kad būtų kitimas tarp 0 ir : c = n ( ( n y α f ( ) p w i x α ) i + w β α= Šitas daiktas vadinamas standartine regresija Yra ir kitas sprendimo būdas. Kas, jei yra didelių nukrypimų? Vidurkis skaičiuojamas x = n x i n ) 2 5

6 netipinius nukrypimus reiktų išmesti: x = x n x k = k f(x i x k ) k x i f(x α i x k ) kur f stengiasi numesti nukrypimus (žr paveiksliukus palme. Pvz., f(x) = x kai x didelis arba, kai x mažas). Tai yra robastinė regresija. (Robust atsparus nukrypimams.) Nuostolių funkcija (kurią reikia minimizuoti) viensluoksniam perceptronui norint robastinės regresijos: c = n n Ψ (y α ( p w i x α ) ) i + w 0 α= Kur Ψ(x) = x 2 kai x <= z ir Ψ(x) = Ψ(z) kai x > z. Arba galima dar užapvalinti kampus ties x z. Problema: kokio platumo z imti? Jei bus platu, bus ta pati klasikinė regresija. Jei bus siaura, ims tik labai siaurius duomenis. Menas yra nusakyti, kas yra dideli nukrypimai. 7 Robastiniai algoritmai klasifikacijoje Paklaida ( tα f ( wi x α i w 0 ) ) c = α (t α norima reikšmė (target)) Apmokymo metu svoriai laiko momentu t + skaičiuojami W (t + ) = W (t) η c W (W vektorius iš w i. η mokymo žingsnis (kažkaip pasirinktas)) Kadangi f-ja f užsiriečia, tai per dideli nukrypimai nuo diskriminantinės plokštumos duoda daugmaž tokią pat paklaidos vertę, kaip ir maži. Tad perceptronas automatiškai nereaguoja į tolimus nukrypimus. Perceptronas yra automatiškai robastiškas dideliems nukrypimams. O matematikai/ statistikai tik neseniai tai sugalvojo (robastinei statistikai apie 30 metų). Beje, apie gradientinį mokymo algoritmą. Yra du režimai: stochastinis ir totalinis. Stochastinis metodas: skaičiuojam gradientą kiekvienam mokymo vektoriui atskirai ir darom pataisymą. Jei skaičiuojam gradientą visiems kartu (imam vidurkį) prieš darydami pataisymą, turime totalinį gradientą (dar kartais vadinama batch mode). Stochastinsi lengviau išlenda iš lokalinių minimumų. Totalinis geriau konverguoja jei yra vienas gražus minimumas. Vienasluoksniams perceptronams geriau totalinis, daugiasluoksniams geriau stochastinis. 6

7 8 Minimalios klasifikavimo klaidos ir atraminių vektorių klasifikatoriai Prielaida: pasiskirstymas normalinis. Tada gaunam optimalų klasifikatorių. Bet jei prielaida nepatenkinta, negausim mažiausio klaidų kiekio. Kaip padaryti tiesinę diskriminantinę funkciją, kad minimizuotume mokymo metu gautų klaidų kiekį? Literatūroje yra kokie 4-5 būdų. O perceptronai tai daro automatiškai. Mokant perceptroną svoriai auga ir dideli nukrypimai nebeturi įtakos (suveikia funkcijos f užsirietimai). Kuo svoriai didesni, tuo tai labiau pasireiškia. Pvz., atimam λw W c = α ( tα f ( wi x α i w 0 ) ) 2 λw W Tai skatina svorių augimą. (W yra transponuotas vektorius W ) Po truputį auginant svorius po truputį mažėja klaidų skaičius. Ten faktiškai gaunasi f outputai 0 ir, t.y. c (variantas be λw W ) sumuoja klaidų skaičių. Jei padalintume iš n, gautume klaidų dažnį. Jei klaidų nėra, svoriai auga patys. Jei jie neauga, pridedam tą λw W ir priverčiam juos augti. O dabar apie atraminių vektorių klasifikatorius. Jei klasės yra nutolusios viena nuo kitos, tinka daug diskriminantinių plokštumų, kurios daro po 0 klaidų. Kurią reikia pasirinkti? Reikia papildomo kriterijaus. Kokio? Skonio reikalas. Vienas sprendimas: per vidurį maksimizuoti atstumą iki artimiausių klasių atstovų. Tuos tris artimiausius vektoriukus (dvimatėj erdvėj; trimatėj bus keturi ir t.t.), nuo kurių imam tiesę, vadinam atraminiais (support vector). Kad gražiau skambėtų, turime ne klasifikatorių, o support vector machine. Beje, atraminių vektorių skaičių galima paimti pagal skonį. Galima spresti matematiškai, taikant kvadratinį programavimą. Žmonės ilgai galvojo, pirmas straipsnis apie tai buvo 992 m. O perceptronas tai daro automatiškai, dažnai ir geriau. Mes nagrinėsime atvejį, kai klaidų nėra (klasės nesikerta) Manykim, kad perceptronas jau apmokytas. Kiekvienas taškas ( vektorius) turi indėlį į nuostolių funkciją. f(...) kiekvienam taškui yra labai arti 0 arba. Didžiausią indėlį duoda arčiausiai plokštumos esantys vektoriai. Mokai, mokai, gauni maksimalios klaidos klasifikatorių ir jei mokai toliau, svoriai vis dar auga, plokštuma stengiasi patekti į viduriuką. Ir gauni atraminių vektorių klasifikatorių (support vector classifier arba support vector machine). Vietoj dvimatės ervdės galima padaryti penkiamatę: x, x 2 turim, dar pridedam x 2, x 2 2, x x 2. Penkiamatėj erdvėj jau lengviau sudalinti taškus, kad liktų 0 klaidų (jei neišeina gauti 0 klaidų). Ir t.t. x 3, x 3 2, x 2 x 2, x x 2 2,... Mokom iki nulinės klaidos ir tada laukiam, kol svoriai išaugs (vienas iš būdų palaipsniui didinti žingsnį η kai pasiekiam nulinę klaidą, kitas iš būdų įvesti tą narį λw W ). Apibendrinimas: yra du kriterijai. Vienas minimizuoti mokymo klaidų kiekį. Antras kai jų nelieka, maksimizuoti tarpą. Perceptronas palaipsniui realizuoja visus algoritmus:. euklidinio atstumo 2. reguliarizuota 7

8 3. fišerio algoritmas arba 4. pseudo-inversija 5. robastinė 6. minimalios klaidos 7. atraminių vektorių klasifikatorius 9 Klasifikavimo ir prognozavimo klaidų rūšys Prognozuoti galima viską bet reikia žinoti, kokiu tikslumu. Kaip vertinti tikslumą? Paskaičiuoti paklaidos vidurkį. σ pr = N (y tikra,j y prognozuota,j ) N 2 j= Bet jei N labai didelis (pvz., prognozuojam kažką visiems Žemės žmonėms)? Jei turim tik dalį duomenų, tai apsimoka juos sudalinti į dvi dalis: mokymui ir testavimui. Jei viską panaudosim mokymui, gausim labai gerą prisitaikymą bet tik tiems duomenims... Kaip meluoti su statistika. Didėjant duomenų kiekiui (kai N ), σ t σ 0, kur σ 0 = σ pr, o σ t testinė klaida, Galima apytiksliai įvertinti Eσ 2 t = σ 2 0( + p N p ) kur p požymių skaičius (duomenų dimensija). Generalizavimo klaida testinės klaidos matematinė viltis. Kitaip tariant, laukiama testinė klaida. Klasifikavimo klaidos yra dviejų rūšių:. objektą iš klasės A neteisingai priskyrėm klasei B 2. objektą iš klasės B neteisingai priskyrėm klasei A Vienos rūšies klaidos gali kainuoti daugiau, nei kitos. Bendra klaida P = q P + ( q )P 2 kur q tikimybė, kad objektas priklauso klasei A, P pirmos rūšies klasifikavimo klaida, P 2 antros rūšies klasifikavimo klaida. Jei turim du duomenų gabalus su normaliniu pasiskirstymu N(µ, I) ir N(µ 2, I) (µ, µ 2 centrai, I vienetinė kovariacijos matrica) su atstumu δ tarp klasių (Euklidinis atstumas, t.y. δ = µ µ 2 ), tuomet asimptotinė klasifikavimo klaida P = Φ( δ 2 ) (kur Φ yra pasiskirstimo funkcija ar kažkas panašaus iš statistikos Φ(x) = x φ(x), kur φ yra ta monontoniškai didėjanti nuo 0 iki tankio f-ja, atrodo, φ(x) = 0 tikimybė, kad atsitiktinis dydis yra < x). 8

9 Jei pasiskirstymas nėra toks gražus apvalus, paprastas atstumas nelabai veikia. Yra gudresnė Machaonobi formulė. Apibendrintas atstumas tarp klasių δ 2 M = (µ µ 2 ) Σ (µ µ 2 ) kur µ, µ 2 klasių vidurkiai (vektoriai), v vektoriaus transponavimas, Σ tokia baisi kovariacinė matrica (įstrižainėje dispersijos, kitur kovariacija padauginta iš kvadratinių nuokrypių sandaugos ar kžk. panašaus). Paėmę δ M vietoje δ anoje formulėje gauname kitą klasifikavimo klaidos įvertį. Taigi, skirtingi metodai (šiuo atveju buvo Euklido ir Fišerio) duoda skirtingas klasifikavimo klaidas. Svarbu. Kartoju: klasifikavimo klaida priklauso nuo metodo. Pati primityviausia prognozė (turi kažkokį paprastą pavadinimą) kitas duomuo bus toks pats, koks šitas. Apsimoka savo prognozę palyginti su šita jei pagerini, gerai, jei pablogini, pradėk nuo pradžių. Dar yra koreliacijos koeficientas, kuris kažką pasako. Vidutinė kvadratinė paklaida 5 o kas tie 5? ką tai sako? Priklauso nuo uždavinio. Fordui 5% tikslumo akcijų kurso prognozė yra priežastis padvigubinti laboratorijos finansavimą, kitur gal reikia 99% tikslumo. NB sakoma klasifikavimo klaida, bet prognozavimo paklaida. 0 Klasifikavimo ir prognozavimo klaidų įvertinimo būdai Primityviausias metodas savos imties metodas (resubstitution): ant tų pačių padarau, ant tų pačių testuoju. Bet jei duomenų nedaug, yra pavojus, kad prisiderinsim prie tų duomenų. Jei N ir p artimi, galim gauti labai artimą nuliui paklaidą, bet paėmus kitus duomenis gali būti nei į tvorą, nei į mietą. EσR 2 σ0 2 p N p σ 0 tikra paklaida, Eσ R σ R matematinė viltis, R reiškia resubstitution. Kitas būdas testiniai duomenys (hold-out arba cross-validation metodas): apmokom su vienais duomenimis, su kitais testuojam. (Galima dar ir pakartoti kelis kartus tuos pačius duomenis skirtingai sudalinus į mokymo ir testinius.) Kartais duomenų yra mažai ir gaila dalį aukoti tikrinimui. Tada mokom ant visų išskyrus vieną ir tikrinam ant to vieno. Paskui jį grąžinam ir išmetam kitą, mokom, ant to kito tikrinam. Ir taip su visais iš eilės. Slenkantis egzaminas (leaving out). Standartinė cross-validation dalinam į dvi dalis, ant vienos mokinam, su kita tikrinam, ir taip 2 kartus 2-fold cross-validation. N-fold cross-validation yra tas pats, kas leaving one out. Tas tinka ir klasifikavimui, ir prognozavimui. Šis metodas tinka ir normaliniams ir nenormaliniams duomenims, bet yra jautrus duomenų homogeniškumui (mokom su Lietuvos miestų duomenim, testuojam su Mozambiko, gaunam šnipštą). Grįžtam prie rodiklių: prognozavime tai vidutinis kvadratinis nukrypimas bei koreliacijos koeficienta; klasifikavime klasifikavimo klaidos įvertis ˆP = nklaidų N. Beje, ˆP yra atsitiktinis dydis, pasiskirstęs pagal binominį dėsnį B(P, N). Jo dispersija σ( ˆP P ( P ) ˆP ( ) = ˆP ) N N 9

10 (kadangi binominio skirstymo parametro P nežinome, imame ˆP ir dėl to gauname apytiksliai). Taigi, jei žinome, kad iš 00 stebėjimų paklaida yra 0%, tai galime tikėtis realiai, kad ji bus 7% 3% (pagal vienos sigmos taisyklę), arba 3% 6% (pagal dviejų sigmų taisyklę). Jei turime 000 stebėjimų, tai patiklumo intervalas bus tarp 9.4% ir 0.6% (dviejų sigmų taisyklė duoda 96%). Svarbiausia suprasti, kad įvertinimas yra atsitiktinis dydis. Kuo tiksliau norime įvertinti paklaidą, tuo didesnio N reikia (didesnis N mažina dispersiją ir galime tiksliau įvertinti paklaidą). Viena gudrybė apmokant neuroninius tinklus: verta normalizuoti duomenis (padaryti kad sigma = o vidurkis = 0). Kitas "fintas" yra juos dar ir dekoreliuoti. Algoritmo sudėtingumo, mokymo duomenų kiekio ir kokybės ryšys Eσ 2 t = σ 2 0( + p N p ) kur p atspindi algoritmų sudėtingumą, N duomenų kiekį, na o σ t kokybę. Klasifikavimo klaidos pagal Euklido metodą (Euklidas BTW tai perceptronas po pirmos iteracijos): EP N Φ δ 2 + 2p Nδ 2 Jei mokom percpeptroną iki Fišerio lygio, gaunam EP N Φ δ 2 + 2p Nδ 2 + p 2N+ p (N stebėjimų sk., N stebėjimų skaičius vienoje klasėje) Klaida iš pradžių didesnė, linksta smarkiau. Kitaip tariant, kuo ilgiau mokom percpetroną (daugiau iteracijų), tuo daugiau mokymo duomenų reikia. Kuo didesnis sudėtingumas (tik čia sudėtingumas jau yra algoritmo sudėtingumas, o ne p įvertis), tuo daugiau duomenų reikia mokymui. Viena iš problemų permokymo. Kuo sudėtingesnis organizmas, tuo ilgiau mokosi. Palyginimas: katė ir studentas. Už sudėtingesnį algoritmą moki didesniu duomenų kiekiu. Vienas iš būdų, kaip patikrinti, ar duomenų algoritmui pakanka naudoti slenkantį egzaminą. Su vienu paskirstymu gaunam 5% klaidų, su kitu paskirstymu gaunam 5% blogai, didelis skirtumas, duomenų nepakanka. Reikia imti paprastesnį algoritmą. Arba galima vertinti paklaidas teoriškai (jei duomenys normaliniai) ir paskui žiūrėti, ar praktiškai klaidų tikimybė panaši. Jei ne, blogai, nepakanka duomenų arba per sudėtingas algoritmas. Beje, iš anksčiau: viena idėja reikia triukšmo duomenyse. Algoritmas turi prisitaikyti prie triukšmo! Duosim idealiai švarius mokymo duomenis ir bus neatsparus tikram gyvenimui. 0

11 2 Daugiasluoksnis percpetronas ir jo mokymas Galima taikyti atpažinimui. Pvz, angliško teksto atpažinimas: k = 26, po vieną klasę kiekvienai raidei. Kurioj klasėj σ i reikšmė didžiasia, pagal tai ir atpažįstam. Trokštamas išėjimas: σ i =, σ j = 0 jei i j. Jei naudojam prognozavimui, dažniausiai apsieinam be sigmoidinės f-jos: σ i = h v ij y j + v i0 kuri =..k j= Arba galima normuoti į intervalą [0, ], bet praktikoje to niekas nedaro. Praktiškai visi naudoja neuroninį tinklas be netiesinių elementų išėjimo sluoksnyje. Va tokia daugiasluoksnio perceptrono architektūra. Jo mokymas sudėtingesnis, nei vienasluoksnio perceptrono. Daugiasluoksnis perceptronas gali daryti netiesinius atskyrimo paviršius. Daugiasluoksnis perceptronas su vienu paslėptu sluoksniu yra universalus aproksimatorius: galima gauti bet kokio sudėtingumo atskyrimo paviršių. Funkcijos neteisiškos, turi lokalių maksimumų, optimizavimas sudėtingas. Kaip jį mokyti? Kaip visad, reikia įsivesti nuostolių funkciją ir ją minimizuoti. Didžiulė nuostolių funkcijos formulė: cost = k k N s (t l st σst) l 2 l= s= t= t l st trokštamas išėjimas ( l k išėjimo neurono numeris, st mokymo vektoriaus numeris), σ l st gautas l-tasis išėjimas testavimo vektoriui x st, k klasių skaičius N s mokymo vektorių skaičius s-tajai klasei. Išėjimas skaičiuojamas kur σ l st = f( y st j = f( h j= p v lj y st j + v l0 ) w ji x st i + w j0 ) paslėptų vektorių išėjimai. Čia įėjimo vektoriai yra x st = (x st i ) (s-tosios klasės t-asis vektorius, s k, t N s, i p). Mokymo algoritmo bendras principas: W z+ = W z η cost W kur z mokymo žingsnis (iteracijos numeris), W bendras visų perceptronų svorių vektorius. W = (w 0, w,..., w p,..., w h0,..., w hp, v 0, v,..., v h,..., v k0,..., v kh ) z

12 Išvestinė cost W = 2(tl st σ l st) f ( h j= v lj y st j + v l0 )... Algoritmas vadinamas error back-propagation. Kai svoriai maži, išvestinė didelė. Kai svoriai išauga, išvestinė priartėja prie 0, mokymas labai labai smarkiai sulėtėja. 3 Daugiasluoksnio perceptrono mokymo ypatybės Pirma ypatybė jis labai lėtai mokosi. Svoriams padidėjus išvestinė labai smarkiai sumažėja. Svorių labai daug. Pakliūna į lokalinius minimumus, iš jų ne visada iššoka. Kaip su tuo kovoti? Vienas iš būdų antros eilės metodai (skaičiuoja antros eilės išvestines, bet jie jautresni lokaliniams minimumams). Levenberg-Market ar tai conjugate gradients metodas ima antros eilės išvestines, o kadangi jų daug ( W 2 /2), ima tik diagonalines. Konverguoja greičiau, bet labau greitai patenka į lokalinį minimumą. Su lokaliniais minimumais kovoja multistart metodas. Mokai 0 kartų nuo 0 su skirtingais pradiniais svoriais. Iš jų 3 kartus gaunas gerai (3-5% klaidų), 7 labai prastai (5% klaidų)... Kitas būdas didinam mokymo žingsnį. Pvz, kas 50 iteracijų pažiūrim, ar sumažėjo nuostolių funkcija. Jei sumažėjo, padidinam η (padauginam iš.07). Jei padidėjo, sumažinam η (padauginam iš 0.7). 986 m. Rumelharto ir dar kažkieno straipsnis pradėjo naują erą neuroniniuose tinkluose: sigmoidinė funkcija. Jie pasiūlė trokštamų išėjimų reikšmes imti 0. ir 0.9 vietoje 0 ir, kad svoriai neišaugtų per daug dideli. Tada ir išvestinė bus toli gražu ne 0. Sumažėja plokščios vietos išėjimo sluoksnyje (paslėptame sluoksnyje nesumažėja) Lygiai taip pat nėra ir to blogo, kas neišeitų į gerą. Išlošiam didesnę išvestinę greitesnis mokymas. Pralošiam va ką: jei t = 0/, tai funkcija cost yra lygi klaidų kiekui taigi oficialiai mes minimizuojam klaidų kiekį, which gives us a warm and fuzzy feeling. Su 0./0.9 jau matuojam nežinia ką. Už tai mokam dar didesniu skirtumu nuo klasifikavimo klaidos. Baisiausiais svarbus dalykas yra pradinės sąlygos. W 0 Vienasluoksniu atveju apsimoka nustumti centrą tarp klasių į koordinačių pradžią, ir pradėti mokyti nuo nulinių svorių. Čia neišeis: jei visus paslėptus neuronus mokysim su tai pačiais pradiniais svoriais, jie visi bus vienodi... nebebus jokio daugiasluoksnio perceptrono. Pradinė sąlyga: W 0 svoriai skirtingi. Paprastai juos parenka intervale [ a, a]. a parenkam tokį, kad pradinės įėjimo sluoksnio perceptronų reikšmės p w ji x st i + w j0 reikšmės būtų pakankamai mažos. Dažnai dar įėjimo reikšmės normalizuojamos, kad pakliūtų į intervalą [0, ] (taip daro Matlabas), arba kad jų dispersija būtų arti, o vidurkis 0 (taip daro Raudys). Tai labai svarbu! 2

13 Dar apie pradines sąlygas: jei pradedi nuo gerų pradinių sąlygų ir laiku sustoji, rezultatas būna geresnis. Kartojam:. kai W auga, f 0, 2. lokaliniai minimumai, 3. didinam arba mažinam mokymo žingsnį priklausomai nuo pasisekimo. 4. trokštami išėjimai imam ne 0 ir, o 0. ir pralošiam lygybę cost = klaidų kiekis 6. pradinės sąlygos: svoriai skirtingi ir pakankamai maži 7. pradiniai duomenys normalizuoti arba 0 <= x i <=, arba Ex = 0 (vidurkis) ir σ = (dispersija) 8. gerai pradėti ir laiku sustoti! 4 Duomenų nuosavos reikšmės ir mokymo žingsnis. Duomenų transformavimas prieš mokant Nuostolių funkcija cost = N + N 2 2 N i (t ij W x ij W 0 ) 2 j= Jei Ex = 0, galima imti W 0 = 0 ir supaprastėja funkcija: cost = N + N 2 2 N i (t ij W x ij ) 2 j= Tarkime Ŵ yra minimumas: cost min = N + N 2 2 N i (t ij Ŵ x ij ) 2 j= tuomet cost = N + N 2 2 N i (t ij (W + (Ŵ W ) x ij ) 2 j= = cost min + (W Ŵ ) K(W Ŵ ) = cost min + (W Ŵ ) ΦλΦ (W Ŵ ) = cost min + U λu kur K = N + N 2 xij x ij 3 (kovariacinė matrica)

14 ir Kovariacinė matrica U = Φ (W Ŵ ) K = ΦλΦ kur Φ ortogonali matrica (ΦΦ = Φ Φ = I vienetinė matrica). Matricos Φ eilutės bus matricos K tikriniai vektoriai. λ yra įstrižaininė matrica, kurios įstrižainėje juos atitinkančios tikrinės reikšmės λ,... λ p dispersijos. Vektoriai yra kryptys, liambdos dispersijos tomis kryptimis. Išvestinė nepriklauso nuo cost min nario, tik nuo to U λu. Kitaip tariant, pasukam erdvę ir vietoje W gauname U. Čia lengviau konverguos. Mokymas yra Išvestinė tad Kad seka konverguotų, turi būti U z+ = U z η cost U cost U = 2λU z U z+ = (I 2ηλ)U z i : 2ηλ i < (Pakanka paimti tik maksimalią λ reikšmę). Tad reikia parinkti pakankamai mažą η: η < λ max Bet kuo mažesnė η, tuo lėtesnis mokymas. Taigi, jei duomenys tokie bjaurūs ir nesimoko, vienas iš būdų yra pasukti erdvę ir sunormuoti duomenis: Z = λ 2 ΦX Tuomet visomis kryptimis λ yra vienodi ir turime vieną bendrą η visoms kryptims. Tas labai pagreitina. Jei duomenys normaliniai, tai jau po pirmos iteracijos gauname teisingą Euklidinį klasifikatorių. Ką daryti su daugiasluoksniu perceptronu, vienas Dievas težino daug perceptronų, neaišku, kuria kryptimi sukti... Prie tų punktų prirašom 9. reikia pasukti duomenis, transformacija yra λ /2 Φ Daugiasluoksnio perceptrono atveju duomenų nepasukiosi/nepanormalizuosi, kad lengviau būtų mokytis. Jei skiriamasis paviršius labai jau sudėtingas ir perceptronas lėtai mokosi, tai galime pridėti triukšmo aplink rutuliukus pribarstyti atsitiktinai daugiau rutuliukų, t.y. padidinam mokymo duomenų kiekį. Tada skiriamasis paviršius išsitiesins supaprastės (nors atsiras daugiau klaidų). Kad svoriai neišaugtų pridedamas reguliarizavimo narys (weight decay) prie cost funkcijos:... + λw W priešingas efektas gaunamas (kad svoriai augtų), kai atimamas narys (t.y. yra aspektų, kai šito reikia)... λv V 4

15 5 Duomenų transformacija Prognozavimo paklaida lygi σpr 2 = σ0 2 tuo didesnę paklaidą gauname. Fišerio klasifikatoriaus paklaida: EP kl = Φ δ 2 ( ) + p n p, t.y., kuo daugiau požymių imame, ( + 2p Nδ )( + 2 p N +N 2 ) elgiasi taip pat. Taigi, požymių skaičius p turi būti nedidelis. Kaip žinoti, kuriuos požymius imti? Vienas iš būdų požymių išrinkimas. Pvz., turime požymius x x 2 ir atrenkame X = X =. x p x 7 x 02 x Kitas būdas transformacija (išskyrimas) Pvz., turime požymius x x 2 X =. x p ir išvedame Y = y. y r kur r << p, o T transformacijos matrica. y i = = T X p t ij x j j= Pagrindinių komponenčių metodas Reikia taip suprojektuoti duomenis, kad viena (pirma) kryptimi jų išsibarstymas būtų didžiausias, antra mažesnis, trečia dar mažesnis ir t.t. Kaip tų krypčių ieškoma: suskaičiuojam duomenims kovariacinę matricą K = n n (X j X)(X j X) T j= Matricą K galima užrašyti tokiu pavidalu: K = G D G, kur D yra diagonalinė matrica, o G ortogonali matrica (GG = I). 5

16 G posūkio matrica (gaunama su minimalia paklaida). Tai va, vietoje matricos T galima naudoti matricą G: Y = X G (X turi vieną eilutę ir p stulpelių, iš G imame p eilučių ir tik pirmuosius r stulpelių; likusius stulpelius išmetame). Y kovariacinė matrica yra D (tiksliau, pirmos r eilutės/stulpeliai). Beje, šis metodas leidžia iš mažesnio skaičiaus komponenčių atstatyti likusias t.y. turint Y galima gan tiksliai atgaminti X. Dažnai iš pradžių požymiai išrenkami, o paskui transformuojami, t.y. naudojami abu būdai. 6 Požymių atrinkimo algoritmai. Daryk, kaip darė kiti 2. Imti požymius po vieną, su jais klasifikuoti/prognozuoti ir išrinkti tuos požymius, su kuriais geriausiai gaunasi. Bet šitai ne visada gerai pasiteisina: būna, kad po vieną nelabai gerai parodo, o poroj išprognozuoja klasifikatorių be klaidų, 3. Nagrinėti požymius po 2 ar daugiau. Jei požymių nedaug, tai viskas gerai, bet jei daug, tai tokių tuplų susidarys labai daug. Tada galima iš pradžių išrinkti tarkime 00 geriausių ir jau tada nagrinėti po 2 (bendru atveju po n). Arba galima atsitiktinai parinkti pvz derinių po 2 ir iš jų išsirinkti geriausią. 4. Požymių atrinkimas su paskatinimu remiantis tuo, kad geriausi požymiai dažniau pasitaiko, nei blogesni. Tai kažkaip (kaip??) atskirti m dažniausiai pasitaikančių požymių ir iš jų rinkti pilnu perrinkimu n reikalingų požymių. Apriorinėm tikimybėm išrenkam kažkokį požymių rinkinį. Įvertinam pvz., paskaičiuojam klaidą. Ir taip daaaug rinkinių. Išrenkam tada dešimt geriausių rinkinių. Ir pažiūrime tuose dešimtyje, kokie požymiai geriausiai pasirodo. 5. forward selection atrenkam geriausią. Tada bandom jo kombinacijas su likusiais. Atrenkame antrą požymį jau turime porą. Tada bandome tų dviejų kombinacijas su likusiais ir t.t. Šis būdas vadinamas nuosekliu pridėjimu. Yra dar nuoseklus atmetimas analogiškai, tik atvirkščiai: atmetame blogiausius požymius. Yra dar ir šių dviejų metodų kombinacijos. 6. Genetiniai algoritmai. Požymių rinkiniai skirtingais metodais gaunami skirtingai, bet dažniausiai jų paklaida yra panaši. Moralas: nereikia siekti tobulumo. 7 Požymių išskyrimas su neuroniniu tinklu Klasikinis būdas išskirti požymius yra toks: turime perceptroną su x,..., x p įėjimais, kažkiek paslėptų neuronų ir p išėjimų. Paslėptų neuronų turėtų būti r tiek, kiek mums reikia požymių. 6

17 Idėja tokia: išėjimų reikšmės turi būti tokios pačios, kaip ir įėjimų. O vidinis paslėptas sluoksnis juos suspaudžia. Išskirti požymiai yra vidinių paslėptų neuronų duodamos reikšmės prieš paduodant jas sigmoidinei funkcijai. Žr. AANN auto asociatyviniai neuroniniai tinklai Galima pritaikyti duomenų vizualizacijai (pavaizdavimui dvimatėje ar trimatėje erdvėje). 8 Duomenų klasterizavimas (grupavimas) Problema: nehomogeniniai duomenys, modeliavimas nesiseka. Reikia suskaidyti duomenis į klasterius ir juos modeliuoti atskirai. Nehomogeniniai duomenys. Pasiskirstymo tankis f(x) = k q i f i (x) yra k komponenčių suma. Reikia nehomogeninius duomenis suskirstyti į tokias klases prieš nagrinėjant. Dažniausiai f i (x) yra normalinio pasiskirstymo f(x, µ i, Σ i ). Bet labai daug parametrų. Galime supaprastinti tardami, kad visos Σ i yra diagonalinės matricos netiesa, bet paprasčiau. Daug greitesni algoritmai yra euristiniai. Euristika paimta iš lubų sveiko proto taisyklė pagal principą man taip atrodo. Pavyzdys: n tašku. "Man atrodo", kad yra tiek grupių taip ir suskirstom, paimam kiekvienos grupės centrą, tada tiesiog ieškom, prie kurio centro taškas artimiausias, tai grupei ir priskiriam. Šis algoritmas vadinamas k vidurkių algoritmu (K-means algorithm). Jis labai dažnai naudojamas. Pirmasis. O paskui sugalvojo dar 200 ar 400. Prieš 20 metų buvo disertacijų bumas sugalvojam naują, parodom, kad veikia, ginam disertaciją. Paskui pamatė, kad naudos 0 ir grįžo prie paprasčiausių algoritmų. Paprasčiau paaiškinti, jei yra tik du centrai. Imam du taškus ir vedam per vidurį statmenį. Tada vienai grupei suskaičiuojam vieną vidurkį, kitai grupei antrą. Užmirštam pirmą skiriamąją liniją ir vedam statmenį per tų dviejų vidurkių vidurį. Kartojam. Po kelių iteracijų jis nusistovi ir nustoja slankioti. Paskui pradedi nuo pradžių su kitais pradiniais taškais ir taip kokius 8 kartus. Paimi tą variantą, su kuriuo vidutinis atstumas iki centro yra mažiausias. Kitas algoritmas: suskaičiuojam atstumus tarp visų mokymo vektorių porų. Artimiausias poras sujungiam poromis. Tada jungiam poras, kurių vidurkiai panašiausi. Jei kas labai toli, nejungiam. Ir t.t. Gaunam tokį medį. Tada pasirenkam kažkurį lygį ir kiek šakų yra žemiau jo, tiek ir bus klasių. Tai vadinama dendrograma. Viena neišpręsta problema o kokią k reikšmę pasirinkti? Niekas nežino. Reikia kažkaip pasirinkti, kad išeitų paskui geriausiai. 7

18 9 Radialinių bazinių funkcijų neuroninis tinklas Jie antri pagal populiarumą po perceptronų. Tinka ir klasifikavimui, ir prognozavimui. Idėja: prielaida, kad duomenys nehomogeniški. Pavyzdys: turim x, bandom prognozuoti y. Sugrupuojam į grupes su centrais c,.... Kiekvieną centrą c i atitinka kažkoks y i. Idėja daryti prognozę taip: y(x) = k y i D(x, c i ) D(x, c i ) atstumas nuo x iki centro. T.y. tie, kas arčiau turi didesnę įtaką. Iš tikrųjų funkcija yra kitokia: y(x) = k y i K( D(x, c i) λ i ) K yra varpo formos kreivė. λ įtakoja varpo platumą. Toks būtų statistinis algoritmas. Neuroninis tinklas mokymo metu suras ir c i ir λ i. Panašiai kaip ir su perceptronu: imam pradines c i ir λ i reikšmes (su klasterizavimu), tada imam kainos funkciją c ir gradientiniu metodu ieškom minimumo pagal visus λ i ir c i. c = (y z y(x i )) 2 Minusas: reikia daug skaičiavimo. Galima paprasčiau: tiesiog kvantuoti pagal mokymo vektorius. T.y. jei yra arti centro, imam to centro vidurkį o nebandom skaičiuoti atstumų. Klasifikavimas: kiekvienam klasteriui trys parametrai q i, c i bei λ i : y(x) = k q i K( D(x, c i) λ i ) Pradinė q i (i-tojo klasterio apriorinė tikimybė) reikšmė vektorių skaičius i-tajame klaseryje padalintas iš visų vektorių skaičiaus. Funkcija K(s) paprastai yra e s. Radialinių bazinių funkcijų neuroniniame tinkle gaunama reikšmė yra daugmaž tankio įvertinimas. Kiek suprantu, paskui taikom skirtingiems klasteriams skirtingus jų modelius ir kombinuojam atsakymą pagal tą tankį. Bet kadangi skaičiavimų daug galima tiesiog kvantuoti ir taikyti tik vieną modelį. Iš principo klaserių skaičiais skirtingose klasėse gali būti skirtingi. Pvz., klasifikuojam į sveikus ir sergančius. Sveiki beveik visi vienodi vienas ar du klasteriai. Sergantys yra skirtingi daug klasterių. Klasteriai gali persidengti. Kvantavime ne griežtai nubrėšime ribas. 20 Sprendimo medžiai Pagrindinė idėja: reikia suklasifikuoti/suprognozuoti daugiamatį vektorių. Dalinam sritį į dvi dalis, etc. Gaunam tokį medį, kurio šakose yra kažkurio požymio palyginimas 8

19 (daugiau/mažiau), o medžio lapai yra klasės. Paskui leidžiamės tuo medžiu ir žiūrim, kurioj kas pusėje. Tai ir yra sprendimo medis. Sprendimo medis nebūtinai binarinis. Ir sprendimus galima daryti pagal daugiau nei vieną požymį. Padarius sprendimų medį galime iš jo padaryti neuroninį tinklą. Kaip su klasterizavimu galima pradėti inicializuoti radialinių bazinių funkcijų neuroninį tinklą, taip su sprendimų medžiu galima pradėti inicializuoti perceptroną. Kaip tą medį parinkinėti? Pereinam visus požymius, randam slenkstį, kad kiek galima mažiau klaidų būtų. Beje, čia irgi svarbu laiku sustoti. Per ilgai mokant bus blogai. Galima imti maksimalų klaidų skaičių lape (jei mažiau, nebeskaidom). Arba riboti medžio gylį. Sprendimų medis naudojamas klasifikavimui vadinamas klasifikavimo medžiu. Sprendimų medis naudojamas prognozavimui vadinamas regresijos medžiu. Egzistuoja ir sprendimų miškai. Šakojimo kriterijus gali būti bet koks kai kas stato ten neuroninius tinklus... Kaip iš sprendimų medžio gauti neuroną: Iš naujo: kiekviena sąlyga yra neuronas įėjimo sluoksnyje. Gauna reikiamus x i ir grąžina 0 arba vietoje true/false. Ten slenksčiai statūs, t.y. visi atsakymai yra 0 arba Antras sluoksnis: po vieną kiekvienam lapui (atsakymui). Duoda jei kiekviena šaka kelyje buvo atitinkamai 0 arba. 2 Genetiniai algoritmai Vienas iš būdų, kaip optimizuoti daugiamatėje erdvėje, kur yra daug lokalinių minimumų, yra Monte-Karlo metodas (arba atsitiktinė paieška) primėtai randomu daug taškų ir išrenki minimumą. Modifikacija: primėtom daug taškų, randam erdvės sritį, kur geriau, tada mėtom taškus toje srityje ir t.t. Kita modifikacija genetiniai algoritmai. Bandoma kopijuoti gamtą. Turime (iš pradžių susigeneruojame atsitiktinai, o galima ir neatsitiktinai) seką vienetukų ir nuliukų, kurie nusako kažkokį svorių vektorių. Tiksliau, turime daug tokių rinkinių (tarkim, 000). Apskaičiuojam kainos funkcijos reikšmę visiems. Išrikiuojam (geriausius į priekį) ir sudalinam į dvi dalis pirmi 00 dauginsis, kiti ne. Dauginimasis : imam dvi sekas, sudalinam gabaliukais, imam dalį gabaliukų iš vieno, dalį iš kito. Ir t.t. Šis algoritmas irgi gali įlįsti į lokalinį minimumą. Su tuo galima kovoti įvedam mutacijas su tam tikra tikimybe keičiam kai kuriuos vienetukus nuliukais ir atvirkščiai. Algoritmas labai lėtas, bet stabilus, mažiau jautrus lokaliniams minimumams. Toks yra bazinis algoritmas, paskui galima fantazuoti. Variantai: pirma apmokom kiekvieną kartą truputį gradientiniu metodu, o jau tada vertinam kainas ir skaičiuojam naują kartą. Idėja: visada pasilaikyti 0 geriausių genų iš praeitos kartos. Idėja: sudalinti į kelias grupes, jas mokyti atskirai, ir karts nuo karto suleisti tarpusavyje. Galima dirbti ne su svoriais, o svorių skirtumu. Galima iš pradžių padidinti mutacijų tikimybę ir sumažinti kryžminimo skaičių, o paskui, kai truputį pasimoko, mažinti mutacijų ir didinti kryžminimą. Taip galima išlošti laiko (algoritmas greičiau mokosi). Galima lygiagrečiai vertinti skirtingas kainos funkcijas (skirtingus kriterijus). Dalis blogiausių pagal kiekvieną kriterijų žūsta. 9

20 22 Neuroninių tinklų kooperavimas Labai svarbus klausimas. Kiekvienais metais vyksta konferencijos šia tema. Kuo sudėtingesnis tinklas, tuo lengviau jis pakliūna į lokalinį minimumą ir tuo ilgiau mokosi, tuo daugiau resursų reikalauja. Idėja: paimti keletą neuroninių tinklų ir paskui kažkaip apjungti jų atsakymus. Vienas, bet labai neįdomus variantas: paimti vieno tinklo atsakymą. Kitas: imti vidurkį. Arba svorinį vidurkį. Arba balsuoti. Arba gali būti pasvertas balsavimas. Galima skirstyti uždavinius į grupes ir apmokyti skirtingus tinklus kiekvienai grupei. Ir taip toliau. Galima daug tokių būdų prigalvoti. Arba galima tų tinklų atsakymus paduoti kaip įėjimus naujam tinklui. Tokios sistemos skirtumas nuo daugiasluoksnio perceptrono yra tas, kad visi tie perceptronai apmokomi atskirai. Be to galima naudoti skirtingo tipo tinklus pvz. radial-ir-taip-toliau, sprendimų medį etc. Paslėptas akmuo: neuroniniai tinklai prisiderina prie mokymo duomenų ir giriasi, kad daro mažesnę klaidą, nei iš tiesų. Reikia tai įvertinti. Kuo sudėtingesnis tinklelis, tuo jis labiau giriasi. Reikia duomenis skirstyti ne tik į mokymo ir testinius, bet ir į daugiau dalių ir nemokyti boso su tais duomenimis, su kuriais apmokyti pavaldiniai. "Boso taisyklė". Sudėtingas klausimas. Neišspręstas. Angl. toks tinklų sujungimas yra "fusion" arba "gating rule", "combiner". Daug tų terminų yra. Behaviour knowledge space (BKS) metodas bandom visas neuroninių tinklų kombinacijas ir žiūrim, kokie atsakymai gaunasi. 23 Geriausio varianto parinkimo tikslumas Neuroniniai tinklai dar taikomi ir optimizavimo uždaviniams. Variantų yra daug. Kartais nuo pradinių mokymo sąlygų priklauso klaidų skaičius 7 ar 7%. Vienas iš sprendimų bandyti kelis variantus su tais pačiais duomenimis ir parinkti geriausią. Pvz.: apmokom 6 tinklus su mokymo duomenimis. Tikrinam testinius duomenis, gaunam skirtingas klaidas. Natūralu išsirinkti variantą su mažiausia klaida. Bet ta klaida yra testiniams duomenims. Realiai klaida yra kitokia ir galbūt ją žinodami pasirinktumėme kitą. Tada imam dar daugiau testinių duomenų: mokymo duomenimis apmokome, tikrinimo duomenimis paimame geriausią, testiniais duomenimis užsakovas tikrina. Įsivaizduojama klaida mažiausia klaida su testiniais duomenimis. Ideali klaida mažiausia tikroji klaida (bet jos niekas nežino). Faktinė klaida mūsų pasirinkto varianto (to, kurio testinė klaida mažiausia) tikroji klaida (kurios irgi niekas nežino). Kuo daugiau variantų, tuo mažėja įsivaizduojama klaida. Faktinė klaida iš pradžių mažėja, o paskui pradeda augti. Kuo daugiau variantų nagrinėji, tuo labiau apsirinki. Praktinis pasiūlymas: padalinti testinius duomenis į dvi dalis, vieną naudoti parinkimui, kitą naudoti faktinės klaidos paskaičiavimams, pasipaišyti dvi kreives (įsivaizduojamos ir faktinės klaidos bandymams). Paskui sukeisti tas dvi dalis pasipaišyti dar dvi kreives. Ir paskui pagal tai žiūrėti, kiek variantų apsimoka imti. 20

21 Tradicinis apgavystės būdas: nerodyti blogų variantų užsakovui pateikti tik vieną, geriausią variantą. Šiaip moralas: neturėdamas informacijos, nieko gero nepadarysi. Jei duomenų mažai, nieko nepadarysi. 2

22 A Egzamino klausimai. Dirbtiniai neuroniniai tinklai (DKT) klasifikavimo ir prognozavimo uždaviniuose. 2. Vienasluoksnis perceptronas (SLP) ir jo mokymo principai. 3. Tiesinė klasifikavimo taisyklė. Jos gavimas SLP pagalba. SLP mokymo algoritmas. 4. Tiesinė ir kvadratinė diskriminantinės funkcijos. 5. SLP evoliucija mokymo metu. 6. Tiesinis prognozavimas statistiniu metodu ir su SLP. 7. Robastiniai algoritmai klasifikavimo ir prognozavimo uždaviniuose. 8. Minimalios klasifikavimo klaidos ir atraminių vektorių (SVM) klasifikatoriai. 9. Klasifikavimo ir prognozavimo klaidų rūšys, tikslumo rodikliai. 0. Klasifikavimo ir prognozavimo klaidų įvertinimas.. Algoritmo sudėtingumo, mokymo duomenų kiekio ir gauto tikslumo ryšys. 2. Daugiasluoksnis perceptronas (DSP) ir jo mokymas. 3. DSP mokymo ypatybės. 4. Pagrindinių komponenčių ir kiti metodai duomenims vizualizuoti ir jiems transformuoti. 5. Duomenų nuosavos reikšmės ir mokymo žingsnis. Duomenų transformavimas mokymui pagreitinti. 6. Požymių atrinkimo algoritmai. 7. Daugiasluoksnio perceptrono panaudojimas informatyvių požymių išskyrimui. 8. Duomenų klasterizacija ir jos panaudojimai. 9. Radialinių bazinių funkcijų (RBF) ir mokymo vektoriaus kvantavimo (LVQ) DNT. 20. Sprendimo medžiai klasifikavimo ir prognozavimo (regresijos) uždaviniuose. 2. Genetiniai mokymo algoritmai. 22. Neuroninių tinklu kooperavimas. 23. Geriausio varianto parinkimo tikslumas. 22

Matematika 1 4 dalis

Matematika 1 4 dalis Matematika 1 4 dalis Analizinės geometrijos elementai. Tiesės plokštumoje lygtis (bendroji, kryptinė,...). Taško atstumas nuo tiesės. Kampas tarp dviejų tiesių. Plokščiosios kreivės lygtis Plokščiosios

Διαβάστε περισσότερα

Dviejų kintamųjų funkcijos dalinės išvestinės

Dviejų kintamųjų funkcijos dalinės išvestinės Dviejų kintamųjų funkcijos dalinės išvestinės Dalinės išvestinės Tarkime, kad dviejų kintamųjų funkcija (, )yra apibrėžta srityje, o taškas 0 ( 0, 0 )yra vidinis srities taškas. Jei fiksuosime argumento

Διαβάστε περισσότερα

I dalis KLAUSIMŲ SU PASIRENKAMUOJU ATSAKYMU TEISINGI ATSAKYMAI

I dalis KLAUSIMŲ SU PASIRENKAMUOJU ATSAKYMU TEISINGI ATSAKYMAI 008 M. FIZIKOS VALSTYBINIO BRANDOS EGZAMINO VERTINIMO INSTRUKCIJA Pagrindinė sesija Kiekvieno I dalies klausimo teisingas atsakymas vertinamas tašku. I dalis KLAUSIMŲ SU PASIRENKAMUOJU ATSAKYMU TEISINGI

Διαβάστε περισσότερα

Temos. Intervalinės statistinės eilutės sudarymas. Santykinių dažnių histogramos brėžimas. Imties skaitinių charakteristikų skaičiavimas

Temos. Intervalinės statistinės eilutės sudarymas. Santykinių dažnių histogramos brėžimas. Imties skaitinių charakteristikų skaičiavimas Pirmasis uždavinys Temos. Intervalinės statistinės eilutės sudarymas. Santykinių dažnių histogramos brėžimas. Imties skaitinių charakteristikų skaičiavimas Uždavinio formulavimas a) Žinoma n = 50 tiriamo

Διαβάστε περισσότερα

X galioja nelygyb f ( x1) f ( x2)

X galioja nelygyb f ( x1) f ( x2) Monotonin s funkcijos Tegul turime funkciją f : A R, A R. Apibr žimas. Funkcija y = f ( x) vadinama monotoniškai did jančia (maž jančia) aib je X A, jei x1< x2 iš X galioja nelygyb f ( x1) f ( x2) ( f

Διαβάστε περισσότερα

Elektronų ir skylučių statistika puslaidininkiuose

Elektronų ir skylučių statistika puslaidininkiuose lktroų ir skylučių statistika puslaidiikiuos Laisvų laidumo lktroų gracija, t.y. lktroų prėjimas į laidumo juostą, gali vykti kaip iš dooriių lygmų, taip ir iš valtiės juostos. Gracijos procsas visuomt

Διαβάστε περισσότερα

DISPERSINĖ, FAKTORINĖ IR REGRESINĖ ANALIZĖ Laboratorinis darbas Nr. 2

DISPERSINĖ, FAKTORINĖ IR REGRESINĖ ANALIZĖ Laboratorinis darbas Nr. 2 DISPERSINĖ, FAKTORINĖ IR REGRESINĖ ANALIZĖ Laboratorinis darbas Nr. 2 Marijus Radavičius, Tomas Rekašius 2010 m. vasario 23 d. Santrauka Antras laboratorinis darbas skirtas išmokti sudarinėti daugialypės

Διαβάστε περισσότερα

1. Klasifikavimo su mokytoju metodai

1. Klasifikavimo su mokytoju metodai 1. Klasifikavimo su mokytoju metodai Klasifikacijos uždavinys yra atpažinimo uždavinys, kurio esmė pagal pateiktus objekto (vaizdo, garso, asmens, proceso) skaitinius duomenis priskirti ji kokiai nors

Διαβάστε περισσότερα

Vilniaus universitetas. Edmundas Gaigalas A L G E B R O S UŽDUOTYS IR REKOMENDACIJOS

Vilniaus universitetas. Edmundas Gaigalas A L G E B R O S UŽDUOTYS IR REKOMENDACIJOS Vilniaus universitetas Edmundas Gaigalas A L G E B R O S UŽDUOTYS IR REKOMENDACIJOS Vilnius 1992 T U R I N Y S 1. Vektorinė erdvė............................................. 3 2. Matricos rangas.............................................

Διαβάστε περισσότερα

Laboratorinis darbas Nr. 2

Laboratorinis darbas Nr. 2 M A T E M A T I N Ė S T A T I S T I K A Laboratorinis darbas Nr. 2 Marijus Radavičius, Tomas Rekašius 2005 m. spalio 23 d. Reziumė Antras laboratorinis darbas skirtas išmokti generuoti tikimybinių skirstinių

Διαβάστε περισσότερα

Matematika 1 3 dalis

Matematika 1 3 dalis Matematika 1 3 dalis Vektorių algebros elementai. Vektorių veiksmai. Vektorių skaliarinės, vektorinės ir mišriosios sandaugos ir jų savybės. Vektoriai Vektoriumi vadinama kryptinė atkarpa. Jei taškas A

Διαβάστε περισσότερα

DISPERSINĖ, FAKTORINĖ IR REGRESINĖ ANALIZĖ Laboratorinis darbas Nr. 1

DISPERSINĖ, FAKTORINĖ IR REGRESINĖ ANALIZĖ Laboratorinis darbas Nr. 1 DISPERSINĖ, FAKTORINĖ IR REGRESINĖ ANALIZĖ Laboratorinis darbas Nr. 1 Marijus Radavičius, Tomas Rekašius 2010 m. vasario 9 d. Santrauka Pirmas laboratorinis darbas skirtas išmokti generuoti nesudėtingus

Διαβάστε περισσότερα

Spalvos. Šviesa. Šviesos savybės. Grafika ir vizualizavimas. Spalvos. Grafika ir vizualizavimas, VDU, Spalvos 1

Spalvos. Šviesa. Šviesos savybės. Grafika ir vizualizavimas. Spalvos. Grafika ir vizualizavimas, VDU, Spalvos 1 Spalvos Grafika ir vizualizavimas Spalvos Šviesa Spalvos Spalvų modeliai Gama koregavimas Šviesa Šviesos savybės Vandens bangos Vaizdas iš šono Vaizdas iš viršaus Vaizdas erdvėje Šviesos bangos Šviesa

Διαβάστε περισσότερα

EKONOMETRIJA 1 (Regresinė analizė)

EKONOMETRIJA 1 (Regresinė analizė) EKONOMETRIJA 1 Regresinė analizė Kontrolinis Sudarė M.Radavičius 004 05 15 Kai kurių užduočių sprendimai KOMENTARAS. Kai kuriems uždaviniams tik nusakytos sprendimų gairės, kai kurie iš jų suskaidyti į

Διαβάστε περισσότερα

Matematinės analizės konspektai

Matematinės analizės konspektai Matematinės analizės konspektai (be įrodymų) Marius Gedminas pagal V. Mackevičiaus paskaitas 998 m. rudens semestras (I kursas) Realieji skaičiai Apibrėžimas. Uždarųjų intervalų seka [a n, b n ], n =,

Διαβάστε περισσότερα

Įvadas į laboratorinius darbus

Įvadas į laboratorinius darbus M A T E M A T I N Ė S T A T I S T I K A Įvadas į laboratorinius darbus Marijus Radavičius, Tomas Rekašius 2005 m. rugsėjo 26 d. Reziumė Laboratorinis darbas skirtas susipažinti su MS Excel priemonėmis

Διαβάστε περισσότερα

1 TIES ES IR PLOK TUMOS

1 TIES ES IR PLOK TUMOS G E O M E T R I J A Gediminas STEPANAUSKAS 1 TIES ES IR PLOK TUMOS 11 Plok²tumos ir ties es plok²tumoje normalin es lygtys 111 Vektorin e forma Plok²tumos α padetis koordina iu sistemos Oxyz atºvilgiu

Διαβάστε περισσότερα

1.4. Rungės ir Kuto metodas

1.4. Rungės ir Kuto metodas .4. RUNGĖS IR KUTO METODAS.4. Rungės ir Kuto metodas.4.. Prediktoriaus-korektoriaus metodas Palyginkime išreikštinį ir simetrinį Eulerio metodus. Pirmojo iš jų pagrindinis privalumas tas, kad išreikštinio

Διαβάστε περισσότερα

4.1 Skaliarinė sandauga erdvėje R n Tarkime, kad duota vektorinė erdvė R n. Priminsime, kad šios erdvės elementai yra vektoriai vektoriu

4.1 Skaliarinė sandauga erdvėje R n Tarkime, kad duota vektorinė erdvė R n. Priminsime, kad šios erdvės elementai yra vektoriai vektoriu IV DEKARTO KOORDINAČIU SISTEMA VEKTORIAI 41 Skaliarinė sandauga erdvėje R n Tarkime, kad duota vektorinė erdvė R n Priminsime, kad šios erdvės elementai yra vektoriai α = (a 1,, a n ) Be mums jau žinomu

Διαβάστε περισσότερα

Įžanginių paskaitų medžiaga iš knygos

Įžanginių paskaitų medžiaga iš knygos MATEMATINĖ LOGIKA Įžanginių paskaitų medžiaga iš knygos Aleksandras Krylovas. Diskrečioji matematika: vadovėlis aukštųjų mokyklų studentams. Vilnius: Technika, 2009. 320 p. ISBN 978-9955-28-450-5 1 Teiginio

Διαβάστε περισσότερα

MATEMATINĖ LOGIKA. Įžanginių paskaitų medžiaga iš knygos

MATEMATINĖ LOGIKA. Įžanginių paskaitų medžiaga iš knygos MATEMATINĖ LOGIKA Įžanginių paskaitų medžiaga iš knygos Aleksandras Krylovas. Diskrečioji matematika: vadovėlis aukštųjų mokyklų studentams. Vilnius: Technika, 2009. 320 p. ISBN 978-9955-28-450-5 Teiginio

Διαβάστε περισσότερα

Specialieji analizės skyriai

Specialieji analizės skyriai Specialieji analizės skyriai. Trigonometrinės Furje eilutės Moksle ir technikoje dažnai susiduriame su periodiniais reiškiniais, apibūdinamais periodinėmis laiko funkcijomis: f(t). 2 Paprasčiausia periodinė

Διαβάστε περισσότερα

Statistinė termodinamika. Boltzmann o pasiskirstymas

Statistinė termodinamika. Boltzmann o pasiskirstymas Statistinė termodinamika. Boltzmann o pasiskirstymas DNR molekulių vaizdas DNR struktūros pakitimai. Keičiantis DNR molekulės formai keistųsi ir visos sistemos entropija. Mielėse esančio DNR struktūros

Διαβάστε περισσότερα

FDMGEO4: Antros eilės kreivės I

FDMGEO4: Antros eilės kreivės I FDMGEO4: Antros eilės kreivės I Kęstutis Karčiauskas Matematikos ir Informatikos fakultetas 1 Koordinačių sistemos transformacija Antrosios eilės kreivių lgtis prastinsime keisdami (transformuodami) koordinačių

Διαβάστε περισσότερα

Atsitiktinių paklaidų įvertinimas

Atsitiktinių paklaidų įvertinimas 4.4.4. tsitiktinių paklaidų įvertinimas tsitiktinės paklaidos įvertinamos nurodant du dydžius: pasikliaujamąjį intervalą ir pasikliaujamąją tikimybę. tsitiktinių paklaidų atveju, griežtai tariant, nėra

Διαβάστε περισσότερα

I.4. Laisvasis kūnų kritimas

I.4. Laisvasis kūnų kritimas I4 Laisvasis kūnų kitimas Laisvuoju kitimu vadinamas judėjimas, kuiuo judėtų kūnas veikiamas tik sunkio jėos, nepaisant oo pasipiešinimo Kūnui laisvai kintant iš nedidelio aukščio h (dau mažesnio už Žemės

Διαβάστε περισσότερα

Praeita paskaita. Grafika ir vizualizavimas Atkirtimai dvimatėje erdvėje. Praeita paskaita. 2D Transformacijos. Grafika ir vizualizavimas, VDU, 2010

Praeita paskaita. Grafika ir vizualizavimas Atkirtimai dvimatėje erdvėje. Praeita paskaita. 2D Transformacijos. Grafika ir vizualizavimas, VDU, 2010 Praeita paskaita Grafika ir vizualizavimas Atkirtimai dvimatėje erdvėje Atkarpos Tiesės lgtis = mx+ b kur m krpties koeficientas, o b aukštis, kuriame tiesė kerta ašį Susikirtimo taško apskaičiavimui sulginamos

Διαβάστε περισσότερα

Taikomieji optimizavimo metodai

Taikomieji optimizavimo metodai Taikomieji optimizavimo metodai 1 LITERATŪRA A. Apynis. Optimizavimo metodai. V., 2005 G. Dzemyda, V. Šaltenis, V. Tiešis. Optimizavimo metodai, V., 2007 V. Būda, M. Sapagovas. Skaitiniai metodai : algoritmai,

Διαβάστε περισσότερα

ANALIZINĖ GEOMETRIJA III skyrius (Medžiaga virtualiajam kursui)

ANALIZINĖ GEOMETRIJA III skyrius (Medžiaga virtualiajam kursui) ngelė aškienė NLIZINĖ GEMETRIJ III skrius (Medžiaga virtualiajam kursui) III skrius. TIESĖS IR PLKŠTUMS... 5. Tiesės lgts... 5.. Tiesės [M, a r ] vektorinė lgtis... 5.. Tiesės [M, a r ] parametrinės lgts...

Διαβάστε περισσότερα

IV. FUNKCIJOS RIBA. atvira. intervala. Apibrėžimas Sakysime, kad skaičius b yra funkcijos y = f(x) riba taške x 0, jei bet kokiam,

IV. FUNKCIJOS RIBA. atvira. intervala. Apibrėžimas Sakysime, kad skaičius b yra funkcijos y = f(x) riba taške x 0, jei bet kokiam, 41 Funkcijos riba IV FUNKCIJOS RIBA Taško x X aplinka vadiname bet koki atvira intervala, kuriam priklauso taškas x Taško x 0, 2t ilgio aplinka žymėsime tokiu būdu: V t (x 0 ) = ([x 0 t, x 0 + t) Sakykime,

Διαβάστε περισσότερα

2015 M. MATEMATIKOS VALSTYBINIO BRANDOS EGZAMINO UŽDUOTIES VERTINIMO INSTRUKCIJA Pagrindinė sesija. I dalis

2015 M. MATEMATIKOS VALSTYBINIO BRANDOS EGZAMINO UŽDUOTIES VERTINIMO INSTRUKCIJA Pagrindinė sesija. I dalis PATVIRTINTA Ncionlinio egzminų centro direktorius 0 m. birželio d. įskymu Nr. (..)-V-7 0 M. MATEMATIKOS VALSTYBINIO BRANDOS EGZAMINO UŽDUOTIES VERTINIMO INSTRUKCIJA Pgrindinė sesij I dlis Užd. Nr. 4 7

Διαβάστε περισσότερα

AIBĖS, FUNKCIJOS, LYGTYS

AIBĖS, FUNKCIJOS, LYGTYS AIBĖS, FUNKCIJOS, LYGTYS Aibės sąvoka ir pavyzdžiai Atskirų objektų rinkiniai, grupės, sistemos, kompleksai matematikoje vadinami aibėmis. Šie atskiri objektai vadinami aibės elementais. Kai elementas

Διαβάστε περισσότερα

Vilius Stakėnas. Kodavimo teorija. Paskaitu. kursas

Vilius Stakėnas. Kodavimo teorija. Paskaitu. kursas Vilius Stakėnas Kodavimo teorija Paskaitu kursas 2002 2 I vadas Informacija perduodama kanalais, kurie kartais iškraipo informacija Tarsime, kad tie iškraipymai yra atsitiktiniai, t y nėra nei sistemingi,

Διαβάστε περισσότερα

FUNKCIJOS. veiksmu šioje erdvėje apibrėžkime dar viena. a = {a 1,..., a n } ir b = {b 1,... b n } skaliarine sandauga

FUNKCIJOS. veiksmu šioje erdvėje apibrėžkime dar viena. a = {a 1,..., a n } ir b = {b 1,... b n } skaliarine sandauga VII DAUGELIO KINTAMU JU FUNKCIJOS 71 Bendrosios sa vokos Iki šiol mes nagrinėjome funkcijas, apibrėžtas realiu skaičiu aibėje Nagrinėsime funkcijas, kurios apibrėžtos vektorinėse erdvėse Tarkime, kad R

Διαβάστε περισσότερα

Analizės uždavinynas. Vytautas Kazakevičius m. lapkričio 1 d.

Analizės uždavinynas. Vytautas Kazakevičius m. lapkričio 1 d. Analizės uždavinynas Vytautas Kazakevičius m. lapkričio d. ii Vienmatė analizė Faktorialai, binominiai koeficientai. Jei a R, n, k N {}, tai k! = 3 k, (k + )!! = 3 5 (k + ), (k)!! = 4 6 (k); a a(a ) (a

Διαβάστε περισσότερα

Vilniaus universitetas Matematikos ir informatikos fakultetas Informatikos katedra. Gintaras Skersys. Mokymo priemonė

Vilniaus universitetas Matematikos ir informatikos fakultetas Informatikos katedra. Gintaras Skersys. Mokymo priemonė Vilniaus universitetas Matematikos ir informatikos fakultetas Informatikos katedra Gintaras Skersys Klaidas taisančių kodų teorija Mokymo priemonė Vilnius 2005 I dalis Pagrindinės savokos 1 Įvadas Panagrinėkime

Διαβάστε περισσότερα

APRAŠOMOJI STATISTIKA

APRAŠOMOJI STATISTIKA STATISTIKA FILOLOGAMS 4 paskaita APRAŠOMOJI STATISTIKA Pagrindinės sąvokos Statistika keliareikšmė sąvoka. Skirtinos bent jau šios ryškios bei kartu skirtingos reikšmės: a) tokia duomenų apie valstybę,

Διαβάστε περισσότερα

LIETUVOS JAUNŲ J Ų MATEMATIKŲ MOKYKLA

LIETUVOS JAUNŲ J Ų MATEMATIKŲ MOKYKLA LIETUVOS JAUNŲ J Ų MATEMATIKŲ MOKYKLA tema. APSKRITIMŲ GEOMETRIJA (00 0) Teorinę medžiagą parengė bei antrąją užduotį sudarė Vilniaus pedagoginio universiteto docentas Edmundas Mazėtis. Apskritimas tai

Διαβάστε περισσότερα

ATSITIKTINIAI PROCESAI. Alfredas Račkauskas. (paskaitų konspektas 2014[1] )

ATSITIKTINIAI PROCESAI. Alfredas Račkauskas. (paskaitų konspektas 2014[1] ) ATSITIKTINIAI PROCESAI (paskaitų konspektas 2014[1] ) Alfredas Račkauskas Vilniaus universitetas Matematikos ir Informatikos fakultetas Ekonometrinės analizės katedra Vilnius, 2014 Iš dalies rėmė Projektas

Διαβάστε περισσότερα

Ekonometrija. Trendas ir sezoninė laiko eilutės komponentė

Ekonometrija. Trendas ir sezoninė laiko eilutės komponentė Ekonometrija. Trendas ir sezoninė laiko eilutės komponentė dėst. T. Rekašius, 2012 m. lapkričio 19 d. 1 Duomenys Visi trečiam laboratoriniam darbui reikalingi duomenys yra tekstinio formato failuose http://fmf.vgtu.lt/~trekasius/destymas/2012/ekomet_lab3_xx.dat,

Διαβάστε περισσότερα

II dalis Teisingas atsakymas į kiekvieną II dalies klausimą vertinamas 1 tašku g/mol

II dalis Teisingas atsakymas į kiekvieną II dalies klausimą vertinamas 1 tašku g/mol PATVIRTINTA Nacionalinio egzaminų centro direktoriaus 05 m. birželio 8 d. įsakymu Nr. (.3.)-V-73 05 M. CHEMIJOS VALSTYBINIO BRANDOS EGZAMINO UŽDUOTIES VERTINIMO INSTRUKCIJA. Pagrindinė sesija I dalis Teisingas

Διαβάστε περισσότερα

Algoritmai. Vytautas Kazakevičius

Algoritmai. Vytautas Kazakevičius Algoritmai Vytautas Kazakevičius September 2, 27 2 Turinys Baigtiniai automatai 5. DBA.................................. 5.. Abėcėlė............................ 5..2 Automatai..........................

Διαβάστε περισσότερα

0.1. Bendrosios sąvokos

0.1. Bendrosios sąvokos .1. BENDROSIOS SĄVOKOS 1.1. Bendrosios sąvokos.1.1. Diferencialinės lygtys su mažuoju parametru F ) x n),x n 1),...,x,x,t;ε =, xt;ε) C n T), T [,+ ), < ε ε ) F x n) t;ε),x n 1) t;ε),...,x t;ε),xt;ε),t;ε,

Διαβάστε περισσότερα

Integriniai diodai. Tokio integrinio diodo tiesiogin įtampa mažai priklauso nuo per jį tekančios srov s. ELEKTRONIKOS ĮTAISAI 2009

Integriniai diodai. Tokio integrinio diodo tiesiogin įtampa mažai priklauso nuo per jį tekančios srov s. ELEKTRONIKOS ĮTAISAI 2009 1 Integriniai diodai Integrinių diodų pn sandūros sudaromos formuojant dvipolių integrinių grandynų tranzistorius. Dažniausiai integriniuose grandynuose kaip diodai naudojami tranzistoriniai dariniai.

Διαβάστε περισσότερα

1 Įvadas Neišspręstos problemos Dalumas Dalyba su liekana Dalumo požymiai... 3

1 Įvadas Neišspręstos problemos Dalumas Dalyba su liekana Dalumo požymiai... 3 Skaičių teorija paskaitų konspektas Paulius Šarka, Jonas Šiurys 1 Įvadas 1 1.1 Neišspręstos problemos.............................. 1 2 Dalumas 2 2.1 Dalyba su liekana.................................

Διαβάστε περισσότερα

1. Individualios užduotys:

1. Individualios užduotys: IV. PAPRASTOSIOS DIFERENCIALINĖS LYGTYS. Individualios užduots: - trumpa teorijos apžvalga, - pavzdžiai, - užduots savarankiškam darbui. Pirmosios eilės diferencialinių lgčių sprendimas.. psl. Antrosios

Διαβάστε περισσότερα

PNEUMATIKA - vožtuvai

PNEUMATIKA - vožtuvai Mini vožtuvai - serija VME 1 - Tipas: 3/2, NC, NO, monostabilūs - Valdymas: Mechaninis ir rankinis - Nominalus debitas (kai 6 barai, Δp = 1 baras): 60 l/min. - Prijungimai: Kištukinės jungtys ø 4 žarnoms

Διαβάστε περισσότερα

Ketvirtos eilės Rungės ir Kutos metodo būsenos parametro vektoriaus {X} reikšmės užrašomos taip:

Ketvirtos eilės Rungės ir Kutos metodo būsenos parametro vektoriaus {X} reikšmės užrašomos taip: PRIEDAI 113 A priedas. Rungės ir Kuto metodas Rungės-Kutos metodu sprendiamos diferencialinės lygtys. Norint skaitiniu būdu išspręsti diferencialinę lygtį, reikia žinoti ieškomos funkcijos ir jos išvestinės

Διαβάστε περισσότερα

2.5. KLASIKINĖS TOLYDŽIŲ FUNKCIJŲ TEOREMOS

2.5. KLASIKINĖS TOLYDŽIŲ FUNKCIJŲ TEOREMOS .5. KLASIKINĖS TOLYDŽIŲ FUNKCIJŲ TEOREMOS 5.. Pirmoji Bolcao Koši teorema. Jei fucija f tolydi itervale [a;b], itervalo galuose įgyja priešigų želų reišmes, tai egzistuoja tos tašas cc, ( ab ; ), uriame

Διαβάστε περισσότερα

VIII. FRAKTALINĖ DIMENSIJA. 8.1 Fraktalinės dimensijos samprata. Ar baigtinis Norvegijos sienos ilgis?

VIII. FRAKTALINĖ DIMENSIJA. 8.1 Fraktalinės dimensijos samprata. Ar baigtinis Norvegijos sienos ilgis? VIII FRAKTALINĖ DIMENSIJA 81 Fraktalinės dimensijos samprata Ar baigtinis Norvegijos sienos ilgis? Tarkime, kad duota atkarpa, kurios ilgis lygus 1 Padalykime šia atkarpa n lygiu daliu Akivaizdu, kad kiekvienos

Διαβάστε περισσότερα

Vidutinės biokuro (žaliavos) kainos Lt/t ne galimi apskaičiavimo netikslumai

Vidutinės biokuro (žaliavos) kainos Lt/t ne galimi apskaičiavimo netikslumai Vidutinės biokuro (žaliavos) kainos Lt/t ne galimi apskaičiavimo netikslumai * BALTPOOL UAB organizuota konferencija KAS VYKSTA BIOKURO RINKOJE? 2013.06.11 * Galimos deklaruojamų biokuro pirkimo kainų

Διαβάστε περισσότερα

2008 m. matematikos valstybinio brandos egzamino VERTINIMO INSTRUKCIJA Pagrindinė sesija

2008 m. matematikos valstybinio brandos egzamino VERTINIMO INSTRUKCIJA Pagrindinė sesija 008 M MATEMATIKOS VALSTYBINIO BRANDOS EGZAMINO UŽDUOTIES VERTINIMO INSTRUKCIJA 008 m matematikos valstybinio brandos egzamino VERTINIMO INSTRUKCIJA Pagrindinė sesija 7 uždavinių atsakymai I variantas Užd

Διαβάστε περισσότερα

VILNIAUS UNIVERSITETAS MATEMATIKOS IR INFORMATIKOS FAKULTETAS PROGRAMŲ SISTEMŲ KATEDRA. Algoritmų teorija. Paskaitų konspektas

VILNIAUS UNIVERSITETAS MATEMATIKOS IR INFORMATIKOS FAKULTETAS PROGRAMŲ SISTEMŲ KATEDRA. Algoritmų teorija. Paskaitų konspektas VILNIAUS UNIVERSITETAS MATEMATIKOS IR INFORMATIKOS FAKULTETAS PROGRAMŲ SISTEMŲ KATEDRA Algoritmų teorija Paskaitų konspektas Dėstytojas: lekt. dr. Adomas Birštunas Vilnius 2015 TURINYS 1. Algoritmo samprata...

Διαβάστε περισσότερα

Modalumo logikos S4 kai kurios išsprendžiamos klasės

Modalumo logikos S4 kai kurios išsprendžiamos klasės VILNIAUS UNIVERSITETAS MATEMATIKOS IR INFORMATIKOS FAKULTETAS INFORMATIKOS KATEDRA Magistro baigiamasis darbas Modalumo logikos S4 kai kurios išsprendžiamos klasės Some Decidable Classes of Modal Logic

Διαβάστε περισσότερα

0.1. Bendrosios sąvokos

0.1. Bendrosios sąvokos 0.1. BENDROSIOS SĄVOKOS 1 0.1. Bendrosios sąvokos 0.1.1. Diferencialinės lygtys su mažuoju parametru F ) x n),x n 1),...,x,x,t;ε = 0, xt;ε) C n T), T [0,+ ), 0 < ε ε 0 ) F x n) t;ε),x n 1) t;ε),...,x t;ε),xt;ε),t;ε

Διαβάστε περισσότερα

TEORIJA. RINKTINIAI MATEMATIKOS SKYRIAI (Informatikos spec., 2 srautas, magistrantūra, 1 semestras) PROGRAMA. su skaidžia savybe skaičiu

TEORIJA. RINKTINIAI MATEMATIKOS SKYRIAI (Informatikos spec., 2 srautas, magistrantūra, 1 semestras) PROGRAMA. su skaidžia savybe skaičiu GRAFU TEORIJA RINKTINIAI MATEMATIKOS SKYRIAI (Informatikos spec, 2 srautas, magistrantūra, 1 semestras) PROGRAMA 1 Pagrindinės sa vokos, pavyzdžiai Grafu veiksmai 2 Grafo parametru sa ryšiai 3 Jungiantysis

Διαβάστε περισσότερα

ELEMENTARIOJI TEORIJA

ELEMENTARIOJI TEORIJA ELEMENTARIOJI TEORIJA Pirmosios kombinatorikos þinios siekia senàsias Rytø ðalis, kuriose mokëta suskaièiuoti këlinius bei derinius ir sudarinëti magiðkuosius kvadratus, ypaè populiarius viduramþiais.

Διαβάστε περισσότερα

SIGNALAI TELEKOMUNIKACIJŲ SISTEMOSE

SIGNALAI TELEKOMUNIKACIJŲ SISTEMOSE VILNIAUS UNIVERSITETAS Kietojo kūno elektronikos katedra SIGNALAI TELEKOMUNIKACIJŲ SISTEMOSE Mokymo priemonė Parengė A. Poškus 4 Turinys. ĮVADAS..... Telekomunikaijų sistemos struktūrinė shema. Pagrindinės

Διαβάστε περισσότερα

1 Tada teigini Ne visi šie vaikinai yra studentai galima išreikšti formule. 2 Ta pati teigini galima užrašyti ir taip. 3 Formulė U&B C reiškia, kad

1 Tada teigini Ne visi šie vaikinai yra studentai galima išreikšti formule. 2 Ta pati teigini galima užrašyti ir taip. 3 Formulė U&B C reiškia, kad 45 DISKREČIOJI MATEMATIKA. LOGIKA. PAVYZDŽIAI Raidėmis U, B ir C pažymėti teiginiai: U = Vitas yra studentas ; B = Skirmantas yra studentas ; C = Jonas yra studentas. 1 Tada teigini Ne visi šie vaikinai

Διαβάστε περισσότερα

III. MATRICOS. DETERMINANTAI. 3.1 Matricos A = lentele žymėsime taip:

III. MATRICOS. DETERMINANTAI. 3.1 Matricos A = lentele žymėsime taip: III MATRICOS DETERMINANTAI Realiu ju skaičiu lentele 3 Matricos a a 2 a n A = a 2 a 22 a 2n a m a m2 a mn vadinsime m n eilės matrica Trumpai šia lentele žymėsime taip: A = a ij ; i =,, m, j =,, n čia

Διαβάστε περισσότερα

1. Pirštu atspaudu atpažinimas

1. Pirštu atspaudu atpažinimas 1. Pirštu atspaudu atpažinimas 1. I vadas 2. Piršto atspaudu taikymai 3. Pirminis apdorojimas 4. Požymiu išskyrimas 5. Požymiu šablonu palyginimas 6. Praktinis darbas Page 1 of 21 7. Literatūra I vadas

Διαβάστε περισσότερα

Su pertrūkiais dirbančių elektrinių skverbtis ir integracijos į Lietuvos elektros energetikos sistemą problemos

Su pertrūkiais dirbančių elektrinių skverbtis ir integracijos į Lietuvos elektros energetikos sistemą problemos Su pertrūkiais dirbančių elektrinių skverbtis ir integracijos į Lietuvos elektros energetikos sistemą problemos Rimantas DEKSNYS, Robertas STANIULIS Elektros sistemų katedra Kauno technologijos universitetas

Διαβάστε περισσότερα

Pav1 Žingsnio perdavimo funkcija gali būti paskaičiuota integruojant VIPF. Paskaičiavus VIPF FFT gaunamo amplitudinė_dažninė ch_ka.

Pav1 Žingsnio perdavimo funkcija gali būti paskaičiuota integruojant VIPF. Paskaičiavus VIPF FFT gaunamo amplitudinė_dažninė ch_ka. Įvadas į filtrus Skaitmeniniai filtrai, tai viena iš svarbiausių siganalų apdorojimo dalių. Kadangi skaitmeniniai filtrai turi nepalyginamai daugiau pranašumų nei analoginiai filtrai, tai nulėmė jų populiarumą.

Διαβάστε περισσότερα

TIKIMYBIU TEORIJA HAMLETAS MARK AITIS MYKOLO ROMERIO UNIVERSITETAS 2010

TIKIMYBIU TEORIJA HAMLETAS MARK AITIS MYKOLO ROMERIO UNIVERSITETAS 2010 TIKIMYBIU TEORIJA HAMLETAS MARK AITIS MYKOLO ROMERIO UNIVERSITETAS 2010 Tikimybiu teorija nagrin eja atsitiktinius ivykius ir tu ivykiu tikimybes ivykio pasirodymo galimyb es mat, i²reik²t skai iumi p,

Διαβάστε περισσότερα

06 Geometrin e optika 1

06 Geometrin e optika 1 06 Geometrinė optika 1 0.1. EIKONALO LYGTIS 3 Geometrinėje optikoje įvedama šviesos spindulio sąvoka. Tai leidžia Eikonalo lygtis, kuri išvedama iš banginės lygties monochromatinei bangai - Helmholtco

Διαβάστε περισσότερα

Skalbimo mašina Vartotojo vadovas Πλυντήριο Ρούχων Εγχειρίδιο Χρήστη Mosógép Használati útmutató Automatická pračka Používateľská príručka

Skalbimo mašina Vartotojo vadovas Πλυντήριο Ρούχων Εγχειρίδιο Χρήστη Mosógép Használati útmutató Automatická pračka Používateľská príručka WMB 71032 PTM Skalbimo mašina Vartotojo vadovas Πλυντήριο Ρούχων Εγχειρίδιο Χρήστη Mosógép Használati útmutató utomatická pračka Používateľská príručka Dokumentu Nr 2820522945_LT / 06-07-12.(16:34) 1 Svarbūs

Διαβάστε περισσότερα

Vilijandas Bagdonavi ius. Julius Jonas Kruopis MATEMATIN E STATISTIKA

Vilijandas Bagdonavi ius. Julius Jonas Kruopis MATEMATIN E STATISTIKA VILNIAUS UNIVERSITETO MATEMATIKOS IR INFORMATIKOS FAKULTETAS Vilijandas Bagdonavi ius Julius Jonas Kruopis MATEMATIN E STATISTIKA Vadovelis IV DALIS DAUGIAMAT E STATISTIKA Vilniaus universiteto leidykla

Διαβάστε περισσότερα

Specialieji analizės skyriai

Specialieji analizės skyriai Specialieji analizės skyriai. Specialieji analizės skyriai Kompleksinio kinamojo funkcijų teorija Furje eilutės ir Furje integralai Operacinis skaičiavimas Lauko teorijos elementai. 2 Kompleksinio kintamojo

Διαβάστε περισσότερα

1. Įvadas į sistemas ir signalus. 1. Signalas, duomenys, informacija ir žinios

1. Įvadas į sistemas ir signalus. 1. Signalas, duomenys, informacija ir žinios . Įvadas į sistemas ir signalus. Signalas, duomenys, informacija ir žinios Žodis signalas yra kilęs iš lotyniško žodžio signum ženklas. Signalas tai yra tai kas yra naudojama žiniai perduoti. Signalas

Διαβάστε περισσότερα

Remigijus Leipus. Ekonometrija II. remis

Remigijus Leipus. Ekonometrija II.   remis Remigijus Leipus Ekonometrija II http://uosis.mif.vu.lt/ remis Vilnius, 2013 Turinys 1 Trendo ir sezoniškumo vertinimas bei eliminavimas 4 1.1 Trendo komponentės vertinimas ir eliminavimas........ 4 1.2

Διαβάστε περισσότερα

Matematinės analizės egzamino klausimai MIF 1 kursas, Bioinformatika, 1 semestras,

Matematinės analizės egzamino klausimai MIF 1 kursas, Bioinformatika, 1 semestras, MIF kurss, Bioinformtik, semestrs, 29 6 Tolydžios tške ir intervle funkciju pibrėžimi Teorem Jei f C[, ], f() = A , ti egzistuoj toks c [, ], kd f(c) = 2 Konverguojnčios ir diverguojnčios eikutės

Διαβάστε περισσότερα

Rinktiniai informacijos saugos skyriai. 3. Kriptografija ir kriptografijos protokolai: Klasikinė kriptografija

Rinktiniai informacijos saugos skyriai. 3. Kriptografija ir kriptografijos protokolai: Klasikinė kriptografija Rinktiniai informacijos saugos skyriai 3. Kriptografija ir kriptografijos protokolai: Klasikinė kriptografija Paskaitos tikslai Šioje temoje nagrinėjami klausimai: Perstatų šifrai Keitinių šifrai Vienos

Διαβάστε περισσότερα

JONAS DUMČIUS TRUMPA ISTORINĖ GRAIKŲ KALBOS GRAMATIKA

JONAS DUMČIUS TRUMPA ISTORINĖ GRAIKŲ KALBOS GRAMATIKA JONAS DUMČIUS (1905 1986) TRUMPA ISTORINĖ GRAIKŲ KALBOS GRAMATIKA 1975 metais rotaprintu spausdintą vadovėlį surinko klasikinės filologijos III kurso studentai Lina Girdvainytė Aistė Šuliokaitė Kristina

Διαβάστε περισσότερα

9. KEVALŲ ELEMENTAI. Pavyzdžiai:

9. KEVALŲ ELEMENTAI. Pavyzdžiai: 9. KEVALŲ ELEMENTAI Kealai Tai ploni storio krptii kūnai, sudarti iš kreių plokštuų. Geoetrija nusakoa iduriniu pairšiui ir storiu t. Kiekiena pairšiaus taške galia rasti di kreies, atitinkančias inialius

Διαβάστε περισσότερα

2009 m. matematikos valstybinio brandos egzamino VERTINIMO INSTRUKCIJA Pagrindinė sesija 1 6 uždavinių atsakymai

2009 m. matematikos valstybinio brandos egzamino VERTINIMO INSTRUKCIJA Pagrindinė sesija 1 6 uždavinių atsakymai M. MATEMATIKOS VALSTYBINIO BRANDOS EGZAMINO UŽDUOTIES VERTINIMO INSTRUKCIJA PATVIRTINTA Nacionalinio egzaminų centro direktoriaus -6- įsakymu Nr. (..)-V-8 m. matematikos valstybinio brandos egzamino VERTINIMO

Διαβάστε περισσότερα

Arenijaus (Arrhenius) teorija

Arenijaus (Arrhenius) teorija Rūgštys ir bazės Arenijaus (Arrhenius) teorija Rūgštis: Bazė: H 2 O HCl(d) H + (aq) + Cl - (aq) H 2 O NaOH(k) Na + (aq) + OH - (aq) Tuomet neutralizacijos reakcija: Na + (aq) + OH - (aq) + H + (aq) + Cl

Διαβάστε περισσότερα

EUROPOS CENTRINIS BANKAS

EUROPOS CENTRINIS BANKAS 2005 12 13 C 316/25 EUROPOS CENTRINIS BANKAS EUROPOS CENTRINIO BANKO NUOMONĖ 2005 m. gruodžio 1 d. dėl pasiūlymo dėl Tarybos reglamento, iš dalies keičiančio Reglamentą (EB) Nr. 974/98 dėl euro įvedimo

Διαβάστε περισσότερα

Intel x86 architektūros procesoriai. Kompiuterių diagnostika

Intel x86 architektūros procesoriai. Kompiuterių diagnostika Intel x86 architektūros procesoriai Kompiuterių diagnostika Turinys Paskaitoje bus apžvelgta: AK architektūra ir procesoriaus vieta joje Procesoriaus sandara Procesorių istorija Dabartiniai procesoriai

Διαβάστε περισσότερα

LIETUVOS RESPUBLIKOS ÐVIETIMO IR MOKSLO MINISTERIJA NACIONALINIS EGZAMINØ CENTRAS 2014 METŲ MATEMATIKOS VALSTYBINIO BRANDOS EGZAMINO REZULTATŲ

LIETUVOS RESPUBLIKOS ÐVIETIMO IR MOKSLO MINISTERIJA NACIONALINIS EGZAMINØ CENTRAS 2014 METŲ MATEMATIKOS VALSTYBINIO BRANDOS EGZAMINO REZULTATŲ LIETUVOS RESPUBLIKOS ÐVIETIMO IR MOKSLO MINISTERIJA NACIONALINIS EGZAMINØ CENTRAS 014 METŲ MATEMATIKOS VALSTYBINIO BRANDOS EGZAMINO REZULTATŲ STATISTINĖ ANALIZĖ 014 m. birželio 5 d. matematikos valstybinį

Διαβάστε περισσότερα

4 laboratorinis darbas. PARAMETRŲ ĮVERČIAI IR STATISTINĖS HIPOTEZĖS

4 laboratorinis darbas. PARAMETRŲ ĮVERČIAI IR STATISTINĖS HIPOTEZĖS PARAMETRŲ ĮVERČIAI IR STATISTINĖS HIPOTEZĖS DARBO TIKSLAS - išstudijuoti parametrų taškiių ir itervaliių įverčių radimo, parametriių ir eparametriių hipotezių tikriimo uždaviius ir jų taikymą Teorijos

Διαβάστε περισσότερα

Diskrečioji matematika

Diskrečioji matematika VILNIAUS UNIVERSITETAS Gintaras Skersys Julius Andrikonis Diskrečioji matematika Pratybų medžiaga Versija: 28 m. sausio 22 d. Vilnius, 27 Turinys Turinys 2 Teiginiai. Loginės operacijos. Loginės formulės

Διαβάστε περισσότερα

FRANKO IR HERCO BANDYMAS

FRANKO IR HERCO BANDYMAS VILNIAUS UNIVERSITETAS Kietojo kūno elektronikos katedra Atomo ir branduolio fizikos laboratorija Laboratorinis darbas Nr. FRANKO IR HERCO BANDYMAS Parengė A. Poškus 013-08-31 Turinys Darbo tikslas 1.

Διαβάστε περισσότερα

UAB Aveva planuojamos ūkinės veiklos metu į aplinkos orą išmetamų teršalų sklaidos modeliavimas

UAB Aveva planuojamos ūkinės veiklos metu į aplinkos orą išmetamų teršalų sklaidos modeliavimas Objektas: UAB Aveva Kupiškio g. 54, Utena UAB Aveva planuojamos ūkinės veiklos metu į aplinkos orą išmetamų teršalų sklaidos modeliavimas 2017 m. 2 Skaičiavimo metodika, naudota kompiuterinė programinė

Διαβάστε περισσότερα

5 klasė. - užduotys apie varniuką.

5 klasė. - užduotys apie varniuką. 5 klasė - užduotys apie varniuką. 1. Varniukas iš plastilino lipdė raides ir iš jų sudėliojo užrašą: VARNIUKO OLIMPIADA. Vienodas raides jis lipdė iš tos pačios spalvos plastelino, o skirtingas raides

Διαβάστε περισσότερα

A priedas. Diagnostikoje naudojami tarptautiniai ISO standartai

A priedas. Diagnostikoje naudojami tarptautiniai ISO standartai Priedai A priedas. Diagnostikoje naudojami tarptautiniai ISO standartai B priedas. Patikslintas tiesiakrumplės pavaros matematinis modelis C priedas. Patikslintas tiesiakrumplė pavaros matematinis modelis

Διαβάστε περισσότερα

MONTE KARLO METODAS. Gediminas Stepanauskas IVADAS Sistemos Modeliai Modeliavimas ir Monte-Karlo metodas...

MONTE KARLO METODAS. Gediminas Stepanauskas IVADAS Sistemos Modeliai Modeliavimas ir Monte-Karlo metodas... MONTE KARLO METODAS Gediminas Stepanauskas 2008 Turinys 1 IVADAS 4 1.1 Sistemos.............................. 4 1.2 Modeliai.............................. 5 1.3 Modeliavimas ir Monte-Karlo metodas.............

Διαβάστε περισσότερα

4.3. Minimalaus dengiančio medžio radimas

4.3. Minimalaus dengiančio medžio radimas SKYRIUS. ALGORITMAI GRAFUOSE.. Minimalaus dengiančio medžio radimas Šiame skyriuje susipažinsime su minimaliu dengiančiu medžių radimo algoritmais. Pirmiausia sudarysime dvi taisykles, leidžiančias pasirinkti

Διαβάστε περισσότερα

ŠVIESOS SKLIDIMAS IZOTROPINĖSE TERPĖSE

ŠVIESOS SKLIDIMAS IZOTROPINĖSE TERPĖSE ŠVIESOS SKLIDIMAS IZOTROPIĖSE TERPĖSE 43 2.7. SPIDULIUOTĖS IR KŪO SPALVOS Spinduliuotės ir kūno optiniam apibūdinimui naudojama spalvos sąvoka. Spalvos reiškinys yra nepaprastas. Kad suprasti spalvos esmę,

Διαβάστε περισσότερα

UAB Rutinas ūkinės veiklos metu išmetamų aplinkos oro teršalų sklaidos modeliavimas

UAB Rutinas ūkinės veiklos metu išmetamų aplinkos oro teršalų sklaidos modeliavimas Objektas: UAB Rutinas Draugystės g. 4, Kaunas UAB Rutinas ūkinės veiklos metu išmetamų aplinkos oro teršalų sklaidos modeliavimas 207-0-24 2 Skaičiavimo metodika, naudota kompiuterinė programinė įranga

Διαβάστε περισσότερα

KB ALSIŲ PAUKŠTYNAS IŠSISKIRIANČIŲ APLINKOS ORO TERŠALŲ IR KVAPO SKLAIDOS MODELIAVIMAS

KB ALSIŲ PAUKŠTYNAS IŠSISKIRIANČIŲ APLINKOS ORO TERŠALŲ IR KVAPO SKLAIDOS MODELIAVIMAS Objektas: KB Alsių paukštynas Žučių k., Žagarės sen., Joniškio r. KB ALSIŲ PAUKŠTYNAS IŠSISKIRIANČIŲ APLINKOS ORO TERŠALŲ IR KVAPO SKLAIDOS MODELIAVIMAS 2018-05-23 2 Aplinkos oro teršalų išsisklaidymo

Διαβάστε περισσότερα

Papildomo ugdymo mokykla Fizikos olimpas. Mechanika Dinamika 1. (Paskaitų konspektas) 2009 m. sausio d. Prof.

Papildomo ugdymo mokykla Fizikos olimpas. Mechanika Dinamika 1. (Paskaitų konspektas) 2009 m. sausio d. Prof. Papildoo ugdyo okykla izikos olipas Mechanika Dinaika (Paskaitų konspektas) 9. sausio -8 d. Prof. Edundas Kuokštis Vilnius Paskaita # Dinaika Jei kineatika nagrinėja tik kūnų judėjią, nesiaiškindaa tą

Διαβάστε περισσότερα

Vilniaus universitetas Gamtos mokslų fakultetas Kartografijos centras. Giedrė Beconytė. Mokomoji knyga geomokslų specialybių studentams

Vilniaus universitetas Gamtos mokslų fakultetas Kartografijos centras. Giedrė Beconytė. Mokomoji knyga geomokslų specialybių studentams Vilniaus universitetas Gamtos mokslų fakultetas Kartografijos centras Giedrė Beconytė DUOMENŲ BAZIŲ PROJEKTAVIMAS Mokomoji knyga geomokslų specialybių studentams Vilnius 2012 Aprobuota VU Gamtos mokslų

Διαβάστε περισσότερα

Paprastosios DIFERENCIALINĖS LYGTYS

Paprastosios DIFERENCIALINĖS LYGTYS Paprastosios DIFERENCIALINĖS LYGTYS prof. Artūras Štikonas Paskaitų kursas Matematikos ir informatikos fakultetas Diferencialinių lygčių ir skaičiavimo matematikos katedra Naugarduko g. 24, LT-3225 Vilnius,

Διαβάστε περισσότερα

2018 METŲ MATEMATIKOS VALSTYBINIO BRANDOS EGZAMINO REZULTATŲ STATISTINĖ ANALIZĖ

2018 METŲ MATEMATIKOS VALSTYBINIO BRANDOS EGZAMINO REZULTATŲ STATISTINĖ ANALIZĖ N A C I O N A L I N I S E G Z A M I N Ų C E N T R A S 018 METŲ MATEMATIKOS VALSTYBINIO BRANDOS EGZAMINO REZULTATŲ STATISTINĖ ANALIZĖ 018 m. birželio 9 d. įvyko matematikos valstybinis brandos egzaminas.

Διαβάστε περισσότερα

eksponentinės generuojančios funkcijos 9. Grafu

eksponentinės generuojančios funkcijos 9. Grafu DISKREČIOJI MATEMATIKA (2 semestras) KOMBINATORIKOS IR GRAFU TEORIJOS PRADMENYS PROGRAMA I KOMBINATORIKA 1 Matematinės indukcijos ir Dirichlė principai 2 Dauginimo taisyklė,,skaičiuok dukart principas

Διαβάστε περισσότερα

LIETUVOS RESPUBLIKOS SVEIKATOS APSAUGOS MINISTRAS Į S A K Y M A S

LIETUVOS RESPUBLIKOS SVEIKATOS APSAUGOS MINISTRAS Į S A K Y M A S LIETUVOS RESPUBLIKOS SVEIKATOS APSAUGOS MINISTRAS Į S A K Y M A S DĖL LĖTINIO VIRUSINIO C HEPATITO DIAGNOSTIKOS IR AMBULATORINIO GYDYMO KOMPENSUOJAMAISIAIS VAISTAIS TVARKOS APRAŠO TVIRTINIMO 2012 m. spalio

Διαβάστε περισσότερα

Gabija Maršalkaitė Motiejus Valiūnas. Astronomijos pratybų užduočių komplektas

Gabija Maršalkaitė Motiejus Valiūnas. Astronomijos pratybų užduočių komplektas Gabija Maršalkaitė Motiejus Valiūnas Astronomijos pratybų užduočių komplektas Vilnius 2014 1 Įvadas 1.1 Astronomijos olimpiados Lietuvoje kylant moksleivių susidomėjimu astronomijos olimpiada buvo pastebėta,

Διαβάστε περισσότερα

2014 M. FIZIKOS VALSTYBINIO BRANDOS EGZAMINO UŽDUOTIES VERTINIMO INSTRUKCIJA Pagrindinė sesija

2014 M. FIZIKOS VALSTYBINIO BRANDOS EGZAMINO UŽDUOTIES VERTINIMO INSTRUKCIJA Pagrindinė sesija PATVIRTINTA Nacionalinio egzaminų centro direktoriaus 04 m. birželio 6 d. Nr. (.)-V-69birželio 4 04 M. FIZIKOS VALSTYBINIO BRANDOS EGZAMINO UŽDUOTIES VERTINIMO INSTRUKCIJA I dalis Kiekvieno I dalies klausimo

Διαβάστε περισσότερα

Paprastosios DIFERENCIALINĖS LYGTYS

Paprastosios DIFERENCIALINĖS LYGTYS Paprastosios DIFERENCIALINĖS LYGTYS prof. Artūras Štikonas Paskaitų kursas Matematikos ir informatikos fakultetas Taikomosios matematikos institutas, Diferencialinių lygčių katedra Naugarduko g. 24, LT-3225

Διαβάστε περισσότερα

Gairės audito institucijoms dėl audito atrankos metodų ir m. programavimo laikotarpiai

Gairės audito institucijoms dėl audito atrankos metodų ir m. programavimo laikotarpiai EGESIF_16-0014-00 017 01 0 EUROPOS KOMISIJA GENERALINIAI DIREKTORATAI Regioninės ir miestų politikos Užimtumo, socialinių reikalų ir lygių galimybių Jūrų reikalų Gairės audito institucijoms dėl audito

Διαβάστε περισσότερα