Neurónové siete Inžiniersky prístup (1. diel)

Μέγεθος: px
Εμφάνιση ξεκινά από τη σελίδα:

Download "Neurónové siete Inžiniersky prístup (1. diel)"

Transcript

1 Neurónové siete Inžiniersky prístup (1. diel) Peter Sinčák Katedra kybernetiky a umelej inteligencie Elektrotechnická fakulta Technická Univerzita Košice sincak@ccsun.tuke.sk & Gabriela Andrejková Katedra matematickej informatiky Prírodovedecká fakulta Univerzita P.J. Šafárika, Košice andrejk@kosice.upjs.sk 22. júla 1996

2 Predhovor Predkladáme čitateľom 2 dielnu publikáciu venovanú inžinierskym aspektom neurónových sietí. Cieľom bola snaha podať základné teoretické poznatky o neurónových sieťach a ich metódach učenia, ktoré je možné využiť v rôznych aplikačných oblastiach technickej praxe. Neurónové siete vplyvom rýchleho rozvoja výpočtovej techniky sa využívajú čoraz viac v experimetálnych úlohach ako aj v praxi. Aplikačné úlohy typu spracovania informácii, klasifikácie vzorov alebo situácií, optimalizačné problémy, predikčné úlohy nachádzajú uplatnenie v rôznych oblastiach priemyslu, managementu, finančníctva, telekomunikácie, vojenskej techniky, zdravotníctva a inde. Prvý diel je venovaný základným informáciam o dopredných neurónových sieťach a druhý diel je venovaný rekurentným a modulárnym neurónovým sieťam. Dúfame, že kniha pomôže šíreniu základných poznatkov o neurónových sieťach z pohľadu inžinierskeho chápania ich činnosti a využitia v technickej praxi. Autori

3

4 Poďakovanie Týmto vyjadrujeme verejné poďakovanie študentom 4. a 5. ročníka FEI Katedry kybernetiky a umelej inteligencie TU Košice (šk. roku ) a študentom Katedry matematickej informatiky Prirodovedeckej fakulty za morálnu podporu a inšpirácie pri príprave tejto publikácie. Nekonečné diskusie a nadšenie študentov pre neurónové siete nám pomáhalo pri príprave a dokončovaní tejto knihy. Touto cestou ďakujeme Ing. Rudolfovi Jakšovi za dokončovacie práce pri príprave knihy, Ing. Marekovi Hatalovi za pomoc pri konečnej úprave a počítačovej sadzbe a Editke Šutakovej za nakreslenie obrázkov. Súčasne ďakujeme Prof. Ing. Jánovi Sarnovskému, CSc., vedúcemu Katedry kybernetiky a umelej inteligencie, ktorý vytvoril podmienky pre rozvoj tejto disciplíny na TU Košice. Záverom ďakujeme všetkým tým, ktorí nám držali palce, aby táto publikácia bola konečne dokončená. Autori

5

6 Venovanie Túto knihu venujem ľuďom, ktorí mi veľa pomohli a to: mojim rodičom, ktorým vďačím za veľa mojej rodine, ktorá mi dáva zmysel života mojim študentom, od ktorých som sa veľa naučil a ešte veľa naučím Peter Sinčák

7 Obsah 1 Úvodné poznámky Moderné aspekty umelej inteligencie Čo je to neurónová sieť (NN) Stručne o histórii NN Typy úloh riešiteľných pomocou NN Pedagogické poznámky Základné pojmy Základné pojmy teórie učenia Základné prvky NN Poznámky k jednotlivým častiam neurónu Synaptické spojenia a váhy Topológia NN a spôsoby šírenia signálu Perceptrón najjednoduchšia neurónová sieť Čo je to perceptrón? Topológia perceptrónu Algoritmus učenia perceptróna Veta o konvergencii perceptrónu XOR-problém, skrytá vrstva NN Učenie a jeho paradigmy Paradigmy kontrolovaného učenia Paradigmy nekontrolovaného učenia Význam inicializácie pri učení NN Globálna stabilita a konvergencia NN Globálna stabilita NN Konvergencia NN i

8 4 Kontrolované učenie na FF NN Metóda najstrmšieho zostupu Wienerov filter Metóda najstrmšieho zostupu Metóda nejmenšej kvadratickej chyby Adaline Repetitórium č Delta pravidlo Metóda spätného šírenia chyby Time-delay na FF NN Spôsoby urýchlenia konvergencie BP BP-momentum Adaptívne parametre učenia NN Funkcionálne linky v NN Dôležité poznámky k návrhu FF NN Návrh topológie NN Problém inicializácie NN Problém stanovenia veľkosti trénovacej vzorky Repetitórium č Nekontrolované učenie na FF NN Konkurenčné učenie MAXNET Kohonenove siete Metóda hlavných komponentov Ojove adaptačné pravidlo zmeny SV Hybridné metódy učenia na FF NN Nekontrolované učenie metódy BP Metóda Counterpropagation Repetitórium č Literatúra 103 Register 105 ii

9 Používané skratky znak význam definované na strane NN neurónová sieť (neural network) 3 SV synaptická váha 13 FF dopredná (feed forward) 19 RC rekurentná (recurent) 19 BP metóda spätného šírenia chyby (Error Backpropagation) 52 in i vstup do neurónu i 13 x i aktivačná hodnota neurónu i 13 ou i výstupná hodnota neurónu i 13 θ i prah neurónu i 13 J(t) chybová funkcia 51 ev i očakávaná hodnota aktivácie neurónu i 32 γ učiaci pomer 32 w ij hodnota SV smerujúcej od neurónu j k neurónu i 14 e i chybový rozdiel e i = ev i x i 32 δ i chybový signál pri BP učení 52 α momentum parameter pri BP momentum učení 58 Λ funkcia susednosti pri Kohonenových NS 84 iii

10

11 Úvodné poznámky Moderné aspekty umelej inteligencie Nový pohl ad na paralelné výpočty a na paralelné systémy v súčasnosti prináša najnovší trend, ktorý zaujal mnohých vedcov a odborníkov, a síce quasiencefalické výpočty, v ktorých ide o masívny paralelizmus a majú za ciel modelovat chovanie sa nervovej sústavy u živočíchov a hlavne modelovat chovanie sa l udského mozgu. Ľudský mozog obsahuje neurónov uložených v šedej kôre mozgovej a synapsie sú realizované v rozsahu asi 10 4 na jeden neurón. Vytvorenie umelého l udského mozgu so všetkými jeho schopnost ami je vec vel mi t ažko riešitel ná aj z hl adiska kvantity neurónov aj z hl adiska spôsobu ich prepojenia, atd. Je tu však možnost simulovat aspoň niektoré funkcie l udského myslenia a implementovat ich. Novovytvárané modely sa o túto situáciu pokúšajú, a preto dostali názov neurónové siete (NN - Neural Nets). V tejto súvislosti vzniká tiež otázka vzt ahu neurónových sietí k systémom umelej inteligencie (UI). Pokúsime sa na ňu odpovedat v nasledujúcej úvahe o systémoch umelej inteligencie a ich možných cieľoch. Cieľom systémov umelej inteligencie je vypracovať paradigmy alebo algoritmy, ktoré požadujú od stroja riešiť úlohy, ktoré by vyriešil len človek so znalosťami Toto je jedna z mnohých definícií systémov UI [5]. Každý systém považovaný za systém UI, musí podľa spomínaného autora splňať 3 nasledujúce požiadavky : 1

12 2 P.Sinčák, G.Andrejková vedomosti ucenie uvazovanie Obr. 1.1: Hlavné komponenty všeobecného systému UI vedieť uložiť znalosti (knowledge representation) aplikovať znalosti pre riešenie problému - uvažovanie (reasoning) získavať nové znalosti počas experimentov - učenie (learning) Všetky 3 požiadavky navzájom súvisia a doplňujú sa. V súčasnej dobe sa systémy UI čoraz väčšmi chápu z dvoch pohľadov : klasické prístupy v UI ( tieto presadzujú symbolickú reprezentáciu vedomostí a ich sekvenčné spracovanie, nachádzajú uplatnenie v problémoch ako je spracovanie prirodzeného jazyka, v problémoch plánovania procesov alebo tzv. explicitného reasoningu). Exemplárnym problémom, kedy klasická UI ( symbolická UI) nestačí riešiť všeobecné problémy je Japonský projekt počítačov 5. generácie. Tam logické programovanie a expertné systémy nepriniesli očakávané výsledky. moderné prístupy v UI ( tieto sú založené vo veľkej miere na neurónových sieťach vo väčšine prípadov používajú nesymbolickú

13 Neurónové siete 3 reprezentáciu vedomostí a sú vhodne použiteľné v oblastiach ropoznávania vzorov, simulácie pamäte resp. v tzv. nizkoúrovňových percepčných procesoch. Tieto moderné prístupy predstavujú systém UI ako dynamický systém, a preto je nutné ho analyzovať z hľadiska jeho neurodynamiky. V náväznosti na spomínaný Japonský projekt, sa tu ponúka možnosť využitia neurónových sietí aj pre tieto problémy. Je treba poznamenať, že vo svete je skupina vedcov, ktorí tieto moderné prístupy v UI považujú za nepatriace do UI a na UI pozerajú iba z hľadiska klasického prístupu k UI. Čas však ukazuje že medzinárodná komunita akceptovala tieto moderné prístupy k UI. Cesta k progresu vedie cez využívanie vlastností a výhod jak klasickej UI tak aj modernej UI. Explózia záujmu o NN dávno prekročila rozmery niekdajšieho záujmu napr. o expertné systémy. V momentálnej situácii je záujem o NN podporený aj vynikajúcimi možnosťami v oblasti výpočtovej techniky, paralelných systémov a pamäťových možností a širokú odbornú podporu ostatných odborov ako je neurofyzika, neuropsychológia, kognitívna psychológia a pod.. V podstate sa do určitej miery naplňajú predpovede jedného z významných predstaviteľov rozvoja NN dr.minského, ktorý v roku 1961 v svojom článku Step Torward Artificial Intelligence 1 naznačil mnohé smery, ktoré z nedostatku výpočtových možností nemohli dostať plný rozmer rozvoja. Záverom je treba konštatovať, že tendencie moderných prístupov umelej inteligencie nájdu čoraz väčšie uplatnenie pri riešení praktických problémov technickej a netechnickej praxe. 1.2 Čo je to neurónová sieť (NN) Neurónová sieť (ďalej NN) je masívne paralelný procesor, ktorý má sklon k uchovávaniu experimentálnych znalostí a ich ďalšieho využívania. Napodobňuje ľudský mozog v dvoch aspektoch: poznatky sú zbierané v NN počas učenia 1 Krok vpred umelá inteligencia

14 4 P.Sinčák, G.Andrejková medzineurónové spojenia (synaptické váhy SV) sú využívané na ukladanie znalostí Toto je jedna z definícii NN, akceptovaná NN komunitou. Je zrejmé, že inšpirácia ku vzniku NN prišla z biologických systémov. Hrubo povedané ide o simuláciu mozgu. Na prvý dojem vysoko abstraktná disciplína nachádza množstvo aplikácii v praxi a stáva sa prostriedkom pre riešenie problémov v širokom spektre odborných oblastí. Jednou z veľmi významných vlastností NN je, že svojim spôsobom je tzv. univerzálnym aproximátorom funkcií. Môže sa nám stať, že máme systém, ktorého popis je mimoriadne náročný alebo je systém natoľko zložitý, že jeho popis je skoro nemožný. Máme však dáta, ktoré do systému vstupujú, a k nim odpovedajúce výstupy. V takejto situácii, môžeme použiť vhodnú NN a pokúsiť sa ju naučiť chovať sa ako sledovaný systém pomocou trénovacích údajov (spomínaných vstupov a výstupov). Toto je veľmi dôležitý moment, ktorý determinuje aj aplikačné uplatnenie NN v praxi. Pri štúdiu NN môžeme rozlišovať tri oblasti: teória NN - matematický rozbor činnosti NN, problémy NN ako dynamického systému vo všeobecnosti, teoretické rozbory návrhu topológie NN a pod. Je treba upozorniť, že matematický model pre popis chovania sa NN je dosť náročný. simulácia NN - ide o simuláciu NN pomocou počítačových systémov. Hlavným problémom simulácie je naučiť NN na niečo. Proces učenia je veľmi časovo náročný a vyžaduje veľké (najlepšie paralelné) výpočtové systémy. Vo svete je množstvo simulátorov NN. V súčasnej dobe ako najvhodnejší sa zdá Stuttgartský simulátor NN. implementácia NN - ide o implementáciu naučenej NN do harwarovej formy. Taketo systémy existujú a objavujú sa čoraz častejšie mikročipy NN. Všetky tri oblasti úzko súvisia, ale v súčasnej situácii možnosti využitia výpočtovej techniky prežívajú plný rozvoj. Na záver tejto časti je treba zdôrazniť dôležitosť paralelizmu NN systémov. Základným elementom NN je neurón. V porovnaní s ľudským

15 Neurónové siete 5 neurónom my vieme pomocou počítačov nasimulovať omnoho rýchlejší neurón ako je neurón ľudský. Problémom je však množstvo ľudských neurónov a množstvo spojení v mozgu. Podľa výskumov má ľudský mozog okolo až neurónov a počet prepojení na každý jeden neurón predstavuje počet 10 3 až Takúto masívne paralelnú NN nemáme ešte veľmi dlho šancu nasimulovať. Takže paradoxne, aj keď vieme dosiahnuť rýchlejší procesný element - neurón, nevieme dosiahnuť taký masívny paralelizmus, ktorý v konečnom dôsledku určuje silu celej NN. Teda môžeme konštatovať nasledovné: Sila ľudského mozgu je vo využití obrovského množstva pomalých neurónov, zoskupených do veľmi zložitej masívne paralelnej siete, ktorej veľkosť a topológia je v simulačných procesoch zatiaľ zďaleka nenapodobniteľná. 1.3 Stručne o histórii NN Vzhľadom za závažnosť ostatných častí publikácie uvádzame túto kapitolu iba ako prehľadovú v odstavcoch začína éra teórie NN pod vedením amerických vedcov Mc- Cullocha a Pittsa. Dr. McCulloch bol psychiater a neuroanatóm, kým dr. Pitts bol matematik a celá aktivita, bola sústredená na Univerzite v Chicagu, kde v spomínanom roku 1943 títo dvaja páni prvýkrát definovali binárny neurón. Je zaujímavé, že John von Neumann, pri konštrukcii svojho prvého počítača ENIAC v roku 1946 bol do určitej miery inšpirovaný aj spomínanou prácou Wiener vo svojej knihe Kybernetika naznačuje určité koncepty NN 1949 Hebb vo svojej knihe The Organization of Behavior 2 prvýkrát explicitne spomína pojem učenia a jeho vzťah k synaptickým váham a ich modifikácii dr. Ashby napísal knihu Design of a Brain: The Origin 2 Organizácia správania

16 6 P.Sinčák, G.Andrejková of Adaptive Behavior 3. Tato publikácia mala zásadný význam pre rozvoj NN dr. Minsky napísal svoju Ph.D. dizertáciu na tému Neurónové siete a pozdejšie v roku 1961 napísal zásadný článok Step Toward Artificial Intelligence páni Rochester, Holland, Habit a Duda sa prvýkrát pokúsili o počítačovú simuláciu NN 1958 prichádza dr. Rosenblat s novým prístupom k rozpoznávaniu pomocou tzv. perceptrónu a pozdejšie prichádza so svojou konvergenčnou teóriou perceptrónu, ktorá predstavuje počiatky neurodynamiky prichádza s Widrow a Hoff a tzv. Adaline - Adaptive linear element a o 2 roky nato prichádza Widrow s tzv. Madaline - Multiple adaptive element. Tieto príspevky do značnej miery posunuli teoretickú bázu NN dopredu, hoci nedostatok výpočtovej techniky vytváral ohromné zábrany ďalšiemu rozvoju. v roku 1965 mala dôležitý význam publikácia dr. Nilssona Learning Machines 4. v roku 1967 dr. Cowan predstavuje svoju sigmoidálnu aktivačnú funkciu v roku 1968 dr. Grossberg predstavuje svoj adaptívny model neurónu a používa nelineárne diferenciálne rovnice na jeho popis so zámerom ich použitia pre tzv. short term memory 5. v roku 1969 dr. Minsky a dr. Papert popisujú činnosť viacvrstvového perceptrónu. 3 Konštrukcia mozgu : pôvod adaptívneho správania 4 Učiace sa stroje 5 krátko trvajúce pamäte

17 Neurónové siete 7 obdobie nazývame obdobím útlmu 6. Dôvodom, boli nedostatočné výpočtové kapacity včítane pamäťových možností. Určité práce v teoretickej oblasti boli urobené ale nie s takou dynamikou ako predtým 1975 dr. Little a Shaw popisujú pravdepodobnostný model neurónu v roku 1980 prichádza Grossberg s rozvojom tzv. Competitive learning, ktorá po rozpracovaní a modifikácii zakladá novú triedu NN založenej na tzv. Adaptive resonance theory. v roku 1982 dr. Hopfield použil termín energie NN pre pochopenie rekurentných sietí. Postupne rozvojom vzniká aj trieda tzv. Hopfieldových sietí. O rok pozdejšie v podstate formuloval princípy simulácie pamäte resp. uchovania informácie v dynamickom systéme. dr. Kirkpatrick a jeho kolegovia popisujú procedúru tzv. simulovaného ochladzovania 7. Toto inšpirovalo v roku 1985 dr. Hintona a kol. k návrhu stochastickej učiacej procedúry pre tzv.boltzmanov stroj. v tom istom roku (1983) prišli páni Barto a kol. s tzv.reinforcement learning a jeho aplikáciou v oblasti riadenia technologických systémov. v roku 1986 prišli dr. Rumelhart a kol. s metódou učenia spätným šírením chyby 8. Táto metóda pre svoju relatívnu jednoduchosť je jednou z najrozšírenejších metód učenia NN. v roku 1988 prišli páni Broomhead a Lowe s procedúrou Radial Basis Functions, pre dopredné siete, ktorá má korene v teórii potenciálnych funkcií, ktoré využili Duda a Hart v roku 1973 pre rozpoznávanie. 6 Decade of Dormacy 7 simulated annealing 8 Backpropagation of Error

18 8 P.Sinčák, G.Andrejková Hoveuvedený historický prehľad vývoja aktivít týkajúcich sa NN je stručným náčrtom dejín tohto odboru UI. Je zrejmé, že jeho rozvoj bude naďalej dynamický a v prípade nenájdenia inej alternatívnej cesty v UI, sa NN stanú dominantným prvkom moderného chápania UI pre budúcnosť. Tvorba hybridných systémov symbolických a nesymbolických sa javí perspektívnou cestou rozvoja UI. 1.4 Typy úloh riešiteľných pomocou NN Vo všeobecnosti môžeme vymenovať nasledovné oblasti využitia NN pre : problémy aproximácie funkcií klasifikácie do tried, klasifikácia situácií riešenie predikčných problémov problémy riadenia procesov tranformácia signálov asociačné problémy, simulácia pamäte Aplikovateľnosť NN vychádza z niektorých základných vlastností NN. Jednou a najvýznamnejšou je fakt, že NN je univerzálnym aproximátorom funkcie. Vzhľadom na skutočnosť, že obrovské množstvo problémov funguje ako nám neznáme funkcie, tak použitie NN bude v najbližšej dobe veľmi rozsiahle. Určitou brdzou v týchto aplikáciách sú vysoké nároky na výpočtovú techniku, avšak tieto sa veľmi rýchlo menia s rozvojom vysokovýkonných výpočtových systémov. 1.5 Pedagogické poznámky Cieľom tejto knihy je podať základné informácie z oblasti neurónových sietí pri inžinierskom prístupe. Ide teda o základy, ktoré môžu inžinierski pracovníci využiť pri aplikácii NN v konkrétných aplikáciách. Tieto základy sú vhodné aj ako inicializačné informácie pre ďalšie štúdium teórie NN.

19 Neurónové siete 9 Je vhodné si uvedomiť základnú štruktúru knihy, ktorá má 2 základné časti a to : 1. dopredné NN a v rámci nich kontrolované učenie na dopredných NN nekontrolované učenie na dopredných NN 2. rekurentné NN a v rámci nich kontrolované učenie na rekurentných NN nekontrolované učenie na rekurentných NN Ďalej sa v praci zaoberáme aj hybridnými prístupmi a v závere aj modulárnymi NN. Kniha sa zámerne venovala výhradne základnej teórii NN, ale je potrebné podotknúť, že k celkovému pochopeniu teórie NN je nutné súčasne realizovať praktické experimenty na vybranom simulátore NN. Jedine kombináciou teoretických znalostí a skúsenosti zo simulačných príkladov je možné získať komplexné a základné znalosti o NN pre ich aplikačné používanie v praxi. Kniha vo veľkej miere pokrýva základné učivo z predmetu Neurónové siete na Katedre kybernetiky a umelej inteligencie. Súčasne čitateľom doporučujeme z knihy získané poznatky doplniť prácou na návrhu NN pomocou simulátota neurónových sieti SNNS (Stuttgart Neural Networks Simulator), ktorý pracuje na platforme UNIX. Simulátor je dostupný na anonymnom servri internetu pod IP číslom Vhodnou pomôckou pre lepšie pochopenie NN bude aj pripravovaná publikácia Neurónové siete v príkladoch pripravovaná ešte v roku 1996 vo vydavateľstve Elfa press.

20 10

21 Základné pojmy 2 V tejto kapitole sú uvedené základné pojmy, ktoré je nutné pochopiť skôr, než čitateľ prejde k ďalším kapitolám. Vo všeobecnosti činnosť neurónových sietí rozdeľujeme do dvoch fáz a to: fáza učenia, kedy sa znalosti ukladajú do synaptických váh neurónovej siete. Ak si označíme maticu W ako maticu všetkých synaptických váh 1 neurónovej siete, tak pod učením budeme chápať stav kedy platí, že W t 0 (2.1) teda synaptické váhy sa počas učenia menia. Pojem učenia pri NN je synonymom pojmu adaptácie NN. Ide teda o zbieranie poznatkov, resp. ich uchovanie. Definíciu učenia možeme interpretovať nasledovne Učenie je proces, v ktorom sa parametre NN (synaptické váhy ďalej SV) menia na základe nejakých pravidiel. Charakter týchto pravidiel, ktoré vyvolávajú zmeny SV NN, determinuje typ učenia NN. Pod učením rozumieme adaptáciu NN, ktorá po ukončení učenia bude nositeľkou znalostí získaných počas učenia. 1 Pojem synaptická váha bude vysvetlený v časti

22 12 P.Sinčák, G.Andrejková fáza života, kedy sa získané znalosti využívajú v prospech riešenia nejakého problému (napr.klasifikácia, optimalizácia, zhlukovanie a pod.) Prakticky to teda znamená, že ide o stav, kedy W t teda synaptické váhy sa nemenia. = 0, (2.2) Niekedy sa neurónové siete nazývajú aj ako bezalgoritmické systémy 2. Toto tvrdenie je pravdivé, ale vzťahuje sa iba na fázu života neurónových sietí. Naopak, vo fáze učenia prebieha v neurónových sieťach cieľavedomý proces uchovávania poznatkov do synaptických váh neurónových sietí, ktoré sú nositeľmi znalostí. 2.1 Základné pojmy teórie učenia Učenie je základnou a podstatnou vlastnosťou neurónových sietí. Toto ich odlišuje od nám doposiaľ známeho používania počítačov, kde bolo potrebné vytvoriť algoritmus, podľa ktorého prebehol výpočet. Teda pri klasických algoritmoch neexistujú fázy učenia a života. Pri neurónových sieťach je navrhnutý všeobecný algoritmus učenia, ktorý sieť používa vo fáze učenia. Vhodnosť tohto algoritmu determinuje kvalitu a rýchlosť učenia na predkladaných reprezentatívnych dátach. Pre presnosť vyjadrovania sa v tejto oblasti sú dôležité nasledujúce pojmy: príznak je význačná veličina popisujúca jednu vlastnosť skúmaného objektu; objekt môže byť charakterizovaný viacerými príznakmi. Obyčajne príznak vyjadrujeme pomocou číselných hodnôt, tj. pomocou reálnych, celých alebo binárnych čísel. príkladom budeme nazývať popis objektu, ktorý je predmetom nášho záujmu, pomocou číselných hodnôt; teda príklad je vlastne n-rozmerný vektor, kde n vyjadruje počet príznakov daného objektu. príkladový priestor Y je množina príkladov 2 algorithm less systems

23 Neurónové siete 13 reprezentívna vzorka s je prvkom množiny Y {0, 1} m, kde m je počet príkladov vo vzorke. Preto reprezentatívna vzorka predstavuje množinu usporiadaných dvojíc s = ((y 1, d 1 ), (y 2, d 2 ),..., (y m, d m ). Samotné d i {0, 1} a predstavuje adekvátne výstupy k jednotlivým vstupom. V praxi výstupy d i nemusia byť binárne hodnoty. Je potrebné si uvedomiť, že reprezentívna vzorka nám poskytuje empirické údaje chovania sa systému, ktorý nepoznáme. Pomocou poznania vstupov a výstupov systému sa snažíme poznať chovanie systému. reprezentívna vzorka je bezosporná, ak žiadne dva príklady vo vzorke nie sú sporné, tj. ak y i = y j, potom musí platiť d i = d j. reprezentatívnu vzorku zvykneme náhodne rozdeliť do dvoch základných typov vzoriek: 1. trénovacia vzorka je to množina usporiadaných hodnôt, ktorá sa používa pri fáze učenia. Dôležitosť reprezentatívnosti týchto dát je mimoriadna, lebo znalosti sa pri učení z týchto dát extrahujú do synaptických váh neurónovej siete. Ak táto množina nie je vhodne vybraná, potom aj samotné učenie nebude kvalitné. Tieto dáta by mali popisovať komplexné chovanie sa systému, ktorý dáta reprezentujú. 2. testovacia vzorka je to množina usporiadaných hodnôt, ktorá sa používa vo fáze života za účelom otestovania získaných znalostí počas učenia. 2.2 Základné prvky NN Základným prvkom a procesnou jednotkou v NN je neurón. Štruktúra neurónu je na obrázku 2.1. Neurón pozostáva z nasledujúcich základných častí: vstup do neurónu (dendrit) prah neurónu - je hodnota θ i, ktorá vlastne prispieva ku vstupu z externého sveta aktivačná funkcia neurónu f, ktorej výsledkom je x i

24 14 P.Sinčák, G.Andrejková y n w n y 3 w w 3 2 in(y,w) x=f(in) y=out(x) y y 2 w 1 y 1 Obr. 2.1: Štruktúra neurónu výstupná funkcia neurónu o i synaptické váhy, ktoré sú na synaptických spojeniach (synapsiách), ktoré majú svoj smer a spájajú jednotlivé neuróny do NN Súčasne podľa toku signálu po synapsii rozoznávane neuróny predsynaptické (zdrojové - pred synapsiou) postsynaptické (cieľové - po synapsii ) Predsynaptický neurón Postsynaptický neurón Obr. 2.2: Označenie neurónov

25 Neurónové siete 15 Poznámka: Na označovanie synaptických váh sa používa symbol w ij, kde i označuje postsynaptický neurón a j označuje predsynaptický neurón. Teda ide o synapsiu, ktorá vychádza z neuróna j a cieli k neurónu i. Túto konvenciu pri označovaní je vhodné dodržať Poznámky k jednotlivým častiam neurónu vstup do neurónu - je funkciou jednotlivých vstupov prichádzajúcich od predsynaptických neurónov. Vo väčšine prípadov je to súčet týchto vstupov uvažovaných s určitými váhami, napríklad vstup do i teho neurónu, ktorý má N predsynaptických neurónov, môže byť vyjadrený v tvare in i = N j=1 w i,j ou j + θ i (2.3) kde w i,j sú synaptické váhy, ou j sú výstupy z neurónov, s ktorými je prepojený, θ i je prah neurónu i. Rovnica ( 2.3) môže byť prepísaná v tvare in i = N j=0 w i,j ou j (2.4) kde w i,0 = θ i a ou 0 = 1 alebo 1. Prah je vlastne vstup do neurónu z vonkajšieho sveta, teda nie z iných neurónov. To znamená, že v prípade, ak nie sú žiadne vstupy do vyšetrovaného neurónu i z ostatných neurónov j = 1,..., N, potom vstupom do neurónu je iba prah θ i. Neuróny, ktoré majú takýto vstup nazývame tiež sigma neuróny. aktivačná funkcia neurónu Už v tomto momente sa musíme začať pozerať na NN ako na dynamický systém, teda systém závislý na čase. Môžeme hovoriť o stave neurónu v čase t resp. v čase t + 1. Aktivačná funkcia neurónu je funkciou vstupu do neurónu in i (t). Teda stav neurónu i je definovaný premennou x i v tvare

26 16 P.Sinčák, G.Andrejková x i = f(in i ) (2.5) Funkciu f () budeme nazývať aktivačnou funkciou neurónu. Sú známe aktivačné funkcie rôznych tvarov. Uvedieme prehľad tých najdôležitejších. Pôjde o aktivačné funkcie závislé iba na vstupe. 1. Lineárna funkcia 2. Funkcia signum x i = f(in i ) = in i (2.6) x i = f(in i ) = { 1 ak ini 0 0 ak in i < 0 (2.7) Neuróny s takouto aktivačnou funkciu sa nazývajú tiež McCulloch-Pittsove neuróny. Tvar tejto funkcie je zobrazený na obr. 2.3 x in Obr. 2.3: Príklady aktivačnej funkcie neurónu

27 Neurónové siete Po častiach lineárna funkcia Táto funkcia má tvar x i = f(in i ) = in i 1 ak in i 1 2 ak in i je ( 1 2, 1 2 ) 0 ak in i Sigmoidálna funkcia, ktorá má tvar x i = f(in i ) = e αin i (2.8) (2.9) kde α je parameter strmosti sigmoidy. Táto funkcia je dosť bežná a pri štúdiu sa s ňou často stretneme. Existuje ešte množstvo ďalších aktivačných funkcií. x in Obr. 2.4: Aktivačné funkcie neurónu výstupná funkcia neurónu je taktiež dôležitou súčasťou neurónu ako procesnej jednotky. Vo všeobecnosti teda má tvar ou i = f(x i ) (2.10)

28 18 P.Sinčák, G.Andrejková Veľmi často je funkcia f identickou všetky i. Z toho vyplýva, že funkciou, tj. ou i = x i, pre ou i = O(x i ) = x i = f(in i ) (2.11) Napriek tomu je nutné rozlíšovať funkciu f(in i ) od funkcie O(x i ), a pri štúdiu NN počítať aj s možnosťou neindentickej výstupnej funkcie Synaptické spojenia a váhy. Prepojenia medzi neurónmi patria medzi dôležité časti NN. Na týchto orienovaných prepojeniach uvažujeme aj tzv. synaptické váhy. Váhy ovplyvňujú celú sieť tým, že ovplyvňujú vstupy do neurónov a tým aj ich stavy. Vo všeobecnosti ich rozdeľujeme na : kladné, teda excitačné záporné, teda inhibičné Synaptické váhy medzi neurónmi i, j označujeme w i,j. Najdôležitejším momentom pri činnosti NN je práve zmena váh w i,j. 2.3 Topológia NN a spôsoby šírenia signálu Vo všeobecnosti by neurónová sieť mohla mať štruktúru popísateľnú ľubovoľným orientovaným grafom pomocou vrcholov (neuróny) a orientovaných hrán (prepojenia). Vlastnosti takýchto všeobecných sietí sa ťažko analyzujú, preto sú študované a analyzované najprv siete s nejakými pravidelnými štruktúrami. Jednou z pravidelných a pomerne dosť preskúmaných štruktúr je viacvrstvová štruktúra, ktorá je na obr V takých NN sú vrstvy pomenované. Rozlíšujeme nasledujúce vrstvy NN vstupnú vrstvu, v ktorej neuróny dostávajú vstup len z vonkajšieho sveta a výstup obvykle pokračuje k ďalším neurónom NN skrytú vrstvu (hidden layer), v ktorej neuróny dostávajú vstup z ostatných neurónov alebo aj z externého sveta cez prahové prepojenia a ich výstupy pokračujú ďalej do NN

29 Neurónové siete 19 Obr. 2.5: Štruktúra doprednej NN výstupná je podobná ako skrytá vrstva, akurát je obvyklé, že výstup z tejto vrstvy vyusťuje do externého sveta. V náväznosti na túto situáciu rozpoznávame aj samotné neuróny ako vstupné, skryté, a výstupné. Pri návrhu NN vo všeobecnosti rozdeľujeme topológiu NN dvoch základných skupín: dopredné NN (feed-forward FF NN) - pri týchto sa signál šíri po orientovaných synaptických prepojeniach len jedným smerom a to dopredu - viď obr rekurentné NN ( recurrent RC NN) - pri rekurentných sieťach je dosť ťažké rozdelenie vrstiev a neurónov na vstupné, resp. výstupné. Niekedy neuróny v rekurentných sieťach predstavujú vstupné ale aj výstupné typy neurónov a tým aj vrstiev ( viď obrázok 2.6.). Špecialným prípadom sú tzv. čiastočne rekurentné NN, v ktorých je stanovená určitá požiadavka na štruktúru a na prepojenia. Napr. vrstvové čiastočne rekurentné siete pripušťajú šírenie signálu oboma smermi. Šírenie signálu v rámci NN môže byť veľmi rozmanité. Uvedieme niektoré z nich:

30 20 P.Sinčák, G.Andrejková Obr. 2.6: Štruktúra RC NN synchrónne šírenie signálu - všetky neuróny menia svoj stav do taktu (prostredníctvom synchronizačných hodín) sekvenčné - neuróny menia svoj stav postupne pri šírení signálu blok-sekvenčné - aktivizujú sa len skupiny neurónov, podľa vopred určenej stratégie asynchrónne - neuróny menia svoje stavy asynchrónne, teda úplne nezávisle jeden od druhého Pri pozornom premýšlaní o tom, čo sa môže diať v týchto NN a pri rôzmanitých spôsoboch šírenia signálov nutne musíme priznať zložitosť problematiky chovania sa NN. 2.4 Perceptrón najjednoduchšia neurónová sieť V tejto časti budeme prezentovať najjednoduchšiu neuronovú sieť, ktorá predstavuje základ pre komplikovanejšie dopredné siete.

31 Neurónové siete Čo je to perceptrón? Perceptrón bol navrhnutý Rosenblattom [16] a je určený na dichotomickú klasifikáciu, tj. rozdelenie do dvoch tried, pri ktorých sa predpokladá, že triedy sú lineárne separovateľné v príkladovom priestore. Nech je daná množina vektorov X = {x j },j = 1,..., k,..., v n- rozmernom priestore. O každom z týchto vektorov vieme, že určite patrí do triedy CL1 alebo CL2. Pod lineárnou separovateľnosťou dvoch tried rozumieme situáciu, keď existuje možnosť oddeliť objekty v príkladovom priestore pomocou nadroviny napr: priamka v 2-rozmernom alebo rovina v 3-rozmernom priestore. Príklad lineárnej separovateľnosti v rovine je na obr. 2.7 x 1 Obr. 2.7: Lineárna separovateľnosť tried v príkladovom priestore x 2

32 22 P.Sinčák, G.Andrejková Topológia perceptrónu Označme perceptrón, ktorý bol navrhnutý Rosenblattom ako jednoduchý perceptrón so svojím učiacim algoritmom (ďalej JPR ). Má tri vrstvy a to : senzorová vrstva asociatívna vrstva výstupný neurón w 1 w 2 w 3 w n -1 w = 0 0 Obr. 2.8: Topológia perceptrónu navrhnutého Rosenblattom Asociatívne neuróny boli určené na stanovenie príznakov vhodných na klasifikáciu a v literatúre sa niekedy nazývajú aj φ funkcie. Podľa charakteru tejto funkcie v podstate môžeme zatriediť JPR do rôznych skupín NN. Spojenie medzi senzorovou vrstvou a asociatívnou má pevné váhy, teda sa na procese učenia nezúčastňuje. Spojenie medzi asociatívnou vrstvou a výstupným neurónom je prepojené synapsiami s premenlivými SV. Teda vstup do výstupného neurónu bol daný rovnicou

33 Neurónové siete 23 in(t) = n w j (t)x j (t) θ (2.12) j=1 kde n je počet neurónov v asociatívnej vrstve, w j (t) sú váhy medzi asociatívnou vrstvou a výstupným neurónom, kde neurón j je v asociatívnej vrstve a na vstupe je k-ty prvok množiny X, x j (t) je stav j -teho neurónu a θ je prah. Výstup prechádza prahovaním v zmysle konečného výstupu ou(t) = { 1 ak in(t) 0 0 ak in(t) < 0 (2.13) Je nutné poznamenať opätovne fakt, že JPR bol navrhnutý za cieľom klasifikácie do dvoch tried CL1 a CL2. V prípade elementárneho PR je separujúca nadrovina daná rovnicou n w j (t)x j (t) θ = 0 (2.14) j=1 Z praktického hľadiska označme vektor w(t) = (w 0 (t), w 1 (t), w 2 (t),..., w n (t)), vektor x(t) = (x 0 (t), x 1 (t), x 2 (t),..., x n (t)) kde n je rozmer vektorov, teda počet neurónov v asociatívnej vrstve. Je potrebné poznamenať, že stále je w 0 (t) = θ a x 0 (t) = 1. Taktiež v matematických operáciách budeme pre prehľadnosť vynechávať označenie transponovania. Teda na vstup do JPR ponúkame vstupy x(t) a k nemu korešpondujúce výstupy na výstup JPR ev(t). To všetko realizujeme opakovane po určitý konečný počet krokov Algoritmus učenia perceptróna Najprv ukážeme algoritmus procesu učenia - teda hľadania vhodných synaptických váh, a potom pre tento algoritmus dokážeme vetu o konvergencii perceptrónu, tj. dokážeme, že po konečnom počte krokov JPR sa dostane do stavu, v ktorom obidve triedy vie separovať.

34 24 P.Sinčák, G.Andrejková Postup učenia JPR bude teda nasledovný: Prepokladajme, že (x(1), d 1 ), (x(2), d 2,..., (x(m), d m ) je trénujúca vzorka vektorov, na ktorej sa bude perceptrón učiť, x(t) R n, d t = 1, ak x(t) CL1, d t = 1, ak x(t) CL2. inicializácia váh ak vstupný vektor x(t) je správne klasifikovaný pomocou w(t) potom nenastáva zmena váh pre ďalší vstup w(t + 1), teda 1. ak w(t)x(t) 0 a x(t) skutočne patrí do CL1, tj. d t = 1 (podľa ev(t)), potom w(t + 1) = w(t) (2.15) 2. ak w(t)x(t) < 0 a x(t) skutočne patrí do CL2, tj. d t = 1 (podľa ev(t)), tak taká istá rovnica platí ako ( 2.15) ak vstupný vektor x(t) je nesprávne klasifikovaný pomocou w(t) potom nastáva zmena váh w(t + 1), teda 1. ak w(t)x(t) 0 a x(t) skutočne patrí do CL2 (podľa ev(t)) potom w(t + 1) = w(t) γ x(t) (2.16) 2. ak w(t)x(t) < 0 a x(t) skutočne patrí do CL1 (podľa ev(t)), tak potom w(t + 1) = w(t) + γ x(t) (2.17) kde γ je učiaci parameter a môže predstavovať ľubovoľnú kladnú premennú, ktorá je po dobu učenia konštantná alebo sa môže aj meniť teda γ γ(t). Vyššie uvedená rovnica môže byť zapísaná v tvare w(t + 1) = w(t) + γ (d t ou(t))x(t)/2, t = 1, 2,... (2.18)

35 Neurónové siete 25 Ak položíme γ nasledovne: = 0.5 postup učenia môže byť stručne zapísaný w(0) = 0 (2.19) w(t + 1) = w(t) + z(t), ak z(t)w(t) 0 (2.20) w(t + 1) = w(t), inak (2.21) kde z(t) = +x(t), ak d t = +1, z(t) = x(t), ak d t = 1. Teda úprava váh sa vykonáva len vtedy, keď z(t)w(t) 0, čo reprezentuje oba prípady výskytu chyby Veta o konvergencii perceptrónu Predpokladajme, že separujúca nadrovina existuje, tj. triedy sú separovateľné. Cieľom tejto časti je dokázať, že JPR po konečnom počte krokov, tj. ak dostane k rôznych vstupov 3 z množiny X n, k < S, kde S je konečné prirodzené číslo, dosiahne stabilný stav, tj. už bude vedieť klasifikovať hocijaký vstup z množiny X správne, t.j. váhy JPR sa nebudú meniť. Výsledkom dôkazu bude tiež horný odhad pre počet krokov k. Pre jednoduchosť celý dôkaz realizujeme vo vektorovom tvare. Predpokladajme, že rovnica hľadanej nadroviny bola nájdená, tj. bol nájdený vektor váh v, ktorý je riešením. To znamená, že už nedôjde k zmene váh, tj. platí vx(t) > 0 pre t = 1, 2,... Predpokladajme, že nastáva situácia, že v t-tom kroku je nesprávna klasifikácia teda prípad ( 2.20), tj. w(t + 1) = w(t) + z(t) (2.22) čo je možné upraviť odčítaním výrazu φv od obidvoch strán rovnice, teda w(t + 1) φv = w(t) φv + z(t) (2.23) kde φ je kladná konštanta. Pre výpočet normy vektora na pravej strane platí w(t + 1) φv 2 = w(t) φv 2 + 2z(t)(w(t) φv) + z(t) 2 (2.24) 3 k - omylov

36 26 P.Sinčák, G.Andrejková Pretože z(t) je klasifikované nesprávne, platí z(t)w(t) 0, a teda w(t + 1) φv 2 w(t) φv 2 2φvz(t) + z(t) 2 (2.25) Zaveďme nasledujúce označenie α = min j=0,...,k (vz(j)) (2.26) α je zrejme kladné číslo, pretože z(t)v > 0. Nech β = max i z(i) (2.27) Nerovnosť ( 2.25) je možné upraviť nasledujúcim spôsobom w(t + 1) φv 2 w(t) φv 2 2φα + β 2 (2.28) Ak vyberieme φ dostatočne veľké, napríklad φ = β 2 /α, dostaneme w(t + 1) φv 2 w(t) φv 2 β 2 (2.29) Teda druhá mocnina vzdialenosti medzi w(t) a φv je redukovaná aspoň o β 2 pri každej úprave. Po k úpravách potom dostávame nerovnosti 0 w(t + 1) φv 2 w(0) φv 2 kβ 2 (2.30) Z toho vyplýva, že postupnosť úprav musí skončiť najviac po konečnom počte k 0 krokov, kde k 0 = w(0) φv 2 /β 2 (2.31) Veľkosť k 0 je závislá od α a β, pri vypočte ktorých sa vyskytne znovu hodnota k 0. Ak sú však známe odhady α a β, potom k 0 je možné určiť hneď. Teda ak riešenie existuje, je dosiahnuteľné po konečnom počte krokov. Predpokladajme znovu, že počiatočné nastavenie váh je nulové. Tým predchádzajúcu rovnicu zjednodušíme k 0 = φ 2 v 2 /β 2 (2.32) Na základe (2.32) sme dokázali, že k existuje a je to konečné číslo, a tým môžeme vysloviť nasledovné tvrdenie : Majme trénovaciu množinu vektorov X, ktoré môžu patriť len do dvoch rôznych tried CL1 a CL2, ktoré sú lineárne separovateľné. Perceptrón po realizovaní k 0 omylov sa určite dostane do stavu, keď nebude meniť svoje SV, kedy konverguje. To znamená, že bude spoľahlivo klasifikovať vektory do príslušných tried.

37 Neurónové siete 27 x 1 x 2 výstup Tabuľka 2.1: XOR binárna funkcia XOR-problém, skrytá vrstva NN V prípade JPR sme predpokladali, že na vstup budú vstupovať príznaky objektov, ktoré sú v príznakovom priestore lineárne separovateľné. V prípade, že táto podmienka nie je splnená, JPR je nie schopný spoľahlivo realizovať svoju dichotomickú klasifikáciu. Príkladom nelineárne separovateľnej funkcie je funkcia XOR. Klasickým JPR nevieme zabezpečiť separáciu výsledkov tejto funkcie v žiadnom prípade, čo je zrejme z obr Je potrebné poznamenať, že stále uvažujeme o jednoduchej aktivačnej funkcii napr. typu signum. V prípade iných aktivačných funkcii by sme vedeli XOR problém riešiť. Cieľom je však to, aby sme vedeli aj pri jednoduchších funkciách riešiť klasifikačné úlohy. Východiskom je práve zavedenie skrytej vrstvy, ktorá pomôže tento problém riešiť. Zapojenie tejto skrytej vrstvy znamená použitie viacnásobnej lineárnej separácie (na výstup prvej vrstvy je znovu použitá lineárna separácia), kde je možné už tieto objekty lineárne odseparovať. Teda objekty, ktoré v 2-rozmernom priestore nie sú lineárne separovateľné sa dajú separovať zavedením ďalšej vrstvy neurónov. Na obrázku sú znázornené 2 rôzne topológie NN, ktoré vedia riešiť XORproblém. Je potrebné si uvedomiť, že tu ide o aproximáciu binárnej funkcie uvedenej v tabuľke a grafe. Poznámka: Záverom tejto celej kapitoly je potrebné upozorniť na terminologickú zameniteľnosť medzi metódou učenia JPR a topológiou typu perceptrón. Siete s rovnakou topológiou môžu mať rôzne algoritmy učenia.

38 28 P.Sinčák, G.Andrejková x 1 1,0 1,1 0,0 0,1 x 2 Obr. 2.9: Grafické znazornenie funkcie XOR Napr. Adaline a JPR majú rovnakú topológiu, ale odlišnú metódu učenia ako aj celkové zameranie NN. Pod topológiou perceptrón rozumieme FF NN resp. pod viacvrstvovým perceptrónom viacvrstvové FF NN. Teda na topológii typu perceptrón môže byť relizované principiálne kontrolované učenie rôzneho druhu.

39 Neurónové siete , ,5 1, ,5-1 0,5 Obr. 2.10: Dve možné riešenia funkcie XOR pomocou skrytej vrtsvy

40 30

41 Učenie a jeho paradigmy 3 Vo všeobecnosti rozdeľujeme prístupy k učeniu do dvoch veľkých skupín: kontrolované učenie - supervised learning (učenie s učiteľom), ktoré sa ďalej rozdeľuje do dvoch podskupín a to do štrukturálne učenie - tu rozoznávame dve skupiny metód a to : autoasociačné - na prvý pohľad je nelogické, aby sme na vstup do NN dávali vzorku α a na výstup tú istú vzorku α. Teda NN sa musí tak adaptovať, aby to čo je na vstupe, bolo aj na výstupe. Takéto NN majú význam napr. pri simulácii pamäte apod. heteroasociačné - tieto vlastne učia NN, že ku vstupu α patrí výstup β. Teda NN sa naučí rozpoznávať vstupy a zatrieďovať ich, ako jej to povedal učiteľ. temporálne učenie - je v podstate heteroasociatívne učenie, ale na vstup musí prísť za čas t > 0 sekvencia vstupov a až tejto sekvencii ako celku je priradený jeden výstup. Napr. iba sekvencia ťahov šachu v čase znamená výhru, alebo iba určitý časový vývoj ekonomických a iných parametrov môže znamenať vzrast ceny akcií na burze a pod. nekontrolované učenie - unsupervised learning (učenie bez učiteľa). 31

42 32 P.Sinčák, G.Andrejková 3.1 Paradigmy kontrolovaného učenia Filozofia kotrolovaného učenia (teda spôsob zmeny SV) je ovplyvnený prítomnosťou učiteľa v celom procese učenia. Prakticky to znamená, že NN musíme ponúknuť v procese učenia vstup do NN k vstupu prislúchajúci výstup NN. Teda prístupy ku zmene SV (učeniu) môžeme v prípade kontrolovaného učenia koncepčne rozdeliť do 3 skupín: učenie za základe opravy chyby (error correction learning) stochastické učenie (stochastic learning) (reinforcement lear- učenie na základe hodnotenia činnosti 1 ning) Poznámky k jednotlivým typom : 1. Učenie na základe korekcie chyby Tento prístup predpokladá zmenu SV ako funciu premenej e i, kde e i predstavuje rozdiel medzi očakávaným stavom neurónu i (ev i ) a vypočítaným stavom neurónu i (x i ) v procese učenia. Teda e i = ev i x i (3.1) Potom môžeme napísať všeobecný vzorec pre výpočet zmeny SV pre spojenie medzi výstupným neurónom i a do neho vstupujúcim neurónom j v tvare w ij = γ x j e i (3.2) kde γ je parameter učenia, zvyčajne v intervale hodnôt (0, 1 >, x j je stav neurónu j. V prípade viacvrstvovej siete sa pri výpočte jednotlivých zmien váh použije rekurentný vzorec pre zmenu váh, ktorý sa odvíja od výstupu NN a smeruje späť do NN (viď BPalgoritmus). 1 veľmi voľný preklad

43 Neurónové siete Stochastické učenie Pri stochastickom type učenia ide o zmeny SV založené na stochastických prístupoch. Globálna stratégia je založená na nasledovných krokoch: navrhne sa stochastická zmena SV a vypočíta sa energia NN. ak zmena priniesla zníženie energie NN, návrh zmeny sa príjme ak zmena nepriniesla spomínaný efekt návrh sa zamietne Príkladom takýchto NN je Boltzmanov stroj a jeho modifikácie. 3. Učenie na základe hodnotenia činnosti Tento charakter učenia je podobný ako v prípade učenia podľa korekcie chyby,ale základným rozdielom je, že sa zhodnocuje stav výstupu celej výstupnej vrstvy pomocou nejakej skalárnej veličiny. Potom môžeme napísať všeobecný tvar rovnice učenia: w ij = γ (r θ i ) e ij (3.3) kde r je skalárna hodnota úspešnosti celej NN odvodená z výstupnej vrstvy NN, θ i je prahový koeficient úpravy pre neurón i a e ij je koeficient rozhodnutia a predstavuje zmenu pravdepodobnosti minimálnej chyby podľa synaptickej váhy, ktorý sa vo všeobecnosti vypočíta e ij = ln g i w ij (3.4) kde teda g i je pravdepodobnosť, že očakávaný výstup sa bude rovnať vypočítavanému výstupu ev ij (teda minimálnej chybe), teda g i = P (x i = ev i W i, Λ) (3.5) kde ev i je očakávaná hodnota výstupného neurónu i, x i je výpočítaná hodnota neurónu, W i je vektor SV, ktoré vstupujú do

44 34 P.Sinčák, G.Andrejková neurónu i a Λ je vektor hodnôt aktivačných stavov neurónov, ktorých SV vstupujú do neurónu i. Záverom ku kontrolovanému učeniu je nutné počiarknuť, že existujú metódy učenia, ktoré predstavujú hybridný prístup zostavený z horeuvedených prístupov. 3.2 Paradigmy nekontrolovaného učenia Pri tomto type učenia ide o spracovanie vstupu do NN na základe určitých zákonitosti. Prakticky to znamená, že NN môžeme počas učenia ponúknuť (iba) vstup do NN. NN potom sama spracuje a určuje výstup.z toho dôvodu nazývame siete, ktoré používajú takúto metódu učenia tzv. samo-organizujúce sa siete (self-organising NN). Otázka ukončenia učenia je založená na nájdení GS NN. Teda NN sa prestane učiť, ak zmena SV v čase t a v čase t + 1 budú dostatočne malé, t.j. pre matice váh W platí W (t) W (t + 1) ɛ (3.6) kde ɛ je dostatočne malá hodnota. NN s nekontrolovaným učením ukončuje svoju činnosť, ak sa dostane do GS. Tu môžeme hovoriť o GS a nie o konvergencii NN, lebo nevieme, aký bude výstup z NN. Vo všeobecnosti rozdeľujeme metódy nekontrolovaného učenia do dvoch základných typov: Hebbovo učenie (Hebbian learning) Kooperačné a konkurenčné učenie (Cooperative and competitive learning) Poznámky k jednotlivým typom učenia : 1. Hebbovo učenie predstavuje prístup, ktorý prvýkrát spomenul dr.hebb vo svoje knihe Organizácia správania. Tieto myšlienky boli v ďalšom rozpracované do podoby dvoch nasledovných zásad: ak 2 neuróny na opačných stranách synapsie sú aktivované naraz (synchrónne), potom SV synapsie sa zvýši.

45 Neurónové siete 35 ak 2 neuróny na opačných stranách synapsie sa aktivizujú v rôzných časoch (asynchrónne), potom SV synapsie sa zníži alebo 0. Takéto synapsie NN, ktoré splňujú spomenuté zásady nazývame Hebbove synapsie. Globálne potom môžeme Hebbove synapsie charakterizovať 3 nasledovnými mechanizmami: mechanizmus závislý na čase - stav SV je závislý na stave pred a postsynaptických neurónov, ktoré sú závislé na čase, mechanizmus lokálnej definície - stav synapsie má priestorovočasový charakter. Synapsie a SV sú nositeľmi informácie a zdrojom ďalšej lokálnej zmeny. Preto NN s Hebbovými synapsiami sú schopné nekontrolovaného učenia, mechanizmus interakcie a korelácie - spôsob zmeny SV zaručuje interakciu medzi pred- a postsynaptickými neurónmi. Tak isto je zaručený korelačný vzťah medzi spomínanými neurónmi, práve zaručením vlastností Hebbových synapsii. Matematicky môžeme vyjadriť zmenu SV Hebbových synapsii pre dvojicu neurónov k a i ( k vstupuje do i ) nasledovne : resp. w ki (t) = funkcia(x k (t), x i (t)) (3.7) w ki (t) = γ x k (t) x i (t) (3.8) Pri takýchto prípadoch je možná saturácia, ale tieto problémy sa riešia modifikáciou uvedených prístupov. K záveru informatívneho popisu Hebbovho učenia je treba naznačiť, že v závislosti s horeuvedenými zásadami rozdeľujeme synapsie do troch skupín a to Hebbove synapsie nie-hebbove synapsie

46 36 P.Sinčák, G.Andrejková inverzné Hebbove synapsie 2. Kooperačné a konkurečné učenie Majme NN s M-neurónmi, ktoré majú stavy x i, i = 1,..., M. Ak sledujeme NN z hľadiska dynamiky potom označme d x i d t = V i (X) (3.9) kde X = (x 1, x 2,..., x M ) je vektor aktivačných hodnôt neurónov v celej NN. V i teda predstavuje zmenu aktivácie neurónu za jednotku času. Ako k tejto zmene prispel iný neurón, môžeme vyšetriť, ak uvažujeme V i x j = { 0 j i konkurenn uenie 0 j i kooperan uenie (3.10) Pre konkurenčné učenie platí tzv. zákon kto vyhrá berie všetko 2 a môžeme ho zhrnúť do nasledovných krokov: vstup prichádza do NN signály prechádzajú do nasledujúcej vrstvy neurón s najvyššou hodnotou sa stáva víťazom a je nastavený na 1 a ostatné neuróny sú nastavené na 0. Následne sa upravia iba tie SV, ktoré smerujú k víťaznému neurónu i napr : w ki = w ki + ( w ki + ou h ) (3.11) kde ou k,i sú stavy príslušných neurónov pri existencii nelineárnych aktivačných funkcií (resp. ich výstupy). Konkurenčné metódy učenia sa vhodne využívajú pre zámery zhlukovania vstupných dát. 2 winner takes all

47 Neurónové siete Význam inicializácie pri učení NN Vo veľkom množstve metód učenia je prvým krokom inicializácia SV NN na náhodné hodnoty. Tomuto kroku je potrebné klásť príslušnú dôležitosť vzľadom na veľký vplyv na samotný proces učenia. Je potrebné si uvedomiť, že v priebehu učenia sa spočítavajú zmeny SV NN a tie sa potom využijú, a to pri prvom výpočte novej hodnoty v iterácii (1): w(1) = w(0) + w(0) (3.12) kde w(t) je SV, ktorá vznikla inicializáciou NN. Vo väčšine prípadov sa inicializuje náhodnými číslami z intervalu napr. ( 1, 1). 3.4 Globálna stabilita a konvergencia NN V predchádzajúcich častiach už bola NN pripomenutá ako dynamický systém, ktorý adekvátne k tomu je potrebné aj spravovať. Vyšetrovanie globálnej stability a konvergencia NN sú dve rôzne veci pre vyšetrovaný dynamický systém. Je treba poznamenať, že ambície vyšetrovania NN sú určené pre ľudí, ktorí navrhujú nové NN a nové metódy učenia. Preto bude táto oblasť spomenutá iba okrajovo. V teórii NN sa jej venuje časť zvaná Neurodynamika. V nej sa používajú prostriedky stavového, resp. fázového priestoru pre vyšetrovanie stability systému Globálna stabilita NN V rámci globálnej stability (ďalej GS) NN, ako nelinárneho dynamického systému uvažujeme dva prípady: GS NN počas procesu učenia 3 GS NN mimo procesu učenia Všeobecne pod GS NN rozumieme stav, kedy neuróny NN zotrvávajú v nejakom stave 4. Ak si predstavíme NN,ktorá má M neurónov, ktoré majú stavy x i i = 1,..., M, potom pod globálnou stabilitou rozumieme vo všeobecnosti stav 3 proces učenia je charakteristický zmenou váh NN v čase 4 nemusí to byť taký stav, aký my chceme

48 38 P.Sinčák, G.Andrejková dx i dt 0 pre i = 1,..., M (3.13) Na vyšetrovanie GS NN by bolo vhodné mať funkciu, ktorá stavy týchto M neurónov vyjadrí integrálne nejakou skalárnou formou. Vo všeobecnosti na popis GS je dobrá funkcia, ktorá tranformuje M-rozmerný priestor stavou do jedného skalárneho čísla. Teda R M R 1 (3.14) V teórii NN sa popisuje základná tzv. priama metóda Ljapunova popisujúca GS NN. Majme teda NN s M neurónmi, ktoré majú stavy x(t) = (x 1 (t),..., x M (t)). Nech sú splnené nasledovné požiadavky: 1. ak X = x(t). ṭ a platí, že X = 0, ak všetky x i = 0 = G(x(t)) 2. X je holomorfná, t.j. existujú prvé defivácie podľa x i 3. i = 1,...,M x i (t) H pre t t 0, teda po nejakom čase ( t 0 ), bude suma stavov x i (t) menšia ako konštanta H. 4. ak vieme zostrojiť funkciu L( X ) pre ktorú platí, že i=1,...,m L x i 0 (3.15) pre všetky x i potom funckia L sa nazýva Ljapunovova funkcia energie NN, popisuje GS NN a pre stabilné NN L 0. Táto funkcia skutočne realizuje tranformáciu stavov neurónov NN pomocou skalárnych hodnôt. Uvedená metóda vyšetrovania stability je pre popis NN základnou a od nej sa odvádzajú ďalšie metódy popisujúce jednotlivé typy NN ( Cohen-Grossbergova resp. Cohen-Grossberg-Koskova teoréma).

49 Neurónové siete 39 Pre FF NN má význam hovoriť o GS NN len v procese učenia. V procese mimo učenia 5 tam principiálne nemôže dôsť k nestabilite NN. Pri RC NN však má význam hovoriť o stabilite pri učení ako aj mimo neho, vzhľadom na existenciu rekurentných prepojení. Teda, ak je RC NN počas učenia stabilná, teoreticky mimo učenia môže na vstup NN prísť nejaký vstup, ktorý NN urobí nestabilnou 6. Záverom tejto časti je treba podčiarknuť dôležitosť neurodynamiky hlavne v prípade vývoja nových učiacich metód. Už navrhnuté metódy učenia NN sa vyznačujú GS. Tabuľka prezentuje význam vyšetrovania GS pri rôznych topológiach NN (kvôli prehľadnosti). FF NN RC NN fáza učenia áno áno fáza života nie áno Konvergencia NN Pojem konvergencia NN je spojený iba s fázou učenia NN. Naviac o konvergencii NN môžeme hovoriť iba pri kontrolovanom učení, teda vtedy, keď vieme presne aký výstup z NN očakávame. Ide teda o GS NN ale do nami definovaného stavu. Z toho vyplýva,že konvergenciu môžeme definovať ako existenciu takého čísla n 0, kedy x n i x ɛ (3.16) pre všetky n n 0, kde x n i je n-tý stav neurónu i, x je očakávaný stav tohoto neurónu a ɛ je tolerančná odchýlka. Vo väčšine prípadov nás zaujíma konvergencia výstupných neurónov NN. 5 váhy NN sa nemenia 6 mimo učenia, cez rekurentné synaptické prepojenia

Matematika Funkcia viac premenných, Parciálne derivácie

Matematika Funkcia viac premenných, Parciálne derivácie Matematika 2-01 Funkcia viac premenných, Parciálne derivácie Euklidovská metrika na množine R n všetkých usporiadaných n-íc reálnych čísel je reálna funkcia ρ: R n R n R definovaná nasledovne: Ak X = x

Διαβάστε περισσότερα

Matematika prednáška 4 Postupnosti a rady 4.5 Funkcionálne rady - mocninové rady - Taylorov rad, MacLaurinov rad

Matematika prednáška 4 Postupnosti a rady 4.5 Funkcionálne rady - mocninové rady - Taylorov rad, MacLaurinov rad Matematika 3-13. prednáška 4 Postupnosti a rady 4.5 Funkcionálne rady - mocninové rady - Taylorov rad, MacLaurinov rad Erika Škrabul áková F BERG, TU Košice 15. 12. 2015 Erika Škrabul áková (TUKE) Taylorov

Διαβάστε περισσότερα

Goniometrické rovnice a nerovnice. Základné goniometrické rovnice

Goniometrické rovnice a nerovnice. Základné goniometrické rovnice Goniometrické rovnice a nerovnice Definícia: Rovnice (nerovnice) obsahujúce neznámu x alebo výrazy s neznámou x ako argumenty jednej alebo niekoľkých goniometrických funkcií nazývame goniometrickými rovnicami

Διαβάστε περισσότερα

7. FUNKCIE POJEM FUNKCIE

7. FUNKCIE POJEM FUNKCIE 7. FUNKCIE POJEM FUNKCIE Funkcia f reálnej premennej je : - každé zobrazenie f v množine všetkých reálnych čísel; - množina f všetkých usporiadaných dvojíc[,y] R R pre ktorú platí: ku každému R eistuje

Διαβάστε περισσότερα

Start. Vstup r. O = 2*π*r S = π*r*r. Vystup O, S. Stop. Start. Vstup P, C V = P*C*1,19. Vystup V. Stop

Start. Vstup r. O = 2*π*r S = π*r*r. Vystup O, S. Stop. Start. Vstup P, C V = P*C*1,19. Vystup V. Stop 1) Vytvorte algoritmus (vývojový diagram) na výpočet obvodu kruhu. O=2xπxr ; S=πxrxr Vstup r O = 2*π*r S = π*r*r Vystup O, S 2) Vytvorte algoritmus (vývojový diagram) na výpočet celkovej ceny výrobku s

Διαβάστε περισσότερα

1. Limita, spojitost a diferenciálny počet funkcie jednej premennej

1. Limita, spojitost a diferenciálny počet funkcie jednej premennej . Limita, spojitost a diferenciálny počet funkcie jednej premennej Definícia.: Hromadný bod a R množiny A R: v každom jeho okolí leží aspoň jeden bod z množiny A, ktorý je rôzny od bodu a Zadanie množiny

Διαβάστε περισσότερα

Ekvačná a kvantifikačná logika

Ekvačná a kvantifikačná logika a kvantifikačná 3. prednáška (6. 10. 004) Prehľad 1 1 (dokončenie) ekvačných tabliel Formula A je ekvačne dokázateľná z množiny axióm T (T i A) práve vtedy, keď existuje uzavreté tablo pre cieľ A ekvačných

Διαβάστε περισσότερα

ARMA modely čast 2: moving average modely (MA)

ARMA modely čast 2: moving average modely (MA) ARMA modely čast 2: moving average modely (MA) Beáta Stehlíková Časové rady, FMFI UK, 2014/2015 ARMA modely časť 2: moving average modely(ma) p.1/24 V. Moving average proces prvého rádu - MA(1) ARMA modely

Διαβάστε περισσότερα

ARMA modely čast 2: moving average modely (MA)

ARMA modely čast 2: moving average modely (MA) ARMA modely čast 2: moving average modely (MA) Beáta Stehlíková Časové rady, FMFI UK, 2011/2012 ARMA modely časť 2: moving average modely(ma) p.1/25 V. Moving average proces prvého rádu - MA(1) ARMA modely

Διαβάστε περισσότερα

Motivácia Denícia determinantu Výpo et determinantov Determinant sú inu matíc Vyuºitie determinantov. Determinanty. 14. decembra 2010.

Motivácia Denícia determinantu Výpo et determinantov Determinant sú inu matíc Vyuºitie determinantov. Determinanty. 14. decembra 2010. 14. decembra 2010 Rie²enie sústav Plocha rovnobeºníka Objem rovnobeºnostena Rie²enie sústav Príklad a 11 x 1 + a 12 x 2 = c 1 a 21 x 1 + a 22 x 2 = c 2 Dostaneme: x 1 = c 1a 22 c 2 a 12 a 11 a 22 a 12

Διαβάστε περισσότερα

Cvičenie č. 4,5 Limita funkcie

Cvičenie č. 4,5 Limita funkcie Cvičenie č. 4,5 Limita funkcie Definícia ity Limita funkcie (vlastná vo vlastnom bode) Nech funkcia f je definovaná na nejakom okolí U( ) bodu. Hovoríme, že funkcia f má v bode itu rovnú A, ak ( ε > )(

Διαβάστε περισσότερα

M6: Model Hydraulický systém dvoch zásobníkov kvapaliny s interakciou

M6: Model Hydraulický systém dvoch zásobníkov kvapaliny s interakciou M6: Model Hydraulický ytém dvoch záobníkov kvapaliny interakciou Úlohy:. Zotavte matematický popi modelu Hydraulický ytém. Vytvorte imulačný model v jazyku: a. Matlab b. imulink 3. Linearizujte nelineárny

Διαβάστε περισσότερα

6 Limita funkcie. 6.1 Myšlienka limity, interval bez bodu

6 Limita funkcie. 6.1 Myšlienka limity, interval bez bodu 6 Limita funkcie 6 Myšlienka ity, interval bez bodu Intuitívna myšlienka ity je prirodzená, ale definovať presne pojem ity je značne obtiažne Nech f je funkcia a nech a je reálne číslo Čo znamená zápis

Διαβάστε περισσότερα

Vektorový priestor V : Množina prvkov (vektory), na ktorej je definované ich sčítanie a ich

Vektorový priestor V : Množina prvkov (vektory), na ktorej je definované ich sčítanie a ich Tuesday 15 th January, 2013, 19:53 Základy tenzorového počtu M.Gintner Vektorový priestor V : Množina prvkov (vektory), na ktorej je definované ich sčítanie a ich násobenie reálnym číslom tak, že platí:

Διαβάστε περισσότερα

Tomáš Madaras Prvočísla

Tomáš Madaras Prvočísla Prvočísla Tomáš Madaras 2011 Definícia Nech a Z. Čísla 1, 1, a, a sa nazývajú triviálne delitele čísla a. Cele číslo a / {0, 1, 1} sa nazýva prvočíslo, ak má iba triviálne delitele; ak má aj iné delitele,

Διαβάστε περισσότερα

Metódy vol nej optimalizácie

Metódy vol nej optimalizácie Metódy vol nej optimalizácie Metódy vol nej optimalizácie p. 1/28 Motivácia k metódam vol nej optimalizácie APLIKÁCIE p. 2/28 II 1. PRÍKLAD: Lineárna regresia - metóda najmenších štvorcov Na základe dostupných

Διαβάστε περισσότερα

Jednotkový koreň (unit root), diferencovanie časového radu, unit root testy

Jednotkový koreň (unit root), diferencovanie časového radu, unit root testy Jednotkový koreň (unit root), diferencovanie časového radu, unit root testy Beáta Stehlíková Časové rady, FMFI UK, 2012/2013 Jednotkový koreň(unit root),diferencovanie časového radu, unit root testy p.1/18

Διαβάστε περισσότερα

MIDTERM (A) riešenia a bodovanie

MIDTERM (A) riešenia a bodovanie MIDTERM (A) riešenia a bodovanie 1. (7b) Nech vzhl adom na štandardnú karteziánsku sústavu súradníc S 1 := O, e 1, e 2 majú bod P a vektory u, v súradnice P = [0, 1], u = e 1, v = 2 e 2. Aký predpis bude

Διαβάστε περισσότερα

Úvod do lineárnej algebry. Monika Molnárová Prednášky

Úvod do lineárnej algebry. Monika Molnárová Prednášky Úvod do lineárnej algebry Monika Molnárová Prednášky 2006 Prednášky: 3 17 marca 2006 4 24 marca 2006 c RNDr Monika Molnárová, PhD Obsah 2 Sústavy lineárnych rovníc 25 21 Riešenie sústavy lineárnych rovníc

Διαβάστε περισσότερα

Obvod a obsah štvoruholníka

Obvod a obsah štvoruholníka Obvod a štvoruholníka D. Štyri body roviny z ktorých žiadne tri nie sú kolineárne (neležia na jednej priamke) tvoria jeden štvoruholník. Tie body (A, B, C, D) sú vrcholy štvoruholníka. strany štvoruholníka

Διαβάστε περισσότερα

Motivácia pojmu derivácia

Motivácia pojmu derivácia Derivácia funkcie Motivácia pojmu derivácia Zaujíma nás priemerná intenzita zmeny nejakej veličiny (dráhy, rastu populácie, veľkosti elektrického náboja, hmotnosti), vzhľadom na inú veličinu (čas, dĺžka)

Διαβάστε περισσότερα

Matematika 2. časť: Analytická geometria

Matematika 2. časť: Analytická geometria Matematika 2 časť: Analytická geometria RNDr. Jana Pócsová, PhD. Ústav riadenia a informatizácie výrobných procesov Fakulta BERG Technická univerzita v Košiciach e-mail: jana.pocsova@tuke.sk Súradnicové

Διαβάστε περισσότερα

Prechod z 2D do 3D. Martin Florek 3. marca 2009

Prechod z 2D do 3D. Martin Florek 3. marca 2009 Počítačová grafika 2 Prechod z 2D do 3D Martin Florek florek@sccg.sk FMFI UK 3. marca 2009 Prechod z 2D do 3D Čo to znamená? Ako zobraziť? Súradnicové systémy Čo to znamená? Ako zobraziť? tretia súradnica

Διαβάστε περισσότερα

Chí kvadrát test dobrej zhody. Metódy riešenia úloh z pravdepodobnosti a štatistiky

Chí kvadrát test dobrej zhody. Metódy riešenia úloh z pravdepodobnosti a štatistiky Chí kvadrát test dobrej zhody Metódy riešenia úloh z pravdepodobnosti a štatistiky www.iam.fmph.uniba.sk/institute/stehlikova Test dobrej zhody I. Chceme overiť, či naše dáta pochádzajú z konkrétneho pravdep.

Διαβάστε περισσότερα

Goniometrické substitúcie

Goniometrické substitúcie Goniometrické substitúcie Marta Kossaczká S goniometrickými funkciami ste sa už určite stretli, pravdepodobne predovšetkým v geometrii. Ich použitie tam ale zďaleka nekončí. Nazačiatoksizhrňme,čoonichvieme.Funkciesínusakosínussadajúdefinovať

Διαβάστε περισσότερα

x x x2 n

x x x2 n Reálne symetrické matice Skalárny súčin v R n. Pripomeniem, že pre vektory u = u, u, u, v = v, v, v R platí. dĺžka vektora u je u = u + u + u,. ak sú oba vektory nenulové a zvierajú neorientovaný uhol

Διαβάστε περισσότερα

KATEDRA DOPRAVNEJ A MANIPULAČNEJ TECHNIKY Strojnícka fakulta, Žilinská Univerzita

KATEDRA DOPRAVNEJ A MANIPULAČNEJ TECHNIKY Strojnícka fakulta, Žilinská Univerzita 132 1 Absolútna chyba: ) = - skut absolútna ochýlka: ) ' = - spr. relatívna chyba: alebo Chyby (ochýlky): M systematické, M náhoné, M hrubé. Korekcia: k = spr - = - Î' pomerná korekcia: Správna honota:

Διαβάστε περισσότερα

Lineárna algebra I - pole skalárov, lineárny priestor, lineárna závislosť, dimenzia, podpriestor, suma podpriestorov, izomorfizmus

Lineárna algebra I - pole skalárov, lineárny priestor, lineárna závislosť, dimenzia, podpriestor, suma podpriestorov, izomorfizmus 1. prednáška Lineárna algebra I - pole skalárov, lineárny priestor, lineárna závislosť, dimenzia, podpriestor, suma podpriestorov, izomorfizmus Matematickým základom kvantovej mechaniky je teória Hilbertových

Διαβάστε περισσότερα

1. prednáška Logické neuróny a neurónové siete

1. prednáška Logické neuróny a neurónové siete . prednáška Logické neuróny a neurónové siete priesvitka: Mozog a neurónové siete Metafora ľudského mozgu hrá dôležitú úlohu v modernej informatike. Pomocou tejto metafory boli navrhnuté nové paralelné

Διαβάστε περισσότερα

Gramatická indukcia a jej využitie

Gramatická indukcia a jej využitie a jej využitie KAI FMFI UK 29. Marec 2010 a jej využitie Prehľad Teória formálnych jazykov 1 Teória formálnych jazykov 2 3 a jej využitie Na počiatku bolo slovo. A slovo... a jej využitie Definícia (Slovo)

Διαβάστε περισσότερα

Obsah. 1.1 Reálne čísla a ich základné vlastnosti... 7 1.1.1 Komplexné čísla... 8

Obsah. 1.1 Reálne čísla a ich základné vlastnosti... 7 1.1.1 Komplexné čísla... 8 Obsah 1 Číselné obory 7 1.1 Reálne čísla a ich základné vlastnosti............................ 7 1.1.1 Komplexné čísla................................... 8 1.2 Číselné množiny.......................................

Διαβάστε περισσότερα

AerobTec Altis Micro

AerobTec Altis Micro AerobTec Altis Micro Záznamový / súťažný výškomer s telemetriou Výrobca: AerobTec, s.r.o. Pionierska 15 831 02 Bratislava www.aerobtec.com info@aerobtec.com Obsah 1.Vlastnosti... 3 2.Úvod... 3 3.Princíp

Διαβάστε περισσότερα

Moderné vzdelávanie pre vedomostnú spoločnosť Projekt je spolufinancovaný zo zdrojov EÚ M A T E M A T I K A

Moderné vzdelávanie pre vedomostnú spoločnosť Projekt je spolufinancovaný zo zdrojov EÚ M A T E M A T I K A M A T E M A T I K A PRACOVNÝ ZOŠIT II. ROČNÍK Mgr. Agnesa Balážová Obchodná akadémia, Akademika Hronca 8, Rožňava PRACOVNÝ LIST 1 Urč typ kvadratickej rovnice : 1. x 2 3x = 0... 2. 3x 2 = - 2... 3. -4x

Διαβάστε περισσότερα

VLASTNÉ ČÍSLA A JORDANOV KANONICKÝ TVAR. Michal Zajac. 3 T b 1 = T b 2 = = = 2b

VLASTNÉ ČÍSLA A JORDANOV KANONICKÝ TVAR. Michal Zajac. 3 T b 1 = T b 2 = = = 2b VLASTNÉ ČÍSLA A JORDANOV KANONICKÝ TVAR Michal Zajac Vlastné čísla a vlastné vektory Pripomeňme najprv, že lineárny operátor T : L L je vzhl adom na bázu B = {b 1, b 2,, b n } lineárneho priestoru L určený

Διαβάστε περισσότερα

Komplexné čísla, Diskrétna Fourierova transformácia 1

Komplexné čísla, Diskrétna Fourierova transformácia 1 Komplexné čísla, Diskrétna Fourierova transformácia Komplexné čísla C - množina všetkých komplexných čísel komplexné číslo: z = a + bi, kde a, b R, i - imaginárna jednotka i =, t.j. i =. komplexne združené

Διαβάστε περισσότερα

1 Algoritmus spätného šírenia Back-Propagation

1 Algoritmus spätného šírenia Back-Propagation Pri práci s neurónovými sieťami sa budeme držať konvencie použitej v MAT- LABe, špeciálne v toolboxe pre neurónové siete: Vstupné vektory sú vždy stĺpcové. Aby sa dobre počítal potenciál neurónu, tak váhy

Διαβάστε περισσότερα

3. Striedavé prúdy. Sínusoida

3. Striedavé prúdy. Sínusoida . Striedavé prúdy VZNIK: Striedavý elektrický prúd prechádza obvodom, ktorý je pripojený na zdroj striedavého napätia. Striedavé napätie vyrába synchrónny generátor, kde na koncoch rotorového vinutia sa

Διαβάστε περισσότερα

4. Výrokové funkcie (formy), ich definičný obor a obor pravdivosti

4. Výrokové funkcie (formy), ich definičný obor a obor pravdivosti 4. Výrokové funkcie (formy), ich definičný obor a obor pravdivosti Výroková funkcia (forma) ϕ ( x) je formálny výraz (formula), ktorý obsahuje znak x, pričom x berieme z nejakej množiny M. Ak za x zvolíme

Διαβάστε περισσότερα

24. Základné spôsoby zobrazovania priestoru do roviny

24. Základné spôsoby zobrazovania priestoru do roviny 24. Základné spôsoby zobrazovania priestoru do roviny Voľné rovnobežné premietanie Presné metódy zobrazenia trojrozmerného priestoru do dvojrozmernej roviny skúma samostatná matematická disciplína, ktorá

Διαβάστε περισσότερα

Priamkové plochy. Ak každým bodom plochy Φ prechádza aspoň jedna priamka, ktorá (celá) na nej leží potom plocha Φ je priamková. Santiago Calatrava

Priamkové plochy. Ak každým bodom plochy Φ prechádza aspoň jedna priamka, ktorá (celá) na nej leží potom plocha Φ je priamková. Santiago Calatrava Priamkové plochy Priamkové plochy Ak každým bodom plochy Φ prechádza aspoň jedna priamka, ktorá (celá) na nej leží potom plocha Φ je priamková. Santiago Calatrava Priamkové plochy rozdeľujeme na: Rozvinuteľné

Διαβάστε περισσότερα

Jednotkový koreň (unit root), diferencovanie časového radu, unit root testy

Jednotkový koreň (unit root), diferencovanie časového radu, unit root testy Jednotkový koreň (unit root), diferencovanie časového radu, unit root testy Beáta Stehlíková Časové rady, FMFI UK, 2013/2014 Jednotkový koreň(unit root),diferencovanie časového radu, unit root testy p.1/27

Διαβάστε περισσότερα

Návrh vzduchotesnosti pre detaily napojení

Návrh vzduchotesnosti pre detaily napojení Výpočet lineárneho stratového súčiniteľa tepelného mosta vzťahujúceho sa k vonkajším rozmerom: Ψ e podľa STN EN ISO 10211 Návrh vzduchotesnosti pre detaily napojení Objednávateľ: Ing. Natália Voltmannová

Διαβάστε περισσότερα

Matematika 2. časť: Funkcia viac premenných Letný semester 2013/2014

Matematika 2. časť: Funkcia viac premenných Letný semester 2013/2014 Matematika 2 časť: Funkcia viac premenných Letný semester 2013/2014 RNDr. Jana Pócsová, PhD. Ústav riadenia a informatizácie výrobných procesov Fakulta BERG Technická univerzita v Košiciach e-mail: jana.pocsova@tuke.sk

Διαβάστε περισσότερα

Obyčajné diferenciálne rovnice

Obyčajné diferenciálne rovnice (ÚMV/MAN3b/10) RNDr. Ivan Mojsej, PhD ivan.mojsej@upjs.sk 14.3.2013 Úvod patria k najdôležitejším a najviac prepracovaným matematickým disciplínam. Nielen v minulosti, ale aj v súčastnosti predstavujú

Διαβάστε περισσότερα

Deliteľnosť a znaky deliteľnosti

Deliteľnosť a znaky deliteľnosti Deliteľnosť a znaky deliteľnosti Medzi základné pojmy v aritmetike celých čísel patrí aj pojem deliteľnosť. Najprv si povieme, čo znamená, že celé číslo a delí celé číslo b a ako to zapisujeme. Nech a

Διαβάστε περισσότερα

Kontrolné otázky na kvíz z jednotiek fyzikálnych veličín. Upozornenie: Umiestnenie správnej a nesprávnych odpovedí sa môže v teste meniť.

Kontrolné otázky na kvíz z jednotiek fyzikálnych veličín. Upozornenie: Umiestnenie správnej a nesprávnych odpovedí sa môže v teste meniť. Kontrolné otázky na kvíz z jednotiek fyzikálnych veličín Upozornenie: Umiestnenie správnej a nesprávnych odpovedí sa môže v teste meniť. Ktoré fyzikálne jednotky zodpovedajú sústave SI: a) Dĺžka, čas,

Διαβάστε περισσότερα

Numerické metódy matematiky I

Numerické metódy matematiky I Prednáška č. 7 Numerické metódy matematiky I Riešenie sústav lineárnych rovníc ( pokračovanie ) Prednáška č. 7 OBSAH 1. Metóda singulárneho rozkladu (SVD) Úvod SVD štvorcovej matice SVD pre menej rovníc

Διαβάστε περισσότερα

Kompilátory. Cvičenie 6: LLVM. Peter Kostolányi. 21. novembra 2017

Kompilátory. Cvičenie 6: LLVM. Peter Kostolányi. 21. novembra 2017 Kompilátory Cvičenie 6: LLVM Peter Kostolányi 21. novembra 2017 LLVM V podstate sada nástrojov pre tvorbu kompilátorov LLVM V podstate sada nástrojov pre tvorbu kompilátorov Pôvodne Low Level Virtual Machine

Διαβάστε περισσότερα

HASLIM112V, HASLIM123V, HASLIM136V HASLIM112Z, HASLIM123Z, HASLIM136Z HASLIM112S, HASLIM123S, HASLIM136S

HASLIM112V, HASLIM123V, HASLIM136V HASLIM112Z, HASLIM123Z, HASLIM136Z HASLIM112S, HASLIM123S, HASLIM136S PROUKTOVÝ LIST HKL SLIM č. sklad. karty / obj. číslo: HSLIM112V, HSLIM123V, HSLIM136V HSLIM112Z, HSLIM123Z, HSLIM136Z HSLIM112S, HSLIM123S, HSLIM136S fakturačný názov výrobku: HKL SLIMv 1,2kW HKL SLIMv

Διαβάστε περισσότερα

Funkcie - základné pojmy

Funkcie - základné pojmy Funkcie - základné pojmy DEFINÍCIA FUNKCIE Nech A, B sú dve neprázdne číselné množiny. Ak každému prvku x A je priradený najviac jeden prvok y B, tak hovoríme, že je daná funkcia z množiny A do množiny

Διαβάστε περισσότερα

7 Derivácia funkcie. 7.1 Motivácia k derivácii

7 Derivácia funkcie. 7.1 Motivácia k derivácii Híc, P Pokorný, M: Matematika pre informatikov a prírodné vedy 7 Derivácia funkcie 7 Motivácia k derivácii S využitím derivácií sa stretávame veľmi často v matematike, geometrii, fyzike, či v rôznych technických

Διαβάστε περισσότερα

Numerické metódy Učebný text pre bakalárske štúdium

Numerické metódy Učebný text pre bakalárske štúdium Imrich Pokorný Numerické metódy Učebný text pre bakalárske štúdium Strana 1 z 48 1 Nepresnosť numerického riešenia úloh 4 1.1 Zdroje chýb a ich klasifikácia................... 4 1.2 Základné pojmy odhadu

Διαβάστε περισσότερα

1.4 Rovnice, nerovnice a ich sústavy

1.4 Rovnice, nerovnice a ich sústavy 1. Rovnice, nerovnice a ich sústavy Osah Pojmy: rovnica, nerovnica, sústava rovníc, sústava nerovníc a ich riešenie, koeficient, koreň, koreňový činiteľ, diskriminant, doplnenie do štvorca, úprava na súčin,

Διαβάστε περισσότερα

1. písomná práca z matematiky Skupina A

1. písomná práca z matematiky Skupina A 1. písomná práca z matematiky Skupina A 1. Vypočítajte : a) 84º 56 + 32º 38 = b) 140º 53º 24 = c) 55º 12 : 2 = 2. Vypočítajte zvyšné uhly na obrázku : β γ α = 35 12 δ a b 3. Znázornite na číselnej osi

Διαβάστε περισσότερα

Riešenie sústavy lineárnych rovníc. Priame metódy.

Riešenie sústavy lineárnych rovníc. Priame metódy. Riešenie sústavy lineárnych rovníc. Priame metódy. Ing. Gabriel Okša, CSc. Matematický ústav Slovenská akadémia vied Bratislava Stavebná fakulta STU G. Okša: Priame metódy 1/16 Obsah 1 Základy 2 Systémy

Διαβάστε περισσότερα

PRIEMER DROTU d = 0,4-6,3 mm

PRIEMER DROTU d = 0,4-6,3 mm PRUŽINY PRUŽINY SKRUTNÉ PRUŽINY VIAC AKO 200 RUHOV SKRUTNÝCH PRUŽÍN PRIEMER ROTU d = 0,4-6,3 mm èíslo 3.0 22.8.2008 8:28:57 22.8.2008 8:28:58 PRUŽINY SKRUTNÉ PRUŽINY TECHNICKÉ PARAMETRE h d L S Legenda

Διαβάστε περισσότερα

Prednáška Fourierove rady. Matematická analýza pre fyzikov IV. Jozef Kise lák

Prednáška Fourierove rady. Matematická analýza pre fyzikov IV. Jozef Kise lák Prednáška 6 6.1. Fourierove rady Základná myšlienka: Nech x Haφ 1,φ 2,...,φ n,... je ortonormálny systém v H, dá sa tento prvok rozvinút do radu x=c 1 φ 1 + c 2 φ 2 +...,c n φ n +...? Ako nájdeme c i,

Διαβάστε περισσότερα

M8 Model "Valcová a kužeľová nádrž v sérií bez interakcie"

M8 Model Valcová a kužeľová nádrž v sérií bez interakcie M8 Model "Valcová a kužeľová nádrž v sérií bez interakcie" Úlohy: 1. Zostavte matematický popis modelu M8 2. Vytvorte simulačný model v prostredí: a) Simulink zostavte blokovú schému, pomocou rozkladu

Διαβάστε περισσότερα

PREHĽAD ZÁKLADNÝCH VZORCOV A VZŤAHOV ZO STREDOŠKOLSKEJ MATEMATIKY. Pomôcka pre prípravný kurz

PREHĽAD ZÁKLADNÝCH VZORCOV A VZŤAHOV ZO STREDOŠKOLSKEJ MATEMATIKY. Pomôcka pre prípravný kurz KATEDRA APLIKOVANEJ MATEMATIKY A INFORMATIKY STROJNÍCKA FAKULTA TU KOŠICE PREHĽAD ZÁKLADNÝCH VZORCOV A VZŤAHOV ZO STREDOŠKOLSKEJ MATEMATIKY Pomôcka pre prípravný kurz 8 ZÁKLADNÉ ALGEBRAICKÉ VZORCE ) (a±b)

Διαβάστε περισσότερα

Základné poznatky molekulovej fyziky a termodynamiky

Základné poznatky molekulovej fyziky a termodynamiky Základné poznatky molekulovej fyziky a termodynamiky Opakovanie učiva II. ročníka, Téma 1. A. Príprava na maturity z fyziky, 2008 Outline Molekulová fyzika 1 Molekulová fyzika Predmet Molekulovej fyziky

Διαβάστε περισσότερα

8. prednáška Logické neuróny a neurónové siete

8. prednáška Logické neuróny a neurónové siete 8. prednáška Logické neuróny a neurónové siete Priesvitka Logické neuróny McCullocha a Pittsa Logické neuróny a neurónové siete boli prvý krát študované v publikácii Warrena McCullocha a Waltera Pittsa

Διαβάστε περισσότερα

Podnikateľ 90 Mobilný telefón Cena 95 % 50 % 25 %

Podnikateľ 90 Mobilný telefón Cena 95 % 50 % 25 % Podnikateľ 90 Samsung S5230 Samsung C3530 Nokia C5 Samsung Shark Slider S3550 Samsung Xcover 271 T-Mobile Pulse Mini Sony Ericsson ZYLO Sony Ericsson Cedar LG GM360 Viewty Snap Nokia C3 Sony Ericsson ZYLO

Διαβάστε περισσότερα

Riadenie zásobníkov kvapaliny

Riadenie zásobníkov kvapaliny Kapitola 9 Riadenie zásobníkov kvapaliny Cieľom cvičenia je zvládnuť návrh (syntézu) regulátorov výpočtovými (analytickými) metódami Naslinovou metódou a metódou umiestnenia pólov. Navrhnuté regulátory

Διαβάστε περισσότερα

Úvod do modelovania a simulácie, metóda Monte Carlo

Úvod do modelovania a simulácie, metóda Monte Carlo Úvod do modelovania a simulácie, metóda Monte Carlo Prednáška 4 využitie MS Excel 13.10.2015 Ing. Marek Kvet, PhD. Modelovanie a simulácia Venuje sa štúdiu skúmaných objektov hmotného sveta - existujúcich

Διαβάστε περισσότερα

Numerické metódy Zbierka úloh

Numerické metódy Zbierka úloh Blanka Baculíková Ivan Daňo Numerické metódy Zbierka úloh Strana 1 z 37 Predhovor 3 1 Nelineárne rovnice 4 2 Sústavy lineárnych rovníc 7 3 Sústavy nelineárnych rovníc 1 4 Interpolačné polynómy 14 5 Aproximácia

Διαβάστε περισσότερα

Modul pružnosti betónu

Modul pružnosti betónu f cm tan α = E cm 0,4f cm ε cl E = σ ε ε cul Modul pružnosti betónu α Autori: Stanislav Unčík Patrik Ševčík Modul pružnosti betónu Autori: Stanislav Unčík Patrik Ševčík Trnava 2008 Obsah 1 Úvod...7 2 Deformácie

Διαβάστε περισσότερα

Termodynamika. Doplnkové materiály k prednáškam z Fyziky I pre SjF Dušan PUDIŠ (2008)

Termodynamika. Doplnkové materiály k prednáškam z Fyziky I pre SjF Dušan PUDIŠ (2008) ermodynamika nútorná energia lynov,. veta termodynamická, Izochorický dej, Izotermický dej, Izobarický dej, diabatický dej, Práca lynu ri termodynamických rocesoch, arnotov cyklus, Entroia Dolnkové materiály

Διαβάστε περισσότερα

Reálna funkcia reálnej premennej

Reálna funkcia reálnej premennej (ÚMV/MAN3a/10) RNDr. Ivan Mojsej, PhD ivan.mojsej@upjs.sk 18.10.2012 Úvod V každodennom živote, hlavne pri skúmaní prírodných javov, procesov sa stretávame so závislosťou veľkosti niektorých veličín od

Διαβάστε περισσότερα

Metódy vol nej optimalizácie

Metódy vol nej optimalizácie Metódy vol nej optimalizácie Metódy vol nej optimalizácie p. 1/52 Metódy minimalizácie funkcie jednej premennej Metódy minimalizácie funkcie jednej premennej p. 2/52 Metódy minimalizácie funkcie jednej

Διαβάστε περισσότερα

LR(0) syntaktické analyzátory. doc. RNDr. Ľubomír Dedera

LR(0) syntaktické analyzátory. doc. RNDr. Ľubomír Dedera LR0) syntaktické analyzátory doc. RNDr. Ľubomír Dedera Učebné otázky LR0) automat a jeho konštrukcia Konštrukcia tabuliek ACION a GOO LR0) syntaktického analyzátora LR0) syntaktický analyzátor Sám osebe

Διαβάστε περισσότερα

Cieľom cvičenia je zvládnuť riešenie diferenciálnych rovníc pomocou Laplaceovej transformácie,

Cieľom cvičenia je zvládnuť riešenie diferenciálnych rovníc pomocou Laplaceovej transformácie, Kapitola Riešenie diferenciálnych rovníc pomocou Laplaceovej tranformácie Cieľom cvičenia je zvládnuť riešenie diferenciálnych rovníc pomocou Laplaceovej tranformácie, keď charakteritická rovnica má rôzne

Διαβάστε περισσότερα

Podmienenost problému a stabilita algoritmu

Podmienenost problému a stabilita algoritmu Podmienenost problému a stabilita algoritmu Ing. Gabriel Okša, CSc. Matematický ústav Slovenská akadémia vied Bratislava Stavebná fakulta STU G. Okša: Podmienenost a stabilita 1/19 Obsah 1 Vektorové a

Διαβάστε περισσότερα

C. Kontaktný fasádny zatepľovací systém

C. Kontaktný fasádny zatepľovací systém C. Kontaktný fasádny zatepľovací systém C.1. Tepelná izolácia penový polystyrén C.2. Tepelná izolácia minerálne dosky alebo lamely C.3. Tepelná izolácia extrudovaný polystyrén C.4. Tepelná izolácia penový

Διαβάστε περισσότερα

Modelovanie dynamickej podmienenej korelácie kurzov V4

Modelovanie dynamickej podmienenej korelácie kurzov V4 Modelovanie dynamickej podmienenej korelácie menových kurzov V4 Podnikovohospodárska fakulta so sídlom v Košiciach Ekonomická univerzita v Bratislave Cieľ a motivácia Východiská Cieľ a motivácia Cieľ Kvantifikovať

Διαβάστε περισσότερα

Pevné ložiská. Voľné ložiská

Pevné ložiská. Voľné ložiská SUPPORTS D EXTREMITES DE PRECISION - SUPPORT UNIT FOR BALLSCREWS LOŽISKA PRE GULIČKOVÉ SKRUTKY A TRAPÉZOVÉ SKRUTKY Výber správnej podpory konca uličkovej skrutky či trapézovej skrutky je dôležité pre správnu

Διαβάστε περισσότερα

RIEŠENIE WHEATSONOVHO MOSTÍKA

RIEŠENIE WHEATSONOVHO MOSTÍKA SNÁ PMYSLNÁ ŠKOL LKONKÁ V PŠŤNO KOMPLXNÁ PÁ Č. / ŠN WSONOVO MOSÍK Piešťany, október 00 utor : Marek eteš. Komplexná práca č. / Strana č. / Obsah:. eoretický rozbor Wheatsonovho mostíka. eoretický rozbor

Διαβάστε περισσότερα

2. prednáška. Teória množín I. množina operácie nad množinami množinová algebra mohutnosť a enumerácia karteziánsky súčin

2. prednáška. Teória množín I. množina operácie nad množinami množinová algebra mohutnosť a enumerácia karteziánsky súčin 2. prednáška Teória množín I množina operácie nad množinami množinová algebra mohutnosť a enumerácia karteziánsky súčin Verzia: 27. 9. 2009 Priesvtika: 1 Definícia množiny Koncepcia množiny patrí medzi

Διαβάστε περισσότερα

3. prednáška. Komplexné čísla

3. prednáška. Komplexné čísla 3. predáška Komplexé čísla Úvodé pozámky Vieme, že existujú také kvadratické rovice, ktoré emajú riešeie v obore reálych čísel. Študujme kvadratickú rovicu x x + 5 = 0 Použitím štadardej formule pre výpočet

Διαβάστε περισσότερα

Spojitosť a limity trochu inak

Spojitosť a limity trochu inak Spojitosť a limity trochu inak Štefan Tkačik Abstrakt Spojitosť funkcie alebo oblastí je základným stavebným kameňom matematickej analýzy. Pochopenie jej podstaty uľahčí chápanie diferenciálneho a integrálneho

Διαβάστε περισσότερα

Teória pravdepodobnosti

Teória pravdepodobnosti 2. Podmienená pravdepodobnosť Katedra Matematických metód Fakulta Riadenia a Informatiky Žilinská Univerzita v Žiline 23. februára 2015 1 Pojem podmienenej pravdepodobnosti 2 Nezávislosť náhodných udalostí

Διαβάστε περισσότερα

Goniometrické funkcie

Goniometrické funkcie Goniometrické funkcie Oblúková miera Goniometrické funkcie sú funkcie, ktoré sa používajú pri meraní uhlov (Goniometria Meranie Uhla). Pri týchto funkciách sa uvažuje o veľkostiach uhlov udaných v oblúkovej

Διαβάστε περισσότερα

Riadenie elektrizačných sústav

Riadenie elektrizačných sústav Riaenie elektrizačných sústav Paralelné spínanie (fázovanie a kruhovanie) Pomienky paralelného spínania 1. Rovnaký sle fáz. 2. Rovnaká veľkosť efektívnych honôt napätí. 3. Rovnaká frekvencia. 4. Rovnaký

Διαβάστε περισσότερα

Príklady na precvičovanie Fourierove rady

Príklady na precvičovanie Fourierove rady Príklady na precvičovanie Fourierove rady Ďalším významným typom funkcionálnych radov sú trigonometrické rady, pri ktorých sú jednotlivé členy trigonometrickými funkciami. Konkrétne, jedná sa o rady tvaru

Διαβάστε περισσότερα

MATEMATICKÁ ANALÝZA 1

MATEMATICKÁ ANALÝZA 1 UNIVERZITA PAVLA JOZEFA ŠAFÁRIKA V KOŠICIACH Prírodovedecká fakulta Ústav matematických vied Božena Mihalíková, Ján Ohriska MATEMATICKÁ ANALÝZA Vysokoškolský učebný text Košice, 202 202 doc. RNDr. Božena

Διαβάστε περισσότερα

Staromlynská 29, Bratislava tel: , fax: http: //www.ecssluzby.sk SLUŽBY s. r. o.

Staromlynská 29, Bratislava tel: , fax: http: //www.ecssluzby.sk   SLUŽBY s. r. o. SLUŽBY s. r. o. Staromlynská 9, 81 06 Bratislava tel: 0 456 431 49 7, fax: 0 45 596 06 http: //www.ecssluzby.sk e-mail: ecs@ecssluzby.sk Asynchrónne elektromotory TECHNICKÁ CHARAKTERISTIKA. Nominálne výkony

Διαβάστε περισσότερα

Integrovanie racionálnych funkcií

Integrovanie racionálnych funkcií Integrovanie racionálnych funkcií Tomáš Madaras 2009-20 Z teórie funkcií už vieme, že každá racionálna funkcia (t.j. podiel dvoch polynomických funkcií) sa dá zapísať ako súčet polynomickej funkcie a funkcie

Διαβάστε περισσότερα

Harmonizované technické špecifikácie Trieda GP - CS lv EN Pevnosť v tlaku 6 N/mm² EN Prídržnosť

Harmonizované technické špecifikácie Trieda GP - CS lv EN Pevnosť v tlaku 6 N/mm² EN Prídržnosť Baumit Prednástrek / Vorspritzer Vyhlásenie o parametroch č.: 01-BSK- Prednástrek / Vorspritzer 1. Jedinečný identifikačný kód typu a výrobku: Baumit Prednástrek / Vorspritzer 2. Typ, číslo výrobnej dávky

Διαβάστε περισσότερα

,Zohrievanie vody indukčným varičom bez pokrievky,

,Zohrievanie vody indukčným varičom bez pokrievky, Farba skupiny: zelená Označenie úlohy:,zohrievanie vody indukčným varičom bez pokrievky, Úloha: Zistiť, ako závisí účinnosť zohrievania vody na indukčnom variči od priemeru použitého hrnca. Hypotéza: Účinnosť

Διαβάστε περισσότερα

ZADANIE 1_ ÚLOHA 3_Všeobecná rovinná silová sústava ZADANIE 1 _ ÚLOHA 3

ZADANIE 1_ ÚLOHA 3_Všeobecná rovinná silová sústava ZADANIE 1 _ ÚLOHA 3 ZDNIE _ ÚLOH 3_Všeobecná rovinná silová sústv ZDNIE _ ÚLOH 3 ÚLOH 3.: Vypočítjte veľkosti rekcií vo väzbách nosník zťženého podľ obrázku 3.. Veľkosti známych síl, momentov dĺžkové rozmery sú uvedené v

Διαβάστε περισσότερα

Definícia parciálna derivácia funkcie podľa premennej x. Definícia parciálna derivácia funkcie podľa premennej y. Ak existuje limita.

Definícia parciálna derivácia funkcie podľa premennej x. Definícia parciálna derivácia funkcie podľa premennej y. Ak existuje limita. Teória prednáška č. 9 Deinícia parciálna deriácia nkcie podľa premennej Nech nkcia Ak eistje limita je deinoaná okolí bod [ ] lim. tak túto limit nazýame parciálno deriácio nkcie podľa premennej bode [

Διαβάστε περισσότερα

PageRank algoritmus. Univerzita Komenského v Bratislave Fakulta Matematiky, Fyziky a Informatiky

PageRank algoritmus. Univerzita Komenského v Bratislave Fakulta Matematiky, Fyziky a Informatiky Univerzita Komenského v Bratislave Fakulta Matematiky, Fyziky a Informatiky PageRank algoritmus Bakalárska práca Študijný program: Informatika Študijný odbor: 9.2.1 Informatika Školiace pracovisko: Katedra

Διαβάστε περισσότερα

Technická univerzita v Košiciach. Zbierka riešených a neriešených úloh. z matematiky. pre uchádzačov o štúdium na TU v Košiciach

Technická univerzita v Košiciach. Zbierka riešených a neriešených úloh. z matematiky. pre uchádzačov o štúdium na TU v Košiciach Technická univerzita v Košiciach Zbierka riešených a neriešených úloh z matematiky pre uchádzačov o štúdium na TU v Košiciach Martin Bača Ján Buša Andrea Feňovčíková Zuzana Kimáková Denisa Olekšáková Štefan

Διαβάστε περισσότερα

Základy matematickej štatistiky

Základy matematickej štatistiky 1. Náhodný výber, výberové momenty a odhad parametrov Katedra Matematických metód Fakulta Riadenia a Informatiky Žilinská Univerzita v Žiline 6. mája 2015 1 Náhodný výber 2 Výberové momenty 3 Odhady parametrov

Διαβάστε περισσότερα

FUNKCIE N REÁLNYCH PREMENNÝCH

FUNKCIE N REÁLNYCH PREMENNÝCH FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY UNIVERZITY KOMENSKÉHO V BRATISLAVE FUNKCIE N REÁLNYCH PREMENNÝCH RNDr. Kristína Rostás, PhD. PREDMET: Matematická analýza ) 2010/2011 1. DEFINÍCIA REÁLNEJ FUNKCIE

Διαβάστε περισσότερα

Rozsah hodnotenia a spôsob výpočtu energetickej účinnosti rozvodu tepla

Rozsah hodnotenia a spôsob výpočtu energetickej účinnosti rozvodu tepla Rozsah hodnotenia a spôsob výpočtu energetickej účinnosti príloha č. 7 k vyhláške č. 428/2010 Názov prevádzkovateľa verejného : Spravbytkomfort a.s. Prešov Adresa: IČO: Volgogradská 88, 080 01 Prešov 31718523

Διαβάστε περισσότερα

Meranie na jednofázovom transformátore

Meranie na jednofázovom transformátore Fakulta elektrotechniky a informatiky TU v Košiciach Katedra elektrotechniky a mechatroniky Meranie na jednofázovom transformátore Návod na cvičenia z predmetu Elektrotechnika Meno a priezvisko :..........................

Διαβάστε περισσότερα

Aproximačné algoritmy. (7. októbra 2010) DRAFT

Aproximačné algoritmy. (7. októbra 2010) DRAFT R. Královič Aproximačné algoritmy (7. októbra 2010) ii Obsah 1 Úvod 1 1.1 Algoritmy a zložitosť........................... 1 1.2 Lineárne programovanie......................... 1 1.3 Použité vzťahy..............................

Διαβάστε περισσότερα

Planárne a rovinné grafy

Planárne a rovinné grafy Planárne a rovinné grafy Definícia Graf G sa nazýva planárny, ak existuje jeho nakreslenie D, v ktorom sa žiadne dve hrany nepretínajú. D sa potom nazýva rovinný graf. Planárne a rovinné grafy Definícia

Διαβάστε περισσότερα

1 Prevod miestneho stredného slnečného času LMT 1 na iný miestny stredný slnečný čas LMT 2

1 Prevod miestneho stredného slnečného času LMT 1 na iný miestny stredný slnečný čas LMT 2 1 Prevod miestneho stredného slnečného času LMT 1 na iný miestny stredný slnečný čas LMT 2 Rozdiel LMT medzi dvoma miestami sa rovná rozdielu ich zemepisných dĺžok. Pre prevod miestnych časov platí, že

Διαβάστε περισσότερα

2 Chyby a neistoty merania, zápis výsledku merania

2 Chyby a neistoty merania, zápis výsledku merania 2 Chyby a neistoty merania, zápis výsledku merania Akej chyby sa môžeme dopustiť pri meraní na stopkách? Ako určíme ich presnosť? Základné pojmy: chyba merania, hrubé chyby, systematické chyby, náhodné

Διαβάστε περισσότερα