АТ-5 Вештачке неуронске мреже Проф. др Зоран Миљковић Методе одлучивања 1/35

Σχετικά έγγραφα
Предмет: Задатак 4: Слика 1.0

Факултет организационих наука Центар за пословно одлучивање. Откривање законитости у подацима 3 Вештачке неуронске мреже

Факултет организационих наука Центар за пословно одлучивање. Откривање законитости у подацима Вештачке неуронске мреже

Анализа Петријевих мрежа

налазе се у диелектрику, релативне диелектричне константе ε r = 2, на међусобном растојању 2 a ( a =1cm

Теорија електричних кола

1.2. Сличност троуглова

СИСТЕМ ЛИНЕАРНИХ ЈЕДНАЧИНА С ДВЕ НЕПОЗНАТЕ

2. Наставни колоквијум Задаци за вежбање ОЈЛЕРОВА МЕТОДА

Теорија електричних кола

Положај сваке тачке кружне плоче је одређен са поларним координатама r и ϕ.

Tестирање хипотеза. 5.час. 30. март Боjана Тодић Статистички софтвер март / 10

θ = rt Sl r КОМПЈУТЕРСКА СИМУЛАЦИЈА И ВЕШТАЧКА ИНТЕЛИГЕНЦИЈА Лист/листова: 1/45 ЗАДАТАК 4 Задатак 4.1.1

Предвиђање ликвидности банака применом неуронских мрежа

Први корак у дефинисању случајне променљиве је. дефинисање и исписивање свих могућих eлементарних догађаја.

7. ЈЕДНОСТАВНИЈЕ КВАДРАТНЕ ДИОФАНТОВE ЈЕДНАЧИНЕ

Когнитивне способности мобилних робота у домену унутрашњег транспорта материјала

АНАЛОГНА ЕЛЕКТРОНИКА ЛАБОРАТОРИЈСКЕ ВЕЖБЕ

Економски факултет Свеучилишта у Мостару, 2. Економски факултет Свеучилишта у Мостару,

ЕНЕРГЕТСКИ ПРЕТВАРАЧИ 2 (13Е013ЕП2) октобар 2016.

8.5 ЛАБОРАТОРИЈСКА ВЕЖБА 5 Задатак вежбе: PI регулација брзине напонски управљаним микромотором једносмерне струје

Семинарски рад из линеарне алгебре

4.4. Паралелне праве, сечица. Углови које оне одређују. Углови са паралелним крацима

ЛИНЕАРНА ФУНКЦИЈА. k, k 0), осна и централна симетрија и сл. 2, x 0. У претходном примеру неке функције су линеарне а неке то нису.

Задатак Задатак Задатак Задатак Задатак Списак слика Литература... 86

5.2. Имплицитни облик линеарне функције

Cook-Levin: SAT је NP-комплетан. Теодор Најдан Трифунов 305M/12

b) Израз за угиб дате плоче, ако се користи само први члан реда усвојеног решења, је:

МАТРИЧНА АНАЛИЗА КОНСТРУКЦИЈА

1. Математички доказ закона кретања мобилног робота

г) страница aa и пречник 2RR описаног круга правилног шестоугла јесте рац. бр. јесу самерљиве

ВЕЖБЕ ИЗ ОСНОВА РАЧУНАРСКЕ ТЕХНИКЕ 1

САДРЖАЈ ЗАДАТАК 1...

Хомогена диференцијална једначина је она која може да се напише у облику: = t( x)

4. ЗАКОН ВЕЛИКИХ БРОЈЕВА

Основе теорије вероватноће

2.3. Решавање линеарних једначина с једном непознатом

L кплп (Калем у кплу прпстпперипдичне струје)

предмет МЕХАНИКА 1 Студијски програми ИНДУСТРИЈСКО ИНЖЕЊЕРСТВО ДРУМСКИ САОБРАЋАЈ II ПРЕДАВАЊЕ УСЛОВИ РАВНОТЕЖЕ СИСТЕМА СУЧЕЉНИХ СИЛА

Република Србија МИНИСТАРСТВО ПРОСВЕТЕ, НАУКЕ И ТЕХНОЛОШКОГ РАЗВОЈА ЗАВОД ЗА ВРЕДНОВАЊЕ КВАЛИТЕТА ОБРАЗОВАЊА И ВАСПИТАЊА МАТЕМАТИКА ТЕСТ

Једна од централних идеја рачунарства Метода која решавање проблема своди на решавање проблема мање димензије

Република Србија МИНИСТАРСТВО ПРОСВЕТЕ, НАУКЕ И ТЕХНОЛОШКОГ РАЗВОЈА ЗАВОД ЗА ВРЕДНОВАЊЕ КВАЛИТЕТА ОБРАЗОВАЊА И ВАСПИТАЊА

ОБЛАСТИ: 1) Тачка 2) Права 3) Криве другог реда

8. ПИТАГОРИНА ЈЕДНАЧИНА х 2 + у 2 = z 2

Универзитет у Београду, Саобраћајни факултет Предмет: Паркирање. 1. вежба

Република Србија МИНИСТАРСТВО ПРОСВЕТЕ, НАУКЕ И ТЕХНОЛОШКОГ РАЗВОЈА ЗАВОД ЗА ВРЕДНОВАЊЕ КВАЛИТЕТА ОБРАЗОВАЊА И ВАСПИТАЊА

ВИСОКА ТЕХНИЧКА ШКОЛА СТРУКОВНИХ СТУДИЈА У НИШУ

Закони термодинамике

ТРАПЕЗ РЕГИОНАЛНИ ЦЕНТАР ИЗ ПРИРОДНИХ И ТЕХНИЧКИХ НАУКА У ВРАЊУ. Аутор :Петар Спасић, ученик 8. разреда ОШ 8. Октобар, Власотинце

Скупови (наставак) Релације. Професор : Рака Јовановић Асиситент : Јелена Јовановић

Теорија одлучивања. Анализа ризика

ЕЛЕКТРОНИКЕ ЗА УЧЕНИКЕ ТРЕЋЕГ РАЗРЕДА

TAЧКАСТА НАЕЛЕКТРИСАЊА

Република Србија МИНИСТАРСТВО ПРОСВЕТЕ И НАУКЕ ЗАВОД ЗА ВРЕДНОВАЊЕ КВАЛИТЕТА ОБРАЗОВАЊА И ВАСПИТАЊА

ЗАШТИТА ПОДАТАКА Шифровање јавним кључем и хеш функције. Diffie-Hellman размена кључева

Универзитет у Крагујевцу Факултет за машинство и грађевинарство у Краљеву Катедра за основне машинске конструкције и технологије материјала

Универзитет у Београду Машински факултет

Писмени испит из Метода коначних елемената

Ротационо симетрична деформација средње површи ротационе љуске

I Линеарне једначине. II Линеарне неједначине. III Квадратна једначина и неједначина АЛГЕБАРСКЕ ЈЕДНАЧИНЕ И НЕЈЕДНАЧИНЕ

1. 2. МЕТОД РАЗЛИКОВАЊА СЛУЧАЈЕВА 1

2. EЛЕМЕНТАРНЕ ДИОФАНТОВЕ ЈЕДНАЧИНЕ

РАЗВОЈ И ПРИМЕНА МЕТОДА ХЕУРИСТИЧКЕ ОПТИМИЗАЦИЈЕ МАШИНСКИХ КОНСТРУКЦИЈА

Теорија одлучивања. Циљеви предавања

Осцилације система са једним степеном слободе кретања

6.5 Површина круга и његових делова

Факултет организационих наука Центар за пословно одлучивање. PROMETHEE (Preference Ranking Organization Method for Enrichment Evaluation)

1. Моделирање и модели, врсте модела. 2. Неформални и формални модели

ЈАКОСТ НА МАТЕРИЈАЛИТЕ

Количина топлоте и топлотна равнотежа

ЗАШТИТА ПОДАТАКА. Шифровање јавним кључем и хеш функције. Diffie-Hellman размена кључева

Терминирање флексибилних технолошких процеса

Нумеричко решавање парцијалних диференцијалних једначина и интегралних једначина

Република Србија МИНИСТАРСТВО ПРОСВЕТЕ, НАУКЕ И ТЕХНОЛОШКОГ РАЗВОЈА ЗАВОД ЗА ВРЕДНОВАЊЕ КВАЛИТЕТА ОБРАЗОВАЊА И ВАСПИТАЊА ТЕСТ МАТЕМАТИКА

Теорија електричних кола

Република Србија МИНИСТАРСТВО ПРОСВЕТЕ, НАУКЕ И ТЕХНОЛОШКОГ РАЗВОЈА ЗАВОД ЗА ВРЕДНОВАЊЕ КВАЛИТЕТА ОБРАЗОВАЊА И ВАСПИТАЊА

6.2. Симетрала дужи. Примена

6. ЛИНЕАРНА ДИОФАНТОВА ЈЕДНАЧИНА ах + by = c

3.1. Однос тачке и праве, тачке и равни. Одређеност праве и равни

Упутство за избор домаћих задатака

Енергетски трансформатори рачунске вежбе

Тест за 7. разред. Шифра ученика

Катедра за електронику, Основи електронике

7. Модели расподела случајних променљивих ПРОМЕНЉИВИХ

4. Троугао. (II део) 4.1. Појам подударности. Основна правила подударности троуглова

Емпиријскo управљање интелигентног мобилног робота на бази машинског учења демонстрацијом и хомографије добијене од некалибрисане камере

Примена првог извода функције

У н и в е р з и т е т у Б е о г р а д у Математички факултет. Семинарски рад. Методологија стручног и научног рада. Тема: НП-тешки проблеми паковања

(1) Дефиниција функције више променљивих. Околина тачке (x 0, y 0 ) R 2. График и линије нивоа функције f: (x, y) z.

ПОВРШИНа ЧЕТВОРОУГЛОВА И ТРОУГЛОВА

РЈЕШЕЊА ЗАДАТАКА СА ТАКМИЧЕЊА ИЗ ЕЛЕКТРИЧНИХ МАШИНА Електријада 2004

Вектори vs. скалари. Векторске величине се описују интензитетом и правцем. Примери: Померај, брзина, убрзање, сила.

Универзитет у Београду. Машински факултет. Пројектни задатак. Мастер академске студије 1. година, II семестар. Шк.год. 2010/2011.

КРУГ. У свом делу Мерење круга, Архимед је први у историји математике одрeдио приближну вред ност броја π а тиме и дужину кружнице.

7.3. Површина правилне пирамиде. Површина правилне четворостране пирамиде

8.2 ЛАБОРАТОРИЈСКА ВЕЖБА 2 Задатак вежбе: Израчунавање фактора појачања мотора напонским управљањем у отвореној повратној спрези

ЛИНЕАРНО И НЕЛИНЕАРНО МОДЕЛИРАЊЕ ГЕОДЕТСКИ РЕГИСТРОВАНИХ ДЕФОРМАЦИОНИХ ПРОЦЕСА КОНСТРУКЦИЈА

СЕГМЕНТАЦИЈА ДИГИТАЛНИХ СЛИКА ПРИМЕНОМ MEAN SHIFT АЛГОРИТМА

ПИТАЊА ЗА КОЛОКВИЈУМ ИЗ ОБНОВЉИВИХ ИЗВОРА ЕНЕРГИЈЕ

1. Функција интензитета отказа и век трајања система

Transcript:

АТ-5 Вештачке неуронске мреже Проф. др Зоран Миљковић Методе одлучивања 1/35

Вештачке неуронске мреже Деф: Неуронска мрежа је парадигма вештачке интелигенције која се дефинише као конективни модел за резоновање заснован на аналогији са мозгом, уз наглашену когнитивну способност да учи и врши генерализацију стеченог знања. Парадигма образац, узор, примерзауглед; Конективан повезан; Когнитиван који се тиче сазнања, сазнајни, спознајни; Неуронске мреже обезбеђују значајне предности при решавању проблема процесирања који захтевају рад у реалном времену и интерпретацију односа између променљивих у вишедимензионалним просторима. 2/35

Општа структура вештачке неуронске мреже повратна рекурентна веза везат I=[ 2, 1, 2, 3,..., n ] T O=[o 1,o 2, o 3,...,o m ] T улазни слој скривени слој излазни слој У општем смислу, неуронске мреже представљају скуп једноставних процесирајућих елемената-неурона, међусобно повезаних везама са одговарајућим тежинским односима; Неуронске мреже имају способност адаптивног понашања према променама, што значи да могу да уче пресликавања између улазног и излазног простора и да синтетизују асоцијативну меморију. 3/35

Основне компоненте Три основне компоненте: Неурон; Топологијамреже; Алгоритамучења; Додатне компоненте: Величинамреже; Функционалностнеурона; Обучавање; Имплементација. θ j x f (net ) 1 (t) w 1 w 2 w 3 w 4 w 5 w 6 w x (t) f(w,x) h(s) f (net ) x n (t) w n w 1 w n x (t+1) Неурони (процесирајући елементи) примају улазне сигнале/информације од окружењаилиоддругихнеуронапрековезакојемогубитиекситационе (побуђивачке) илиинхибиторне. Прагактивацијенеурона θ ј јењегов окидач. 4/35

Неурон основни процесирајући елемент Три саставна елемента: улазни оператор f(w,x), који обједињује улазе и тежинске односе међусобних веза w и формира јединственувредност s=f(w,x)=w T x ; функција преноса h(s), која обрађује излаз из неуронскогулазногоператора (вршиинтеграцију), формирајући потребну вредност за активациону функцију; активационафункција f (net )којаобрађујућиизлаз функције преноса управља излазном вредношћу неурона. 5/35

Математичка формулација улазног оператора неурона Тип улазног оператора Математички израз Напомена Линеаран net ј = w ј x ј Линеарнафункција Тежинскасума net ј = w ј x ј + θ ј Најчешћекоришћен;унеким случајевимапраг θ ј = 0 Повратнавеза net ј = α net старо + β w ј x ј α, βсутежинскеконстанте Активација неурона (општа једначина): ( a ( t 1) net ( t) ) a = F, Неурон генерише излазни сигнал који је у релацији са његовом активацијом преко активационе функције, што се математички може изразити на следећи начин: ( t) = f ( a ( t) ) f ( net ( t) ) o = x = 6/35

Основне АФ: Активационе функције неурона линеарне, бинарне, сигмоидне, компетитивне и Линеарна активациона функција најједноставнија; сумира све улазе у неурон; Гаусове. l f ( net ( t ) ) net ( t) = Бинарна активациона функција f b ( net ( t) ) 1 = 0 ako je net ( t) ostalo > Ω f(net ) 1.0 θ = 0.4 Ω net 0.0 0.3-0.2 0.2 a) b) 7/35

Активационе функције неурона Сигмоидна активациона функција Генерише излазни сигнал који има такође два стабилна стања; Континуална и диференцијабилна; Нелинеарна и неопадајућа. Математичка формулација: f s ( net ( t) ) = net ( t ) 1 + e или... 1 ( Θ ) / τ f (net ) 1.0- f (net ) = 0.01 0.5 τ = 1.0 f (net ) = 0.25 f s* ( net ( t) ) = ( 1+ tanh( λ net ( t) )) 1 2 net 8/35

Алгоритми учења Модели неурона су динамички => општа диференцијална једначина: излаз -тог неурона, при чему је очигледно да се, због динамичких неуронских модела, ради о диференцирању по времену; улаз -тогнеурона net, зависиодизлазамногихнеуронасакојимајеувези, практично се развија систем спрегнутих нелинеарних диференцијалних једначина. w & = И модификацију тежинских односа потребно посматрати као динамички систем => систем диференцијалних једначина за тежинске односе A представљаалгоритамучења; j x & = g, A ( x net ) Процес учења: одређивање тежинских односа кроз итеративни поступак њихове модификације; Избор одговарајућег алгоритма учења, сходно апликацији за коју се мрежа користи, представљазначајанпроблемприпројектовањумреже. ( w x, x,...) j, j 9/35

Алгоритми учења Алгоритам учења Математичка формулација Напомене Hebb-овоправило (1949) Φ/ t = О(t)[I (t) О(t)Φ (t)] О(t) излазнеурона I (t) улазиунеурон Φ (t) јачинасинаптичкихвеза Wdrow-Hoff-ово правило (1960) (LMS- least mean square алгоритам, тј. алгоритам најмање квадратне разлике) w(t+1) = w(t) + 2µ ε к x к x k k- ти улазнивектор w тежинскивектор µ позитивна константа ε к тренутнаразлика (грешка) између захтеване вредности излаза (d к )и актуелневредности (y к ) Генералисано делта правило (1986) (простирање грешке уназад) w ј (t+1) = w(t) ј + η δ pј x x - ти улазнивектор w ј вектортежинскиходноса η параметар учења δ pј грешкавезаназаизлаз неурона δ pј = ( y pј о pј ) y pј је захтеванавредностизлаза, ао pј је актуелна вредност p- тог обучавајућегвекторазa ј- ти неурон 10/35

Алгоритми учења основна питања Које перформансе треба да има систем неуронске мреже у погледу обучавања? Да ли је потребно развити чисто динамички систем неуронске мреже? Хоћелифазаучењабитиреализованау on-lne или off-lne режиму? Далије брзина конвергенције важна за учење неуронске мреже? 11/35

Примена вештачких неуронских мрежа Функционална апроксимација је представљена скупом независнихпроменљивих x=[x 1,x 2,...,x m ] Т иизлазним сигналом y=f(x 1,x 2,...,x m ), којисугруписаниупарове {y,f(x)}. Предикција је представљена претходним вредностима стањасистема, X=[x(k), x(k-1),...,x(k-n)] Т, каои тренутнимипретходнимвредностимаулаза, U=[u(k), u(k-1),...,u(k-m)] Т, којесабудућимстањимасистема, x(k+1)=f(x,u) формирају парове {x(к+1),(x,u)}. Класификацијајепредстављенаскупомулаза { c x, =1,...,N j }, којисаспецифицираномкласом C ј формира парове {C ј, c x ј }. 12/35

Најраспрострањенији модели вештачких неуронских мрежа Перцептрон; Backpropagaton (BP)неуронскамрежа; Асоцијативне неуронске мреже; Hopfeld-ове неуронске мреже; ART неуронскемреже (ART-1, ART-2, ART-3); Fuzzy асоцијативне неуронске мреже; Самоорганизујуће неуронске мреже. 13/35

Перцептрон Представља најранији модел вештачке неуронске мреже; Пионирски радови: McCulloch&Ptts (1943.); Rosenblatt (1958,1962.); Mnsky&Papert (1969). 14/35

Перцептрон Једноставна архитектура; Користи простирање сигнала у једном смеру ( feedforward ); Имаједаниливишеслојеванеуронаизмеђуулазнихи излазних неурона (најчешће цео перцептрон има два слоја); Функционише на бази супервизорског учења; Линеарни тип неурона са прагом активације θ. o = f ( net) = 1 0 net net Θ < Θ net = w j x j 15/35

Структура перцептрона - Rosenblatt Структуру перцептрона чини: скупулазнихнеурона ({s} неурони), скуп скривених неурона ({а} неурони) и један излазни неурон ({r} неурон); Rosenblatt-ова основна идеја: јачину веза између улазног слоја неурона и скривеног слоја неурона случајно изабрати по неком закону вероватноће и фиксирати њихове вредности током целог процеса учења; Алгоритам учења реализује подешавање тежинских односа између скривеног слоја неурона и јединог излазног неурона; Ако има довољно различитих типова неурона у скривеном слоју (репрезентују различите логичке исказе из улазног слоја), онда је процес учења од неурона из скривеног слоја до излазног неурона у стању да реализује комплексно логичко закључивање. 16/35