Fundamental intelligence

Σχετικά έγγραφα
محاسبه ی برآیند بردارها به روش تحلیلی

روش محاسبه ی توان منابع جریان و منابع ولتاژ

تصاویر استریوگرافی.

مثال( مساله الپالس در ناحیه داده شده را حل کنید. u(x,0)=f(x) f(x) حل: به کمک جداسازی متغیرها: ثابت = k. u(x,y)=x(x)y(y) X"Y=-XY" X" X" kx = 0

ﯽﺳﻮﻃ ﺮﯿﺼﻧ ﻪﺟاﻮﺧ ﯽﺘﻌﻨﺻ هﺎﮕﺸﻧاد

7- روش تقریب میانگین نمونه< سر فصل مطالب

تخمین با معیار مربع خطا: حالت صفر: X: مکان هواپیما بدون مشاهده X را تخمین بزنیم. بهترین تخمین مقداری است که متوسط مربع خطا مینیمم باشد:

فصل چهارم : مولتی ویبراتورهای ترانزیستوری مقدمه: فیدبک مثبت

جلسه ی ۱۰: الگوریتم مرتب سازی سریع

تحلیل مدار به روش جریان حلقه

آزمایش 8: تقویت کننده عملیاتی 2

جلسه 3 ابتدا نکته اي در مورد عمل توابع بر روي ماتریس ها گفته می شود و در ادامه ي این جلسه اصول مکانیک کوانتمی بیان. d 1. i=0. i=0. λ 2 i v i v i.

مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل

آزمایش 1: پاسخ فرکانسی تقویتکننده امیتر مشترك

الگوریتم جستجوی ممنوعه مسیریابی وسیله نقلیه

Angle Resolved Photoemission Spectroscopy (ARPES)

مثلث بندی دلونی فصل 9 مژگان صالحی- دی 92 استاد راهنما: جناب آقای دکتر محمد فرشی

Econometrics.blog.ir

شبکه های عصبی در کنترل

فصل پنجم زبان های فارغ از متن

آزمون مقایسه میانگین های دو جامعه )نمونه های بزرگ(

جلسه 9 1 مدل جعبه-سیاه یا جستاري. 2 الگوریتم جستجوي Grover 1.2 مسا له 2.2 مقدمات محاسبات کوانتمی (22671) ترم بهار

همبستگی و رگرسیون در این مبحث هدف بررسی وجود یک رابطه بین دو یا چند متغیر می باشد لذا هدف اصلی این است که آیا بین

6- روش های گرادیان مبنا< سر فصل مطالب

سلسله مزاتب سبان مقدمه فصل : زبان های فارغ از متن زبان های منظم

System and Control Volume (2)

هو الحق دانشکده ي مهندسی کامپیوتر جلسه هفتم

جلسه ی ۵: حل روابط بازگشتی

جلسه ی ۴: تحلیل مجانبی الگوریتم ها

شاخصهای پراکندگی دامنهی تغییرات:

معادلهی مشخصه(کمکی) آن است. در اینجا سه وضعیت متفاوت برای ریشههای معادله مشخصه رخ میدهد:

قاعده زنجیره ای برای مشتقات جزي ی (حالت اول) :

تلفات خط انتقال ابررسی یک شبکة قدرت با 2 به شبکة شکل زیر توجه کنید. ژنراتور فرضیات شبکه: میباشد. تلفات خط انتقال با مربع توان انتقالی متناسب

تمرینات درس ریاض عموم ٢. r(t) = (a cos t, b sin t), ٠ t ٢π. cos ٢ t sin tdt = ka۴. x = ١ ka ۴. m ٣ = ٢a. κds باشد. حاصل x٢

مسائل. 2 = (20)2 (1.96) 2 (5) 2 = 61.5 بنابراین اندازه ی نمونه الزم باید حداقل 62=n باشد.

جلسه ی ۳: نزدیک ترین زوج نقاط

تئوری جامع ماشین بخش سوم جهت سادگی بحث یک ماشین سنکرون دو قطبی از نوع قطب برجسته مطالعه میشود.

مدار معادل تونن و نورتن

نویسنده: محمدرضا تیموری محمد نصری مدرس: دکتر پرورش خالصۀ موضوع درس سیستم های مینیمم فاز: به نام خدا

دانشکده ی علوم ریاضی جلسه ی ۵: چند مثال

جلسه ی ۲۴: ماشین تورینگ

پروژه یازدهم: ماشین هاي بردار پشتیبان

فصل سوم .)MAC( و الگوریتم کنترل مدل )کنترل کننده مدل الگوریتمی-پاسخ ضربه-( )DMC(

Top Down Parsing LL(1) Narges S. Bathaeian

دبیرستان غیر دولتی موحد

فصل دهم: همبستگی و رگرسیون

بسم اهلل الرحمن الرحیم آزمایشگاه فیزیک )2( shimiomd

تمرین اول درس کامپایلر

1) { } 6) {, } {{, }} 2) {{ }} 7 ) { } 3) { } { } 8) { } 4) {{, }} 9) { } { }

هدف از این آزمایش آشنایی با رفتار فرکانسی مدارهاي مرتبه اول نحوه تأثیر مقادیر عناصر در این رفتار مشاهده پاسخ دامنه

به نام خدا. الف( توضیح دهید چرا از این تکنیک استفاده میشود چرا تحلیل را روی کل سیگنال x[n] انجام نمیدهیم

جلسه 14 را نیز تعریف کرد. عملگري که به دنبال آن هستیم باید ماتریس چگالی مربوط به یک توزیع را به ماتریس چگالی مربوط به توزیع حاشیه اي آن ببرد.

سايت ويژه رياضيات درسنامه ها و جزوه هاي دروس رياضيات

هدف از این آزمایش آشنایی با برخی قضایاي ساده و در عین حال مهم مدار از قبیل قانون اهم جمع آثار مدار تونن و نورتن

جلسه ی ۱۱: درخت دودویی هرم

فشردهسازیاطالعات بخشششم. Information Compression دانشگاهشهيدبهشتی پژوهشکدهیفضایمجازی پاييز 1396 احمدمحمودیازناوه

جلسه 12 به صورت دنباله اي از,0 1 نمایش داده شده اند در حین محاسبه ممکن است با خطا مواجه شده و یکی از بیت هاي آن. p 1

جلسه 15 1 اثر و اثر جزي ی نظریه ي اطلاعات کوانتومی 1 ترم پاي یز جدایی پذیر باشد یعنی:


به نام خدا. Sparse Coding ستاره فرامرزپور

طراحی و تجزیه و تحلیل کنترل کننده منطق فازي براي کنترل فرکانس بار در سیستم هاي قدرت

مارکوف 1.مقدمه: سید مهدی صفوی محمد میکاییلی محمد پویان چکیده ما با مطالعه مدل مخفی میدان تصادفی مارکوف از الگوریتم EM

تعیین محل قرار گیری رله ها در شبکه های سلولی چندگانه تقسیم کد

ارائه کتابها ي جسيات رایگان مهىدسی عمران بهتریه ي برتریه مقاالت ريز عمران اوجمه های تخصصی مهىدسی عمران فريشگاه تخصصی مهىدسی عمران

جلسه 22 1 نامساویهایی در مورد اثر ماتریس ها تي وري اطلاعات کوانتومی ترم پاییز

کنترل تطبیقی غیر مستقیم مبتنی بر تخصیص قطب با مرتبه کسری

Beta Coefficient نویسنده : محمد حق وردی

جلسه ی ۱۸: درهم سازی سرتاسری - درخت جست و جوی دودویی

آموزش SPSS مقدماتی و پیشرفته مدیریت آمار و فناوری اطالعات -

فعالیت = ) ( )10 6 ( 8 = )-4( 3 * )-5( 3 = ) ( ) ( )-36( = m n m+ m n. m m m. m n mn

آشنایی با پدیده ماره (moiré)

تابع هزینه حداقل میانگین مربعات توأم با حداقل واریانس خطا

Spacecraft thermal control handbook. Space mission analysis and design. Cubesat, Thermal control system

سینماتیک مستقیم و وارون

طراحی و تعیین استراتژی بهره برداری از سیستم ترکیبی توربین بادی-فتوولتاییک بر مبنای کنترل اولیه و ثانویه به منظور بهبود مشخصههای پایداری ریزشبکه

خالصه درس: نویسنده:مینا سلیمان گندمی و هاجر کشاورز امید ریاضی شرطی. استقالل متغیر های تصادفی پیوسته x و y استقالل و امید ریاضی

باشند و c عددی ثابت باشد آنگاه تابع های زیر نیز در a پیوسته اند. به شرطی که g(a) 0 f g

ویرایشسال 95 شیمیمعدنی تقارن رضافالحتی

فصل چهارم : مولتی ویبراتورهای ترانزیستوری مقدمه: فیدبک مثبت

کنترل سوییچینگ بر مبنای دستیابی به نمودار حداکثر توان در سلول خورشیدی با روش هوشمند تطبیقی

تخمین نقطه تغییر در ماتریس کواریانس فرآیند نرمال چند متغیره با استفاده از شبکه عصبی

فصل سوم جریان های الکتریکی و مدارهای جریان مستقیم جریان الکتریکی

روش ابداعی کنترل بهینه غیرخطی در توربین بادی با حداقل سازی نوسانات توان و گشتاور

فصل 5 :اصل گسترش و اعداد فازی

جلسه 2 1 فضاي برداري محاسبات کوانتمی (22671) ترم بهار

جلسه 2 جهت تعریف یک فضاي برداري نیازمند یک میدان 2 هستیم. یک میدان مجموعه اي از اعداد یا اسکالر ها به همراه اعمال

Kowsar San'at Espadana Co.

اصول انتخاب موتور با مفاهیم بسیار ساده شروع و با نکات کاربردی به پایان می رسد که این خود به درک و همراهی خواننده کمک بسیاری می کند.

عنوان: رمزگذاري جستجوپذیر متقارن پویا

جلسه 16 نظریه اطلاعات کوانتمی 1 ترم پاییز

ارزیابی بهره وری متقاطع DEA بر پایه بهبود پارتو

چکیده مقدمه کلید واژه ها:

یدنب هشوخ یاه متیروگلا

هادي ويسي. دانشگاه تهران - دانشکده علوم و فنون نوين نیم سال اول

تئوری رفتار مصرف کننده : می گیریم. فرض اول: فرض دوم: فرض سوم: فرض چهارم: برای بیان تئوری رفتار مصرف کننده ابتدا چهار فرض زیر را در نظر

فهرست جزوه ی فصل دوم مدارهای الکتریکی ( بردارها(

هادي ويسي. دانشگاه تهران - دانشکده علوم و فنون نوين

هر عملگرجبر رابطه ای روی يک يا دو رابطه به عنوان ورودی عمل کرده و يک رابطه جديد را به عنوان نتيجه توليد می کنند.

جلسه 28. فرض کنید که m نسخه مستقل یک حالت محض دلخواه

فهرست مطالب جزوه ی فصل اول مدارهای الکتریکی مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل تحلیل مدار به روش جریان حلقه... 22

Transcript:

Fundamental intelligence Machine Learning Computational intelligence Computational neural Computational fuzzy Computational evolution Expert sysyetm Multi-agent systems Swarm intelligence دانشگاه خواجه نصیرالدین طوسی- دانشکده برق

بسمه تعالی شبکه های عصبی دانشگاه خواجه نصیرالدین طوسی- دانشکده برق

فهرست مطالب فصل اول : مقدمه ای بر شبکه های عصبی فصل دوم : ارائه ساختارهای مختلف شبکه های عصبی فصل سوم : ارائه مفاهیم پایه در آموزش شبکه های عصبی بر اساس الگوریتم پس انتشار خطا فصل چهارم : بررسی روشهای مختلف آموزش در شبکه های عصبی فصل پنجم : بهبود الگوریتم پس انتشار خطا فصل ششم : شبکه های عصبی بازگشتی 3

فهرست مطالب فصل هفتم : شبکه های حافظه دار و گاما فصل هشتم : شبکه های عصبی مدل مخچه فصل نهم : شبکه عصبی بیزین فصل دهم : شبکه عصبی مثلثاتی فصل یازدهم : شبکه عصبی ویولت فصل دوازدهم : شبکه عصبی کانولوشنال فصل سیزدهم : کاربرد شبکه های عصبی در شناسایی پیش بینی و کنترل سیستم ها 4

فصل اول : مقدمه ای بر شبکه های عصبي 5

سیستم های پیچیده کلیه بخش ها با یکدیگر سیستم های پیچیده از بخش های مختلف تشکیل شده اند که در ارتباطند و همچنین بخش های سیستم ها با خارج در ارتباط هستند و در کنش و واکنش می باشند. انواع سیستم های پیچیده سیستم های حمل و نقل)زمینی دریایی و هوایی( سیستم های هواشناسی )منطقه ای محلی و جهانی( و آنها بین ارتباط و تخصصها ها سیستم های بیمارستانی )بخش بیمارستانهای دیگر و بیمه و...( درخواستها نیازها چون سیستم های اقتصادی)تحت تأثیرعواملی موجودیها و بحرانها... می باشد.( دارایی فقر و امکانات فردی و تحصیالت جوامع )فرهنگهای مختلف اجتماعی( سیستم های بیولوژیکی)شامل مغز مخچه سلولها و... می باشد( 6

7 :یبصع هکبش هکبش یاه یبصع رب ساسا یسانش راتفر نیشام یاه یکیژولویب تادوجوم هدنز یحارط هدش.تسا یعونصم یبصع یاه هکبش زا فده : هئارا یئاهشور تهج هدافتسا تخس زا اهرازفا ( تارادم ) و مرن اهرازفا ( متیروگلا )اه یارب داجیا تیلباق یاه دنمشوه هب هاگتسد اه توبور اه همانرب اه و هریغ... یم دشاب هک رداق هب یریگدای نیح دنیآرف یم.دشاب رد نیا سرد فده ییانشآ طقف اب متیروگلا اه و هوحن یگنوگچ هفاضا ندومن نآ هب /مرن تخس رازفا یم هکدشاب رد نیا اتسار همانرب اه )متیروگلا( رداق هب یریگدای یم.دنشاب

8 موهفم تسیچ شوه اب هجوت هب هکنیا ناققحم ات نونک هتسناوتن دنا هرابرد درکلمع زغم ناسنا هک رد عقاو لحم هیزجت و (لیلحت قاتا )نامرف نیشام یکیژولویب تادوجوم هدنز اصوصخ ناسنا فیرعت یعقاو هئارا دنیامن اذل خساپ هب نیا لاوس هب یگداس ناکما ریذپ یمن دشاب و یمن ناوت یخساپ نشور و فافش هئارا.دومن رد ره لاح نیشام یکیژولویب ار اب تیلباق یاه ریز یم ناوت دروم یسررب رارق :داد

9 موهفم تسیچ شوه یشزومآ یریذپ زا قیرط تفایرد هداد اه ( تاعلاطا ) و ای اهوگلا ای یبیکرت زا هداد اه و وگلا اه هظفاح رد یرادهگن ندومن تایبرجت شزومآ و هریغ و لباق یزاسزاب ندومن.اهنآ میمصت یریگ بسانم و یقطنم ساسارب یریگدای و تایبرجت شزومآ هدید.هتشذگ زاربا (رظن تاساسحا ) ساسارب دوجو تیعقاو هتشذگ.لاح و هدنامزاس دوخ لکش /یه یریذپ ینورد ساسارب یاهزاین یدرف.یعمج و طابترا رارقرب ندرک یقطنم اهوگلا ساسارب شزومآ هتشذگ هب ناونع لاثم یاوه یربا یریوصت زا ناکما دوجو یگدنراب ار رد نهذ ناسنا یعادت یم.دنک هئارا یخساپ بسانم هب یوحن هک کرحم یاه یجراخ زا دوخ کی سکع لمعلا یبسانم هئارا.دنهد

بررسی ساختمان سلول عصبی بیولوژیک شکل و ساختمان جسم سلولی نورون سوما body)soma( cell دندریت cell)dendrite( input آکسون cell)axon( output 0

Biology Inspiration Neurons respond slowly 0-3 s compared to 0-9 s for electrical circuits The brain uses massively parallel computation»0 neurons in the brain»0 4 connections per neuron Dendrites Human nervous system is built of cells call neuron Each neuron can receive, process and transmit electrochemical signals Dendrites extend from the cell body to other neurons, and the connection point is called synapse Signals received among dendrites are transmitted to and summed in the cell body If the cumulative excitation exceed a threshold, the cell fires, which sends a signal down the axon to other neurons Axon Cell body Synapse

2

مقدمهای بر شبکههای عصبی و قابلیتها و تاریخچه آن مفهوم پایه شبکههای عصبی چیست چرا شبکههای عصبی قابلیت یادگیری دارند چرا شبکههای عصبی قابلیت تعمیم پذیری ساختار دارند شبکههای عصبی تقریبی از رفتار مغز و اعصاب در قسمتهای مختلف بدن موجودات زنده هستند. شبکههای عصبی دارای قابلیتهای مختلف بر اساس کاربرد میباشند. شبکههای عصبی یک پردازشگر موازی است که در یک لحظه دارای آموزش و اعمال میباشند. 3

ارزش و قابلیت یادگیری در شبکههای عصبی دارای محاسبات قوی و ارزشمند از داده و اطالعات هستند. در ساختار شبکههای عصبی که دارای نرونها و الیههای زیاد هستند سیستم عصبی میشوند ولی زیاد در انعطاف پذیری و درجه آزادی محاسبات طوالنیتر خواهد شد. دارای توانایی زیاد در اصالح و تعمیم پذیری میباشند. دارای قابلیت حذف اغتشاش و نویز هستند. قابلیت تولید الگوریتم تطبیق پذیر هوشمند بر پایه کاربرد را دارند. باعث زمان 4

یبصع یاه هکبش یاهیگژیو 5 نونکات لدم یاه فلتخم اب راتخاس و متیروگلا یاه یعونتم زا هکبش یاه یبصع هئارا هدش تسا و ره دنچ نیا لدم اه اب رگیدکی توافت دنراد اما مامت نیا لدم اه کی فده کرتشم ار لابند یم.دننک هب روط یلک لولس یاه یبصع هک لیکشت هدنهد کی هکبش یبصع یم دنشاب نیشام یاه یتابساحم دنتسه هک زا یازجا )لولس(هداس و هریجنز یا لیکشت دنوش یم و صاوخ یاراد :دنریز تیلباق یریگدای و قیبطت یریذپ تیلباق میمعت یریذپ شزادرپ یزاوم مواقم ندوب تیلباق یمومع بیرقت

6 تیلباق یریگدای و قیبطت یریذپ تیلباق یریگدای ینعی ییاناوت میظنت یاهرتماراپ هکبش.یبصع یارب ن ا ی روظنم هنومن یاه هیلوا ار هب هکبش لامعا یم دننک هکبش اهرتماراپ ار رب ساسا نیا هنومن اه میظنت یم.دنک رگا هنومن یاه دیدج هب نیا هکبش هک هب نیا قیرط شزومآ هدید لامعا دوش یجورخ بسانم ار اب دصرد یاطخ کچوک یم ناوت تسدب.دروآ اب نیا بیترت هکبش یاه یبصع یم دنناوت اب رییغت طیارش هب تروص هنادنمشوه دوخ ار قیبطت ای حلاصا.دیامن

7 تیلباق میمعت :یریذپ سپ زا هکنآ هنومن یاه هیلوا هب هکبش شزومآ هداد دش هکبش یم دناوت رد لباقم یاهیدورو شزومآ هداد هدشن یاهیدورو( )دیدج رارق دریگ و کی یجورخ بسانم دیلوت.دیامن نیا یجورخ رب ساسا مسیناکم میمعت هک یزیچ زج دنیارف ییاینورد تسین هب تسد یم.دیآ شزادرپ :یزاوم یماگنه هک هکبش یبصع رد بلاق تخس رازفا هدایپ یم دوش ییاهلولس هک رد کی زارت رارق یم دنریگ یم دنناوت هب روط نامزمه هب یاهیدورو نآ زارت خساپ.دنهد نیا یگژیو ثعاب شیازفا تعرس شزادرپ یم.دوش رد عقاو رد نینچ یمتسیس هفیظو یلک شزادرپ نیب هدنزادرپ یاه رتکچوک لقتسم زا رگیدکی عیزوت یم.ددرگ

8 مواقم :ندوب رد کی هکبش یبصع راتفر یلک نآ لقتسم زا راتفر ره لولس رد هکبش یم دشاب عقاورد راتفر یلک هکبش دنیآرب یاهراتفر یلحم کت کت یاهلولس هکبش یم دشاب هک نیا رما ثعاب یم دوش ات اطخ یاه یلحم اهلولس زا مشچ یجورخ ییاهن رود.دننامب نیا تیصوصخ ثعاب شیازفا تیلباق مواقم ندوب رد هکبش یبصع یم.ددرگ تیلباق :یمومع بیرقت هکبش یاه یبصع دنچ هیلا اب کی ای دنچ هیلا یفخم هب طرش نآ هک دادعت یاهنورن هیلا اه یفخم یفاک هتشاد دنشاب یم دنناوت ره عبات ریغ یطخ هتسویپ یا ار رد یاضف یبیکرت نیمخت.دننزب

Applications Aerospace High performance aircraft autopilots, flight path simulations, aircraft control systems, autopilot enhancements, aircraft component simulations, aircraft component fault detectors Automotive Automobile automatic guidance systems, warranty activity analyzers Banking Check and other document readers, credit application evaluators Defense Weapon steering, target tracking, object discrimination, facial recognition, new kinds of sensors, sonar, radar and image signal processing including data compression, feature extraction and noise suppression, signal/image identification Electronics Code sequence prediction, integrated circuit chip layout, process control, chip failure analysis, machine vision, voice synthesis, nonlinear modeling 9

Applications Financial Real estate appraisal, loan advisor, mortgage screening, corporate bond rating, credit line use analysis, portfolio trading program, corporate financial analysis, currency price prediction Manufacturing Manufacturing process control, product design and analysis, process and machine diagnosis, real-time particle identification, visual quality inspection systems, beer testing, welding quality analysis, paper quality prediction, computer chip quality analysis, analysis of grinding operations, chemical product design analysis, machine maintenance analysis, project bidding, planning and management, dynamic modeling of chemical process systems Medical Breast cancer cell analysis, EEG and ECG analysis, prosthesis design, optimization of transplant times, hospital expense reduction, hospital quality improvement, emergency room test advisement 20

Applications Robotics Trajectory control, forklift robot, manipulator controllers, vision systems Speech Speech recognition, speech compression, vowel classification, text to speech synthesis Securities Market analysis, automatic bond rating, stock trading advisory systems Telecommunications Image and data compression, automated information services, real-time translation of spoken language, customer payment processing systems Transportation Truck brake diagnosis systems, vehicle scheduling, routing systems 2

فصل دوم : ارائه ساختارهای مختلف شبکه های عصبي Multi-layer Perceptron (MPL) 22

هر شبکه عصبی دارای سه ویژگی زیر می باشد: مدل سلول عصبی )نوع تابع( ساختار شبکه عصبی )نوع توپولوژی( آموزش در شبکه عصبی )نوع آموزش( خودسازماندهی ساختار درحین آموزش 23

مدل سلول عصبی توابع انتقال خروجی واقعی به تابع انتقال ویژه ای که انتخاب شده بستگی دارد و مورد نظر مسئله ای که سلول عصبی برای حل آن استفاده می شود سه نوع از پرکاربرد ترین آنها عبارتند از: باید معیار را برآورده های کند. تابع تابع تابع انتقال سخت محدود انتقال خطی انتقال لگاریتمی سیگموئید 24

مدل سلول عصبی توابع انتقال از آنجایی که تابع انتقال لگاریتمی سیگموئید یک تابع مشتق پذیر است عموما از آن در شبکه های چند الیه ای استفاده می شود که با استفاده از الگوریتم پس انتشار خطا ( Backpropagation ) آموزش می پذیرند. نمونه ای از این تابع به صورت زیر است: a netg e g مطابق این عبارت ورودی این تابع انتقال می تواند هر مقداری بین منفی بینهایت تا مثبت بینهایت باشد در حالیکه خروجی آن در بازه صفر و محدود شده است. 25

توابع انتقال hardlim(n) = if n >=0 =0 otherwise logsig(n) = / ( + exp(-n)) 26 poslin(n) = n, if n >= 0 = 0, if n <= 0 hardlims(n) = if n >= 0, - otherwise.

توابع انتقال purelin(n) = n 27 satlin(n) = 0, if n <= 0 = n, f 0 <= n <= =, if <= n satlins(n) = -, if n <= - = n, if - <= n <= =, if <= n

توابع انتقال tansig(n) = 2/(+exp(-2n))- tribas(n) = - abs(n), if - <= n <= = 0, otherwise 28 radbas(n) = exp(-n^2)

مدل سلول عصبی مدل سلول عصبی تک ورودی اگر این مدل ساده را با سلول عصبی بیولوژیکی که پیش از این شرح دادیم مقایسه کنیم وزن w مطابقت دارد با سیناپس بدنه سلول به وسیله عمل جمع و تابع انتقال بیان شده و خروجی سلول عصبی یا همان a نمایانگر سیگنال آکسون است. 29

سلول عصبی چند ورودی مدل سلول عصبی با چند ورودی عموما یک سلول عصبی بیش از یک ورودی دارد. هر کدام از ورودی های مجزا در وزن متناظر خود ضرب می شوند. بنابراین می توان ورودی ها را به صورت بردار p و وزن ها را به صورت ماتریس W تعریف نمود. 30

مدل سلول عصبی با چند ورودی و چند خروجی 3

کی ساختار های شبکه عصبی الیه از سلول عصبی یک سلول عصبی حتی با ورودی های زیاد ممکن است نیاز ما را براورده نکند. معموال به تعدادی از آنها که به صورت موازی عمل می کنند نیار می باشد که به آن یک شبکه یک الیه گفته می شود. 32

33 Layer of Neurons

34 Abbreviated Notation

ساختار شبکه عصبی چند الیه 35 R S S 2 S 3 Network

ساختار های شبکه الیه های چند گانه از سلول عصبی در یک شبکه چند الیه هر الیه ماتریس وزن W ویژه خود بردار بایاس b خود یک بردار ورودی n مربوط به خود و یک بردار خروجی a ویژه خود را دارد. الیه های مختلف می توانند تعداد نرون های متفاوتی داشته باشند. الیه ای که خروجی آن خروجی شبکه است یک الیه خروجی نامیده می شود. الیه های دیگر الیه های پنهان نام دارند. شبکه های چند الیه قدرتمند تر از شبکه های تک الیه هستند. برای نمونه یک شبکه دو الیه که شامل یک الیه اول سیگموئید و یک الیه دوم خطی می باشد می تواند به منظور تقریب اکثر توابع اختیاری آموزش داده شود. بیشتر شبکه های کاربردی تنها دو یا سه الیه دارند. 36

x x 2 W First active layer n f o W 2 Second active layer 2 n 2 f 2 o x 3 n 2 f 2 o (a) General structure with two activation layers 37

neuron w w 2 n F o 2 neuron x x 2 x 3 w 3 w 2 w 22 w 23 w 0 x 0 w 20 n 2 F 2 o 2 (2) w (2) w 2 2 w 0 2 o 0 2 n 2 F 2 o neuron 2 x 0 (b) Specific structure with two activation layers

Nonlinear mapping ( n 0 ) x R w n 2 F (0) F (0) o 2 w n 2 ( n 2 ) y R x ( n 0 ) R F 2 w 2 F w x ( n 2 ) y R x R 4.3 : Two-layered neural network: nonlinear mapping for input ( ) to ( n output ( 2 ) y R ) ( n 0 )

w n f 2 w 2 n 2 o d x x 2 x 0 = w 2 n 2 e e f 2 2 w 2 2 n 2 e 2 o 2 d 2 x n0 e 2 e 2 w n n n e 2 f n 2 w n2 2 n n2 2 o n2 d n2 e n e n2 e n2

X 0 First activation layer neuron o 0 Second activation layer 2 neuron 2 o 0 Neural inputs x R n 0 X neuron 2 o 2 neuron 2 2 o Neural outputs o R n 2 X n0 neuron n (Hidden layer) 2 neuron n2 o o n n 2 (Output layer) A two-layered feedforward neural network : n hidden neurons, and n 2 output neurons x o [ x... x [ o... o i i... x n... o 0 ] n ] T T R R n n 0

Feedforward part x R ( n 0 ) w n F (.) o R ( n ) 2 w 2 F (.) o R 2 n 2 2 _ + d R n2 e e Backpropagation part 4.8 : The matrix representation of backpropagation learning for two-layered feedforward neural network with linear output neurons

O n 0 0 X c 0 O 2 Xc 2 O.. X. X 2 cn2. f f. W W 2. f. f 2 f 2.. f 2.... d d 2..... X n d n 43

Z - Z - Z - Z - خروجي ه ا عم لگر ت اخير ورودي ه ا 44

فصل سوم : ارائه مفاهیم پایه در آموزش شبکه های عصبی بر اساس الگوریتم پس انتشار 45

قوانین یادگیری شبکه های عصبی یادگیری بدون مربی یادگیری تقویتی یادگیری با مربی مربی با یادگیری ) ( در یادگیری با مربی قانون یادگیری به وسیله از رفتارهای مناسب شبکه ایجاد می شود: مجموعة مثالهایی مجموعة آموزشی {x, t }, {x 2, t 2 },, {x Q, t Q } 46

بقع هب راشتنا متیروگلا نیا متیروگلا یم دناوت رد شزومآ یاهنورتپسرپ دنچ هیلا هک رداق هب لح لئاسم یطخریغ دنتسه راکب.دور نورتپسرپ دنچ هیلا هک اب متیروگلا راشتنا هب ب ع ق شزومآ هدید دشاب رد لاح رضاح دربراکرپ نیرت هکبش یبصع تسا هک هب روط هدرتسگ هدافتسا.دوش یم بیرقت عبات یاه هکبش یبصع هب ناونع رگاسانش و رلرتنک یاهمتسیس یکیمانید یاهدربراک یناوارف.دنراد یاه هکبش یبصع نورتپسرپ دنچ هیلا هب ناونع کی بیرقت رگ یمومع هتخانش دنوش یم و نیا تیلباق رد اهنآ هتفهن تسا هک هب ناونع کی هنیزگ رایسب بسانم و روهشم تهج لرتنک یطخریغ و نینچمه ییاسانش و یزاسلدم یاهمتسیس یطخریغ حرطم.دنتسه نیاربانب هکبش یاه یبصع هب ناونع بیرقت هدننز یاه عباوت هب راک یم.دنور یارب لاثم رد یاهمتسیس لرتنک فده نتفای کی عبات دروخزاب بسانم تسا هک یجورخ ی ه ا هزادنا هدش یریگ ار هب یدورو یاه لرتنک تشاگن.دنک 47

الگوریتم انتشار به عقب روش مبنای بر آموزش الگوریتم انتشار به عقب در شبکه های چند الیه خروجی دهد. می تشکیل را بعدی الیه ورودی یک الیه o s+ = f s+ ( W s+ o s + b s+ ) For s= o,,, M- شاخص عملکرد این در عملکرد شاخص الگوریتم خطای باشد. می مربعات میانگین J(x) = E[e T e] = E[(t-o) T (t-o)] 48

الگوریتم انتشار به عقب (GD) الگوریتم (w) شیبدارترین نزول تقریب برای خطای میانگین net s i ( k) W s i ( k) O ( s k ) For s=, It means in first active layer the summation of weigthed input is; Net ( k) W ( k) O 0 ( k) 49

of is; The size 0 W n n 50 W 0, 0 0 0 0 0 0,,3,2 4, 4, 3, 3,2 3,, 2, 2,3 2,2 2,,,,3,2,,...,,,......,...,,...,,,,...,,,,,...,,, n n n n n n n n n n n w w w w w w w w w w w w w w w w w w w

of is; The size 0 n 0 O 5 0 O 0 0 4 3 2.. n n x x x x x x

O 52 3 2 3 2 3 2...... (.) 0,0,0,0,0,0, (.),0 0,0,0,0,0,...... (.),0,0,0,0 0,0, (.),0,0,0,0,0 0, (.),0,0,0,0,0,0.. n n n n n n net net net net net f f f f f o o o o o :

متیروگلا نیرترادبیش لوزن (GD) یارب بیرقت یاطخ نیگنایم (w) ) ( ) ( ) (,,, k w k w k w m j i m j i m j i 53 بقع هب راشتنا متیروگلا w m j i k w ) (, ) ( ) ( ) (, k o k s w k J m j m i m j i ) ( ) ( ) ( k net k J k s m i m i ) ( ) ( ) (, k w k net k o m j i m i m j

الگوریتم انتشار به عقب (GD) الگوریتم میانگین شیبدارترین (b) نزول برای تقریب خطای b m i m m ( k ) b ( k) b ( k) m b k) i ( m s b J b m i i i s m i ( k) J ( k) m b ( k) i 54

نوناق هریجنز یا یارب هکبش دنچ هیلا اطخ یحیرص عبات زا نزو اه رد هیلا یاه ناهنپ یمن دشاب نیاربانب تاقتشم هب یناسآ لباق هبساحم.دنتسین m j i m i m i m j i w net net J w J,, m i m i m i m i b net net J b J 55 بقع هب راشتنا متیروگلا

m i m j S j m j i m j i b o w net m,,,, m i m i m j m j i m i b net o w net m i m i net J s, m j m i m j i o s w J m i m i s b J,, ) ( ) ( m i m i m j i m j i o s k w k w m i m i m i s k b k b ) ( ) ( 56 بقع هب راشتنا متیروگلا نوناق هریجنز یا

یارب تیساسح هبساحم اه هب دربراک یرگید زا نوناق هریجنز یا زاین :میراد ) ( ) (,,,, m j m m j i m j m j m m j i m j m j m j i m j s l m i m l m l i m j m i n f w n n f w n a w n b a w n n m m j m j m m j m n n f n f ) ( ) ( 57 اه تیساسح بقع هب راشتنا متیروگلا

نونکا یم میناوت یشخب ار هدهاشم مینک هک متیروگلا راشتنا هب بقع مان دوخ ار زا نآ هتفرگ.تسا تیساسح اه رد هکبش هب تمس بقع زا نیرخآ هیلا هب نیلوا هیلا راشتنا یم :دنبای ) )( ( ˆ ) )( ( ˆ ˆ m T m m m m T m m m m T m m m m F F F s W n F n W n F n n n n s 2 s s s s M M 58 اه تیساسح بقع هب راشتنا متیروگلا

هطقن زاغآ یارب طابترا یتشگزاب هلداعم لبق زا هلداعم ریز هب تسد یم :دیآ M i i i i M i s j j j M i T M i M i n a a t n a t n n F s M ) 2( ) ( ) ( ) ( ˆ 2 a t a t ) ( ) ( M j M M i M j M M i M i M i i n f n n f n a n a ) ( ) 2( M j M i i M i n f a t s ) )( ( 2 a t n F s M M M 59 اه تیساسح بقع هب راشتنا متیروگلا

هکبش راتخاس باختنا هکبش یاه دنچ هیلا ابیرقت یم دنناوت یارب بیرقت ره یعبات هدافتسا دنوش هب یطرش هک هب دادعت یفاک نورون رد هیلا یاه ناهنپ هتشاد.میشاب رگا میهاوخب یعبات ار بیرقت مینزب هک دادعت رایسب یدایز هطقن یگدیمخ دراد دنمزاین نآ میهاوخ دوب هک دادعت رایسب یدایز نورون رد هیلا ناهنپ هتشاد.میشاب 60 بقع هب راشتنا متیروگلا

ییارگمه یماگنه هک متیروگلا راشتنا هب بقع ارگمه یم دوش یمن میناوت نئمطم میشاب هک کی باوج هنیهب.میراد رتهب نیا تسا هک نیدنچ تیعضو هیلوا توافتم ار هب روظنم نانیمطا زا باوج هکنیا هنیهب هب تسد هدمآ تسا ناحتما.درک 6 بقع هب راشتنا متیروگلا نداد میمعت هکبش دیاب دناوتب هچنآ ار دای هتفرگ تسا هب هیلک تلاح اه تیعمج( )یدورو میمعت.دهد یارب هکنیا کی هکبش دناوتب میمعت دهد دیاب رتماراپ یاه یرتمک زا طاقن هداد دوجوم رد هعومجم شزومآ هتشاد.دشاب رد هکبش یاه یبصع رد مامت لئاسم لدم ندرک ام یم میهاوخ زا هداس نیرت هکبش یا هدافتسا مینک هک دناوتب روط هب بسانم هعومجم شزومآ ار هئارا.دهد

متیروگلا راشتنا هب بقع کی شهج گرزب رد شهوژپ یاه هکبش یبصع.دوب هب ره لاح متیروگلا هیاپ یارب رثکا دربراک یاه یلمع رایسب دنک.تسا یاهداریا راشتنا بقع هب حطس ییاراک یارب کی هکبش دنچ هیلا نکمم تسا لماش نیدنچ هطقن هنیمک یلحم دشاب و یانحنا نآ یم دناوت رد یحاون فلتخم زا یاضف رتماراپ لاماک رییغت.دنک رد یلئاسم هک انحنا ادیدش یور یاضف رتماراپ رییغت یم دنک باختنا کی خرن شزومآ بسانم یارب متیروگلا شزومآ لکشم دهاوخ.دوب یارب یحاون حطسم کی خرن شزومآ گرزب زاین یم دشاب هکیلاحرد یارب یحاون اب یانحنا دایز دنمزاین کی خرن شزومآ کچوک.میتسه تهج ییاه هیور دوبهب متیروگلا راشتنا بقع هب شبنج ینآ نیا شور اب راومه ندرک تاناسون ینحنم یاضف اهرتماراپ ییارگمه ار دوبهب یم دهد هک نیا راک ار یم ناوت اب هدافتسا زا کی رتلیف نییاپ رذگ ماجنا.داد 62 بقع هب راشتنا متیروگلا یفاشتکا یاه حلاصا

اصالح های اکتشافی الگوریتم انتشار به عقب مثالی از استفاده فیلتر پایین گذر در فرمول زیر w(k) ورودی است. فیلتر و y(k) خروجی فیلتر و γ ضریب جنبش آنی y( k) γy( k ) ( γ) w( k) 0 γ برای فیلتر این مثال ورودی فیلتر موج سینوسی در شکلهای زیر دیده می شود: این تاثیر است. شده گرفته نظر در 2 2 /5 /5 0/5 0/5 63 0 0 50 00 50 200 a) γ=0/9 2πk w( k) sin 6 0 0 50 00 50 200 b) γ=0/98

اصالح های اکتشافی الگوریتم انتشار به عقب استفاده از فیلتر پایین گذر درمورد شبکه عصبی زمانی که فیلتر جنبش آنی به تغییرات پارامتر در به روز رسانی وزن ها و بایاس می شود معادالت زیر برای جنبش آنی اصالحی انتشار به عقب به دست می آید: اضافه ها W ( ) αs ( a m m m T k ) b m ( k) αs m با استفاده از جنبش آنی توانایی استفاده از نرخ آموزش بزرگتر با حفظ ثبات الگوریتم را داریم خصوصیت دیگر جنبش آنی این است که در مدتی که منحنی در یک جهت ثابت باشد تمایل به تسریع همگرایی دارد و دلیل نامگذاری جنبش آنی به این خاطر است که تمایل به واداد کردن منحنی به ادامه در جهت مشابه دارد. هرچه مقدار γ بیشتر باشد منحنی دارای جنبش آنی بیشتری است. 64

اصالح های اکتشافی الگوریتم انتشار به عقب نرخ آموزش متغیر با استفاده از افزایش نرخ آموزش در سطوح هموار و سپس کاهش آن زمانیکه شیب افزایش می یابد می توان همگرایی را بیشتر کرد. بنابراین می توان همگرایی را توسط تنظیم نرخ آموزش در مدت آموزش افزایش داد. تعیین زمان تغییر نرخ آموزش و اینکه چه مقدار آن را تغییر دهیم یک لم است. 65

قوانین الگوریتم انتشار به عقب با نرخ آموزش متغییر اگر خطای آموزشی بیشتر از یک میزان معین ζ )بطور نمونه تا 5 درصد( بعد از به روز رسانی وزن ها افزایش یابد به روز رسانی وزن ها رها شده نرخ آموزش در فاکتور > >0 ρ ضرب می شود و ضریب جنبش آنی صفر مقدار دهی می شود. اگر خطای مربعی بعد از به روز رسانی وزن ها کاهش یابد به روز رسانی وزنها مورد قبول بوده و نرخ آموزشی در فاکتور < ή ضرب می شود. اگر ضریب جنبش آنی قبال صفر شده باشد با مقدار اصلیش دوباره مقدار دهی می شود. اگر خطای مربعی کمتر از ζ کاهش یابد به روز شده اما نرخ آموزش و ضریب جنبش آنی بدون تغییر رسانی وزن می مانند. واقع قبول مورد ها 66

اصالح های اکتشافی الگوریتم انتشار به عقب می شود: دیده زیر در شکل آموزش ترخ تغییر از مثالی /5 Squared Error 60 Learning Rate 40 0/5 20 0 0 0 0 0 0 2 0 0 0 0 2 0 3 Iteration Number Iteration Number 67

تلااکشا شور یاه یحلاصا یاهحلاصا یفاشتکا یم دناوت لاومعم ییارگمه رایسب یرتعیرس ار یارب یخرب زا لئاسم مهارف.دنک هب لاحره ود لاکشا یلصا یارب نیا اهشور دوجو :دراد نیا تاحلاصا زاین هب رادقم یهد نیدنچ رتماراپ دنراد و ییاراک متیروگلا ساسح هب تارییغت نیا رتماراپ.تساه نیا تاحلاصا یضعب عقاوم نکمم تسا رد ییارگمه هلئسم قفوم.دوشن 68 بقع هب راشتنا متیروگلا یفاشتکا یاه حلاصا

روش پیشنهادی برای افزایش سرعت همگرایی الگوریتم ترکیبی در این روش یک الگوریتم ترکیبی برای آموزش با مربی شبکه های ارائه شده است. این الگوریتم برای یک شبکه دو الیه ارائه شده اما می شبکه های چند الیه نیز به کار برد. عصبی پیشخور توان آن را برای الگوریتم ارائه شده برای افزایش سرعت آموزش در الگوریتم انتشار به عقب پایه استفاده شده است. در این الگوریتم دو روش مختلف برای به روز کردن وزن ها استفاده شده است: یکی از روش های آموزش استاندارد برای الیه اول. استفاده از رابطه زیر در آموزش الیه دوم. 2 e و d از روابط زیر به دست می آیند: d = f - (d) 69 min e = d (Wx + b) E T d y d y min E f d T * e f d * e

روش پیشنهادی برای افزایش سرعت همگرایی با استفاده از جایگزینی طرف راست آخر در تابع غیر خطی الیه آخر ظاهر رابطه اصلی نمی شوند. الگوریتم در الیه های وزن آموزش در این بنابراین روش ابعاد فضای جستجوی مؤثر برای الگوریتم تعداد تکرار های آموزش کمتر خواهد شد. یابد. می کاهش خطی غیر 70

یاه ماگ متیروگلا یبیکرت.I باختنا نزو اه و سایاب اه هب روط یفداصت و ای اب هدافتسا زا شور یاه رادقم هیلوا.II هب زور ندرک نزو اه و سایاب اه اب هدافسا زا کی شور درادناتسا دننام متیروگلا راشتنا هب بقع هیاپ.III یسررب نوناق فقوت و نایاپ نداد هب شزومآ رد تروص اضرا ندش نیا نوناق ای نتفر هب مدق 4 رد ریغ تروصنیا رد متیروگلا هئارا هدش ادتبا رتماراپ یاه ره ود هیلا زا شور درادناتسا یارب شزومآ هدافتسا یم دننک اما رد تروص مک ندش تارییغت اطخ زا شور یبیکرت هدافتسا هدش هک شور شزومآ یاهرتماراپ هیلا مود رییغت هدرک و هب یتروص هک هئارا دش شزومآ یم.دنیب 7 ییارگمه تعرس شیازفا یارب یداهنشیپ شور

فصل چهارم : بررسی روشهای مختلف آموزش در شبکه های عصبی 72

Learning Rules Supervised Learning Network is provided with a set of examples of proper network behavior (inputs/targets) { p, t } { p 2, t 2 } { p Q, t Q } Reinforcement Learning Network is only provided with a grade, or score, which indicates network performance Unsupervised Learning Only network inputs are available to the learning algorithm. Network learns to categorize (cluster) the inputs. 73

Learning Rules Supervised Learning Early learning algorithms First order gradient methods Second order gradient methods Early learning algorithms 74 Designed for single layer neural networks Generally more limited in their applicability Some of them are Perceptron learning LMS or Widrow- Hoff learning Grossberg learning

75 McCulloch-Pitts Perceptron

76 Perceptron Architecture AGAIN!!!!

77 Unified Learning Rule

78 Multiple-Neuron Perceptrons

Perceptron Rule Capability The perceptron rule will always converge to weights which accomplish the desired classification, assuming that such weights exist. 79

Rosenblatt s single layer perceptron is trained as follow:. Randomly initialize all the networks weights. 2. Apply inputs and find outputs ( feedforward). 3. compute the errors. 4. Update each weight as w ij ( k ) w ( k) p ( k) e ( k) ij 5. Repeat steps 2 to 4 until the errors reach the satisfictory level. i j 80

8 Recurrent Network

82 Hamming Network

83 Feed Forward Layer

84 Recurrent Layer

85 Hamming Operation

86 Hamming Operation

87 Hopfield Network

88 Performance Optimization Gradient based methods

89 Basic Optimization Algorithm

90 Steepest Descent (first order Taylor expansion)

Example Plot 2 0-9 -2-2 - 0 2

LMS or Widrow- Hoff learning First introduce ADALINE (ADAptive LInear NEuron) Network 92

LMS or Widrow- Hoff learning or Delta Rule ADALINE network same basic structure as the perceptron network 93

94 Approximate Steepest Descent

95 Approximate Gradient Calculation

LMS Algorithm This algorithm inspire from steepest descent algorithm 96

97 Multiple-Neuron Case

Difference between perceptron learning and LMS learning DERIVATIVE Linear activation function has derivative but sign (bipolar, unipolar) has not derivative 98

Grossberg learning (associated learning) Sometimes known as instar and outstar training Updating rule: w ( k ) w ( k) x ( k) w ( k) i i Where could be the desired input values (instar training, example: clustering) or the desired output values (outstar) depending on network structure. Grossberg network (use Hagan to more details) x i i i 99

First order gradient method Back propagation 00

Multilayer Perceptron 0 R S S 2 S 3 Network

02 Function Approximation Example

Nominal Response 3 2 0 - -2-0 2 03

04 Parameter Variations

05 Multilayer Network

06 Performance Index

07 Chain Rule

Gradient Calculation 08

09 Steepest Descent

0 Jacobian Matrix

Backpropagation (Sensitivities)

2 Initialization (Last Layer)

3 Summary

Summary Back-propagation training algorithm Network activation Forward Step Error propagation Backward Step Backprop adjusts the weights of the NN in order to minimize the network total mean squared error. 4

5 Example: Function Approximation

6 Network

7 Initial Conditions

8 Forward Propagation

9 Transfer Function Derivatives

20 Backpropagation(BP)

2 Weights Update

22 Choice of Architecture

23 Choice of Network Architecture

Convergence Global minimum (left) local minimum (right) 24

25 Generalization

Disadvantage of BP algorithm Slow convergence speed Sensitivity to initial conditions Trapped in local minima Instability if learning rate is too large Note: despite above disadvantages, it is popularly used in control community. There are numerous extensions to improve BP algorithm. 26

Improved BP algorithms First Order Gradient Method Second Order Gradient Method 27

فصل پنجم : بهبود الگوریتم پس انتشار خطا Improved BP algorithms 28

Improved BP algorithms First Order Gradient Method. BP with momentum 2. Delta- bar- delta 3. Decoupled momentum 4. RProp 5. Adaptive BP 6. Trianary BP 7. BP with adaptive gain 8. Extended BP 29

- BP with momentum (BPM) The basic improvement to BP (Rumelhart 986) Momentum factor alpha selected between zero and one Adding momentum improves the convergence speed and helps network from being trapped in a local minimum. 30

Modification form: Proposed by nagata 990 Beta is a constant value decided by user Nagata claimed that beta term reduce the possibility of the network being trapped in the local minimum This seems beta repeating alpha rule again!!! But not clear 3

2- Delta-bar-delta (DBD) Use adaptive learning rate to speed up the convergence The adaptive rate adopted base on local optimization Use gradient descent for the search direction, and use individual step sizes for each weight 32

3- RProp Jervis and Fitzgerald (993) and limit the size of the step 33

Improved BP algorithms Second Order Gradient Method. Newton 2. Gauss-Newton 3. Levenberg-Marquardt 4. Quickprop 5. Conjugate gradient descent 6. Broyde Fletcher-Goldfab-Shanno 34

Performance Surfaces Taylor Series Expansion 35

36 Example

37 Plot of Approximations

38 Vector Case

39 Matrix Form

Performance Optimization Basic Optimization Algorithm Steepest Descent 40

4 Minimizing Along a Line

42 - Newton s Method

43 Example

44 Plot

45 Non-Quadratic Example

46 Different Initial Conditions

DIFFICULT Inverse a singular matrix!!! Complexity 47

48 Newton s Method

49 Matrix Form

50 Hessian

5 2- Gauss-Newton Method

52 3- Levenberg-Marquardt

53 Adjustment of μ k

54 Application to Multilayer Network

55 Jacobian Matrix

56 Computing the Jacobian

57 Marquardt Sensitivity

58 Computing the Sensitivities

LMBP Present all inputs to the network and compute the corresponding network outputs and the errors. Compute the sum of squared errors over all inputs. Compute the Jacobian matrix. Calculate the sensitivities with the backpropagation algorithm, after initializing. Augment the individual matrices into the Marquardt sensitivities. Compute the elements of the Jacobian matrix. Solve to obtain the change in the weights. 59 Recompute the sum of squared errors with the new weights. If this new sum of squares is smaller than that computed in step, then divide m k by u, update the weights and go back to step. If the sum of squares is not reduced, then multiply m k by u and go back to step 3.

60 Example LMBP Step

6 LMBP Trajectory

62 5- Conjugate Gradient

LRLS Method Recursive least square method based method, does not need gradient descent. 63

LRLS Method Cont. 64

65 LRLS Method Cont.

Example for compare methods Algorithms Average time steps (cut off at 0.5) Average time steps (cut off at 0.) Average time steps (cut off at 0.05) BPM 0 75 594 DBD 64 67 2382 LM 2 23 264 LRLS 3 9 69 66

IGLS (Integration of the Gradient and Least Square) The LRLS algorithm has faster convergence speed than BPM algorithm. However, it is computationally more complex and is not ideal for very large network size. The learning strategy describe here combines ideas from both the algorithm to achieve the objectives of maintaining complexity for large network size and reasonably fast convergence. The out put layer weights update using BPM method The hidden layer weights update using BPM method 67

فصل ششم : شبکه عصبي بازگشتي Recurrent Networks 68

Recurrent Networks Feed forward networks: Information only flows one way One input pattern produces one output No sense of time (or memory of previous state) Recurrency Nodes connect back to other nodes or themselves Information flow is multidirectional Sense of time and memory of previous state(s) 69 Biological nervous systems show high levels of recurrency (but feed-forward structures exists too)

Recurrent Networks Recurrent Network with hidden neuron: unit delay operator z - is used to model a dynamic system z - z - input hidden output z - 70

7 Rabinson and Fallside

72 Elman

Jordan 73

74 Elman and Jordan

Jordan Learning net Wx. X ( t) Wc. X c( t) where : X t O t y t 2 c( ) ( ) ( ) F ( net ) O ( net ) 2 net W y. O ( t) 2 2 2 2 2 F ( net ) O ( net ) y( net ) 75

Jordan Learning E W x W E W y W y E E O net O net Wc..... 2 2 Wc O net O net Wc 76 x 2 2 2. e. F. Wy. F. X c( t) Wc. W =.. Xc( t) Wc. X X c W c W t c t c

Elman and Jordan Learning net Wx. X ( t) Wc. X c( t) Wc2. X c2( t) where : X t O t y t X t O t y t c( ) ( ) ( ) 2 c2( ) ( ) ( ) F ( net ) O ( net ) 2 net W y. O ( t) 2 2 2 2 2 F ( net ) O ( net ) y( net ) 77

Elman and Jordan Learning E W y W y E Wx Wx E Wc W E Wc2 W c c2 () (2) (3) (4) 78

2 2 E E O net ) W.... e. F y (.). O W 2 2 O net W y y 2 2 79

E E O net O net 2) Wx..... W 2 2 O net O net W x 2. e. F. W y. F. X ( t) 2 2 x 80 W x.. Xt ( )

E E O net O net 3) Wc..... W 2 2 O net O net W c W c = W.. Xc( t) c... O ( t ) Wc. 2 2 2. e. F (.). Wy. F (.). X c( t) Wc. X c W t c ( ) Wc O t c X c W t c 8

E E O net O net 4) Wc2..... W 2 2 O net O net W c2 W = W c2.. Xc2 ( t) c2. 2.. O ( t ) Wc2. 2 2 2. e. F (.). Wy. F (.). X c2 ( t) Wc2. X c2 W t c2 2 O ( t) Wc2 c2 X c2 W t c2 82

Jordan with Neuron Feedback X c( t) O ( t ) X c( t ) O ( t ) O ( t 2) net ( t) Wx. X ( t) Wc. X c( t) W x. X ( t) Wc. O ( t ) O ( t 2) 83

Jordan with Neuron Feedback net ( t) Wx. X ( t) Wc. X c( t) Wx. X ( t) Wc. O ( t ) O ( t 2) 2 2 E E O net O net Wc...... W 2 2 c O net O net Wc 2 Xc() t. e. F (.).. F Wy (.). X c( t) Wc. W c 84

Flexible NN Neuron Functions (Unipolar) f x exp gx F( a, x) 2 a e 2 ax. 85

Flexible NN Neuron Functions (Bipolar) g x exp exp gx gx F( a, x) e e 2 ax. 2 ax. 86

Flexible NN Structure a x W net F O W2 a 2 2 net 2 F O t 2 e x 2 a net 2 F 2 O 2 2 net 2 2 F 2 2 O 2 e 2 t 2............... a 2... x n a 2 net n2 2 F n2 2 O n2 e n2 t n2 net n F n O n 87

Feed Forward of FNN T net2 ( ) W. X net k net net n O ( k) F ( a, net ( k)) 2 net 2 2 T net2 net ( k) W. O 2 2 net n 2 2 2 2 O k F a net k ( ) (, ( )) 2 2 2 2 O F ( a, net ) 0 0 2 2 2 2 O2 0 F2 ( a, net2 ) 0 0 0 2 2 2 2 On 2 0 0 Fn ( a, netn ) 88

Learning E e t o 2 2 n2 n2 2 2 2 i ( i i ) i i E ak ( ). ak ( ) 2 2 E E O ( k) 2 2 2 2 a ( k)..( e). F 2 2 2 2( a, net ). e. F 2( a, net ) a ( k) O ( k) a ( k) 2 2 2 F ( a, net ) 2 2 2 2 2 2 2 2 2 2 2 2 a.* net 2 a.* net 2 2 a.* net 2 2 2 a.* net 2 a.* net (2 net e )( e ).* a [( e ) a.*( 2 net e )].*( e ) 2 2 ( a ).*( e ) 2 2 2 a.* net 2 2 2 2 2 2 2 2 2 2 a.* net 2 a.* net 2 a.* net 2 a net e ( e e ) ( a ).*( e 2 2 2 a.* net 2 2 2 2 2 2 a.* net 2 a.* net ( e )( e ) ) ( a ).*( e ) 2 2 2 2 2 2 2 a.* net 2 a 2 2 2 2 a.* net 4net e 2 2.*( e ) 2 2 a.* net 2 a 2 2 2 2 F ( a, net ) 89

Learning E e t o 2 2 n2 n2 2 2 2 i ( i i ) i i E ak ( ). ak ( ) 2 2 E E O k net k O k a ( k). 2 2 2 2 2 2 2 2 ( ) ( ) ( ) a ( k) O ( k) net ( k) O ( k) a ( k). e. F( a, net ). W. F( a, net ) Derived respect to net Derived respect to a 90

Recurrent Flexible NN E ak ( ). ak ( ) 9

فصل هفتم :شبکه های حافظه دار TDLV گاما و 92

حافظه درشبکه عصبی شبکههای عصبی می توانند بهتر سریهای زمانی را مدل کنند. روشهای از خطی کالسیک مشخصات پیچیده به صورت تئوری نیازی به این که آیا سری زمانی ایستا است یا خیر جهت مدلسازی با شبکههای عصبی نداریم. شبکههای عصبی نیاز به تعداد عظیمی از دادههای به عنوان ورودی ندارند بر عکس روشAR. 93

94

W W 95

پیش بینی با کمک MLP X x( n) x( n) x( n ) x( n ) x( n ) x( n 2) T شکل اعمال ورودی شکل اعمال خروجی 96

شبکه های حافظه دارTDL وگاما سند برگ ( 997( : هر تغییر زمانی در یک نگاشت دینامیکی میتواند به طور تقریبا کاملی توسط یک ساختاری که دارای 2 بلوک است که بلوک اول بانک فیلترهای خطی شبکه می باشد و بلوک استاتیکی بعدی خود را تغذیه میکند مدل شود. FIR, IIR فیلترهای مشکالت IIR مزایا : بوجود آمدن ناپایداری ها در آموزش : FIR ظرفیت محدود مدلسازی : IIR کم بودن پارامترها در حوزه های بزرگ زمان : FIR پایداری شبکه 97

98

99

200 یجورخ و ینایم یاه هیلا هب هظفاح لامعا.. m m n T n m m n T n X G F Net F X G Net p n n T p Net F G O t t X ) (. ) ( ) ( ˆ 2 T m t x t x t x X ) (,, ) (, ) (

مزایا و توپولوژی اعمال فیلتر داشتن بیش از یک وزن تحت آموزش در هر سیناپس در دسترس بودن داده های زمانهای گذشته آموزش پارامترهای فیلتر دیجیتال در صورت وجود 20

202 یژولوپوت و TDL ورشیپ تابساحم ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) (, 2 3 2 0 t x t x t x t x t x t x t x t x k ij ijk ij ij ij ij ij ij k l ijl ijl ijk ijk ij ij ij ij ij t x w t x w t x w t x w t y 0 0 0 ) ( ) ( ) ( ) ( ) (

203 ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( 0 0 0 0 t x t x t x t x t x t x t x z z t x z G t x m m m m m m k l ijl ijl ijk ijk ij ij ij ij ij t x w t x w t x w t x w t y 0 0 0 ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) (, t x t x t x l ij ij ijl ij ijl m m یژولوپوت و TDL ورشیپ تابساحم

اماگ هکبش شزومآ (BP) ) ( ) ( t x t w y ijl ijl ij k l k l ijl ijl ij ijl ijl ij ij t w t x w t y 0 0 ) ( ) ( ) ( m m ij ij l ij l ij ij ij ijl ijl ij ij l ij l ij ij ij ij ij ijl ijl ij ij ijl t x t x t x t x t x t x t x t x t m m m m m m m m m m m m ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) (,,,, ) ( ) ( ) ( ) ( ) ( ) ( ) (,, t x t x t t t t x ijl l ij l ij ij ijl ij ijl ij ijl m m m 0 0 ) ( ) ( ij i ij ij ij w u t y x t y 204

نمودار پیش بینی با شبکه های حافظه دار شبكهTDL شبكه گاما 205

206 اهشور هسیاقم N i N i i x i x i x i x NMSE 2 2 )) ( ) ( ( )) ( ) ( ˆ( N i i x i x N MAE ) ( ) ˆ( N i i x i x N MBE ) ( ) ˆ( N i i x i x N RMSE 2 )) ( ) ( ˆ(

نتیجه گیری روشهای سری زمانی غیرخطی شبکه های عصبی برتری خاصی برروشهای غیرشبکه عصبی دارند )همانطورکه انتظارداشتیم(. بزرگترین مشکل در روش کالسیک یافتن جواب بهینه به صورت سعی وخطا میباشد و شبکه های عصبی نیزاین مشکل را دریافتن تعداد الیه های میانی بهینه دارند. هنگامی که واحد حافظه را به داخل شبکه انتقال دادیم جوابها بسیار بهتر شدند.اما نکته مهم اینجاست که نتایج روش TDL تقریبا به گاما بسیارنزدیک بوده این امر میزان اهمیت و رجحان وزنها را برپارامترعمق حافظه می رساند. درشبکه های حافظه دار) TDL گاما( اهمیت فوق العاده الیه میانی دارا می باشد. 207

فصل هشتم : شبکه عصبي مدل مخچه CMAC Neural Network and TD-CMAC 208

CMAC Neural Network and TD-CMAC Introduction Time Series Cerebellar Model Arithmetic Computer (CMAC) Time-Delay CMAC (TD-CMAC) - Output Mapping 2- Learning Algorithm Evaluation of TD-CMAC Conclusion 209

معماری CMAC 20

2

CMAC Model Input Space + + + Weights Adjustment Obtained Output - + + Weights Table Block diagram of CMAC 22

CMAC Model (Example) S 2 i h g f e d c b a 6 5 4 3 2 0 Hh Bb Fe State(4,3) 0 2 3 4 5 6 S A B C D E F G H I The CMAC structure with two inputs 23

CMAC خروجی و الگوریتم یادگیری در نگاشت y(s) W new a T W (s) W old M j e a j (s) W j T a( s)( yˆ( s) a ( s) Wold) N :CMAC ویژگیهای 24

25

26

Time Series Modeling X(t) X(t-) X(t-d) F(.) X(t+) X(t ) F( X(t) X(t -) X(t -2) X(t -d) ) e(t) Converting prediction of time series to function approximation 27

TD-CMAC Model X(t) X(t-) X(t-d) TD-CMAC X(t+) block diagram of TD-CMAC model 28

TD-CMAC Model X(t-d) X(t-d+). X(t-2) X(t-) X(t) CMAC C. CMAC... C 2 CMAC C d B CMAC... C 22 X(t+)... CMAC.... C 2d B 2 CMAC C dd B d 29 The structure details of TD-CMAC model

TD-CMAC Model - Output Mapping y ( s) a( s) W a ( s) d d M i ji k ijk w ijk 2- Learning Algorithm W new W c ij ( s) ij old N e c( s) a( s)( yˆ( s) y( s)) 220

TD-CMAC (Example) X(t-2) X(t-) X(t) File, Time Series : 6, 3, 4, 2,,6, CMAC CMAC 2 Σ X(t+) CMAC 22 Weight table: W[i][j][N b ][N b ][N e ] For (i=,2) For (j=i,2) Time Series: S[d+2] W[2][2][3][3][3], S[4] i h g f e d c b a S 2 6 5 4 3 2 0 X(t-) 2 input CMAC X(t) S 0 2 3 4 5 6 A B C TD-CMAC Model d=2 (Number of delay) N b =3 (Number of block) N e =3 (Number of layer) α= (Learning rate) D E F G H I Error = 0.00 22

TD-CMAC (Example) File, Time Series : 6, 3, 4, 2,,6, The first time series data for training of model The next data for evaluation of model (prediction) ) d+ input for X(t) to X(t-) X(t-2) -> S[]=6 X(t-) -> S[2]=3 X(t) -> S[3]=4 2) Next data for X(t+) X(t+) -> S[4]=2 3) Weight Initialization to zero 222

A) Output Calculating 223 2 3 2 3 2 3 S 2 6 5 4 3 2 0 y ( s) a( s) W a ( s) d d M i ji k X(t-)=3 ijk w ijk CMAC State(4,3) 0 2 3 4 5 6 2 3 X(t)=4 2 3 2 3 S X(t-2) -> S[]=6 X(t-) -> S[2]=3 X(t) -> S[3]=4 X(t+)-> S[4]=2 y(s) = w[][][2][2][] + w[][][3][2][2] + w[][][2][2][3] +

A) Output Calculating 224 2 3 2 3 2 3 S 2 6 5 4 3 2 0 y ( s) a( s) W a ( s) d d M i ji k X(t-2)=6 ijk w ijk State(4,6) CMAC 2 X(t)=4 0 2 3 4 5 6 2 3 2 3 2 3 S X(t-2) -> S[]=6 X(t-) -> S[2]=3 X(t) -> S[3]=4 X(t+)-> S[4]=2 y(s) = + + w[][2][2][][] + w[][2][3][][2] + w[][2][2][][3] +

A) Output Calculating 2 3 2 3 2 3 S 2 6 5 4 3 2 0 y ( s) a( s) W a ( s) X(t-2)=6 d d i ji k 0 2 3 4 5 6 M State(3,6) ijk w ijk CMAC 22 X(t-)=3 S X(t-2) -> S[]=6 X(t-) -> S[2]=3 X(t) -> S[3]=4 X(t+)-> S[4]=2 y(s) = + + w[2][2][2][][] + w[2][2][2][][2] + w[2][2][2][][3] = 0 2 3 225 2 3 2 3

B) Weight Adjusting Wnew W c ij ( s) ij old c( s) a( s)( yˆ( s) y( s)) N e CMAC ij y(s) = 0 ŷ(s) = X(t+)=S[4]=2 w[][][2][2][] new =0+(0./3)*(/(*))*(2-0) = 0.066 CMAC w[][][3][2][2] new =0+(0./3)*(/(*))*(2-0) = 0.066 w[][][2][2][3] new =0+(0./3)*(/(*))*(2-0) = 0.066 226 CMAC 2 CMAC 22 w[][2][2][][] new =0+(0./3)*(/(*2))*(2-0) = 0.033 w[][2][3][][2] new =0+(0./3)*(/(*2))*(2-0) = 0.033 w[][2][2][][3] new =0+(0./3)*(/(*2))*(2-0) = 0.033 w[2][2][2][][] new =0+(0./3)*(/(2*2))*(2-0) = 0.06 w[2][2][2][][2] new =0+(0./3)*(/(2*2))*(2-0) = 0.06 w[2][2][2][][3] new =0+(0./3)*(/(2*2))*(2-0) = 0.06

C) Repeat A, B with new weights A) Output Calculating y ( s) a( s) W a ( s) d d M i ji k ijk w ijk y(s) = 0.066+0.066+0.066+0.033+0.033+0.033+0.06+0.06+0.06 = 0.35 y(s) = 0.35 ŷ(s) = X(t+)=S[4]=2 error = 0.00 ERROR yˆ( s) y( s) 2 0.35. 65 error End) Until (ERROR< error) 227

C) Repeat A, B with new weights B) Weight Adjusting W new W old c ij ( s) ij c( s) a( s)( yˆ( s) y( s)) N e y(s) = 0 ŷ(s) = X(t+)=S[4]=2 w[][][2][2][] new =w[][][3][2][2] new =w[][][2][2][3] new = 0.066+(0./3)*(/(*))*(2-0.35) = 0. w[][2][2][][] new =w[][2][3][][2] new =w[][2][2][][3] new = 0.033+(0./3)*(/(*2))*(2-0.35) = 0.060 w[2][2][2][][] new =w[2][2][2][][2] new =w[2][2][2][][3] new = 0+(0./3)*(/(2*2))*(2-0) = 0.030 228

C) Repeat A, B with new weights A) Output Calculating y ( s) a( s) W a ( s) d d M i ji k ijk w ijk y(s) = 0.+0.+0.+0.06+0.06+0.06+0.03+0.03+0.03 = 0.57 y(s) = 0.57 ŷ(s) = X(t+)=S[4]=2 error = 0.00 ERROR yˆ( s) y( s) 2 0.57. 43 error End) Until (ERROR< error) 229

CO (ppm) One hour ahead prediction Six hour ahead prediction 30 Real Data TD-CMAC TW-CMAC 30 R eal D ata T D -C M A C T W-C M A C 20 20 0 0 0 0 48 96 44 0 0 48 96 44 230

CO (ppm) One day ahead prediction 30 Real Data TD-CMAC TW-CMAC 20 0 0 0 48 96 44 23

SO 2 (ppm) One hour ahead prediction Real Data TD-CMAC TW-CMAC NO x (ppm) One hour ahead prediction 0.4 0.03 Real Data TD-CMAC TW-CMAC 0.2 0.02 0 0 48 96 44 0.0 232 0 0 48 96 44

فصل نهم : شبکه عصبي Bayesian Neural Network بیزین 233

معرفی شبکه عصبی بیزین تک الیه توسعه شبکه عصبی بیزین تک الیه به چندالیه.. 2 )Partitioning( )Overlapping( روش قسمت بندی روش روی هم افتادگی -2 2-2. ویژگی های پیوسته و شبکه عصبی بیزین 3 234

هدف نهایی که در این شبکه به دنبال آن هستیم محاسبه احتمال تمامی کالس ها به ازای داده های ورودی به شبکه و انتخاب کالس با بیشترین مقدار احتمال برای هر داده به عنوان کالسی که داده متعلق به آن است می باشد. 235

تئوری بیز برای محاسبه :P(y x) 236

فرض کنید مقادیر N x={x, x 2,,x N } ویژگی مستقل مربوط به داده x در دست باشد. در اینصورت احتمال x می تواند به صورت زیر نوشته شود : p(x y) همچنین شود: می شرطی احتمال نوشته زیر بصورت نیز 237

به ورودی داده مشاهده ازای به کالس هر احتمال : زیر صورت محاسبه خواهد شد 238

معادله اخیر پایه کالسیفیر ساده بیز می باشد. طراحی بیز ساده مربوط به اوقاتی می شود مستقل بودن ورودی ها را داریم. فرض که 239

: است برقرار همواره زیر رابطه 240

)( رابطه به رابطه از گرفتن لگاریتم و جایگذاری با زیر خواهیم رسید: مزیت فرم لگاریتمی خطی بودن آن است. بدین کالسیفیر ساده بیز می تواند با یک تابع تمایز بنابراین با یک شبکه عصبی تک الیه پیاده سازی معنی که خطی و شود. 24

عصبی شبکه یک در سیگنال پخش برای معمولی معادله است: زیر صورت 242

نمای شبکه عصبی بیزین تک ویژگی های مربوط به داده ها محدود ) می باشند: الیه برای گسسته ( حالتی که در آن دارای چند مقدار 243

244

245. hair Boolean 2. feathers Boolean 3. eggs Boolean 4. milk Boolean 5. airborne Boolean 6. aquatic Boolean 7. predator Boolean 8. toothed Boolean 9. backbone Boolean 0. breathes Boolean. venomous Boolean 2. fins Boolean 3. legs Numeric (set of values: {0,2,4,5,6,8}) 4. tail Boolean 5. domestic Boolean 6. capsize Boolean 7. type Numeric (integer values in range [,7])

β β2 β3 Y Y 2 Y 3 Y 7 β7 2 2 2 2 3 4 5 6 246

به احتمال شرطی نتیجه متغیر ویژگی داده x i یعنی ) i P(y j x اشاره به y i کند: مشاهده شرط 247

کنیم: مقایسه هم با را زیر رابطه فرم دو توانیم می حال 248

بیزین: عصبی شبکه آموزش 249

مثال: باشد: زیر به صورت شبکه به ورودی داده کنید فرض :(بز کوهی) Antelope,0,0,,0,0,0,,,,0,0,4,,0,, 250

β β2 β3 Y Y 2 Y 3 Y 7 β7 X X 2 X 2 X 22 X 3 X 32 25

252

β β2 β3 Y Y 2 Y 3 3 Y 7 β7 X X 2 X 2 X 22 X 3 X 32 253

254

255

256

تخمین کالسیک: 257

بیزین: تخمین 258

توسعه شبکه عصبی بیزین تک الیه به چندالیه 259

رگا یگژیو یاه یدورو هب رگیدکی هتسباو دنشاب هکبش یبصع کت یبوخ باوج هیلا تسدب یمن.دهد یارب ناربج یگتسباو اه رد نایم هیلا یدورو و هیلا یجورخ زا کی هیلا ناهنپ هدافتسا یم مینک هک نیا هیلا زا بیکرت نوتس یاه یدورو ( ییاهنآ هک هب مه هتسباو لصاح )دنتسه یم.دوش 260

از الیه چند بیزین عصبی شبکه تشکیل برای کلی بطور : می معماری دو توان سود جست الف ) Partitioning ب ) Overlapping 26

شبکه عصبی چند الیه )Partitioning( 262

وابستگی X X 2 X 3 X X 2 X 3 263 U X 3

U X 3 264

265

266

می توان توزیع را بروی تمام حوزه به عنوان یک ضرب شامل متغیرهای که u k می شود بیان کنیم : 267

شبکه عصبی چند الیه )Overlapping( 268

d a c f b e 269

270

27

272

در این نوع اولیه پس از معماری شبکه عصبی بیزین چند الیه ترکیب بطور مستقیم نیز با الیه خروجی ستون )ویژگی( ارتباط دارد. های 273

274

: ویژگی X,Y دو میان متقابل اطالعات می شود تعریف زیر به صورت اگر مقدار تلقی می شود. معیار شوند باال از و یک یک threshold بیشتر شود ستون پیچیده برای ترکیب آنها دو ویژگی وابسته درنظر گرفته می 275

Bayesian Solution Classic Solution Number of training data 97.22 97.22 22 96.99 96.99 6 88.88 88.42 6 84.49 8.0 3 77.3 75.00 0 6.34 59.49 7 276

Bayesian Classic Number of training data Solution Solution 99.68 99.3 4000 99.5 98.74 2708 99.20 98.20 354 99.42 98.02 903 98.94 96.95 677 98.48 96.93 542 99. 96.63 452 98.5 96.32 387 97.23 94.38 339 97.87 97. 30 97.96 96.27 27 97.00 93.85 247 95.73 92.70 226 97.96 94.92 209 96.95 95.9 94 96.80 93.92 70 97.35 94.59 38 97.30 95.43 8 95.34 92.96 94 95.43 94.7 83 93.42 92.42 62 92.92 9.9 4 277

ویژگی های پیوسته و شبکه عصبی بیزین 278

279

280

تابع چگالی احتمال بروی متغیر پیوسته z می تواند به وسیله یک تعداد متناهی از جمع تقریب زده شود: n P( z) i P( v i ) P( z v i ) 28

282

283 0. 65 * 0.30 =0.95 0.35 * 0.60 = 0.2

هر مقدار خواهد بود متفاوتی جزء از متفاوتی درجه به بازه در "متعلق" : 284

285

log( p( y z)) log( p( y)) log( i i ' P( y v ii P( y) P( v ' ii ) P( v ) ' ii ' z i )) 286

i i ij j j o S W )) ( log( z y P S j j )) ( log( j j y P ) ( ) ( ), (, i j i j j i v P y P v y P W 287

مدل ترکیبی 288

مدل ترکیبی : یک سری از توابع که اجتماع دامنه های آنهاا یاک بازه را پوشش می دهد. در این کار تبدیل یک متغیر پیوسته به تعدادی متغیر گسساته که بتوانند به عنوان ورودی شبکه عصبی بیزین اساتفاده شاوند توسط مدل ترکیبی با توابع گوسین صورت می گیرد. 289

توزیع گوسین با برردار میرانگین خرود µ و مراتری کوواریان خود Σ شناخته می شرود و دارای ترابع توزیع زیر است : f ( z i i i (2 : m, ) exp( ( z m ) ( z m ) ' i i i ) d 2 i ) 290

مطرح که ای مسئله است تخمین پارامترهای ترکیبات ترکیبی مدل گوسین است. 29

c i i C z v P ) ( )/ ( i c i i C z z v P m ) ( ) ( ) ( i i c i i i C z z z v P m m ' ) ( ) ( ) ( ) )( )( ( 2 3 π i =P(v i ), ) : ( i i i z f m ) ) ( ) ( 2 exp( ) (2 ' i i i i d z z m m 4 292

اب ضرف یخرب ریداقم هیلوا یفداصت یارب اهرتماراپ زا هلداعم )4( یم ناوت یارب هبساحم رادقم قلعت ره هنومن هب ره ءزج هدافتسا.درک نیا هلحرم رادقم دروم راظتنا.تسا سپس یاهرتماراپ نیمخت هدز هدش اب تلاداعم )( ات )3( ریداقم هلداعم )4( ار تسدب یم.دنهد نیا هلحرم یزاس ممیزکام.تسا نیا ود هلحرم ات ینامز هک اهرتماراپ دنوش ارگمه رارکت.دنوش یم Expectation Maximization 293

بررسی الگوریتم ماکزیمم سازی مقدار مورد انتظار: الگوریتم ماکزیمم سازی همانند زیر می باشد. هایی ضعف دارای انتظار مورد مقدار *(این روش شده بسیار پارامترها که یک روش محلی و نسبت به پارامترهای اولیه انتخاب حساس می باشد و ممکن است به یک محدوده تخمین های نادرست را ارائه می دهد همگرا شود. برای حل این مسئله چندین روش مورد بررسی قرار گرفته است کاه از یک یا ترکیبی از استراتژی هایی همانند چندین نقطه شروع تصادفی و انتخاب تخمین نهایی بطوریکه آن تخمین دارای باالترین احتمال باشد و یا انتخاب اولیه پارامترها به وسیله الگوریتم خوشه بندی استفاده مای کنند. 294

بررسی الگوریتم ماکزیمم سازی مقدار مورد انتظار: مورد مقدار سازی ماکزیمم کارایی که دیگری *(مسئله تعداد نبودن مشخص دهد می قرار تاثیر تحت را انتظار است. ترکیبات برای تخمین تعداد بهینه ترکیبات نیز مطالعات زیادی صورت گرفته است. برای مثال معیار اطالعات Akaike )AIC( استنتاج بیزین )BIC( Schwarz معیار احتمال دسته بندی مجتمع.(ICL) 295

الگوریتم K-Means : مرحله اول :. پیدا کردن مرکز دسته اول به صورتی که رابطه زیر را ماکزیمم کند 296

الگوریتم K-Means مرحله دوم : به شرط داشتن ) k- (امین ترکیب معیار هر داده کاندید برای مرکز ترکیب kام می تواند بصورت زیر نوشته شود:.2 297

: تابیکرت هنیهب دادعت نیمخت یماگنه هک کی ءزج هفاضا یم دوش رگا طابترا نایم نیماk ءزج و ءازجا یلبق زونه مه لقتسم دشاب اهرتماراپ اب نیمخت هرابود زا k ءزج تسدب یم.دنیآ سکعرب رگا لقادح یکی زا ازجا اب ءزج هفاضا هدش هتسبمه دشاب دیاب اهرتماراپ ار رد لدم یبیکرت (k-) هظحلام مینک و دادعت تابیکرت ار لقادح (k- ) صخشم.مینک 298

رابطه متقابل میان اجزاء : 299

رابطه متقابل میان اجزاء : باشد: مقدار سه دارای است ممکن متقابل ی رابطه مثبت یا و منفی صفر اگر که باشد بدین معنی است یکدیگر وابسته اند. دارای مقدار مثبت i و k بطور آماری به 300

الگوریتم تخمین تعداد بهینه ترکیبات : 30

پیاده سازی بروی داده های مصنوعی : 302

303

)k( میانه ی iامین ترکیب تعداد ترکیبات i (.620,2.000) ~ 2 (2.495,2.547) -0.0674 3 (0.985,0.8554) -0.0346 2-0.0042 4 (0.8065,2.4638) 0.0255 2-0.0092 3-0.0080 304

: پیاده سازی و آزمایش GMM : داده glass 305

306

307

نتیجه دستهبندی با استفاده از شبکه عصبی بیزین تکالیه 308

نتیجه دستهبندی با استفاده از شبکه عصبی بیزین چندالیه در حالت قسمت بندی 309

دستهبندی با استفاده از شبکه عصبی بیزین چندالیه در حالت روی هم افتادگی 30

فصل دهم : شبکه عصبي مثلثاتي 3

فصل : یازدهم شبکه عصبي ویولت Wavelet Neural Network 32

فصل دوازدهم : شبکه عصبي کانولوشنال 33

فصل دوازدهم : کاربرد شبکه های عصبي در شناسایي پیش بیني و کنترل سیستم ها 34

شناسایی کنترل و بینی پیش به عصبی های شبکه عنوان شناساگر پیش در عصبی های ها بینی سیستم شبکه کنترلر عنوان به عصبی های شبکه 35

عصبی کنترلر کنترلر عصبی تقلیدگر کنترلر و شناساگر مستقیم کنترلر و شناساگر معکوس کنترل معکوس تطبیقی کنترل مدل داخلی غیرخطی کنترل تطبیقی عصبی نقاد تطبیقی کنترلر PIDخود تنظیم شبکه عصبی به عنوان جبرانگر کنترلر تطبیقی مدل مرجع عصبی کنترل مدل پیش بین مستقیم 36

رلرتنک یبیکرت رلرتنک یبیکرت زا لرتنک راتخاس ریغتم و لرتنک یبصع لرتنک یقیبطت میقتسم رادیاپ یطخ یزاس کبدیف یقیبطت یبصع رلرتنک یبیکرت زا لرتنک کبدیف و لرتنک یبصع یاطخ شزومآ روخسپ رلرتنک یبیکرت زا لرتنک لرتنک هرهب تباث و لرتنک یبصع رلرتنک هکبش یبصع رب هیاپ د م یشزغل رلرتنک هنیهب یبصع 37

پایان