Fundamental intelligence
|
|
- Πλούταρχος Μανιάκης
- 7 χρόνια πριν
- Προβολές:
Transcript
1 Fundamental intelligence Machine Learning Computational intelligence Computational neural Computational fuzzy Computational evolution Expert sysyetm Multi-agent systems Swarm intelligence دانشگاه خواجه نصیرالدین طوسی- دانشکده برق
2 بسمه تعالی شبکه های عصبی دانشگاه خواجه نصیرالدین طوسی- دانشکده برق
3 فهرست مطالب فصل اول : مقدمه ای بر شبکه های عصبی فصل دوم : ارائه ساختارهای مختلف شبکه های عصبی فصل سوم : ارائه مفاهیم پایه در آموزش شبکه های عصبی بر اساس الگوریتم پس انتشار خطا فصل چهارم : بررسی روشهای مختلف آموزش در شبکه های عصبی فصل پنجم : بهبود الگوریتم پس انتشار خطا فصل ششم : شبکه های عصبی بازگشتی 3
4 فهرست مطالب فصل هفتم : شبکه های حافظه دار و گاما فصل هشتم : شبکه های عصبی مدل مخچه فصل نهم : شبکه عصبی بیزین فصل دهم : شبکه عصبی مثلثاتی فصل یازدهم : شبکه عصبی ویولت فصل دوازدهم : شبکه عصبی کانولوشنال فصل سیزدهم : کاربرد شبکه های عصبی در شناسایی پیش بینی و کنترل سیستم ها 4
5 فصل اول : مقدمه ای بر شبکه های عصبي 5
6 سیستم های پیچیده کلیه بخش ها با یکدیگر سیستم های پیچیده از بخش های مختلف تشکیل شده اند که در ارتباطند و همچنین بخش های سیستم ها با خارج در ارتباط هستند و در کنش و واکنش می باشند. انواع سیستم های پیچیده سیستم های حمل و نقل)زمینی دریایی و هوایی( سیستم های هواشناسی )منطقه ای محلی و جهانی( و آنها بین ارتباط و تخصصها ها سیستم های بیمارستانی )بخش بیمارستانهای دیگر و بیمه و...( درخواستها نیازها چون سیستم های اقتصادی)تحت تأثیرعواملی موجودیها و بحرانها... می باشد.( دارایی فقر و امکانات فردی و تحصیالت جوامع )فرهنگهای مختلف اجتماعی( سیستم های بیولوژیکی)شامل مغز مخچه سلولها و... می باشد( 6
7 7 :یبصع هکبش هکبش یاه یبصع رب ساسا یسانش راتفر نیشام یاه یکیژولویب تادوجوم هدنز یحارط هدش.تسا یعونصم یبصع یاه هکبش زا فده : هئارا یئاهشور تهج هدافتسا تخس زا اهرازفا ( تارادم ) و مرن اهرازفا ( متیروگلا )اه یارب داجیا تیلباق یاه دنمشوه هب هاگتسد اه توبور اه همانرب اه و هریغ... یم دشاب هک رداق هب یریگدای نیح دنیآرف یم.دشاب رد نیا سرد فده ییانشآ طقف اب متیروگلا اه و هوحن یگنوگچ هفاضا ندومن نآ هب /مرن تخس رازفا یم هکدشاب رد نیا اتسار همانرب اه )متیروگلا( رداق هب یریگدای یم.دنشاب
8 8 موهفم تسیچ شوه اب هجوت هب هکنیا ناققحم ات نونک هتسناوتن دنا هرابرد درکلمع زغم ناسنا هک رد عقاو لحم هیزجت و (لیلحت قاتا )نامرف نیشام یکیژولویب تادوجوم هدنز اصوصخ ناسنا فیرعت یعقاو هئارا دنیامن اذل خساپ هب نیا لاوس هب یگداس ناکما ریذپ یمن دشاب و یمن ناوت یخساپ نشور و فافش هئارا.دومن رد ره لاح نیشام یکیژولویب ار اب تیلباق یاه ریز یم ناوت دروم یسررب رارق :داد
9 9 موهفم تسیچ شوه یشزومآ یریذپ زا قیرط تفایرد هداد اه ( تاعلاطا ) و ای اهوگلا ای یبیکرت زا هداد اه و وگلا اه هظفاح رد یرادهگن ندومن تایبرجت شزومآ و هریغ و لباق یزاسزاب ندومن.اهنآ میمصت یریگ بسانم و یقطنم ساسارب یریگدای و تایبرجت شزومآ هدید.هتشذگ زاربا (رظن تاساسحا ) ساسارب دوجو تیعقاو هتشذگ.لاح و هدنامزاس دوخ لکش /یه یریذپ ینورد ساسارب یاهزاین یدرف.یعمج و طابترا رارقرب ندرک یقطنم اهوگلا ساسارب شزومآ هتشذگ هب ناونع لاثم یاوه یربا یریوصت زا ناکما دوجو یگدنراب ار رد نهذ ناسنا یعادت یم.دنک هئارا یخساپ بسانم هب یوحن هک کرحم یاه یجراخ زا دوخ کی سکع لمعلا یبسانم هئارا.دنهد
10 بررسی ساختمان سلول عصبی بیولوژیک شکل و ساختمان جسم سلولی نورون سوما body)soma( cell دندریت cell)dendrite( input آکسون cell)axon( output 0
11 Biology Inspiration Neurons respond slowly 0-3 s compared to 0-9 s for electrical circuits The brain uses massively parallel computation»0 neurons in the brain»0 4 connections per neuron Dendrites Human nervous system is built of cells call neuron Each neuron can receive, process and transmit electrochemical signals Dendrites extend from the cell body to other neurons, and the connection point is called synapse Signals received among dendrites are transmitted to and summed in the cell body If the cumulative excitation exceed a threshold, the cell fires, which sends a signal down the axon to other neurons Axon Cell body Synapse
12 2
13 مقدمهای بر شبکههای عصبی و قابلیتها و تاریخچه آن مفهوم پایه شبکههای عصبی چیست چرا شبکههای عصبی قابلیت یادگیری دارند چرا شبکههای عصبی قابلیت تعمیم پذیری ساختار دارند شبکههای عصبی تقریبی از رفتار مغز و اعصاب در قسمتهای مختلف بدن موجودات زنده هستند. شبکههای عصبی دارای قابلیتهای مختلف بر اساس کاربرد میباشند. شبکههای عصبی یک پردازشگر موازی است که در یک لحظه دارای آموزش و اعمال میباشند. 3
14 ارزش و قابلیت یادگیری در شبکههای عصبی دارای محاسبات قوی و ارزشمند از داده و اطالعات هستند. در ساختار شبکههای عصبی که دارای نرونها و الیههای زیاد هستند سیستم عصبی میشوند ولی زیاد در انعطاف پذیری و درجه آزادی محاسبات طوالنیتر خواهد شد. دارای توانایی زیاد در اصالح و تعمیم پذیری میباشند. دارای قابلیت حذف اغتشاش و نویز هستند. قابلیت تولید الگوریتم تطبیق پذیر هوشمند بر پایه کاربرد را دارند. باعث زمان 4
15 یبصع یاه هکبش یاهیگژیو 5 نونکات لدم یاه فلتخم اب راتخاس و متیروگلا یاه یعونتم زا هکبش یاه یبصع هئارا هدش تسا و ره دنچ نیا لدم اه اب رگیدکی توافت دنراد اما مامت نیا لدم اه کی فده کرتشم ار لابند یم.دننک هب روط یلک لولس یاه یبصع هک لیکشت هدنهد کی هکبش یبصع یم دنشاب نیشام یاه یتابساحم دنتسه هک زا یازجا )لولس(هداس و هریجنز یا لیکشت دنوش یم و صاوخ یاراد :دنریز تیلباق یریگدای و قیبطت یریذپ تیلباق میمعت یریذپ شزادرپ یزاوم مواقم ندوب تیلباق یمومع بیرقت
16 6 تیلباق یریگدای و قیبطت یریذپ تیلباق یریگدای ینعی ییاناوت میظنت یاهرتماراپ هکبش.یبصع یارب ن ا ی روظنم هنومن یاه هیلوا ار هب هکبش لامعا یم دننک هکبش اهرتماراپ ار رب ساسا نیا هنومن اه میظنت یم.دنک رگا هنومن یاه دیدج هب نیا هکبش هک هب نیا قیرط شزومآ هدید لامعا دوش یجورخ بسانم ار اب دصرد یاطخ کچوک یم ناوت تسدب.دروآ اب نیا بیترت هکبش یاه یبصع یم دنناوت اب رییغت طیارش هب تروص هنادنمشوه دوخ ار قیبطت ای حلاصا.دیامن
17 7 تیلباق میمعت :یریذپ سپ زا هکنآ هنومن یاه هیلوا هب هکبش شزومآ هداد دش هکبش یم دناوت رد لباقم یاهیدورو شزومآ هداد هدشن یاهیدورو( )دیدج رارق دریگ و کی یجورخ بسانم دیلوت.دیامن نیا یجورخ رب ساسا مسیناکم میمعت هک یزیچ زج دنیارف ییاینورد تسین هب تسد یم.دیآ شزادرپ :یزاوم یماگنه هک هکبش یبصع رد بلاق تخس رازفا هدایپ یم دوش ییاهلولس هک رد کی زارت رارق یم دنریگ یم دنناوت هب روط نامزمه هب یاهیدورو نآ زارت خساپ.دنهد نیا یگژیو ثعاب شیازفا تعرس شزادرپ یم.دوش رد عقاو رد نینچ یمتسیس هفیظو یلک شزادرپ نیب هدنزادرپ یاه رتکچوک لقتسم زا رگیدکی عیزوت یم.ددرگ
18 8 مواقم :ندوب رد کی هکبش یبصع راتفر یلک نآ لقتسم زا راتفر ره لولس رد هکبش یم دشاب عقاورد راتفر یلک هکبش دنیآرب یاهراتفر یلحم کت کت یاهلولس هکبش یم دشاب هک نیا رما ثعاب یم دوش ات اطخ یاه یلحم اهلولس زا مشچ یجورخ ییاهن رود.دننامب نیا تیصوصخ ثعاب شیازفا تیلباق مواقم ندوب رد هکبش یبصع یم.ددرگ تیلباق :یمومع بیرقت هکبش یاه یبصع دنچ هیلا اب کی ای دنچ هیلا یفخم هب طرش نآ هک دادعت یاهنورن هیلا اه یفخم یفاک هتشاد دنشاب یم دنناوت ره عبات ریغ یطخ هتسویپ یا ار رد یاضف یبیکرت نیمخت.دننزب
19 Applications Aerospace High performance aircraft autopilots, flight path simulations, aircraft control systems, autopilot enhancements, aircraft component simulations, aircraft component fault detectors Automotive Automobile automatic guidance systems, warranty activity analyzers Banking Check and other document readers, credit application evaluators Defense Weapon steering, target tracking, object discrimination, facial recognition, new kinds of sensors, sonar, radar and image signal processing including data compression, feature extraction and noise suppression, signal/image identification Electronics Code sequence prediction, integrated circuit chip layout, process control, chip failure analysis, machine vision, voice synthesis, nonlinear modeling 9
20 Applications Financial Real estate appraisal, loan advisor, mortgage screening, corporate bond rating, credit line use analysis, portfolio trading program, corporate financial analysis, currency price prediction Manufacturing Manufacturing process control, product design and analysis, process and machine diagnosis, real-time particle identification, visual quality inspection systems, beer testing, welding quality analysis, paper quality prediction, computer chip quality analysis, analysis of grinding operations, chemical product design analysis, machine maintenance analysis, project bidding, planning and management, dynamic modeling of chemical process systems Medical Breast cancer cell analysis, EEG and ECG analysis, prosthesis design, optimization of transplant times, hospital expense reduction, hospital quality improvement, emergency room test advisement 20
21 Applications Robotics Trajectory control, forklift robot, manipulator controllers, vision systems Speech Speech recognition, speech compression, vowel classification, text to speech synthesis Securities Market analysis, automatic bond rating, stock trading advisory systems Telecommunications Image and data compression, automated information services, real-time translation of spoken language, customer payment processing systems Transportation Truck brake diagnosis systems, vehicle scheduling, routing systems 2
22 فصل دوم : ارائه ساختارهای مختلف شبکه های عصبي Multi-layer Perceptron (MPL) 22
23 هر شبکه عصبی دارای سه ویژگی زیر می باشد: مدل سلول عصبی )نوع تابع( ساختار شبکه عصبی )نوع توپولوژی( آموزش در شبکه عصبی )نوع آموزش( خودسازماندهی ساختار درحین آموزش 23
24 مدل سلول عصبی توابع انتقال خروجی واقعی به تابع انتقال ویژه ای که انتخاب شده بستگی دارد و مورد نظر مسئله ای که سلول عصبی برای حل آن استفاده می شود سه نوع از پرکاربرد ترین آنها عبارتند از: باید معیار را برآورده های کند. تابع تابع تابع انتقال سخت محدود انتقال خطی انتقال لگاریتمی سیگموئید 24
25 مدل سلول عصبی توابع انتقال از آنجایی که تابع انتقال لگاریتمی سیگموئید یک تابع مشتق پذیر است عموما از آن در شبکه های چند الیه ای استفاده می شود که با استفاده از الگوریتم پس انتشار خطا ( Backpropagation ) آموزش می پذیرند. نمونه ای از این تابع به صورت زیر است: a netg e g مطابق این عبارت ورودی این تابع انتقال می تواند هر مقداری بین منفی بینهایت تا مثبت بینهایت باشد در حالیکه خروجی آن در بازه صفر و محدود شده است. 25
26 توابع انتقال hardlim(n) = if n >=0 =0 otherwise logsig(n) = / ( + exp(-n)) 26 poslin(n) = n, if n >= 0 = 0, if n <= 0 hardlims(n) = if n >= 0, - otherwise.
27 توابع انتقال purelin(n) = n 27 satlin(n) = 0, if n <= 0 = n, f 0 <= n <= =, if <= n satlins(n) = -, if n <= - = n, if - <= n <= =, if <= n
28 توابع انتقال tansig(n) = 2/(+exp(-2n))- tribas(n) = - abs(n), if - <= n <= = 0, otherwise 28 radbas(n) = exp(-n^2)
29 مدل سلول عصبی مدل سلول عصبی تک ورودی اگر این مدل ساده را با سلول عصبی بیولوژیکی که پیش از این شرح دادیم مقایسه کنیم وزن w مطابقت دارد با سیناپس بدنه سلول به وسیله عمل جمع و تابع انتقال بیان شده و خروجی سلول عصبی یا همان a نمایانگر سیگنال آکسون است. 29
30 سلول عصبی چند ورودی مدل سلول عصبی با چند ورودی عموما یک سلول عصبی بیش از یک ورودی دارد. هر کدام از ورودی های مجزا در وزن متناظر خود ضرب می شوند. بنابراین می توان ورودی ها را به صورت بردار p و وزن ها را به صورت ماتریس W تعریف نمود. 30
31 مدل سلول عصبی با چند ورودی و چند خروجی 3
32 کی ساختار های شبکه عصبی الیه از سلول عصبی یک سلول عصبی حتی با ورودی های زیاد ممکن است نیاز ما را براورده نکند. معموال به تعدادی از آنها که به صورت موازی عمل می کنند نیار می باشد که به آن یک شبکه یک الیه گفته می شود. 32
33 33 Layer of Neurons
34 34 Abbreviated Notation
35 ساختار شبکه عصبی چند الیه 35 R S S 2 S 3 Network
36 ساختار های شبکه الیه های چند گانه از سلول عصبی در یک شبکه چند الیه هر الیه ماتریس وزن W ویژه خود بردار بایاس b خود یک بردار ورودی n مربوط به خود و یک بردار خروجی a ویژه خود را دارد. الیه های مختلف می توانند تعداد نرون های متفاوتی داشته باشند. الیه ای که خروجی آن خروجی شبکه است یک الیه خروجی نامیده می شود. الیه های دیگر الیه های پنهان نام دارند. شبکه های چند الیه قدرتمند تر از شبکه های تک الیه هستند. برای نمونه یک شبکه دو الیه که شامل یک الیه اول سیگموئید و یک الیه دوم خطی می باشد می تواند به منظور تقریب اکثر توابع اختیاری آموزش داده شود. بیشتر شبکه های کاربردی تنها دو یا سه الیه دارند. 36
37 x x 2 W First active layer n f o W 2 Second active layer 2 n 2 f 2 o x 3 n 2 f 2 o (a) General structure with two activation layers 37
38 neuron w w 2 n F o 2 neuron x x 2 x 3 w 3 w 2 w 22 w 23 w 0 x 0 w 20 n 2 F 2 o 2 (2) w (2) w 2 2 w 0 2 o 0 2 n 2 F 2 o neuron 2 x 0 (b) Specific structure with two activation layers
39 Nonlinear mapping ( n 0 ) x R w n 2 F (0) F (0) o 2 w n 2 ( n 2 ) y R x ( n 0 ) R F 2 w 2 F w x ( n 2 ) y R x R 4.3 : Two-layered neural network: nonlinear mapping for input ( ) to ( n output ( 2 ) y R ) ( n 0 )
40 w n f 2 w 2 n 2 o d x x 2 x 0 = w 2 n 2 e e f 2 2 w 2 2 n 2 e 2 o 2 d 2 x n0 e 2 e 2 w n n n e 2 f n 2 w n2 2 n n2 2 o n2 d n2 e n e n2 e n2
41 X 0 First activation layer neuron o 0 Second activation layer 2 neuron 2 o 0 Neural inputs x R n 0 X neuron 2 o 2 neuron 2 2 o Neural outputs o R n 2 X n0 neuron n (Hidden layer) 2 neuron n2 o o n n 2 (Output layer) A two-layered feedforward neural network : n hidden neurons, and n 2 output neurons x o [ x... x [ o... o i i... x n... o 0 ] n ] T T R R n n 0
42 Feedforward part x R ( n 0 ) w n F (.) o R ( n ) 2 w 2 F (.) o R 2 n 2 2 _ + d R n2 e e Backpropagation part 4.8 : The matrix representation of backpropagation learning for two-layered feedforward neural network with linear output neurons
43 O n 0 0 X c 0 O 2 Xc 2 O.. X. X 2 cn2. f f. W W 2. f. f 2 f 2.. f d d X n d n 43
44 Z - Z - Z - Z - خروجي ه ا عم لگر ت اخير ورودي ه ا 44
45 فصل سوم : ارائه مفاهیم پایه در آموزش شبکه های عصبی بر اساس الگوریتم پس انتشار 45
46 قوانین یادگیری شبکه های عصبی یادگیری بدون مربی یادگیری تقویتی یادگیری با مربی مربی با یادگیری ) ( در یادگیری با مربی قانون یادگیری به وسیله از رفتارهای مناسب شبکه ایجاد می شود: مجموعة مثالهایی مجموعة آموزشی {x, t }, {x 2, t 2 },, {x Q, t Q } 46
47 بقع هب راشتنا متیروگلا نیا متیروگلا یم دناوت رد شزومآ یاهنورتپسرپ دنچ هیلا هک رداق هب لح لئاسم یطخریغ دنتسه راکب.دور نورتپسرپ دنچ هیلا هک اب متیروگلا راشتنا هب ب ع ق شزومآ هدید دشاب رد لاح رضاح دربراکرپ نیرت هکبش یبصع تسا هک هب روط هدرتسگ هدافتسا.دوش یم بیرقت عبات یاه هکبش یبصع هب ناونع رگاسانش و رلرتنک یاهمتسیس یکیمانید یاهدربراک یناوارف.دنراد یاه هکبش یبصع نورتپسرپ دنچ هیلا هب ناونع کی بیرقت رگ یمومع هتخانش دنوش یم و نیا تیلباق رد اهنآ هتفهن تسا هک هب ناونع کی هنیزگ رایسب بسانم و روهشم تهج لرتنک یطخریغ و نینچمه ییاسانش و یزاسلدم یاهمتسیس یطخریغ حرطم.دنتسه نیاربانب هکبش یاه یبصع هب ناونع بیرقت هدننز یاه عباوت هب راک یم.دنور یارب لاثم رد یاهمتسیس لرتنک فده نتفای کی عبات دروخزاب بسانم تسا هک یجورخ ی ه ا هزادنا هدش یریگ ار هب یدورو یاه لرتنک تشاگن.دنک 47
48 الگوریتم انتشار به عقب روش مبنای بر آموزش الگوریتم انتشار به عقب در شبکه های چند الیه خروجی دهد. می تشکیل را بعدی الیه ورودی یک الیه o s+ = f s+ ( W s+ o s + b s+ ) For s= o,,, M- شاخص عملکرد این در عملکرد شاخص الگوریتم خطای باشد. می مربعات میانگین J(x) = E[e T e] = E[(t-o) T (t-o)] 48
49 الگوریتم انتشار به عقب (GD) الگوریتم (w) شیبدارترین نزول تقریب برای خطای میانگین net s i ( k) W s i ( k) O ( s k ) For s=, It means in first active layer the summation of weigthed input is; Net ( k) W ( k) O 0 ( k) 49
50 of is; The size 0 W n n 50 W 0, ,,3,2 4, 4, 3, 3,2 3,, 2, 2,3 2,2 2,,,,3,2,,...,,,......,...,,...,,,,...,,,,,...,,, n n n n n n n n n n n w w w w w w w w w w w w w w w w w w w
51 of is; The size 0 n 0 O 5 0 O n n x x x x x x
52 O (.) 0,0,0,0,0,0, (.),0 0,0,0,0,0, (.),0,0,0,0 0,0, (.),0,0,0,0,0 0, (.),0,0,0,0,0,0.. n n n n n n net net net net net f f f f f o o o o o :
53 متیروگلا نیرترادبیش لوزن (GD) یارب بیرقت یاطخ نیگنایم (w) ) ( ) ( ) (,,, k w k w k w m j i m j i m j i 53 بقع هب راشتنا متیروگلا w m j i k w ) (, ) ( ) ( ) (, k o k s w k J m j m i m j i ) ( ) ( ) ( k net k J k s m i m i ) ( ) ( ) (, k w k net k o m j i m i m j
54 الگوریتم انتشار به عقب (GD) الگوریتم میانگین شیبدارترین (b) نزول برای تقریب خطای b m i m m ( k ) b ( k) b ( k) m b k) i ( m s b J b m i i i s m i ( k) J ( k) m b ( k) i 54
55 نوناق هریجنز یا یارب هکبش دنچ هیلا اطخ یحیرص عبات زا نزو اه رد هیلا یاه ناهنپ یمن دشاب نیاربانب تاقتشم هب یناسآ لباق هبساحم.دنتسین m j i m i m i m j i w net net J w J,, m i m i m i m i b net net J b J 55 بقع هب راشتنا متیروگلا
56 m i m j S j m j i m j i b o w net m,,,, m i m i m j m j i m i b net o w net m i m i net J s, m j m i m j i o s w J m i m i s b J,, ) ( ) ( m i m i m j i m j i o s k w k w m i m i m i s k b k b ) ( ) ( 56 بقع هب راشتنا متیروگلا نوناق هریجنز یا
57 یارب تیساسح هبساحم اه هب دربراک یرگید زا نوناق هریجنز یا زاین :میراد ) ( ) (,,,, m j m m j i m j m j m m j i m j m j m j i m j s l m i m l m l i m j m i n f w n n f w n a w n b a w n n m m j m j m m j m n n f n f ) ( ) ( 57 اه تیساسح بقع هب راشتنا متیروگلا
58 نونکا یم میناوت یشخب ار هدهاشم مینک هک متیروگلا راشتنا هب بقع مان دوخ ار زا نآ هتفرگ.تسا تیساسح اه رد هکبش هب تمس بقع زا نیرخآ هیلا هب نیلوا هیلا راشتنا یم :دنبای ) )( ( ˆ ) )( ( ˆ ˆ m T m m m m T m m m m T m m m m F F F s W n F n W n F n n n n s 2 s s s s M M 58 اه تیساسح بقع هب راشتنا متیروگلا
59 هطقن زاغآ یارب طابترا یتشگزاب هلداعم لبق زا هلداعم ریز هب تسد یم :دیآ M i i i i M i s j j j M i T M i M i n a a t n a t n n F s M ) 2( ) ( ) ( ) ( ˆ 2 a t a t ) ( ) ( M j M M i M j M M i M i M i i n f n n f n a n a ) ( ) 2( M j M i i M i n f a t s ) )( ( 2 a t n F s M M M 59 اه تیساسح بقع هب راشتنا متیروگلا
60 هکبش راتخاس باختنا هکبش یاه دنچ هیلا ابیرقت یم دنناوت یارب بیرقت ره یعبات هدافتسا دنوش هب یطرش هک هب دادعت یفاک نورون رد هیلا یاه ناهنپ هتشاد.میشاب رگا میهاوخب یعبات ار بیرقت مینزب هک دادعت رایسب یدایز هطقن یگدیمخ دراد دنمزاین نآ میهاوخ دوب هک دادعت رایسب یدایز نورون رد هیلا ناهنپ هتشاد.میشاب 60 بقع هب راشتنا متیروگلا
61 ییارگمه یماگنه هک متیروگلا راشتنا هب بقع ارگمه یم دوش یمن میناوت نئمطم میشاب هک کی باوج هنیهب.میراد رتهب نیا تسا هک نیدنچ تیعضو هیلوا توافتم ار هب روظنم نانیمطا زا باوج هکنیا هنیهب هب تسد هدمآ تسا ناحتما.درک 6 بقع هب راشتنا متیروگلا نداد میمعت هکبش دیاب دناوتب هچنآ ار دای هتفرگ تسا هب هیلک تلاح اه تیعمج( )یدورو میمعت.دهد یارب هکنیا کی هکبش دناوتب میمعت دهد دیاب رتماراپ یاه یرتمک زا طاقن هداد دوجوم رد هعومجم شزومآ هتشاد.دشاب رد هکبش یاه یبصع رد مامت لئاسم لدم ندرک ام یم میهاوخ زا هداس نیرت هکبش یا هدافتسا مینک هک دناوتب روط هب بسانم هعومجم شزومآ ار هئارا.دهد
62 متیروگلا راشتنا هب بقع کی شهج گرزب رد شهوژپ یاه هکبش یبصع.دوب هب ره لاح متیروگلا هیاپ یارب رثکا دربراک یاه یلمع رایسب دنک.تسا یاهداریا راشتنا بقع هب حطس ییاراک یارب کی هکبش دنچ هیلا نکمم تسا لماش نیدنچ هطقن هنیمک یلحم دشاب و یانحنا نآ یم دناوت رد یحاون فلتخم زا یاضف رتماراپ لاماک رییغت.دنک رد یلئاسم هک انحنا ادیدش یور یاضف رتماراپ رییغت یم دنک باختنا کی خرن شزومآ بسانم یارب متیروگلا شزومآ لکشم دهاوخ.دوب یارب یحاون حطسم کی خرن شزومآ گرزب زاین یم دشاب هکیلاحرد یارب یحاون اب یانحنا دایز دنمزاین کی خرن شزومآ کچوک.میتسه تهج ییاه هیور دوبهب متیروگلا راشتنا بقع هب شبنج ینآ نیا شور اب راومه ندرک تاناسون ینحنم یاضف اهرتماراپ ییارگمه ار دوبهب یم دهد هک نیا راک ار یم ناوت اب هدافتسا زا کی رتلیف نییاپ رذگ ماجنا.داد 62 بقع هب راشتنا متیروگلا یفاشتکا یاه حلاصا
63 اصالح های اکتشافی الگوریتم انتشار به عقب مثالی از استفاده فیلتر پایین گذر در فرمول زیر w(k) ورودی است. فیلتر و y(k) خروجی فیلتر و γ ضریب جنبش آنی y( k) γy( k ) ( γ) w( k) 0 γ برای فیلتر این مثال ورودی فیلتر موج سینوسی در شکلهای زیر دیده می شود: این تاثیر است. شده گرفته نظر در 2 2 /5 /5 0/5 0/ a) γ=0/9 2πk w( k) sin b) γ=0/98
64 اصالح های اکتشافی الگوریتم انتشار به عقب استفاده از فیلتر پایین گذر درمورد شبکه عصبی زمانی که فیلتر جنبش آنی به تغییرات پارامتر در به روز رسانی وزن ها و بایاس می شود معادالت زیر برای جنبش آنی اصالحی انتشار به عقب به دست می آید: اضافه ها W ( ) αs ( a m m m T k ) b m ( k) αs m با استفاده از جنبش آنی توانایی استفاده از نرخ آموزش بزرگتر با حفظ ثبات الگوریتم را داریم خصوصیت دیگر جنبش آنی این است که در مدتی که منحنی در یک جهت ثابت باشد تمایل به تسریع همگرایی دارد و دلیل نامگذاری جنبش آنی به این خاطر است که تمایل به واداد کردن منحنی به ادامه در جهت مشابه دارد. هرچه مقدار γ بیشتر باشد منحنی دارای جنبش آنی بیشتری است. 64
65 اصالح های اکتشافی الگوریتم انتشار به عقب نرخ آموزش متغیر با استفاده از افزایش نرخ آموزش در سطوح هموار و سپس کاهش آن زمانیکه شیب افزایش می یابد می توان همگرایی را بیشتر کرد. بنابراین می توان همگرایی را توسط تنظیم نرخ آموزش در مدت آموزش افزایش داد. تعیین زمان تغییر نرخ آموزش و اینکه چه مقدار آن را تغییر دهیم یک لم است. 65
66 قوانین الگوریتم انتشار به عقب با نرخ آموزش متغییر اگر خطای آموزشی بیشتر از یک میزان معین ζ )بطور نمونه تا 5 درصد( بعد از به روز رسانی وزن ها افزایش یابد به روز رسانی وزن ها رها شده نرخ آموزش در فاکتور > >0 ρ ضرب می شود و ضریب جنبش آنی صفر مقدار دهی می شود. اگر خطای مربعی بعد از به روز رسانی وزن ها کاهش یابد به روز رسانی وزنها مورد قبول بوده و نرخ آموزشی در فاکتور < ή ضرب می شود. اگر ضریب جنبش آنی قبال صفر شده باشد با مقدار اصلیش دوباره مقدار دهی می شود. اگر خطای مربعی کمتر از ζ کاهش یابد به روز شده اما نرخ آموزش و ضریب جنبش آنی بدون تغییر رسانی وزن می مانند. واقع قبول مورد ها 66
67 اصالح های اکتشافی الگوریتم انتشار به عقب می شود: دیده زیر در شکل آموزش ترخ تغییر از مثالی /5 Squared Error 60 Learning Rate 40 0/ Iteration Number Iteration Number 67
68 تلااکشا شور یاه یحلاصا یاهحلاصا یفاشتکا یم دناوت لاومعم ییارگمه رایسب یرتعیرس ار یارب یخرب زا لئاسم مهارف.دنک هب لاحره ود لاکشا یلصا یارب نیا اهشور دوجو :دراد نیا تاحلاصا زاین هب رادقم یهد نیدنچ رتماراپ دنراد و ییاراک متیروگلا ساسح هب تارییغت نیا رتماراپ.تساه نیا تاحلاصا یضعب عقاوم نکمم تسا رد ییارگمه هلئسم قفوم.دوشن 68 بقع هب راشتنا متیروگلا یفاشتکا یاه حلاصا
69 روش پیشنهادی برای افزایش سرعت همگرایی الگوریتم ترکیبی در این روش یک الگوریتم ترکیبی برای آموزش با مربی شبکه های ارائه شده است. این الگوریتم برای یک شبکه دو الیه ارائه شده اما می شبکه های چند الیه نیز به کار برد. عصبی پیشخور توان آن را برای الگوریتم ارائه شده برای افزایش سرعت آموزش در الگوریتم انتشار به عقب پایه استفاده شده است. در این الگوریتم دو روش مختلف برای به روز کردن وزن ها استفاده شده است: یکی از روش های آموزش استاندارد برای الیه اول. استفاده از رابطه زیر در آموزش الیه دوم. 2 e و d از روابط زیر به دست می آیند: d = f - (d) 69 min e = d (Wx + b) E T d y d y min E f d T * e f d * e
70 روش پیشنهادی برای افزایش سرعت همگرایی با استفاده از جایگزینی طرف راست آخر در تابع غیر خطی الیه آخر ظاهر رابطه اصلی نمی شوند. الگوریتم در الیه های وزن آموزش در این بنابراین روش ابعاد فضای جستجوی مؤثر برای الگوریتم تعداد تکرار های آموزش کمتر خواهد شد. یابد. می کاهش خطی غیر 70
71 یاه ماگ متیروگلا یبیکرت.I باختنا نزو اه و سایاب اه هب روط یفداصت و ای اب هدافتسا زا شور یاه رادقم هیلوا.II هب زور ندرک نزو اه و سایاب اه اب هدافسا زا کی شور درادناتسا دننام متیروگلا راشتنا هب بقع هیاپ.III یسررب نوناق فقوت و نایاپ نداد هب شزومآ رد تروص اضرا ندش نیا نوناق ای نتفر هب مدق 4 رد ریغ تروصنیا رد متیروگلا هئارا هدش ادتبا رتماراپ یاه ره ود هیلا زا شور درادناتسا یارب شزومآ هدافتسا یم دننک اما رد تروص مک ندش تارییغت اطخ زا شور یبیکرت هدافتسا هدش هک شور شزومآ یاهرتماراپ هیلا مود رییغت هدرک و هب یتروص هک هئارا دش شزومآ یم.دنیب 7 ییارگمه تعرس شیازفا یارب یداهنشیپ شور
72 فصل چهارم : بررسی روشهای مختلف آموزش در شبکه های عصبی 72
73 Learning Rules Supervised Learning Network is provided with a set of examples of proper network behavior (inputs/targets) { p, t } { p 2, t 2 } { p Q, t Q } Reinforcement Learning Network is only provided with a grade, or score, which indicates network performance Unsupervised Learning Only network inputs are available to the learning algorithm. Network learns to categorize (cluster) the inputs. 73
74 Learning Rules Supervised Learning Early learning algorithms First order gradient methods Second order gradient methods Early learning algorithms 74 Designed for single layer neural networks Generally more limited in their applicability Some of them are Perceptron learning LMS or Widrow- Hoff learning Grossberg learning
75 75 McCulloch-Pitts Perceptron
76 76 Perceptron Architecture AGAIN!!!!
77 77 Unified Learning Rule
78 78 Multiple-Neuron Perceptrons
79 Perceptron Rule Capability The perceptron rule will always converge to weights which accomplish the desired classification, assuming that such weights exist. 79
80 Rosenblatt s single layer perceptron is trained as follow:. Randomly initialize all the networks weights. 2. Apply inputs and find outputs ( feedforward). 3. compute the errors. 4. Update each weight as w ij ( k ) w ( k) p ( k) e ( k) ij 5. Repeat steps 2 to 4 until the errors reach the satisfictory level. i j 80
81 8 Recurrent Network
82 82 Hamming Network
83 83 Feed Forward Layer
84 84 Recurrent Layer
85 85 Hamming Operation
86 86 Hamming Operation
87 87 Hopfield Network
88 88 Performance Optimization Gradient based methods
89 89 Basic Optimization Algorithm
90 90 Steepest Descent (first order Taylor expansion)
91 Example Plot
92 LMS or Widrow- Hoff learning First introduce ADALINE (ADAptive LInear NEuron) Network 92
93 LMS or Widrow- Hoff learning or Delta Rule ADALINE network same basic structure as the perceptron network 93
94 94 Approximate Steepest Descent
95 95 Approximate Gradient Calculation
96 LMS Algorithm This algorithm inspire from steepest descent algorithm 96
97 97 Multiple-Neuron Case
98 Difference between perceptron learning and LMS learning DERIVATIVE Linear activation function has derivative but sign (bipolar, unipolar) has not derivative 98
99 Grossberg learning (associated learning) Sometimes known as instar and outstar training Updating rule: w ( k ) w ( k) x ( k) w ( k) i i Where could be the desired input values (instar training, example: clustering) or the desired output values (outstar) depending on network structure. Grossberg network (use Hagan to more details) x i i i 99
100 First order gradient method Back propagation 00
101 Multilayer Perceptron 0 R S S 2 S 3 Network
102 02 Function Approximation Example
103 Nominal Response
104 04 Parameter Variations
105 05 Multilayer Network
106 06 Performance Index
107 07 Chain Rule
108 Gradient Calculation 08
109 09 Steepest Descent
110 0 Jacobian Matrix
111 Backpropagation (Sensitivities)
112 2 Initialization (Last Layer)
113 3 Summary
114 Summary Back-propagation training algorithm Network activation Forward Step Error propagation Backward Step Backprop adjusts the weights of the NN in order to minimize the network total mean squared error. 4
115 5 Example: Function Approximation
116 6 Network
117 7 Initial Conditions
118 8 Forward Propagation
119 9 Transfer Function Derivatives
120 20 Backpropagation(BP)
121 2 Weights Update
122 22 Choice of Architecture
123 23 Choice of Network Architecture
124 Convergence Global minimum (left) local minimum (right) 24
125 25 Generalization
126 Disadvantage of BP algorithm Slow convergence speed Sensitivity to initial conditions Trapped in local minima Instability if learning rate is too large Note: despite above disadvantages, it is popularly used in control community. There are numerous extensions to improve BP algorithm. 26
127 Improved BP algorithms First Order Gradient Method Second Order Gradient Method 27
128 فصل پنجم : بهبود الگوریتم پس انتشار خطا Improved BP algorithms 28
129 Improved BP algorithms First Order Gradient Method. BP with momentum 2. Delta- bar- delta 3. Decoupled momentum 4. RProp 5. Adaptive BP 6. Trianary BP 7. BP with adaptive gain 8. Extended BP 29
130 - BP with momentum (BPM) The basic improvement to BP (Rumelhart 986) Momentum factor alpha selected between zero and one Adding momentum improves the convergence speed and helps network from being trapped in a local minimum. 30
131 Modification form: Proposed by nagata 990 Beta is a constant value decided by user Nagata claimed that beta term reduce the possibility of the network being trapped in the local minimum This seems beta repeating alpha rule again!!! But not clear 3
132 2- Delta-bar-delta (DBD) Use adaptive learning rate to speed up the convergence The adaptive rate adopted base on local optimization Use gradient descent for the search direction, and use individual step sizes for each weight 32
133 3- RProp Jervis and Fitzgerald (993) and limit the size of the step 33
134 Improved BP algorithms Second Order Gradient Method. Newton 2. Gauss-Newton 3. Levenberg-Marquardt 4. Quickprop 5. Conjugate gradient descent 6. Broyde Fletcher-Goldfab-Shanno 34
135 Performance Surfaces Taylor Series Expansion 35
136 36 Example
137 37 Plot of Approximations
138 38 Vector Case
139 39 Matrix Form
140 Performance Optimization Basic Optimization Algorithm Steepest Descent 40
141 4 Minimizing Along a Line
142 42 - Newton s Method
143 43 Example
144 44 Plot
145 45 Non-Quadratic Example
146 46 Different Initial Conditions
147 DIFFICULT Inverse a singular matrix!!! Complexity 47
148 48 Newton s Method
149 49 Matrix Form
150 50 Hessian
151 5 2- Gauss-Newton Method
152 52 3- Levenberg-Marquardt
153 53 Adjustment of μ k
154 54 Application to Multilayer Network
155 55 Jacobian Matrix
156 56 Computing the Jacobian
157 57 Marquardt Sensitivity
158 58 Computing the Sensitivities
159 LMBP Present all inputs to the network and compute the corresponding network outputs and the errors. Compute the sum of squared errors over all inputs. Compute the Jacobian matrix. Calculate the sensitivities with the backpropagation algorithm, after initializing. Augment the individual matrices into the Marquardt sensitivities. Compute the elements of the Jacobian matrix. Solve to obtain the change in the weights. 59 Recompute the sum of squared errors with the new weights. If this new sum of squares is smaller than that computed in step, then divide m k by u, update the weights and go back to step. If the sum of squares is not reduced, then multiply m k by u and go back to step 3.
160 60 Example LMBP Step
161 6 LMBP Trajectory
162 62 5- Conjugate Gradient
163 LRLS Method Recursive least square method based method, does not need gradient descent. 63
164 LRLS Method Cont. 64
165 65 LRLS Method Cont.
166 Example for compare methods Algorithms Average time steps (cut off at 0.5) Average time steps (cut off at 0.) Average time steps (cut off at 0.05) BPM DBD LM LRLS
167 IGLS (Integration of the Gradient and Least Square) The LRLS algorithm has faster convergence speed than BPM algorithm. However, it is computationally more complex and is not ideal for very large network size. The learning strategy describe here combines ideas from both the algorithm to achieve the objectives of maintaining complexity for large network size and reasonably fast convergence. The out put layer weights update using BPM method The hidden layer weights update using BPM method 67
168 فصل ششم : شبکه عصبي بازگشتي Recurrent Networks 68
169 Recurrent Networks Feed forward networks: Information only flows one way One input pattern produces one output No sense of time (or memory of previous state) Recurrency Nodes connect back to other nodes or themselves Information flow is multidirectional Sense of time and memory of previous state(s) 69 Biological nervous systems show high levels of recurrency (but feed-forward structures exists too)
170 Recurrent Networks Recurrent Network with hidden neuron: unit delay operator z - is used to model a dynamic system z - z - input hidden output z - 70
171 7 Rabinson and Fallside
172 72 Elman
173 Jordan 73
174 74 Elman and Jordan
175 Jordan Learning net Wx. X ( t) Wc. X c( t) where : X t O t y t 2 c( ) ( ) ( ) F ( net ) O ( net ) 2 net W y. O ( t) F ( net ) O ( net ) y( net ) 75
176 Jordan Learning E W x W E W y W y E E O net O net Wc Wc O net O net Wc 76 x e. F. Wy. F. X c( t) Wc. W =.. Xc( t) Wc. X X c W c W t c t c
177 Elman and Jordan Learning net Wx. X ( t) Wc. X c( t) Wc2. X c2( t) where : X t O t y t X t O t y t c( ) ( ) ( ) 2 c2( ) ( ) ( ) F ( net ) O ( net ) 2 net W y. O ( t) F ( net ) O ( net ) y( net ) 77
178 Elman and Jordan Learning E W y W y E Wx Wx E Wc W E Wc2 W c c2 () (2) (3) (4) 78
179 2 2 E E O net ) W.... e. F y (.). O W 2 2 O net W y y
180 E E O net O net 2) Wx..... W 2 2 O net O net W x 2. e. F. W y. F. X ( t) 2 2 x 80 W x.. Xt ( )
181 E E O net O net 3) Wc..... W 2 2 O net O net W c W c = W.. Xc( t) c... O ( t ) Wc e. F (.). Wy. F (.). X c( t) Wc. X c W t c ( ) Wc O t c X c W t c 8
182 E E O net O net 4) Wc W 2 2 O net O net W c2 W = W c2.. Xc2 ( t) c O ( t ) Wc e. F (.). Wy. F (.). X c2 ( t) Wc2. X c2 W t c2 2 O ( t) Wc2 c2 X c2 W t c2 82
183 Jordan with Neuron Feedback X c( t) O ( t ) X c( t ) O ( t ) O ( t 2) net ( t) Wx. X ( t) Wc. X c( t) W x. X ( t) Wc. O ( t ) O ( t 2) 83
184 Jordan with Neuron Feedback net ( t) Wx. X ( t) Wc. X c( t) Wx. X ( t) Wc. O ( t ) O ( t 2) 2 2 E E O net O net Wc W 2 2 c O net O net Wc 2 Xc() t. e. F (.).. F Wy (.). X c( t) Wc. W c 84
185 Flexible NN Neuron Functions (Unipolar) f x exp gx F( a, x) 2 a e 2 ax. 85
186 Flexible NN Neuron Functions (Bipolar) g x exp exp gx gx F( a, x) e e 2 ax. 2 ax. 86
187 Flexible NN Structure a x W net F O W2 a 2 2 net 2 F O t 2 e x 2 a net 2 F 2 O 2 2 net 2 2 F 2 2 O 2 e 2 t a 2... x n a 2 net n2 2 F n2 2 O n2 e n2 t n2 net n F n O n 87
188 Feed Forward of FNN T net2 ( ) W. X net k net net n O ( k) F ( a, net ( k)) 2 net 2 2 T net2 net ( k) W. O 2 2 net n O k F a net k ( ) (, ( )) O F ( a, net ) O2 0 F2 ( a, net2 ) On Fn ( a, netn ) 88
189 Learning E e t o 2 2 n2 n i ( i i ) i i E ak ( ). ak ( ) 2 2 E E O ( k) a ( k)..( e). F ( a, net ). e. F 2( a, net ) a ( k) O ( k) a ( k) F ( a, net ) a.* net 2 a.* net 2 2 a.* net a.* net 2 a.* net (2 net e )( e ).* a [( e ) a.*( 2 net e )].*( e ) 2 2 ( a ).*( e ) a.* net a.* net 2 a.* net 2 a.* net 2 a net e ( e e ) ( a ).*( e a.* net a.* net 2 a.* net ( e )( e ) ) ( a ).*( e ) a.* net 2 a a.* net 4net e 2 2.*( e ) 2 2 a.* net 2 a F ( a, net ) 89
190 Learning E e t o 2 2 n2 n i ( i i ) i i E ak ( ). ak ( ) 2 2 E E O k net k O k a ( k) ( ) ( ) ( ) a ( k) O ( k) net ( k) O ( k) a ( k). e. F( a, net ). W. F( a, net ) Derived respect to net Derived respect to a 90
191 Recurrent Flexible NN E ak ( ). ak ( ) 9
192 فصل هفتم :شبکه های حافظه دار TDLV گاما و 92
193 حافظه درشبکه عصبی شبکههای عصبی می توانند بهتر سریهای زمانی را مدل کنند. روشهای از خطی کالسیک مشخصات پیچیده به صورت تئوری نیازی به این که آیا سری زمانی ایستا است یا خیر جهت مدلسازی با شبکههای عصبی نداریم. شبکههای عصبی نیاز به تعداد عظیمی از دادههای به عنوان ورودی ندارند بر عکس روشAR. 93
194 94
195 W W 95
196 پیش بینی با کمک MLP X x( n) x( n) x( n ) x( n ) x( n ) x( n 2) T شکل اعمال ورودی شکل اعمال خروجی 96
197 شبکه های حافظه دارTDL وگاما سند برگ ( 997( : هر تغییر زمانی در یک نگاشت دینامیکی میتواند به طور تقریبا کاملی توسط یک ساختاری که دارای 2 بلوک است که بلوک اول بانک فیلترهای خطی شبکه می باشد و بلوک استاتیکی بعدی خود را تغذیه میکند مدل شود. FIR, IIR فیلترهای مشکالت IIR مزایا : بوجود آمدن ناپایداری ها در آموزش : FIR ظرفیت محدود مدلسازی : IIR کم بودن پارامترها در حوزه های بزرگ زمان : FIR پایداری شبکه 97
198 98
199 99
200 200 یجورخ و ینایم یاه هیلا هب هظفاح لامعا.. m m n T n m m n T n X G F Net F X G Net p n n T p Net F G O t t X ) (. ) ( ) ( ˆ 2 T m t x t x t x X ) (,, ) (, ) (
201 مزایا و توپولوژی اعمال فیلتر داشتن بیش از یک وزن تحت آموزش در هر سیناپس در دسترس بودن داده های زمانهای گذشته آموزش پارامترهای فیلتر دیجیتال در صورت وجود 20
202 202 یژولوپوت و TDL ورشیپ تابساحم ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) (, t x t x t x t x t x t x t x t x k ij ijk ij ij ij ij ij ij k l ijl ijl ijk ijk ij ij ij ij ij t x w t x w t x w t x w t y ) ( ) ( ) ( ) ( ) (
203 203 ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( t x t x t x t x t x t x t x z z t x z G t x m m m m m m k l ijl ijl ijk ijk ij ij ij ij ij t x w t x w t x w t x w t y ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) (, t x t x t x l ij ij ijl ij ijl m m یژولوپوت و TDL ورشیپ تابساحم
204 اماگ هکبش شزومآ (BP) ) ( ) ( t x t w y ijl ijl ij k l k l ijl ijl ij ijl ijl ij ij t w t x w t y 0 0 ) ( ) ( ) ( m m ij ij l ij l ij ij ij ijl ijl ij ij l ij l ij ij ij ij ij ijl ijl ij ij ijl t x t x t x t x t x t x t x t x t m m m m m m m m m m m m ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) (,,,, ) ( ) ( ) ( ) ( ) ( ) ( ) (,, t x t x t t t t x ijl l ij l ij ij ijl ij ijl ij ijl m m m 0 0 ) ( ) ( ij i ij ij ij w u t y x t y 204
205 نمودار پیش بینی با شبکه های حافظه دار شبكهTDL شبكه گاما 205
206 206 اهشور هسیاقم N i N i i x i x i x i x NMSE 2 2 )) ( ) ( ( )) ( ) ( ˆ( N i i x i x N MAE ) ( ) ˆ( N i i x i x N MBE ) ( ) ˆ( N i i x i x N RMSE 2 )) ( ) ( ˆ(
207 نتیجه گیری روشهای سری زمانی غیرخطی شبکه های عصبی برتری خاصی برروشهای غیرشبکه عصبی دارند )همانطورکه انتظارداشتیم(. بزرگترین مشکل در روش کالسیک یافتن جواب بهینه به صورت سعی وخطا میباشد و شبکه های عصبی نیزاین مشکل را دریافتن تعداد الیه های میانی بهینه دارند. هنگامی که واحد حافظه را به داخل شبکه انتقال دادیم جوابها بسیار بهتر شدند.اما نکته مهم اینجاست که نتایج روش TDL تقریبا به گاما بسیارنزدیک بوده این امر میزان اهمیت و رجحان وزنها را برپارامترعمق حافظه می رساند. درشبکه های حافظه دار) TDL گاما( اهمیت فوق العاده الیه میانی دارا می باشد. 207
208 فصل هشتم : شبکه عصبي مدل مخچه CMAC Neural Network and TD-CMAC 208
209 CMAC Neural Network and TD-CMAC Introduction Time Series Cerebellar Model Arithmetic Computer (CMAC) Time-Delay CMAC (TD-CMAC) - Output Mapping 2- Learning Algorithm Evaluation of TD-CMAC Conclusion 209
210 معماری CMAC 20
211 2
212 CMAC Model Input Space Weights Adjustment Obtained Output Weights Table Block diagram of CMAC 22
213 CMAC Model (Example) S 2 i h g f e d c b a Hh Bb Fe State(4,3) S A B C D E F G H I The CMAC structure with two inputs 23
214 CMAC خروجی و الگوریتم یادگیری در نگاشت y(s) W new a T W (s) W old M j e a j (s) W j T a( s)( yˆ( s) a ( s) Wold) N :CMAC ویژگیهای 24
215 25
216 26
217 Time Series Modeling X(t) X(t-) X(t-d) F(.) X(t+) X(t ) F( X(t) X(t -) X(t -2) X(t -d) ) e(t) Converting prediction of time series to function approximation 27
218 TD-CMAC Model X(t) X(t-) X(t-d) TD-CMAC X(t+) block diagram of TD-CMAC model 28
219 TD-CMAC Model X(t-d) X(t-d+). X(t-2) X(t-) X(t) CMAC C. CMAC... C 2 CMAC C d B CMAC... C 22 X(t+)... CMAC.... C 2d B 2 CMAC C dd B d 29 The structure details of TD-CMAC model
220 TD-CMAC Model - Output Mapping y ( s) a( s) W a ( s) d d M i ji k ijk w ijk 2- Learning Algorithm W new W c ij ( s) ij old N e c( s) a( s)( yˆ( s) y( s)) 220
221 TD-CMAC (Example) X(t-2) X(t-) X(t) File, Time Series : 6, 3, 4, 2,,6, CMAC CMAC 2 Σ X(t+) CMAC 22 Weight table: W[i][j][N b ][N b ][N e ] For (i=,2) For (j=i,2) Time Series: S[d+2] W[2][2][3][3][3], S[4] i h g f e d c b a S X(t-) 2 input CMAC X(t) S A B C TD-CMAC Model d=2 (Number of delay) N b =3 (Number of block) N e =3 (Number of layer) α= (Learning rate) D E F G H I Error =
222 TD-CMAC (Example) File, Time Series : 6, 3, 4, 2,,6, The first time series data for training of model The next data for evaluation of model (prediction) ) d+ input for X(t) to X(t-) X(t-2) -> S[]=6 X(t-) -> S[2]=3 X(t) -> S[3]=4 2) Next data for X(t+) X(t+) -> S[4]=2 3) Weight Initialization to zero 222
223 A) Output Calculating S y ( s) a( s) W a ( s) d d M i ji k X(t-)=3 ijk w ijk CMAC State(4,3) X(t)= S X(t-2) -> S[]=6 X(t-) -> S[2]=3 X(t) -> S[3]=4 X(t+)-> S[4]=2 y(s) = w[][][2][2][] + w[][][3][2][2] + w[][][2][2][3] +
224 A) Output Calculating S y ( s) a( s) W a ( s) d d M i ji k X(t-2)=6 ijk w ijk State(4,6) CMAC 2 X(t)= S X(t-2) -> S[]=6 X(t-) -> S[2]=3 X(t) -> S[3]=4 X(t+)-> S[4]=2 y(s) = + + w[][2][2][][] + w[][2][3][][2] + w[][2][2][][3] +
225 A) Output Calculating S y ( s) a( s) W a ( s) X(t-2)=6 d d i ji k M State(3,6) ijk w ijk CMAC 22 X(t-)=3 S X(t-2) -> S[]=6 X(t-) -> S[2]=3 X(t) -> S[3]=4 X(t+)-> S[4]=2 y(s) = + + w[2][2][2][][] + w[2][2][2][][2] + w[2][2][2][][3] =
226 B) Weight Adjusting Wnew W c ij ( s) ij old c( s) a( s)( yˆ( s) y( s)) N e CMAC ij y(s) = 0 ŷ(s) = X(t+)=S[4]=2 w[][][2][2][] new =0+(0./3)*(/(*))*(2-0) = CMAC w[][][3][2][2] new =0+(0./3)*(/(*))*(2-0) = w[][][2][2][3] new =0+(0./3)*(/(*))*(2-0) = CMAC 2 CMAC 22 w[][2][2][][] new =0+(0./3)*(/(*2))*(2-0) = w[][2][3][][2] new =0+(0./3)*(/(*2))*(2-0) = w[][2][2][][3] new =0+(0./3)*(/(*2))*(2-0) = w[2][2][2][][] new =0+(0./3)*(/(2*2))*(2-0) = 0.06 w[2][2][2][][2] new =0+(0./3)*(/(2*2))*(2-0) = 0.06 w[2][2][2][][3] new =0+(0./3)*(/(2*2))*(2-0) = 0.06
227 C) Repeat A, B with new weights A) Output Calculating y ( s) a( s) W a ( s) d d M i ji k ijk w ijk y(s) = = 0.35 y(s) = 0.35 ŷ(s) = X(t+)=S[4]=2 error = 0.00 ERROR yˆ( s) y( s) error End) Until (ERROR< error) 227
228 C) Repeat A, B with new weights B) Weight Adjusting W new W old c ij ( s) ij c( s) a( s)( yˆ( s) y( s)) N e y(s) = 0 ŷ(s) = X(t+)=S[4]=2 w[][][2][2][] new =w[][][3][2][2] new =w[][][2][2][3] new = (0./3)*(/(*))*(2-0.35) = 0. w[][2][2][][] new =w[][2][3][][2] new =w[][2][2][][3] new = (0./3)*(/(*2))*(2-0.35) = w[2][2][2][][] new =w[2][2][2][][2] new =w[2][2][2][][3] new = 0+(0./3)*(/(2*2))*(2-0) =
229 C) Repeat A, B with new weights A) Output Calculating y ( s) a( s) W a ( s) d d M i ji k ijk w ijk y(s) = = 0.57 y(s) = 0.57 ŷ(s) = X(t+)=S[4]=2 error = 0.00 ERROR yˆ( s) y( s) error End) Until (ERROR< error) 229
230 CO (ppm) One hour ahead prediction Six hour ahead prediction 30 Real Data TD-CMAC TW-CMAC 30 R eal D ata T D -C M A C T W-C M A C
231 CO (ppm) One day ahead prediction 30 Real Data TD-CMAC TW-CMAC
232 SO 2 (ppm) One hour ahead prediction Real Data TD-CMAC TW-CMAC NO x (ppm) One hour ahead prediction Real Data TD-CMAC TW-CMAC
233 فصل نهم : شبکه عصبي Bayesian Neural Network بیزین 233
234 معرفی شبکه عصبی بیزین تک الیه توسعه شبکه عصبی بیزین تک الیه به چندالیه.. 2 )Partitioning( )Overlapping( روش قسمت بندی روش روی هم افتادگی ویژگی های پیوسته و شبکه عصبی بیزین 3 234
235 هدف نهایی که در این شبکه به دنبال آن هستیم محاسبه احتمال تمامی کالس ها به ازای داده های ورودی به شبکه و انتخاب کالس با بیشترین مقدار احتمال برای هر داده به عنوان کالسی که داده متعلق به آن است می باشد. 235
236 تئوری بیز برای محاسبه :P(y x) 236
237 فرض کنید مقادیر N x={x, x 2,,x N } ویژگی مستقل مربوط به داده x در دست باشد. در اینصورت احتمال x می تواند به صورت زیر نوشته شود : p(x y) همچنین شود: می شرطی احتمال نوشته زیر بصورت نیز 237
238 به ورودی داده مشاهده ازای به کالس هر احتمال : زیر صورت محاسبه خواهد شد 238
239 معادله اخیر پایه کالسیفیر ساده بیز می باشد. طراحی بیز ساده مربوط به اوقاتی می شود مستقل بودن ورودی ها را داریم. فرض که 239
240 : است برقرار همواره زیر رابطه 240
241 )( رابطه به رابطه از گرفتن لگاریتم و جایگذاری با زیر خواهیم رسید: مزیت فرم لگاریتمی خطی بودن آن است. بدین کالسیفیر ساده بیز می تواند با یک تابع تمایز بنابراین با یک شبکه عصبی تک الیه پیاده سازی معنی که خطی و شود. 24
242 عصبی شبکه یک در سیگنال پخش برای معمولی معادله است: زیر صورت 242
243 نمای شبکه عصبی بیزین تک ویژگی های مربوط به داده ها محدود ) می باشند: الیه برای گسسته ( حالتی که در آن دارای چند مقدار 243
244 244
245 245. hair Boolean 2. feathers Boolean 3. eggs Boolean 4. milk Boolean 5. airborne Boolean 6. aquatic Boolean 7. predator Boolean 8. toothed Boolean 9. backbone Boolean 0. breathes Boolean. venomous Boolean 2. fins Boolean 3. legs Numeric (set of values: {0,2,4,5,6,8}) 4. tail Boolean 5. domestic Boolean 6. capsize Boolean 7. type Numeric (integer values in range [,7])
246 β β2 β3 Y Y 2 Y 3 Y 7 β
247 به احتمال شرطی نتیجه متغیر ویژگی داده x i یعنی ) i P(y j x اشاره به y i کند: مشاهده شرط 247
248 کنیم: مقایسه هم با را زیر رابطه فرم دو توانیم می حال 248
249 بیزین: عصبی شبکه آموزش 249
250 مثال: باشد: زیر به صورت شبکه به ورودی داده کنید فرض :(بز کوهی) Antelope,0,0,,0,0,0,,,,0,0,4,,0,, 250
251 β β2 β3 Y Y 2 Y 3 Y 7 β7 X X 2 X 2 X 22 X 3 X 32 25
252 252
253 β β2 β3 Y Y 2 Y 3 3 Y 7 β7 X X 2 X 2 X 22 X 3 X
254 254
255 255
256 256
257 تخمین کالسیک: 257
258 بیزین: تخمین 258
259 توسعه شبکه عصبی بیزین تک الیه به چندالیه 259
260 رگا یگژیو یاه یدورو هب رگیدکی هتسباو دنشاب هکبش یبصع کت یبوخ باوج هیلا تسدب یمن.دهد یارب ناربج یگتسباو اه رد نایم هیلا یدورو و هیلا یجورخ زا کی هیلا ناهنپ هدافتسا یم مینک هک نیا هیلا زا بیکرت نوتس یاه یدورو ( ییاهنآ هک هب مه هتسباو لصاح )دنتسه یم.دوش 260
261 از الیه چند بیزین عصبی شبکه تشکیل برای کلی بطور : می معماری دو توان سود جست الف ) Partitioning ب ) Overlapping 26
262 شبکه عصبی چند الیه )Partitioning( 262
263 وابستگی X X 2 X 3 X X 2 X U X 3
264 U X 3 264
265 265
266 266
267 می توان توزیع را بروی تمام حوزه به عنوان یک ضرب شامل متغیرهای که u k می شود بیان کنیم : 267
268 شبکه عصبی چند الیه )Overlapping( 268
269 d a c f b e 269
270 270
271 27
272 272
273 در این نوع اولیه پس از معماری شبکه عصبی بیزین چند الیه ترکیب بطور مستقیم نیز با الیه خروجی ستون )ویژگی( ارتباط دارد. های 273
274 274
275 : ویژگی X,Y دو میان متقابل اطالعات می شود تعریف زیر به صورت اگر مقدار تلقی می شود. معیار شوند باال از و یک یک threshold بیشتر شود ستون پیچیده برای ترکیب آنها دو ویژگی وابسته درنظر گرفته می 275
276 Bayesian Solution Classic Solution Number of training data
277 Bayesian Classic Number of training data Solution Solution
278 ویژگی های پیوسته و شبکه عصبی بیزین 278
279 279
280 280
281 تابع چگالی احتمال بروی متغیر پیوسته z می تواند به وسیله یک تعداد متناهی از جمع تقریب زده شود: n P( z) i P( v i ) P( z v i ) 28
282 282
283 * 0.30 = * 0.60 = 0.2
284 هر مقدار خواهد بود متفاوتی جزء از متفاوتی درجه به بازه در "متعلق" : 284
285 285
286 log( p( y z)) log( p( y)) log( i i ' P( y v ii P( y) P( v ' ii ) P( v ) ' ii ' z i )) 286
287 i i ij j j o S W )) ( log( z y P S j j )) ( log( j j y P ) ( ) ( ), (, i j i j j i v P y P v y P W 287
288 مدل ترکیبی 288
289 مدل ترکیبی : یک سری از توابع که اجتماع دامنه های آنهاا یاک بازه را پوشش می دهد. در این کار تبدیل یک متغیر پیوسته به تعدادی متغیر گسساته که بتوانند به عنوان ورودی شبکه عصبی بیزین اساتفاده شاوند توسط مدل ترکیبی با توابع گوسین صورت می گیرد. 289
290 توزیع گوسین با برردار میرانگین خرود µ و مراتری کوواریان خود Σ شناخته می شرود و دارای ترابع توزیع زیر است : f ( z i i i (2 : m, ) exp( ( z m ) ( z m ) ' i i i ) d 2 i ) 290
291 مطرح که ای مسئله است تخمین پارامترهای ترکیبات ترکیبی مدل گوسین است. 29
292 c i i C z v P ) ( )/ ( i c i i C z z v P m ) ( ) ( ) ( i i c i i i C z z z v P m m ' ) ( ) ( ) ( ) )( )( ( 2 3 π i =P(v i ), ) : ( i i i z f m ) ) ( ) ( 2 exp( ) (2 ' i i i i d z z m m 4 292
293 اب ضرف یخرب ریداقم هیلوا یفداصت یارب اهرتماراپ زا هلداعم )4( یم ناوت یارب هبساحم رادقم قلعت ره هنومن هب ره ءزج هدافتسا.درک نیا هلحرم رادقم دروم راظتنا.تسا سپس یاهرتماراپ نیمخت هدز هدش اب تلاداعم )( ات )3( ریداقم هلداعم )4( ار تسدب یم.دنهد نیا هلحرم یزاس ممیزکام.تسا نیا ود هلحرم ات ینامز هک اهرتماراپ دنوش ارگمه رارکت.دنوش یم Expectation Maximization 293
294 بررسی الگوریتم ماکزیمم سازی مقدار مورد انتظار: الگوریتم ماکزیمم سازی همانند زیر می باشد. هایی ضعف دارای انتظار مورد مقدار *(این روش شده بسیار پارامترها که یک روش محلی و نسبت به پارامترهای اولیه انتخاب حساس می باشد و ممکن است به یک محدوده تخمین های نادرست را ارائه می دهد همگرا شود. برای حل این مسئله چندین روش مورد بررسی قرار گرفته است کاه از یک یا ترکیبی از استراتژی هایی همانند چندین نقطه شروع تصادفی و انتخاب تخمین نهایی بطوریکه آن تخمین دارای باالترین احتمال باشد و یا انتخاب اولیه پارامترها به وسیله الگوریتم خوشه بندی استفاده مای کنند. 294
295 بررسی الگوریتم ماکزیمم سازی مقدار مورد انتظار: مورد مقدار سازی ماکزیمم کارایی که دیگری *(مسئله تعداد نبودن مشخص دهد می قرار تاثیر تحت را انتظار است. ترکیبات برای تخمین تعداد بهینه ترکیبات نیز مطالعات زیادی صورت گرفته است. برای مثال معیار اطالعات Akaike )AIC( استنتاج بیزین )BIC( Schwarz معیار احتمال دسته بندی مجتمع.(ICL) 295
296 الگوریتم K-Means : مرحله اول :. پیدا کردن مرکز دسته اول به صورتی که رابطه زیر را ماکزیمم کند 296
297 الگوریتم K-Means مرحله دوم : به شرط داشتن ) k- (امین ترکیب معیار هر داده کاندید برای مرکز ترکیب kام می تواند بصورت زیر نوشته شود:.2 297
298 : تابیکرت هنیهب دادعت نیمخت یماگنه هک کی ءزج هفاضا یم دوش رگا طابترا نایم نیماk ءزج و ءازجا یلبق زونه مه لقتسم دشاب اهرتماراپ اب نیمخت هرابود زا k ءزج تسدب یم.دنیآ سکعرب رگا لقادح یکی زا ازجا اب ءزج هفاضا هدش هتسبمه دشاب دیاب اهرتماراپ ار رد لدم یبیکرت (k-) هظحلام مینک و دادعت تابیکرت ار لقادح (k- ) صخشم.مینک 298
299 رابطه متقابل میان اجزاء : 299
300 رابطه متقابل میان اجزاء : باشد: مقدار سه دارای است ممکن متقابل ی رابطه مثبت یا و منفی صفر اگر که باشد بدین معنی است یکدیگر وابسته اند. دارای مقدار مثبت i و k بطور آماری به 300
301 الگوریتم تخمین تعداد بهینه ترکیبات : 30
302 پیاده سازی بروی داده های مصنوعی : 302
303 303
304 )k( میانه ی iامین ترکیب تعداد ترکیبات i (.620,2.000) ~ 2 (2.495,2.547) (0.985,0.8554) (0.8065,2.4638)
305 : پیاده سازی و آزمایش GMM : داده glass 305
306 306
307 307
308 نتیجه دستهبندی با استفاده از شبکه عصبی بیزین تکالیه 308
309 نتیجه دستهبندی با استفاده از شبکه عصبی بیزین چندالیه در حالت قسمت بندی 309
310 دستهبندی با استفاده از شبکه عصبی بیزین چندالیه در حالت روی هم افتادگی 30
311 فصل دهم : شبکه عصبي مثلثاتي 3
312 فصل : یازدهم شبکه عصبي ویولت Wavelet Neural Network 32
313 فصل دوازدهم : شبکه عصبي کانولوشنال 33
314 فصل دوازدهم : کاربرد شبکه های عصبي در شناسایي پیش بیني و کنترل سیستم ها 34
315 شناسایی کنترل و بینی پیش به عصبی های شبکه عنوان شناساگر پیش در عصبی های ها بینی سیستم شبکه کنترلر عنوان به عصبی های شبکه 35
316 عصبی کنترلر کنترلر عصبی تقلیدگر کنترلر و شناساگر مستقیم کنترلر و شناساگر معکوس کنترل معکوس تطبیقی کنترل مدل داخلی غیرخطی کنترل تطبیقی عصبی نقاد تطبیقی کنترلر PIDخود تنظیم شبکه عصبی به عنوان جبرانگر کنترلر تطبیقی مدل مرجع عصبی کنترل مدل پیش بین مستقیم 36
317 رلرتنک یبیکرت رلرتنک یبیکرت زا لرتنک راتخاس ریغتم و لرتنک یبصع لرتنک یقیبطت میقتسم رادیاپ یطخ یزاس کبدیف یقیبطت یبصع رلرتنک یبیکرت زا لرتنک کبدیف و لرتنک یبصع یاطخ شزومآ روخسپ رلرتنک یبیکرت زا لرتنک لرتنک هرهب تباث و لرتنک یبصع رلرتنک هکبش یبصع رب هیاپ د م یشزغل رلرتنک هنیهب یبصع 37
318 پایان
محاسبه ی برآیند بردارها به روش تحلیلی
محاسبه ی برآیند بردارها به روش تحلیلی برای محاسبه ی برآیند بردارها به روش تحلیلی باید توانایی تجزیه ی یک بردار در دو راستا ( محور x ها و محور y ها ) را داشته باشیم. به بردارهای تجزیه شده در راستای محور
روش محاسبه ی توان منابع جریان و منابع ولتاژ
روش محاسبه ی توان منابع جریان و منابع ولتاژ ابتدا شرح کامل محاسبه ی توان منابع جریان: برای محاسبه ی توان منابع جریان نخست باید ولتاژ این عناصر را بدست آوریم و سپس با استفاده از رابطه ی p = v. i توان این
تصاویر استریوگرافی.
هب انم خدا تصاویر استریوگرافی تصویر استریوگرافی یک روش ترسیمی است که به وسیله آن ارتباط زاویه ای بین جهات و صفحات بلوری یک کریستال را در یک فضای دو بعدی )صفحه کاغذ( تعیین میکنند. کاربردها بررسی ناهمسانگردی
مثال( مساله الپالس در ناحیه داده شده را حل کنید. u(x,0)=f(x) f(x) حل: به کمک جداسازی متغیرها: ثابت = k. u(x,y)=x(x)y(y) X"Y=-XY" X" X" kx = 0
مثال( مساله الپالس در ناحیه داده شده را حل کنید. (,)=() > > < π () حل: به کمک جداسازی متغیرها: + = (,)=X()Y() X"Y=-XY" X" = Y" ثابت = k X Y X" kx = { Y" + ky = X() =, X(π) = X" kx = { X() = X(π) = معادله
ﯽﺳﻮﻃ ﺮﯿﺼﻧ ﻪﺟاﻮﺧ ﯽﺘﻌﻨﺻ هﺎﮕﺸﻧاد
دانشگاه صنعتی خواجه نصیر طوسی دانشکده برق - گروه کنترل آزمایشگاه کنترل سیستمهای خطی گزارش کار نمونه تابستان 383 به نام خدا گزارش کار آزمایش اول عنوان آزمایش: آشنایی با نحوه پیاده سازی الکترونیکی فرایندها
7- روش تقریب میانگین نمونه< سر فصل مطالب
1 بنام خدا بهینه سازی شبیه سازی Simulation Optimization Lecture 7 روش تقریب میانگین نمونه Sample Average Approximation 7- روش تقریب میانگین نمونه< سر فصل مطالب 2 شماره عنوان فصل 1-7 معرفی 2-7 تقریب 3-7
تخمین با معیار مربع خطا: حالت صفر: X: مکان هواپیما بدون مشاهده X را تخمین بزنیم. بهترین تخمین مقداری است که متوسط مربع خطا مینیمم باشد:
تخمین با معیار مربع خطا: هدف: با مشاهده X Y را حدس بزنیم. :y X: مکان هواپیما مثال: مشاهده نقطه ( مجموعه نقاط کنارهم ) روی رادار - فرض کنیم می دانیم توزیع احتمال X به چه صورت است. حالت صفر: بدون مشاهده
فصل چهارم : مولتی ویبراتورهای ترانزیستوری مقدمه: فیدبک مثبت
فصل چهارم : مولتی ویبراتورهای ترانزیستوری مقدمه: فیدبک مثبت در تقویت کننده ها از فیدبک منفی استفاده می نمودیم تا بهره خیلی باال نرفته و سیستم پایدار بماند ولی در فیدبک مثبت هدف فقط باال بردن بهره است در
جلسه ی ۱۰: الگوریتم مرتب سازی سریع
دانشکده ی علوم ریاضی داده ساختارها و الگوریتم ها ۸ مهر ۹ جلسه ی ۱۰: الگوریتم مرتب سازی سریع مدر س: دکتر شهرام خزاي ی نگارنده: محمد امین ادر یسی و سینا منصور لکورج ۱ شرح الگور یتم الگوریتم مرتب سازی سریع
تحلیل مدار به روش جریان حلقه
تحلیل مدار به روش جریان حلقه برای حل مدار به روش جریان حلقه باید مراحل زیر را طی کنیم: مرحله ی 1: مدار را تا حد امکان ساده می کنیم)مراقب باشید شاخه هایی را که ترکیب می کنید مورد سوال مسئله نباشد که در
آزمایش 8: تقویت کننده عملیاتی 2
آزمایش 8: تقویت کننده عملیاتی 2 1-8 -مقدمه 1 تقویت کننده عملیاتی (OpAmp) داراي دو یا چند طبقه تقویت کننده تفاضلی است که خروجی- هاي هر طبقه به وروديهاي طبقه دیگر متصل شده است. در انتهاي این تقویت کننده
جلسه 3 ابتدا نکته اي در مورد عمل توابع بر روي ماتریس ها گفته می شود و در ادامه ي این جلسه اصول مکانیک کوانتمی بیان. d 1. i=0. i=0. λ 2 i v i v i.
محاسبات کوانتمی (671) ترم بهار 1390-1391 مدرس: سلمان ابوالفتح بیگی نویسنده: محمد جواد داوري جلسه 3 می شود. ابتدا نکته اي در مورد عمل توابع بر روي ماتریس ها گفته می شود و در ادامه ي این جلسه اصول مکانیک
مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل
مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل شما باید بعد از مطالعه ی این جزوه با مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل کامال آشنا شوید. VA R VB به نظر شما افت ولتاژ مقاومت R چیست جواب: به مقدار عددی V A
آزمایش 1: پاسخ فرکانسی تقویتکننده امیتر مشترك
آزمایش : پاسخ فرکانسی تقویتکننده امیتر مشترك -- مقدمه هدف از این آزمایش بدست آوردن فرکانس قطع بالاي تقویتکننده امیتر مشترك بررسی عوامل تاثیرگذار و محدودکننده این پارامتر است. شکل - : مفهوم پهناي باند تقویت
الگوریتم جستجوی ممنوعه مسیریابی وسیله نقلیه
الگوریتم جستجوی ممنوعه مسیریابی وسیله نقلیه هعونمم یوجتسج یلک راتخاس متیروگلا یوجتسج عونمم )TS( کی یژتارتسا یوجتسج یا هظفاح دشاب یم یارب نیلوا راب طسوت روولگ لاس 1986 حرطم هدش.تسا نیا متیروگلا ابیرقت دننام
Angle Resolved Photoemission Spectroscopy (ARPES)
Angle Resolved Photoemission Spectroscopy (ARPES) روش ARPES روشی است تجربی که برای تعیین ساختار الکترونی مواد به کار می رود. این روش بر پایه اثر فوتوالکتریک است که توسط هرتز کشف شد: الکترونها می توانند
مثلث بندی دلونی فصل 9 مژگان صالحی- دی 92 استاد راهنما: جناب آقای دکتر محمد فرشی
مثلث بندی دلونی فصل 9 مژگان صالحی- دی 92 استاد راهنما: جناب آقای دکتر محمد فرشی 1 روش اول گراف دوگان دیاگرام ورونوی : دیاگرام ورونوی مثلث بندی وجوهی که مثلث نیستند 2 : روش دوم )الگوریتم تصادفی افزایشی(
Econometrics.blog.ir
وب سایت آموزش نرم افزارهای اقتصادسنجی به نام خدا معادالت همزمان Economerics.blog.ir نام دانشجو: مریم گودرزی مدل های تک معادله ای مدلهایی هستند که دارای یک متغیر درونزا) Y ( و یک یا چند متغیر توضیحی) X
شبکه های عصبی در کنترل
شبکه های عصبی در کنترل دانشگاه نجف آباد درس: کنترل هوشمند در فضای سایبرنتیک مدرس: حمید محمودیان مدل ریاضی نرون مدل ریاضی یک نرون ساده به صورت روبرو است P: مقدار کمیت ورودی b: مقدار بایاس )عرض از مبدا تابع
فصل پنجم زبان های فارغ از متن
فصل پنجم زبان های فارغ از متن خانواده زبان های فارغ از متن: ( free )context تعریف: گرامر G=(V,T,,P) کلیه قوانین آن به فرم زیر باشد : یک گرامر فارغ از متن گفته می شود در صورتی که A x A Є V, x Є (V U T)*
آزمون مقایسه میانگین های دو جامعه )نمونه های بزرگ(
آزمون مقایسه میانگین های دو جامعه )نمونه های بزرگ( فرض کنید جمعیت یک دارای میانگین و انحراف معیار اندازه µ و انحراف معیار σ باشد و جمعیت 2 دارای میانگین µ2 σ2 باشند نمونه های تصادفی مستقل از این دو جامعه
جلسه 9 1 مدل جعبه-سیاه یا جستاري. 2 الگوریتم جستجوي Grover 1.2 مسا له 2.2 مقدمات محاسبات کوانتمی (22671) ترم بهار
محاسبات کوانتمی (22671) ترم بهار 1390-1391 مدرس: سلمان ابوالفتح بیگی نویسنده: هیربد کمالی نیا جلسه 9 1 مدل جعبه-سیاه یا جستاري مدل هایی که در جلسه ي پیش براي استفاده از توابع در الگوریتم هاي کوانتمی بیان
همبستگی و رگرسیون در این مبحث هدف بررسی وجود یک رابطه بین دو یا چند متغیر می باشد لذا هدف اصلی این است که آیا بین
همبستگی و رگرسیون در این مبحث هدف بررسی وجود یک رابطه بین دو یا چند متغیر می باشد لذا هدف اصلی این است که آیا بین دو صفت متغیر x و y رابطه و همبستگی وجود دارد یا خیر و آیا می توان یک مدل ریاضی و یک رابطه
6- روش های گرادیان مبنا< سر فصل مطالب
1 بنام خدا بهینه سازی شبیه سازی Simulation Optimization Lecture 6 روش های بهینه سازی شبیه سازی گرادیان مبنا Gradient-based Simulation Optimization methods 6- روش های گرادیان مبنا< سر فصل مطالب 2 شماره
سلسله مزاتب سبان مقدمه فصل : زبان های فارغ از متن زبان های منظم
1 ماشیه ای توریىگ مقدمه فصل : سلسله مزاتب سبان a n b n c n? ww? زبان های فارغ از متن n b n a ww زبان های منظم a * a*b* 2 زبان ها پذیرفته می شوند بوسیله ی : ماشین های تورینگ a n b n c n ww زبان های فارغ
System and Control Volume (2)
Sytem and Control Volume Mohen Soltanpour Email: oltanpour@kntuacir URL: قانون اول ترمودینامیک: t law of thermodynamic قانون اول ترمودینامیک خروج و تجمع انرژی در بیان می کند که انرژی همواره ثابت و بدون
هو الحق دانشکده ي مهندسی کامپیوتر جلسه هفتم
هو الحق دانشکده ي مهندسی کامپیوتر کدگذاري شبکه Coding) (Network شنبه 2 اسفند 1393 جلسه هفتم استاد: مهدي جعفري نگارنده: سید محمدرضا تاجزاد تعریف 1 بهینه سازي محدب : هدف پیدا کردن مقدار بهینه یک تابع ) min
جلسه ی ۵: حل روابط بازگشتی
دانشکده ی علوم ریاضی ساختمان داده ها ۶ مهر ۲ جلسه ی ۵: حل روابط بازگشتی مدر س: دکتر شهرام خزاي ی نگارنده: ا رمیتا ثابتی اشرف و علی رضا علی ا بادیان ۱ مقدمه پیدا کردن کران مجانبی توابع معمولا با پیچیدگی
جلسه ی ۴: تحلیل مجانبی الگوریتم ها
دانشکده ی علوم ریاضی ساختمان داده ها ۲ مهر ۱۳۹۲ جلسه ی ۴: تحلیل مجانبی الگوریتم ها مدر س: دکتر شهرام خزاي ی نگارنده: شراره عز ت نژاد ا رمیتا ثابتی اشرف ۱ مقدمه الگوریتم ابزاری است که از ا ن برای حل مسا
شاخصهای پراکندگی دامنهی تغییرات:
شاخصهای پراکندگی شاخصهای پراکندگی بیانگر میزان پراکندگی دادههای آماری میباشند. مهمترین شاخصهای پراکندگی عبارتند از: دامنهی تغییرات واریانس انحراف معیار و ضریب تغییرات. دامنهی تغییرات: اختالف بزرگترین و
معادلهی مشخصه(کمکی) آن است. در اینجا سه وضعیت متفاوت برای ریشههای معادله مشخصه رخ میدهد:
شکل کلی معادلات همگن خطی مرتبه دوم با ضرایب ثابت = ٠ cy ay + by + و معادله درجه دوم = ٠ c + br + ar را معادلهی مشخصه(کمکی) آن است. در اینجا سه وضعیت متفاوت برای ریشههای معادله مشخصه رخ میدهد: c ١ e r١x
قاعده زنجیره ای برای مشتقات جزي ی (حالت اول) :
۱ گرادیان تابع (y :f(x, اگر f یک تابع دومتغیره باشد ا نگاه گرادیان f برداری است که به صورت زیر تعریف می شود f(x, y) = D ۱ f(x, y), D ۲ f(x, y) اگر رویه S نمایش تابع (y Z = f(x, باشد ا نگاه f در هر نقطه
تلفات خط انتقال ابررسی یک شبکة قدرت با 2 به شبکة شکل زیر توجه کنید. ژنراتور فرضیات شبکه: میباشد. تلفات خط انتقال با مربع توان انتقالی متناسب
تلفات خط انتقال ابررسی یک شبکة قدرت با 2 به شبکة شکل زیر توجه کنید. ژنراتور فرضیات شبکه: این شبکه دارای دو واحد کامال یکسان آنها 400 MW میباشد. است تلفات خط انتقال با مربع توان انتقالی متناسب و حداکثر
تمرینات درس ریاض عموم ٢. r(t) = (a cos t, b sin t), ٠ t ٢π. cos ٢ t sin tdt = ka۴. x = ١ ka ۴. m ٣ = ٢a. κds باشد. حاصل x٢
دانش اه صنعت شریف دانش ده ی علوم ریاض تمرینات درس ریاض عموم سری دهم. ١ سیم نازک داریم که روی دایره ی a + y x و در ربع اول نقطه ی,a را به نقطه ی a, وصل م کند. اگر چ ال سیم در نقطه ی y,x برابر kxy باشد جرم
مسائل. 2 = (20)2 (1.96) 2 (5) 2 = 61.5 بنابراین اندازه ی نمونه الزم باید حداقل 62=n باشد.
) مسائل مدیریت کارخانه پوشاک تصمیم دارد مطالعه ای به منظور تعیین میانگین پیشرفت کارگران کارخانه انجام دهد. اگر او در این مطالعه دقت برآورد را 5 نمره در نظر بگیرد و فرض کند مقدار انحراف معیار پیشرفت کاری
جلسه ی ۳: نزدیک ترین زوج نقاط
دانشکده ی علوم ریاضی ا نالیز الگوریتم ها ۴ بهمن ۱۳۹۱ جلسه ی ۳: نزدیک ترین زوج نقاط مدر س: دکتر شهرام خزاي ی نگارنده: امیر سیوانی اصل ۱ پیدا کردن نزدیک ترین زوج نقطه فرض می کنیم n نقطه داریم و می خواهیم
تئوری جامع ماشین بخش سوم جهت سادگی بحث یک ماشین سنکرون دو قطبی از نوع قطب برجسته مطالعه میشود.
مفاهیم اصلی جهت آنالیز ماشین های الکتریکی سه فاز محاسبه اندوکتانس سیمپیچیها و معادالت ولتاژ ماشین الف ) ماشین سنکرون جهت سادگی بحث یک ماشین سنکرون دو قطبی از نوع قطب برجسته مطالعه میشود. در حال حاضر از
مدار معادل تونن و نورتن
مدار معادل تونن و نورتن در تمامی دستگاه های صوتی و تصویری اگرچه قطعات الکتریکی زیادی استفاده می شود ( مانند مقاومت سلف خازن دیود ترانزیستور IC ترانس و دهها قطعه ی دیگر...( اما هدف از طراحی چنین مداراتی
نویسنده: محمدرضا تیموری محمد نصری مدرس: دکتر پرورش خالصۀ موضوع درس سیستم های مینیمم فاز: به نام خدا
به نام خدا پردازش سیگنالهای دیجیتال نیمسال اول ۹۵-۹۶ هفته یازدهم ۹۵/۰8/2۹ مدرس: دکتر پرورش نویسنده: محمدرضا تیموری محمد نصری خالصۀ موضوع درس یا سیستم های مینیمم فاز تجزیه ی تابع سیستم به یک سیستم مینیمم
دانشکده ی علوم ریاضی جلسه ی ۵: چند مثال
دانشکده ی علوم ریاضی احتمال و کاربردا ن ۴ اسفند ۹۲ جلسه ی : چند مثال مدر س: دکتر شهرام خزاي ی نگارنده: مهدی پاک طینت (تصحیح: قره داغی گیوه چی تفاق در این جلسه به بررسی و حل چند مثال از مطالب جلسات گذشته
جلسه ی ۲۴: ماشین تورینگ
دانشکده ی علوم ریاضی نظریه ی زبان ها و اتوماتا ۲۶ ا ذرماه ۱۳۹۱ جلسه ی ۲۴: ماشین تورینگ مدر س: دکتر شهرام خزاي ی نگارندگان: حمید ملک و امین خسر وشاهی ۱ ماشین تور ینگ تعریف ۱ (تعریف غیررسمی ماشین تورینگ)
پروژه یازدهم: ماشین هاي بردار پشتیبان
پروژه یازدهم: ماشین هاي بردار پشتیبان 1 عموما براي مسایلی که در آنها دو دسته وجود دارد استفاده میشوند اما ماشین هاي بردار پشتیبان روشهاي متفاوتی براي ترکیب چند SVM و ایجاد یک الگوریتم دستهبندي چند کلاس
فصل سوم .)MAC( و الگوریتم کنترل مدل )کنترل کننده مدل الگوریتمی-پاسخ ضربه-( )DMC(
فصل سوم مدل های تجاری طرح های کنترل پیش بینیکنترل کننده های پیش بین مبتنی بر مدل پرکاربرد در صنعت مانند آنچه همانگونه که در فصل های گذشته اشاره شددر فصل های گذشته نشان داده شده یک خانواده گسترده از کنترل
Top Down Parsing LL(1) Narges S. Bathaeian
طراحی کامپایلر Top Down Parsing LL1) تعریف top down parsing Parse tree را از ریشه به سمت برگها می سازد. دو نوع LL1), LLk) Recursive descent مثال G = {S},{, ) }, P, S) S S S ) S ε ))$ مثال S S ) S ε ))$
دبیرستان غیر دولتی موحد
دبیرستان غیر دلتی محد هندسه تحلیلی فصل دم معادله های خط صفحه ابتدا باید بدانیم که از یک نقطه به مازات یک بردار تنها یک خط می گذرد. با تجه به این مطلب برای نشتن معادله یک خط احتیاج به داشتن یک نقطه از خط
فصل دهم: همبستگی و رگرسیون
فصل دهم: همبستگی و رگرسیون مطالب این فصل: )r ( کوواریانس ضریب همبستگی رگرسیون ضریب تعیین یا ضریب تشخیص خطای معیار برآور ( )S XY انواع ضرایب همبستگی برای بررسی رابطه بین متغیرهای کمی و کیفی 8 در بسیاری
بسم اهلل الرحمن الرحیم آزمایشگاه فیزیک )2( shimiomd
بسم اهلل الرحمن الرحیم آزمایشگاه فیزیک )( shimiomd خواندن مقاومت ها. بررسی قانون اهم برای مدارهای متوالی. 3. بررسی قانون اهم برای مدارهای موازی بدست آوردن مقاومت مجهول توسط پل وتسون 4. بدست آوردن مقاومت
تمرین اول درس کامپایلر
1 تمرین اول درس 1. در زبان مربوط به عبارت منظم زیر چند رشته یکتا وجود دارد (0+1+ϵ)(0+1+ϵ)(0+1+ϵ)(0+1+ϵ) جواب 11 رشته کنند abbbaacc را در نظر بگیرید. کدامیک از عبارتهای منظم زیر توکنهای ab bb a acc را ایجاد
1) { } 6) {, } {{, }} 2) {{ }} 7 ) { } 3) { } { } 8) { } 4) {{, }} 9) { } { }
هرگاه دسته اي از اشیاء حروف و اعداد و... که کاملا"مشخص هستند با هم در نظر گرفته شوند یک مجموعه را به وجود می آورند. عناصر تشکیل دهنده ي یک مجموعه باید دو شرط اساسی را داشته باشند. نام گذاري مجموعه : الف
هدف از این آزمایش آشنایی با رفتار فرکانسی مدارهاي مرتبه اول نحوه تأثیر مقادیر عناصر در این رفتار مشاهده پاسخ دامنه
آزما ی ش شش م: پا س خ فرکا نس ی مدا رات مرتبه اول هدف از این آزمایش آشنایی با رفتار فرکانسی مدارهاي مرتبه اول نحوه تأثیر مقادیر عناصر در این رفتار مشاهده پاسخ دامنه و پاسخ فاز بررسی رفتار فیلتري آنها بدست
به نام خدا. الف( توضیح دهید چرا از این تکنیک استفاده میشود چرا تحلیل را روی کل سیگنال x[n] انجام نمیدهیم
پردازش گفتار به نام خدا نیمسال اول 59-59 دکتر صامتی تمرین سری سوم پیشبینی خطی و کدینگ شکلموج دانشکده مهندسی کامپیوتر زمان تحویل: 32 آبان 4259 تمرینهای تئوری: سوال 1. می دانیم که قبل از انجام تحلیل پیشبینی
جلسه 14 را نیز تعریف کرد. عملگري که به دنبال آن هستیم باید ماتریس چگالی مربوط به یک توزیع را به ماتریس چگالی مربوط به توزیع حاشیه اي آن ببرد.
تي وري اطلاعات کوانتمی ترم پاییز 39-39 مدرس: ابوالفتح بیگی و امین زاده گوهري نویسنده: کامران کیخسروي جلسه فرض کنید حالت سیستم ترکیبی AB را داشته باشیم. حالت سیستم B به تنهایی چیست در ابتداي درس که حالات
سايت ويژه رياضيات درسنامه ها و جزوه هاي دروس رياضيات
سايت ويژه رياضيات درسنامه ها و جزوه هاي دروس رياضيات دانلود نمونه سوالات امتحانات رياضي نمونه سوالات و پاسخنامه كنكور دانلود نرم افزارهاي رياضيات و... کانال سایت ریاضی سرا در تلگرام: https://telegram.me/riazisara
هدف از این آزمایش آشنایی با برخی قضایاي ساده و در عین حال مهم مدار از قبیل قانون اهم جمع آثار مدار تونن و نورتن
آزما ی ش سوم: ربرسی اقنون ا ه م و قوانین ولتاژ و جریان اهی کیرشهف قوانین میسقت ولتاژ و میسقت جریان ربرسی مدا ر تونن و نورتن قضیه ااقتنل حدا کثر توان و ربرسی مدا ر پ ل و تس ون هدف از این آزمایش آشنایی با
جلسه ی ۱۱: درخت دودویی هرم
دانشکده ی علوم ریاضی ساختمان داده ا بان جلسه ی : درخت دودویی هرم مدر س: دکتر شهرام خزاي ی نگارنده: احمدرضا رحیمی مقدمه الگوریتم مرتب سازی هرمی یکی دیگر از الگوریتم های مرتب سازی است که دارای برخی از بهترین
فشردهسازیاطالعات بخشششم. Information Compression دانشگاهشهيدبهشتی پژوهشکدهیفضایمجازی پاييز 1396 احمدمحمودیازناوه
Information Compression اطالعات 4-1-72-1 بخشششم دانشگاهشهيدبهشتی پژوهشکدهیفضایمجازی پاييز 1396 احمدمحمودیازناوه http://faculties.sbu.ac.ir/~a_mahmoudi/ فهرستمطالب تبديلکسينوسیصحيح تصاويرپايه ويژگیها پردازشبلوکیتصاوير
جلسه 12 به صورت دنباله اي از,0 1 نمایش داده شده اند در حین محاسبه ممکن است با خطا مواجه شده و یکی از بیت هاي آن. p 1
محاسبات کوانتمی (67) ترم بهار 390-39 مدرس: سلمان ابوالفتح بیگی نویسنده: سلمان ابوالفتح بیگی جلسه ذخیره پردازش و انتقال اطلاعات در دنیاي واقعی همواره در حضور خطا انجام می شود. مثلا اطلاعات کلاسیکی که به
جلسه 15 1 اثر و اثر جزي ی نظریه ي اطلاعات کوانتومی 1 ترم پاي یز جدایی پذیر باشد یعنی:
نظریه ي اطلاعات کوانتومی 1 ترم پاي یز 1391-1391 مدرس: دکتر ابوالفتح بیگی ودکتر امین زاده گوهري نویسنده: محمدرضا صنم زاده جلسه 15 فرض کنیم ماتریس چگالی سیستم ترکیبی شامل زیر سیستم هايB و A را داشته باشیم.
http://econometrics.blog.ir/ متغيرهای وابسته نماد متغيرهای وابسته مدت زمان وصول حساب های دريافتني rcp چرخه تبدیل وجه نقد ccc متغیرهای کنترلی نماد متغيرهای کنترلي رشد فروش اندازه شرکت عملکرد شرکت GROW SIZE
به نام خدا. Sparse Coding ستاره فرامرزپور
به نام خدا Sparse Coding ستاره فرامرزپور 120728399 1 فهرست مطالب مقدمه... 0 برخی کاربردها... 0 4... تنک: کدگذاری مبانی تجزیه معادله تنک:... 5 6...:α Sparse پیدا ه یا الگوریتم کردن ضریب یادگیری ه یا روش
طراحی و تجزیه و تحلیل کنترل کننده منطق فازي براي کنترل فرکانس بار در سیستم هاي قدرت
طراحی و تجزیه و تحلیل کنترل کننده منطق فازي براي کنترل فرکانس بار در سیستم هاي قدرت 2 1 مهرداد احمدي کمرپشتی هدي کاظمی موسسه آموزش عالی روزبهان ساري گروه برق ساري ایران Mehrdad.ahmadi.k@gmail.com hoda.kazemi.aski@gmail.com
مارکوف 1.مقدمه: سید مهدی صفوی محمد میکاییلی محمد پویان چکیده ما با مطالعه مدل مخفی میدان تصادفی مارکوف از الگوریتم EM
و بخش بندی تصاویر براساس مارکوف مدل میدان تصادفی مخفی 3 سید مهدی صفوی محمد میکاییلی محمد پویان -دانشجو گروه مهندسی پزشکی دانشکده فنی مهندسی دانشگاه شاهد 3- عضوهیات علمی دانشیار گروه مهندسی پزشکی دانشکده
تعیین محل قرار گیری رله ها در شبکه های سلولی چندگانه تقسیم کد
تعیین محل قرار گیری رله ها در شبکه های سلولی چندگانه تقسیم کد مبتنی بر روش دسترسی زلیخا سپهوند دانشکده مهندسى برق واحد نجف آباد دانشگاه آزاد اسلامى نجف آباد ایر ان zolekhasepahvand@yahoo.com روح االله
ارائه کتابها ي جسيات رایگان مهىدسی عمران بهتریه ي برتریه مقاالت ريز عمران اوجمه های تخصصی مهىدسی عمران فريشگاه تخصصی مهىدسی عمران
www.vl. پرتال جامع داوشج یان ي مهىدسیه عمران ارائه کتابها ي جسيات رایگان مهىدسی عمران بهتریه ي برتریه مقاالت ريز عمران اوجمه های تخصصی مهىدسی عمران فريشگاه تخصصی مهىدسی عمران دانشگاه صنعت آب و برق شهید
جلسه 22 1 نامساویهایی در مورد اثر ماتریس ها تي وري اطلاعات کوانتومی ترم پاییز
تي وري اطلاعات کوانتومی ترم پاییز 1391-1392 مدرس: ابوالفتح بیگی و امین زاده گوهري نویسنده: محمد مهدي مجاهدیان جلسه 22 تا اینجا خواص مربوط به آنتروپی را بیان کردیم. جهت اثبات این خواص نیاز به ابزارهایی
کنترل تطبیقی غیر مستقیم مبتنی بر تخصیص قطب با مرتبه کسری
چکیده : کنترل تطبیقی غیر مستقیم مبتنی بر تخصیص قطب با مرتبه کسری روش طراحی قوانین کنترل چندجمله ای با استفاده از جایابی قطب راه کار مناسبی برای بسیاری از کاربردهای صنعتی می باشد. این دسته از کنترل کننده
Beta Coefficient نویسنده : محمد حق وردی
مفهوم ضریب سهام بتای Beta Coefficient نویسنده : محمد حق وردی مقدمه : شاید بارها در مقاالت یا گروهای های اجتماعی مربوط به بازار سرمایه نام ضریب بتا رو دیده باشیم یا جایی شنیده باشیم اما برایمان مبهم باشد
جلسه ی ۱۸: درهم سازی سرتاسری - درخت جست و جوی دودویی
دانشکده ی علوم ریاضی ساختمان داده ۱۰ ا ذر ۹۲ جلسه ی ۱۸: درهم سازی سرتاسری - درخت جست و جوی دودویی مدر س: دکتر شهرام خزاي ی نگارنده: معین زمانی و ا رمیتا اردشیری ۱ یادا وری همان طور که درجلسات پیش مطرح
آموزش SPSS مقدماتی و پیشرفته مدیریت آمار و فناوری اطالعات -
آموزش SPSS مقدماتی و پیشرفته تهیه و تنظیم: فرزانه صانعی مدیریت آمار و فناوری اطالعات - مهرماه 96 بخش سوم: مراحل تحلیل آماری تحلیل داده ها به روش پارامتری بررسی نرمال بودن توزیع داده ها قضیه حد مرکزی جدول
فعالیت = ) ( )10 6 ( 8 = )-4( 3 * )-5( 3 = ) ( ) ( )-36( = m n m+ m n. m m m. m n mn
درس»ریشه ام و توان گویا«تاکنون با مفهوم توان های صحیح اعداد و چگونگی کاربرد آنها در ریشه گیری دوم و سوم اعداد آشنا شده اید. فعالیت زیر به شما کمک می کند تا ضمن مرور آنچه تاکنون در خصوص اعداد توان دار و
آشنایی با پدیده ماره (moiré)
فلا) ب) آشنایی با پدیده ماره (moiré) توری جذبی- هرگاه روی ورقه شفافی چون طلق تعداد زیادی نوارهای خطی کدر هم پهنا به موازات یکدیگر و به فاصله های مساوی از هم رسم کنیم یک توری خطی جذبی به وجود می آید شکل
تابع هزینه حداقل میانگین مربعات توأم با حداقل واریانس خطا
تابع هزینه حداقل میانگین مربعات توأم با حداقل واریانس خطا فریبا پاکیزه حاجی یار هادی صدوقی یزدی دانشجوی کارشناسی ارشدگروه کامپیوتر دانشکده مهندسی دانشگاه فردوسی مشهد ایران f.pazehhajyar@stu.um.ac.r دانشیار
Spacecraft thermal control handbook. Space mission analysis and design. Cubesat, Thermal control system
سیستم زیر حرارتی ماهواره سرفصل های مهم 1- منابع مطالعاتی 2- مقدمه ای بر انتقال حرارت و مکانیزم های آن 3- موازنه انرژی 4 -سیستم های کنترل دما در فضا 5- مدل سازی عددی حرارتی ماهواره 6- تست های مورد نیاز
سینماتیک مستقیم و وارون
3 سینماتیک مستقیم و وارون بهنام میری پور فرد استادیار گروه مهندسی رباتیک دانشگاه صنعتی همدان همدان ایران bmf@hut.ac.ir B. Miripour Fard Hamedan University of Technology 1 در سینماتیک حرکت بررسی کند می
طراحی و تعیین استراتژی بهره برداری از سیستم ترکیبی توربین بادی-فتوولتاییک بر مبنای کنترل اولیه و ثانویه به منظور بهبود مشخصههای پایداری ریزشبکه
طراحی و تعیین استراتژی بهره برداری از سیستم ترکیبی توربین بادی-فتوولتاییک بر مبنای کنترل اولیه و ثانویه به منظور بهبود مشخصههای پایداری ریزشبکه 2 1* فرانک معتمدی فرید شیخ االسالم 1 -دانشجوی دانشکده برق
خالصه درس: نویسنده:مینا سلیمان گندمی و هاجر کشاورز امید ریاضی شرطی. استقالل متغیر های تصادفی پیوسته x و y استقالل و امید ریاضی
به نام خدا آمار و احتمال مهندسی هفته 21 نیمسال اول ۴9-۴9 مدرس: دکتر پرورش ۴9/24/49 نویسنده:مینا سلیمان گندمی و هاجر کشاورز خالصه درس: امید ریاضی شرطی استقالل متغیر های تصادفی پیوسته x و y استقالل و امید
باشند و c عددی ثابت باشد آنگاه تابع های زیر نیز در a پیوسته اند. به شرطی که g(a) 0 f g
تعریف : 3 فرض کنیم D دامنه تابع f زیر مجموعه ای از R باشد a D تابع f:d R در نقطه a پیوسته است هرگاه به ازای هر دنباله از نقاط D مانند { n a{ که به a همگراست دنبال ه ){ n }f(a به f(a) همگرا باشد. محتوی
ویرایشسال 95 شیمیمعدنی تقارن رضافالحتی
ویرایشسال 95 شیمیمعدنی تقارن رضافالحتی از ابتدای مبحث تقارن تا ابتدای مبحث جداول کاراکتر مربوط به کنکور ارشد می باشد افرادی که این قسمت ها را تسلط دارند می توانند از ابتدای مبحث جداول کاراکتر به مطالعه
فصل چهارم : مولتی ویبراتورهای ترانزیستوری مقدمه: فیدبک مثبت
جزوه تکنیک پالس فصل چهارم: مولتی ویبراتورهای ترانزیستوری فصل چهارم : مولتی ویبراتورهای ترانزیستوری مقدمه: فیدبک مثبت در تقویت کننده ها از فیدبک منفی استفاده می نمودیم تا بهره خیلی باال نرفته و سیستم پایدار
کنترل سوییچینگ بر مبنای دستیابی به نمودار حداکثر توان در سلول خورشیدی با روش هوشمند تطبیقی
کنترل سوییچینگ بر مبنای دستیابی به نمودار حداکثر توان در سلول خورشیدی با روش هوشمند تطبیقی مهندس سید عبدالحسین عمادی * دکتر احسان اسفندیاری چکیده: در این مقاله با استفاده از ساختار غیرخطی برای سلول خورشیدی
تخمین نقطه تغییر در ماتریس کواریانس فرآیند نرمال چند متغیره با استفاده از شبکه عصبی
تخمین نقطه تغییر در ماتریس کواریانس فرآیند نرمال چند متغیره با استفاده از شبکه عصبی امیرحسین امیری نویسنده مسئول( دانشیار گروه مهندسی صنایع دانشکده فنی و مهندسی دانشگاه شاهد تهران محمدرضا ملکی دانشجوی
فصل سوم جریان های الکتریکی و مدارهای جریان مستقیم جریان الکتریکی
فصل سوم جریان های الکتریکی و مدارهای جریان مستقیم جریان الکتریکی در رساناها مانند یک سیم مسی الکترون های آزاد وجود دارند که با سرعت های متفاوت بطور کاتوره ای)بی نظم(در حال حرکت هستند بطوریکه بار خالص گذرنده
روش ابداعی کنترل بهینه غیرخطی در توربین بادی با حداقل سازی نوسانات توان و گشتاور
روش ابداعی کنترل بهینه غیرخطی در توربین بادی با حداقل سازی نوسانات توان و گشتاور فرانک معتمدی * دکترفرید شیخ االسالم 2 -دانشجوی رشته برق دانشگاه آزاد واحد نجفآباد Fa_motamedi@yahoo.com 2 -استاد گروه برق
فصل 5 :اصل گسترش و اعداد فازی
فصل 5 :اصل گسترش و اعداد فازی : 1-5 اصل گسترش در ریاضیات معمولی یکی از مهمترین ابزارها تابع می باشد.تابع یک نوع رابطه خاص می باشد رابطه ای که در نمایش زوج مرتبی عنصر اول تکراری نداشته باشد.معموال تابع
جلسه 2 1 فضاي برداري محاسبات کوانتمی (22671) ترم بهار
محاسبات کوانتمی (22671) ترم بهار 1390-1391 مدرس: سلمان ابوالفتح بیگی نویسنده: نادر قاسمی جلسه 2 در این درسنامه به مروري کلی از جبر خطی می پردازیم که هدف اصلی آن آشنایی با نماد گذاري دیراك 1 و مباحثی از
جلسه 2 جهت تعریف یک فضاي برداري نیازمند یک میدان 2 هستیم. یک میدان مجموعه اي از اعداد یا اسکالر ها به همراه اعمال
نظریه اطلاعات کوانتمی 1 ترم پاییز 1391-1392 مدرسین: ابوالفتح بیگی و امین زاده گوهري جلسه 2 فراگیري نظریه ي اطلاعات کوانتمی نیازمند داشتن پیش زمینه در جبرخطی می باشد این نظریه ترکیب زیبایی از جبرخطی و نظریه
Kowsar San'at Espadana Co.
و 1 و 1 پیش بینی پیوستگی فرآیند جوشکاری زیر پودری در ساخت لوله های اسپیرال نفت و گاز با استفاده از شبکه های عصبی مصنوعی خلاصه ٤ ٣ ٢ ١ سيد جعفر گلستانه محمدرضا فروزان فرنوش فروزان سيد مرتضی موسوی دو نوع
اصول انتخاب موتور با مفاهیم بسیار ساده شروع و با نکات کاربردی به پایان می رسد که این خود به درک و همراهی خواننده کمک بسیاری می کند.
اصول انتخاب موتور اصول انتخاب موتور انتخاب یک موتور به در نظر گرفتن موارد بسیار زیادی از استانداردها عوامل محیطی و مشخصه های بار راندمان موتور و... وابسته است در این مقاله کوتاه به تاثیر و چرایی توان و
عنوان: رمزگذاري جستجوپذیر متقارن پویا
دانشگاه صنعتی شریف دانشکده مهندسی برق گزارش درس ریاضیات رمزنگاري عنوان: رمزگذاري جستجوپذیر متقارن پویا استاد درس: مهندس نگارنده: ز 94 دي ماه 1394 1 5 نماد گذاري و تعریف مسي له 1 6 رمزگذاري جستجوپذیر متقارن
جلسه 16 نظریه اطلاعات کوانتمی 1 ترم پاییز
نظریه اطلاعات کوانتمی ترم پاییز 39-39 مدرسین: ابوالفتح بیگی و امین زاده گوهري نویسنده: محم دحسن آرام جلسه 6 تا اینجا با دو دیدگاه مختلف و دو عامل اصلی براي تعریف و استفاده از ماتریس چگالی جهت معرفی حالت
ارزیابی بهره وری متقاطع DEA بر پایه بهبود پارتو
چکیده ارزیابی بهره وری متقاطع DEA بر پایه بهبود پارتو جی.وو جونفی.چو جیاس ن سان کینگ یوآن ژو ارزیابی بهره وری متقاطع به عنوان یک ابزار گسترده برای تحلیل پوششی داده ها (DEA) دارای کاربرد گسترده ای در ارزیابی
چکیده مقدمه کلید واژه ها:
چکیده طی دهه های گذشته سازمان های بسیاری در اقسا نقاط جهان سیستم برنامه ریزی منابع سازمانی ERP را اتخاذ کرده اند. در باره ی منافع حسابداری اتخاذ سیستم های سازمانی تحقیقات کمی در مقیاس جهانی انجام شده است.
یدنب هشوخ یاه متیروگلا
تحلیل خوشه ای مقدمه در این قسمت ابتدا چند تعریف بیان می کنیم و در ادامه به جزئیات این تعاریف و کاربردهای تحلیل خوشه ای در علوم مختلف می پردازیم و نیز با مشکالتی که در تحلیل خوشه ای مواجه هستیم اشاره ای
هادي ويسي. دانشگاه تهران - دانشکده علوم و فنون نوين نیم سال اول
هادي ويسي h.veisi@ut.ac.ir دانشگاه تهران - دانشکده علوم و فنون نوين نیم سال اول 1392-1393 مقدمه انتخاب ويژگي ها روش پوشه )Wrapper( روش فیلتر )Filter( معیارهای انتخاب ویژگی )میزان اهمیت ویژگی( آزمون آماری
تئوری رفتار مصرف کننده : می گیریم. فرض اول: فرض دوم: فرض سوم: فرض چهارم: برای بیان تئوری رفتار مصرف کننده ابتدا چهار فرض زیر را در نظر
تئوری رفتار مصرف کننده : می گیریم برای بیان تئوری رفتار مصرف کننده ابتدا چهار فرض زیر را در نظر فرض اول: مصرف کننده یک مصرف کننده منطقی است یعنی دارای رفتار عقالیی می باشد به عبارت دیگر از مصرف کاالها
فهرست جزوه ی فصل دوم مدارهای الکتریکی ( بردارها(
فهرست جزوه ی فصل دوم مدارهای الکتریکی ( بردارها( رفتار عناصر L, R وC در مدارات جریان متناوب......................................... بردار و کمیت برداری.............................................................
هادي ويسي. دانشگاه تهران - دانشکده علوم و فنون نوين
هادي ويسي h.veisi@ut.ac.ir دانشگاه تهران - دانشکده علوم و فنون نوين شبکه عصبي مصنوعي مقدمه و معرفی + تاریخچه شبکه عصبي آموزش + مثال پرسپترون شبکه عصبي آداالين آموزش + مثال )MLP( شبکه عصبي پرسپترون چنداليه
هر عملگرجبر رابطه ای روی يک يا دو رابطه به عنوان ورودی عمل کرده و يک رابطه جديد را به عنوان نتيجه توليد می کنند.
8-1 جبررابطه ای يک زبان پرس و جو است که عمليات روی پايگاه داده را توسط نمادهايی به صورت فرمولی بيان می کند. election Projection Cartesian Product et Union et Difference Cartesian Product et Intersection
جلسه 28. فرض کنید که m نسخه مستقل یک حالت محض دلخواه
نظریه اطلاعات کوانتمی 1 ترم پاییز 1392-1391 مدرسین: ابوالفتح بیگی و امین زاده گوهري نویسنده: مرتضی نوشاد جلسه 28 1 تقطیر و ترقیق درهم تنیدگی ψ m بین آذر و بابک به اشتراك گذاشته شده است. آذر و AB فرض کنید
فهرست مطالب جزوه ی فصل اول مدارهای الکتریکی مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل تحلیل مدار به روش جریان حلقه... 22
فهرست مطالب جزوه ی فصل اول مدارهای الکتریکی آنچه باید پیش از شروع کتاب مدار بدانید تا مدار را آسان بیاموزید.............................. 2 مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل................................................