هادي ويسي. دانشگاه تهران - دانشکده علوم و فنون نوين
|
|
- Φαίδρα Κούνδουρος
- 7 χρόνια πριν
- Προβολές:
Transcript
1 هادي ويسي دانشگاه تهران - دانشکده علوم و فنون نوين
2 شبکه عصبي مصنوعي مقدمه و معرفی + تاریخچه شبکه عصبي آموزش + مثال پرسپترون شبکه عصبي آداالين آموزش + مثال )MLP( شبکه عصبي پرسپترون چنداليه آموزش کاربرد مثال نکات تکمیلی 2
3 مغز = شبکه اي بسیار بزرگ از عصب ها )نرون ها( نرون اتصال برای هر نرون شبکه عصبي مصنوعي = شبیه سازي شبکه عصبي طبیعي 3
4 عنصر پردازشگر تشکیل دهنده يک شبکه عصبي مصنوعي نرون )Neuron( = عصب طبیعی )سلول مغزی( سه جزء تشکیل دهنده يک نرون طبیعي دندریتها :)Dendrite( دریافت سیگنال از سایر نرونها سوما )Soma( = بدنة سلول: سیگنالهای ورودی به سلول را جمع میبندد آکسون :)Axon( ارسال سیگنال به نرون)های( دیگر 4
5 عملکرد نرون طبیعي دریافت سیگنال از سایر نرون ها توسط دندریت ها عبور سیگنالها با یك فرآیند شیمیایی از فاصلة سیناپسی Gap( )Synaptic عمل شیمیایی انتقال دهنده سیگنال ورودی را تغییر میدهند )تضعیف/تقویت سیگنال( سوما سیگنال های ورودی به سلول را جمع می بندد زمانی که یك سلول به اندازه کافی ورودی دریافت نماید برانگیخته می شود و سیگنالی را از آکسون خود به سلول های دیگر می فرستد. انتقال سیگنال از یك نرون خاص نتیجة غلظتهای مختلف یونها در اطراف پوشش آکسون نرون )»مادة سفید«مغز( میباشد. يونها=پتاسيم سديموكلريد سیگنال ها به صورت ضربه های الکتریکی هستند 5
6 شبکه عصبي مصنوعي ]Artificial Neural Network[ یك سیستم پردازش اطالعات با ویژگی های مشترکی با شبکه های عصبی طبیعی تعمیم یافتة مدل های ریاضی تشخیص انسان بر اساس زیست شناسی عصبی فرضیات پايه شبکه عصبي مصنوعي پردازش اطالعات در اجزای سادهای با تعداد فراوان به نام نرونها صورت میگیرد. سیگنالها در بین نرونهای شبکه از طریق پیوندها یا اتصاالت )Connections( آنها منتقل میشوند. هر پیوند وزن )Weight( مربوط به خود را دارد که در شبکههای عصبی رایج در سیگنالهای انتقال یافته از آن پیوند ضرب میشود. هر نرون یك تابع فعالسازی Function( )Activation را بر روی ورودیهای خود اعمال میکند تا سیگنال خروجی خود را تولید نماید. تابعمعموال غيرخطياست 6
7 يک نرون عصبي مصنوعي نرون های ورودی نرون خروجی وزن ها فعال سازی ها یا سیگنال های خروجی نرون های ورودی به ترتیب x2 x1 و x3 ورودی شبکه به نرون Y حاصل جمع وزن دار سیگنال های ورودی و وزن هاست: فعالسازی نرون Y با اعمال تابع فعالسازی f روی ورودی آن به دست میآید هستند y f ( y _ in) y in w x w x w x w x _ i i i 1 if x f ( x) f( x) 0 if x 1 1 exp( x ) تابعپله تابعسيگمويد) Sigmoid ( 7
8 يک شبکه عصبي مصنوعي سه الیه: ورودی مخفی و خروجی دو دسته وزن: wها و vها در یك شبکه یك نرون می تواند ورودی های مختلفی را از چند نرون دریافت کند 8
9 باياس در ورودی شبکه عصبی عالوه بر ورودیهای موردنظر یك ورودی ثابت با مقدار 1 داشته باشیم. نیز y in b w x w x b w x _ i i i 9
10 f ( x) x for all x... متداول فعالسازي توابع )Identity Function( برايواحدهايورودي همانی تابع )Step Function( دودویی ای پله تابع )Heaviside Threshold (ياتابعهويسايد) Function تابعآستانه) Function )-1 اي يا 0 (يادوقطبي) 1()Bipolar خروجي=سيگنالدودويي) 1 f 1 ( x) 0 if if x x 10
11 1 f ( x) 1 exp( x ) f ( x ) f ( x )[ 1f ( x )] )Sigmoid Functions( متداول سازي فعال توابع سیگموید توابع S شکل به هایی منحنی استفادهدرشبكههايعصبيپسانتشار)نيازبهمشتقگيري( )Logistic تابعلجستيک) Function سيگمويددودويي- تسا 1 و تا 1 مقاديرمطلوبخروجييادودويياستويابين 0 دامنة 0 )Hyperbolic Tangent شبيهبهتابعتانژانتهيپربوليک) Function سيگمويددوقطبي- تا 1 دامنة 1-2 1exp( x ) g ( x ) 2 f ( x ) exp( x) 1 exp( x) g ( x ) [1 g ( x )][1 g ( x )] 2 11
12 ساختارهاي رايج... ساختار یا معماری: آرایش نرونها در الیهها و الگوهای ارتباط داخل و بین الیهها شبکههای پیشخور )Feedforward( -سیگنالها در یك جهت و از سمت واحدهای ورودی به سمت واحدهای خروجی )به سمت جلو( میروند شبکه دوالیه شبکه یك الیه 12
13 ساختارهاي رايج شبکة بازگشتی )Recurrent( مسیرهای بستة سیگنال از یك واحد به خودش وجود دارد شبکة رقابتی: واحدهای آن کامال به هم مرتبطاند 13
14 ويژگي هاي مشخص کننده يک شبکة عصبي مصنوعي ساختار یا معماری شبکه :)Architecture( الگوریتم آموزش یا یادگیری وزنهای روی پیوندهای شبکه الگوی پیوندهای بین نرون های مختلف :)Training or Learning Algorithm( روش تعیین تابع فعالسازی شبکه Function( )Activation که هر نرون روی ورودیهای خود اعمال میکند معماری 3 الیه وزنهای w و v تابع فعالسازی برای Y و Z1 و Z2 14
15 دهه - 40 اولین شبکه هاي عصبي مصنوعي معرفی نرون مكکالچ پیتز )اولین شبکه عصبی مصنوعی( شبکه هب: توسط دونالد هب )روانشناس(- اولین قانون یادگیری دهه 50 پرسپترون توسط فرانك روزنبالت- قانون یادگیری قوی تر از هب )مفهوم خطا و تکرار( دهه 60 گسترش پرسپترون + آداالين 1960 شبکه آداالین توسط ویدرو و هاف- قانون یادگیری دلتا )مبتنی بر کاهش خطا( دهة 70- سال هاي خاموش اولین کار کوهونن )از هلسینکی( روی شبکههای عصبی حافظة پیوندی 15
16 دهه 80- شکوفايي شبکه هاي عصبي شبکههای هاپفیلد )جزو شبکه های حافظة انجمنی( نگاشت های خودسازمانده کوهونن )SOM( )MLP( الگوریتم پس انتشار خطا برای آموزش شبکه های چندالیه ماشین بولتزمن: تغییر وزن ها براساس تابع چگالی احتمال شبکه های نظریة نوسان وفقی )ART( توسط کارپنز و گراس برگ شبکه Neocognitron توسط فوکوشیما برای بازشناسی نویسه ها مطالعات ریاضیاتی و زیست شناختی پیادهسازی سختافزاری شبکه عصبی 16
17 دهه 90 دهه کاربرد به کار گیری شبکه های عصبی در کاربردهای مختلف توسعه شبکه توابع پایه شعاعی شبکه بازگشتی LSTM )RBF( ٢000 به بعد یادگیری عمیق شبکههای بازگشتی )Deep Learning( 17
18 INPUT( x, x ) OUTPUT 1 2 ( 1, 1) 1 ( 1, 1) 1 ( 1, 1) 1 ( 1, 1) 1 AND تابع مثال: )دوقطبی( خروجی یك و )دوقطبی( دنشاب استكههردوورودي 1 وقتيخروجي 1 ورودی دو y _ in 1b w x w x f 1 ( x) 0 if if x x b w 1 x 1 w 2 x 2 0 گیری تصمیم مرز b 1, w 1, w x2 x1 1 پاسخ 18
19 INPUT( x, x ) OUTPUT 1 2 ( 1, 1) 1 ( 1, 1) 1 ( 1, 1) 1 ( 1, 1) 1 OR تابع مثال: )دوقطبی( خروجی یك و )دوقطبی( دشاب استكهحداقليكيازوروديها 1 وقتيخروجي 1 ورودی دو b 1, w 1, w 1 x x11 گیری تصمیم مرز کرد می عبور مبدأ از باید گیری تصمیم مرز نداشت وجود بایاس وزن اگر 19
20 مساله: نحوه بدست آوردن وزنها )معادله خط تصمیمگیري( الگوریتمهای یادگیری شبکه عصبی: هب پرسپترون آداالین و... و 1988 پرسپترون جزو معروف ترین شبکه های عصبی است بیشترین اثرگذاری بر شبکههای عصبی اولیه روزنبالت در سال 1962 و مینسکی و پاپرت در سالهای 1969 ایده قانون یادگیری مبتنی بر قانون یادگیری هب اما با چند بهبود کلیدی يادگيريهمراهباتكرار درقانونهب فقطيکبار)بدونتكرار(دادههايآموزشبهشبكهدادهميشد وزنهافقطزمانيتغييرميكندكهپاسخشبكهبهازايآنوروديدارايخطاباشد خطا=خروجيمحاسبهشدهتوسطشبكهبامقدارهدفيكينباشد 20
21 ساختاراولیه مدل تقریبی شبکیه چشم سهاليهنرون)واحدهايحسي واحدهايپيونددهندهوواحدپاسخ( فقطوزنهايبيناليههايدوموسومآموزشدادهميشود خروجيواحدهايپيونددهندهبهواحدهايپاسخيکبرداردودويياست عمال شبكهايبايکاليهوزناست ساختار براي دسته بندي الگو دو الیه نرون )یك الیه وزن( يکاليهوروديويکاليهخروجي خروجی دو حالت متعلقبودنبهدستهباپاسخ 1 + متعلقنبودنباپاسخ 1-21
22 صفر( )مقدار بایاس و وزنها به اولیه مقداردهی 0- مرحلة )1 )مقدار 0 1 یادگیری نرخ تعیین الگوریتم تکراری دهید انجام را 6 تا 2 مراحل نیست برقرار توقف شرایط زمانیکه تا 1- مرحلة x i s : t s i آموزش داده جفت هر برای 5 تا 3 مراحل انجام 2- مرحلة کنید: مشخص را ورودی واحدهای فعالسازیهای 3- مرحلة کنید: محاسبه را خروجی واحد پاسخ 4- مرحلة y in b x w _ i i i 1 if y _ in y 0 if y _ in 1 if y _ in )2θ( يريگ ميمصت مدع هيحان = =عدمتعلقبهدسته 0 =تعلقبهدسته
23 اگر خطایی رخ داده است وزن ها و بایاس را به روز کنید. اگرt y است آنگاه: به روز کردن مشروط وزن ها w ( new ) w ( old ) x t i i i b( new ) b( old ) t مرحلة -5 w ( new ) w ( old ) i b( new ) b( old ) i در غیراین صورت: مرحلة 6- شرایط توقف را آزمایش کنید: اگردرمرحلة 2 هيچوزنيتغييرنكرد الگوريتمرامتوقفكنيد درغيراينصورتادامهدهيد. خطا = برابر نبودن پاسخ شبکه و مقدار هدف نرخ يادگیري 23
24 ... با ورودي هاي دودويي و هدف هاي دوقطبي تابع AND دودویی: مقادیر صفر و یك دوقطبی: مقادیر 1+ و 1- وزنهای اولیه و بایاس را صفر نرخ اولیه یادگیری = 1 آستانه =0.2 WEIGHT INPUT NET OUT TARGET CHANGES WEIGHTS ( x x 1) y _ in y t ( w w b ) ( w w b ) ( 0 0 0) ( 1 1 1) ( 1 1 1) ( 1 1 1) ارائه ورودی اول x 1 x / x 1 x 2 1 0/ 2 24
25 تابع AND با وروديهاي دودويي و هدفهاي دوقطبي... WEIGHT INPUT NET OUT TARGET CHANGES WEIGHTS ( x x 1) y _ in y t ( w w b ) ( w w b ) ( 1 1 1) ( 1 0 1) ( 1 0 1) ( 0 1 0) ارائه دومین ورودی x x 2 02 / 2 02 / 25
26 تابع AND با وروديهاي دودويي و هدفهاي دوقطبي... WEIGHT INPUT NET OUT TARGET CHANGES WEIGHTS ( x x 1) y _ in y t ( w w b ) ( w w b ) ( 0 1 0) ( 0 1 1) ( 0 1 1) ( 0 0 1) ارائه سومین ورودی ارائه چهارمین ورودی باتوجهبهبرابربودنپاسخشبكهومقدارهدف وزنهاتغييرينميكنند WEIGHT INPUT NET OUT TARGET CHANGES WEIGHTS ( x x 1) y _ in y t ( w w b ) ( w w b ) ( 0 0 1) ( 0 0 1) ( 0 0 0) ( 0 0 1) کامل شدن اولین دور آموزش ( )Epoch 26
27 ... با ورودي هاي دودويي و هدف هاي دوقطبي تابع AND نیاز به تکرار صحیح نبودن پاسخ برای اولین الگوی ورودی تکراری بودن فرآیند آموزش )Iterative( دومین دور آموزش -ارائه اولین ورودی WEIGHT INPUT NET OUT TARGET CHANGES WEIGHTS ( x x 1) y _ in y t ( w w b ) ( w w b ) ( 0 0 1) ( 1 1 1) ( 1 1 1) ( 1 1 0) x 1x2 02 / x 1 x2 02 / 27
28 تابع AND با وروديهاي دودويي و هدفهاي دوقطبي... دومین دور آموزش -ارائه دومین ورودی WEIGHT INPUT NET OUT TARGET CHANGES WEIGHTS ( x x 1) y _ in y t ( w w b ) ( w w b ) ( 1 1 0) ( 1 0 1) ( 1 0 1) ( 0 1 1) x 2 1 0/ 2 x 2 1 0/ 2 28
29 تابع AND با وروديهاي دودويي و هدفهاي دوقطبي... WEIGHT INPUT NET OUT TARGET CHANGES WEIGHTS ( x x 1) y _ in y t ( w w b ) ( w w b ) ( 0 1 1) ( 0 1 1) ( 0 1 1) ( 0 0 2) دومین دور آموزش -ارائه سومین ورودی پاسخبرايتماموروديهامنفي دومین دور آموزش -ارائه چهارمین ورودی پاسخبرايتماموروديهامنفي WEIGHT INPUT NET OUT TARGET CHANGES WEIGHTS ( x x 1) y _ in y t ( w w b ) ( w w b ) ( 0 0 2) ( 0 0 1) ( 0 0 0) ( 0 0 2) کامل شدن دومین دور آموزش ( )Epoch 29
30 تابع AND با وروديهاي دودويي و هدفهاي دوقطبي... WEIGHT INPUT NET OUT TARGET CHANGES WEIGHTS ( x x 1) y _ in y t ( w w b ) ( w w b ) ( 0 0 2) ( 1 1 1) ( 1 1 1) ( 1 1 1) ( 1 0 1) ( 1 0 1) ( 0 1 2) ( 0 1 1) ( 0 0 0) ( 0 1 2) ( 0 0 1) ( 0 0 0) ( 0 1 2) سومین دور آموزش چهارمین دور آموزش ( 1 1 1) ( 1 1 1) ( 1 2 1) ( 1 0 1) ( 1 0 1) ( 0 2 2) ( 0 1 1) ( 0 1 1) ( 0 1 3) ( 0 0 1) ( 0 0 0) ( 0 1 3) 30
31 ... با ورودي هاي دودويي و هدف هاي دوقطبي ( 1 1 1) ( 1 1 1) ( 3 3 3) ( 1 0 1) ( 1 0 1) ( 2 3 4) ( 0 1 1) ( 0 0 0) ( 2 3 4) ( 0 0 1) ( 0 0 0) ( 2 3 4) ( 1 1 1) ( 0 0 0) ( 2 3 4) ( 1 0 1) ( 0 0 0) ( 2 3 4) ( 0 1 1) ( 0 0 0) ( 2 3 4) ( 0 0 1) ( 0 0 0) ( 2 3 4) تابع AND پنجمین ششمین... دور آموزش نهمین دور آموزش دهمین دور آموزش عدمتغييروزنها=توقفالگوريتم همگراييوزنها 2 7 2x 1 3x 2 4 0/ 2 x 2 x x 1 3x 2 4 0/ 2 x 2 x
32 تابع AND با وروديها و هدفهاي دوقطبي آستانه بایاس و وزنهای اولیة برابر با صفر نرخ یادگیری برابر با 1 WEIGHT INPUT NET OUT TARGET CHANGES WEIGHTS ( x x 1) y _ in y t ( w w b ) ( w w b ) (0 0 0) (1 1 1) (1 1 1) (1 1 1) (1 1 1) ( 1 1 1) (0 2 0) ( 1 1 1) (1 1 1) (1 1 1) ( 1 1 1) (0 0 0) (1 1 1) ( 1 1 1) ( 0 0 0) ( 1 1 1) ( 1 1 1) ( 0 0 0) ( 1 1 1) ( 1 1 1) ( 0 0 0) ( 1 1 1) ( 1 1 1) ( 0 0 0) ( 1 1 1) دور اول آموزش دور دوم آموزش بهبود نتایج با تغییر نمایش دودویی به دوقطبی 32
33 عنوان تشخیص )موضوع( متن C = {c 1, c 2,, c K } )موضوع( دسته K تعداد نرونخروجي تعداد K متنی سند = داده يدعب تبديلهرسندبهيکبردارويژگي N نرونورودي تعداد N آموزش سنددارايبرچسپ داده=تعداد M )مدل( خروجي:وزنهايشبكه=يکماتريس N*K آزمون ورودي:يکسندباعنواننامشخص بعديودادنآنبهشبكه تبديلسندبهيکبردار N خروجي:نروني)دستهاي(كهمقداربزرگتردارد 33
34 زبان تشخیص C = {c 1, c 2,, c K } )زبان( دسته K تعداد نرونخروجي تعداد K صوتی سند یا متنی سند = داده يدعب تبديلهرسندبهيکبردارويژگي N نرونورودي تعداد N 34
35 جنسیت تشخیص C = {c 1, c 2 } مرد( و )زن دسته 2 تعداد تعداديکنرونخروجي)صفرويک( نرونهماستفادهکرد ميتواناز 2 سند = داده صوتی سند یا متنی يدعب تبديلهرسندبهيکبردارويژگي N نرونورودي تعداد N ويژگيهايمتني:تعدادرنگ صفات فعلهاو... ويژگيهايصوتي:انرژيصدا فرکانس و... 35
36 تشخیص نظرات قطبیت )موافق/مخالف( C = {c 1, c 2 } مخالف( و )موافق دسته 2 تعداد تعداديکنرونخروجي)صفرويک( نرونهماستفادهکرد ميتواناز 2 سند = داده متنی يدعب تبديلهرسندبهيکبردارويژگي N نرونورودي تعداد N ويژگيهايمتني:صفاتيمثبت/منفي فعلهايمثبت/منفيو... 36
37 XOR تابع مثال: )دوقطبی( خروجی یك و )دوقطبی( دشاب استكهفقطيكيازوروديها 1 وقتيخروجي 1 ورودی دو INPUT( x, x ) OUTPUT 1 2 ( 1, 1) 1 ( 1, 1) 1 ( 1, 1) 1 ( 1, 1) 1 حل الگوريتمهمگرانميشود)جوابدرستنميدهد( )Linearly Spreadable( جداییپذیر خطی صورت به ورودی دادههای فضای نیست. هيچخطمستقيمنميتواندنقاطمثبتومنفيراجداكند:پرسپترونقادربهيافتنپاسخنيست 37
38 قضیه *w وجود داشته باشد بهطوریکه برای تمام pها داشته باشیم: f(x(p). w*) = t(p) اگر بردار وزن آنگاه برای هر بردار اولیه w قانون یادگیری پرسپترون به بردار وزنی نزدیك میشود )نه الزاما منحصر به فرد و نه الزاما *w( که برای تمام الگوهای آموزش پاسخ صحیحی میدهد و این کار در مراحلی با تعداد متناهی انجام میشود. p =تعدادبردارهايوروديآموزش x(p) =بردارهايوروديآموزش ( t(p =مقدارهدفمعادلبردارهايوروديآموزش)دوقطبي( f =تابعفعالسازيخروجي برقراری این قضیه فقط برای مسائل خطی جدایی پذیر )Linearly Spreadable( 38
39 آداالين = نرون خط وفقي) Neuron )ADAptive LInear توسط ویدور و هاف در سال 1960 دارای قانون یادگیری متفاوت با پرسپترون قانون یادگیری= قانون دلتا = قانون میانگین مربعات کمینه = (LMS) قانون ویدرو-هاف ميانگينمربعاتخطايبينمقدارخروجيشبكهومقدارهدفدرهرمرحلهازآموزشكاهشيابد استفاده از فعال سازی های دوقطبی برای سیگنال های وروی و خروجی تابع فعال سازی خروجی = تابع همانی ساختار مشابه با سایر شبکه های قبلی چندورودي باياس=وروديبرابربا 1 39
40 مرحلة 0- مقداردهی اولیه به وزنها )مقادیر تصادفی کوچك( مقداردهی به نرخ یادگیری مرحلة 1- تا زمانیکه شرایط توقف برقرار نیست مراحل 2 تا 6 را انجام دهید. مرحلة 2- برای هر جفت آموزش دوقطبی مراحل 3 تا 5 را انجام دهید. s : t x s i 1,..., n i i مرحلة 3- فعال سازی های واحدهای ورودی را مشخص کنید: y in b x w _ i i i b ( new ) b ( old ).( t y _ in) w ( new ) w ( old ). ( t y _ in). x i i i مرحلة 4- مقدار ورودی شبکه را به واحد خروجی محاسبه کنید: مرحلة 5- مقادیر وزنها و بایاس را بهروز کنید: مرحلة 6- شرایط توقف را آزمایش کنید: اگر بزرگترین تغییر وزنی که در مرحلة 2 رخ داده است از یك مقدار کوچك کمتر باشد الگوریتم را متوقف کنید وگرنه ادامه دهید. 40
41 تفاوت يادگیري آداالين با يادگیري پرسپترون تغییر وزن ها متناسب با میزان تفاوت پاسخ شبکه به یك ورودی و مقدار هدف متناظر این ورودی است. دربرگیرنده مفهوم خطا )که در یادگیری پرسپترون نیز وجود دارد( نرخ يادگیري تاثیر بر سرعت و روند همگرایی الگوریتم روش: ابتدا مقدار را کوچك فرض کرده )مثال 0.1( و به مرور مقدار آن را بزرگ کنیم اگر مقدار خیلی بزرگی باشد فرآیند یادگیری همگرا نخواهد بود اگر مقدار بسیار کوچکی باشد یادگیری بسیار کند می شود 41
42 x 1 x 2 t تابع :AND وروديهاي دودويي هدفهاي دوقطبي شبکه بعد از آموزش 3 w 1 1 w 2 1 w 0 2 x 3 x مربعات خطا برای چهار الگوی آموزش با این وزن ها = p 1 e E{( tˆ t ) } [{ x ( p). w x ( p). w w } t ( p)] 42
43 زا) روشهايآماريدرپردازشزبانطبيعي:شبكهعصبيمصنوعي شبکه عصبي پرسپترون چنداليه )MLP: Multi-Layer Perceptron( توسعه شبکههای عصبی به حالت چند الیه آموزش با الگوریتم پس انتشار خطا )Error Back-propagation( قانوندلتايتعميميافته) Rule )Generalized Delta مبتنيبرقانوندلتايشبكهآداالين روشكاهشگراديانبرايبهحداقلرساندنكلمربعاتخطايخروجي ) مهمترین و پرکاربردترین شبکه)های( عصبی 43
44 شبکه سه اليه یك الیه ورودی )واحدهای X( یك الیه واحدهای مخفی )واحدهای Z( یك الیه خروجی )واحدهایY ) الیه خروجی الیه مخفی بایاس ورودی 44
45 مراحل پیش خور کردن الگوی آموزش ورودی پس انتشار خطای مربوط تنظیم وزن ها مبنای ریاضی الگوریتم پسانتشار = بهینهسازی کاهش گرادیان )Gradient Descent( گراديان)شيب(يکتابع=نمايانگرجهتيكهتابعدرآنسريعترافزايشمييابد شيبباعالمتمنفي=جهتينشاندهندهكاهشسريعترآنتابع دراينجاتابعموردنظر=تابعخطايشبكه متغيرهايموردنظر=وزنهايشبكه 45
46 به وزنها مقدار اولیه بدهید )مقادیر تصادفی کوچك را انتخاب کنید(. تا زمانیکه شرایط توقف برقرار نیست مراحل 2 تا 9 را انجام دهید. برای هر جفت آموزش )مقادیر ورودی و هدف( مراحل 3 تا 8 را انجام دهید. مرحلة 0- مرحلة 1- مرحلة 2- پیش خور ارسال سیگنال ورودی به تمام واحدها در الیة بعدی )واحدهای مخفی( محاسبه ورودی واحدهای مخفی و اعمال تابع فعال سازی x i مرحلة 3- مرحلة 4- n j 0 j i ij i1 z _ in v x v z f ( z _ in ) j j مرحلة 5- محاسبه ورودی واحدهای خروجی و اعمال تابع فعال سازی p k 0k j jk j 1 y _ in w z w y f ( y _ in ) k k 46
47 پس انتشار خطا محاسبه خطا برای واحدهای خروجی )استفاده از الگوی هدف( مرحلة -6 ( t y ) f ( y _ in ) k k k k w z jk k j محاسبه پارامتر تصحیح وزن )بعدا در به روز کردن به کار می رود( _ in w m 0k w j k jk k 1 _ in f ( z _ in ) j j j k محاسبه پارامتر تصحیح بایاس )بعدا در بهروز کردن به کار میرود( ارسال )مقادیر دلتا( به واحدهای الیة قبلی )الیه مخفی( مرحلة 7- دریافت ورودیهای دلتا توسط واحدهای مخفی از واحدهای خروجی ضرب در مشتق تابع فعال سازی جهت محاسبه پارامتر مربوط به اطالعات خطا محاسبه مقدار تصحیح وزن و بایاس )استفاده در بهروز کردن ) k vij j xi v0 j j 47
48 w ( new) w ( old) w jk jk jk به روز کردن وزن ها و باياس ها به روز کردن وزن ها و بایاس های واحدهای خروجی مرحلة -8 v ( new) v ( old) v به روز کردن وزن ها و بایاس های واحدهای مخفی ij ij ij مرحلة 9- شرایط توقف را بررسی کنید. 48
49 بعد از آموزش فقط مرحلة پیشخور مورد نیاز است مقادیر وزنهای شبکه را با استفاده از الگوریتم آموزش تعیین کنید. مرحلة 0: برای هر بردار ورودی مراحل 2 تا 4 را انجام دهید. مرحلة 1: برای تمام نرونهای ورودی فعالسازی واحد ورودی را تعیین کنید مرحلة 2: n z _ in v x v z f ( z _ in ) j 0 j i ij j j i 1 مرحلة 3: برای واحدهای مخفی: p مرحلة 4: برای واحدهای خروجی: y _ in w z w y f ( y _ in ) k 0k j jk k k j 1 49
50 x 1 x 2 y نمايش دودويي 1( از )6... )تصادفی( :XOR تابع مقدار دهی اولیه f 1 ( x) 1 exp( x ) 50
51 نمايش ٢( از )6... دودويي x 1 x 2 y تابع :XOR پیشخور کردن ورودی 51
52 نمايش 3( از )6... تابع :XOR دودويي پس انتشار خطا 52
53 نمايش 4( از )6... تابع :XOR دودويي محاسبه وزن ها 53
54 نمايش 5( از )6... تابع :XOR دودويي به روز کردن وزن ها 54
55 :XOR تابع وزنهای نهایی نمايش دودويي )6 از 6( )بعد از 500 تکرار( 55
56 کاربرد در پردازش گفتار و پردازش زبان تشخیص گوینده تشخیص جنسیت جداسازی گفتار از غیر گفتار تعیین نقش دستوری Tagging( )POS تعیین شباهت دو متن تعیین عنوان متن... 56
57 TDNN: Time-Delay Neural Network تشخیص گفتار با ورودی: دنباله متوالی از فریمهای سیگنال گفتار خروجی: واحد موردنظر در تشخیص )کلمه واج( الیه خروجی: P بعدی تعداد کلمات )واجها( الیه پنهان دوم تشخیص واج های فارسی الیه پنهان اول: N*P -N ابعاد فریمها -P تعداد خروجیها فریمهای گفتار - هر فریم N بعدی - تعداد M فریم متوالی )15( 57
58 26 نرون = 26 ویژگی 23 ویژگی زبانی )صدادار بیصدا خیشومی و...( 3 ویژگی نوایی )استرس و...( متن خوان انگلیسي NETtalk ورودی: متن نوشته شده و خروجی: واجهایی که صدا را میسازند وابستگی واج ها به محتوا تفاوتتلفظ a در" brave " "gave, تبدیل متن به صورت واجی Phone f o n (f-on-) )كشيده(و have " )كوتاه( 80 نرون 7*29=203 نرون ورودی 7= واج موردنظر و 3 واج در دوطرف آن = 29 بردار دودویی هر بعد معادل یك واج 58
59 اولیه مقادير انتخاب سراسری خطای حداقل به شبکه همگرایی بر اولیه وزنهای مقادیر تأثیر محلی) Local ( خطای حداقل به شبکه همگرایی منفی( یا )مثبت تصادفی اولیة مقادیر فقط یا )Global( )1 و )يابين 1 - و بازهمتداولبرايمقاديرتصادفيوزنهاوباياسهابين 0.5 مخفي اليه يک از بیش با عصبي شبکة آموزش مخفی الیه یك با آموزش الگوریتم مشابه است الگوریتم در شده بیان مخفی الیه مشابه اضافی مخفی الیة هر برای ها محاسبة تکرار پسانتشار مرحلة در 7 گام و پیشخور مرحلة در 4 گام مخفی الیة هر برای میشود. الگوهای از ای پیوسته نگاشت هر زدن تقریب برای انتشار پس شبکة در مخفی الیة یك است. کافی دقت از دلخواهی میزان با خروجی الگوهای به ورودی کند. می تر آسان را شبکه آموزش مخفی الیة دو از استفاده شرایط برخی در 59
60 تعادل بین يادگیري الگوها و تعمیم پاسخ صحیح به الگوهای آموزش داده شده به شبکه + تولید پاسخ مناسب به الگوهای جدید شبکه قوانین حاکم بر دادهها را یاد بگیرد نه فقط نمونههای آموزش ادامه آموزش شبکه زمانی که مقدار مربعات خطا واقعا حداقل شده الزاما مفید نمی باشد خطای آموزش صفر اما قابلیت تعمیم پایین )overfit( خطای آموزش باال قابلیت تعمیم پایین )underfit( خطای آموزش باال اما قابلیت تعمیم باال 60
61 تعادل بین يادگیري الگوها و تعمیم استفاده از دو مجموعه داده مجزا در زمان آموزش شبکه يکمجموعهبرايآموزشالگوهاويکمجموعهبرايآموزش-آزمونالگوها)مجموعه validation ( روش validation cross :تقسيمدادهآموزشبه K زيرمجموعه هرباريكياززيرمجموعههابرايتاييداعتباراستفادهميشود Training Data Training Set Validation Set 61
62 نکاتي که قابلیت تعمیم را افزايش مي دهد تعداد نرونهای کمتر در الیه مخفی overfit نکردن: توقف شبکه با افزایش خطای مجموعه ارزیابی )تست( دادههای آموزش پوششی از انواع و تنوع نمونهها باشد 62
63 به روز کردن وزن با پس انتشار با گشتاور) Momentum ( تغییر روش کاهش گرادیان: مقدار تغییر وزن ترکیبی از گرادیان )شیب( فعلی و گرادیان قبلی به روز شدن وزن های زمان 1+t وابسته به وزنهای زمانهای قبلتر )مانند t و 1-t( گرادیان فعلی w ( t 1) = w ( t) z [ w ( t)- w ( t 1 )] w ( t 1) = z w ( t) jk jk k j jk jk jk k j jk v ( t 1) = v ( t) x [ v ( t)-v ( t 1 )] v jk ( t 1) = ij xi vij ( t) ij ij j i ij ij گرادیان قبلی پارامتر ممان )بین 0 تا 1( همگرایی سریعتر + کاهش احتمال گیر کردن در نقطة کمینة محلی 63
64 تعداد داده هاي آموزش: قاعدة تجربي P= تعداد الگوهای آموزش موجود W= تعداد وزنهای مورد آموزش در شبکه e= صحت دسته بندی مورد نظر آموزش شبکه برای دستهبندی صحیح کسری معادل (2/e)-1 از الگوهای آموزشی میتوان مطمئن بود که شبکه e-1 الگوی آزمایش را نیز به درستی دستهبندی کند W P e کافی بودن الگوهای آموزشی : یا W P e مثال: با 0.1=e شبکهای با 80 وزن 800 الگوی آموزش الزم خواهد داشت تا از دستهبندی صحیح %90 الگوهای آزمایش اطمینان حاصل شود با این فرض که شبکه برای دستهبندی صحیح %95 الگوهای آموزشی آموزش دیده باشد. 64
65 به روز کردن دسته اي )Batch Updating( به جای به روز کردن وزن های شبکه بعد از ارائة هر الگوی آموزشی ادغام مقدار تصحیح )تغییر( وزن را برای چند الگو یا برای تمام الگوها در یك دور کامل تشکیل یك مقدار تنظیم وزن برای هر وزن برابر با میانگین عبارات تصحیح وزنها آسانتر کردن تصحیح وزنها مقاوم بودن در برابر دادههای نویزی موازیسازی محاسبات افزایش احتمال نزدیك شدن به کمینة محلی 65
66 MLP شبکه تقريب زننده هاي جهاني است: قضیة هچ-نیلسون n m هر تابع پیوستة f : I R را که در آن I بازة بستة ], 01 [ است میتوان دقیقا با یك شبکة عصبی پیشخور با n واحد ورودی 1 2n واحد مخفی و m واحد خروجی نمایش داد. تابع فعالسازی برای واحد مخفی j ما n i z ( x j) j j i1 i : تابع پیوسته حقیقی و یکنوای صعودی مستقل از f و وابسته به n عددی ثابت و حقیقی مقدار ثابت برای فراهم بودن شرایط قضیة اسپرچر است. n تابع فعالسازی برای واحدهای خروجی: y 2 1 g z k k j j1 تابع پیوسته حقیقی و وابسته به f و 66
67 شبکه هاي يادگیري عمیق شبکه MLP با تعداد الیه های مخفی زیاد حافظه کوتاه-مدت ماندگار NN( )Deep و شبکه هاي بازگشتي )LSTM: Long Short-Term Memory( بولتزمن محدود شده باور عمیق )RBN: Restricted Boltzmann Machine( )DBN: Deep Belief Network( رمزکننده خودکار )Auto-Encoder( ترکیب با روشهای آماری )HMM( استفاده در پردازش گفتارف تصویر و متن 67
68 )SOM( شبکه هاي عصبي نگاشت هاي خودسازمانده کوهونن کاربرد در دسته بندی خودکار متون یادگیری بدون نظارت حالت با نظارت يادگيريچنديسازيبرداري) LVQ ( 68
محاسبه ی برآیند بردارها به روش تحلیلی
محاسبه ی برآیند بردارها به روش تحلیلی برای محاسبه ی برآیند بردارها به روش تحلیلی باید توانایی تجزیه ی یک بردار در دو راستا ( محور x ها و محور y ها ) را داشته باشیم. به بردارهای تجزیه شده در راستای محور
تصاویر استریوگرافی.
هب انم خدا تصاویر استریوگرافی تصویر استریوگرافی یک روش ترسیمی است که به وسیله آن ارتباط زاویه ای بین جهات و صفحات بلوری یک کریستال را در یک فضای دو بعدی )صفحه کاغذ( تعیین میکنند. کاربردها بررسی ناهمسانگردی
آزمایش 8: تقویت کننده عملیاتی 2
آزمایش 8: تقویت کننده عملیاتی 2 1-8 -مقدمه 1 تقویت کننده عملیاتی (OpAmp) داراي دو یا چند طبقه تقویت کننده تفاضلی است که خروجی- هاي هر طبقه به وروديهاي طبقه دیگر متصل شده است. در انتهاي این تقویت کننده
آزمایش 1: پاسخ فرکانسی تقویتکننده امیتر مشترك
آزمایش : پاسخ فرکانسی تقویتکننده امیتر مشترك -- مقدمه هدف از این آزمایش بدست آوردن فرکانس قطع بالاي تقویتکننده امیتر مشترك بررسی عوامل تاثیرگذار و محدودکننده این پارامتر است. شکل - : مفهوم پهناي باند تقویت
مثال( مساله الپالس در ناحیه داده شده را حل کنید. u(x,0)=f(x) f(x) حل: به کمک جداسازی متغیرها: ثابت = k. u(x,y)=x(x)y(y) X"Y=-XY" X" X" kx = 0
مثال( مساله الپالس در ناحیه داده شده را حل کنید. (,)=() > > < π () حل: به کمک جداسازی متغیرها: + = (,)=X()Y() X"Y=-XY" X" = Y" ثابت = k X Y X" kx = { Y" + ky = X() =, X(π) = X" kx = { X() = X(π) = معادله
روش محاسبه ی توان منابع جریان و منابع ولتاژ
روش محاسبه ی توان منابع جریان و منابع ولتاژ ابتدا شرح کامل محاسبه ی توان منابع جریان: برای محاسبه ی توان منابع جریان نخست باید ولتاژ این عناصر را بدست آوریم و سپس با استفاده از رابطه ی p = v. i توان این
شبکه های عصبی در کنترل
شبکه های عصبی در کنترل دانشگاه نجف آباد درس: کنترل هوشمند در فضای سایبرنتیک مدرس: حمید محمودیان مدل ریاضی نرون مدل ریاضی یک نرون ساده به صورت روبرو است P: مقدار کمیت ورودی b: مقدار بایاس )عرض از مبدا تابع
آزمون مقایسه میانگین های دو جامعه )نمونه های بزرگ(
آزمون مقایسه میانگین های دو جامعه )نمونه های بزرگ( فرض کنید جمعیت یک دارای میانگین و انحراف معیار اندازه µ و انحراف معیار σ باشد و جمعیت 2 دارای میانگین µ2 σ2 باشند نمونه های تصادفی مستقل از این دو جامعه
6- روش های گرادیان مبنا< سر فصل مطالب
1 بنام خدا بهینه سازی شبیه سازی Simulation Optimization Lecture 6 روش های بهینه سازی شبیه سازی گرادیان مبنا Gradient-based Simulation Optimization methods 6- روش های گرادیان مبنا< سر فصل مطالب 2 شماره
1) { } 6) {, } {{, }} 2) {{ }} 7 ) { } 3) { } { } 8) { } 4) {{, }} 9) { } { }
هرگاه دسته اي از اشیاء حروف و اعداد و... که کاملا"مشخص هستند با هم در نظر گرفته شوند یک مجموعه را به وجود می آورند. عناصر تشکیل دهنده ي یک مجموعه باید دو شرط اساسی را داشته باشند. نام گذاري مجموعه : الف
جلسه 12 به صورت دنباله اي از,0 1 نمایش داده شده اند در حین محاسبه ممکن است با خطا مواجه شده و یکی از بیت هاي آن. p 1
محاسبات کوانتمی (67) ترم بهار 390-39 مدرس: سلمان ابوالفتح بیگی نویسنده: سلمان ابوالفتح بیگی جلسه ذخیره پردازش و انتقال اطلاعات در دنیاي واقعی همواره در حضور خطا انجام می شود. مثلا اطلاعات کلاسیکی که به
پروژه یازدهم: ماشین هاي بردار پشتیبان
پروژه یازدهم: ماشین هاي بردار پشتیبان 1 عموما براي مسایلی که در آنها دو دسته وجود دارد استفاده میشوند اما ماشین هاي بردار پشتیبان روشهاي متفاوتی براي ترکیب چند SVM و ایجاد یک الگوریتم دستهبندي چند کلاس
جلسه 3 ابتدا نکته اي در مورد عمل توابع بر روي ماتریس ها گفته می شود و در ادامه ي این جلسه اصول مکانیک کوانتمی بیان. d 1. i=0. i=0. λ 2 i v i v i.
محاسبات کوانتمی (671) ترم بهار 1390-1391 مدرس: سلمان ابوالفتح بیگی نویسنده: محمد جواد داوري جلسه 3 می شود. ابتدا نکته اي در مورد عمل توابع بر روي ماتریس ها گفته می شود و در ادامه ي این جلسه اصول مکانیک
همبستگی و رگرسیون در این مبحث هدف بررسی وجود یک رابطه بین دو یا چند متغیر می باشد لذا هدف اصلی این است که آیا بین
همبستگی و رگرسیون در این مبحث هدف بررسی وجود یک رابطه بین دو یا چند متغیر می باشد لذا هدف اصلی این است که آیا بین دو صفت متغیر x و y رابطه و همبستگی وجود دارد یا خیر و آیا می توان یک مدل ریاضی و یک رابطه
مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل
مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل شما باید بعد از مطالعه ی این جزوه با مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل کامال آشنا شوید. VA R VB به نظر شما افت ولتاژ مقاومت R چیست جواب: به مقدار عددی V A
جلسه ی ۱۰: الگوریتم مرتب سازی سریع
دانشکده ی علوم ریاضی داده ساختارها و الگوریتم ها ۸ مهر ۹ جلسه ی ۱۰: الگوریتم مرتب سازی سریع مدر س: دکتر شهرام خزاي ی نگارنده: محمد امین ادر یسی و سینا منصور لکورج ۱ شرح الگور یتم الگوریتم مرتب سازی سریع
هادي ويسي. دانشگاه تهران - دانشکده علوم و فنون نوين نیم سال اول
هادي ويسي h.veisi@ut.ac.ir دانشگاه تهران - دانشکده علوم و فنون نوين نیم سال اول 1392-1393 مقدمه انتخاب ويژگي ها روش پوشه )Wrapper( روش فیلتر )Filter( معیارهای انتخاب ویژگی )میزان اهمیت ویژگی( آزمون آماری
Angle Resolved Photoemission Spectroscopy (ARPES)
Angle Resolved Photoemission Spectroscopy (ARPES) روش ARPES روشی است تجربی که برای تعیین ساختار الکترونی مواد به کار می رود. این روش بر پایه اثر فوتوالکتریک است که توسط هرتز کشف شد: الکترونها می توانند
فصل چهارم : مولتی ویبراتورهای ترانزیستوری مقدمه: فیدبک مثبت
فصل چهارم : مولتی ویبراتورهای ترانزیستوری مقدمه: فیدبک مثبت در تقویت کننده ها از فیدبک منفی استفاده می نمودیم تا بهره خیلی باال نرفته و سیستم پایدار بماند ولی در فیدبک مثبت هدف فقط باال بردن بهره است در
تلفات خط انتقال ابررسی یک شبکة قدرت با 2 به شبکة شکل زیر توجه کنید. ژنراتور فرضیات شبکه: میباشد. تلفات خط انتقال با مربع توان انتقالی متناسب
تلفات خط انتقال ابررسی یک شبکة قدرت با 2 به شبکة شکل زیر توجه کنید. ژنراتور فرضیات شبکه: این شبکه دارای دو واحد کامال یکسان آنها 400 MW میباشد. است تلفات خط انتقال با مربع توان انتقالی متناسب و حداکثر
تحلیل مدار به روش جریان حلقه
تحلیل مدار به روش جریان حلقه برای حل مدار به روش جریان حلقه باید مراحل زیر را طی کنیم: مرحله ی 1: مدار را تا حد امکان ساده می کنیم)مراقب باشید شاخه هایی را که ترکیب می کنید مورد سوال مسئله نباشد که در
ﯽﺳﻮﻃ ﺮﯿﺼﻧ ﻪﺟاﻮﺧ ﯽﺘﻌﻨﺻ هﺎﮕﺸﻧاد
دانشگاه صنعتی خواجه نصیر طوسی دانشکده برق - گروه کنترل آزمایشگاه کنترل سیستمهای خطی گزارش کار نمونه تابستان 383 به نام خدا گزارش کار آزمایش اول عنوان آزمایش: آشنایی با نحوه پیاده سازی الکترونیکی فرایندها
جلسه 9 1 مدل جعبه-سیاه یا جستاري. 2 الگوریتم جستجوي Grover 1.2 مسا له 2.2 مقدمات محاسبات کوانتمی (22671) ترم بهار
محاسبات کوانتمی (22671) ترم بهار 1390-1391 مدرس: سلمان ابوالفتح بیگی نویسنده: هیربد کمالی نیا جلسه 9 1 مدل جعبه-سیاه یا جستاري مدل هایی که در جلسه ي پیش براي استفاده از توابع در الگوریتم هاي کوانتمی بیان
هو الحق دانشکده ي مهندسی کامپیوتر جلسه هفتم
هو الحق دانشکده ي مهندسی کامپیوتر کدگذاري شبکه Coding) (Network شنبه 2 اسفند 1393 جلسه هفتم استاد: مهدي جعفري نگارنده: سید محمدرضا تاجزاد تعریف 1 بهینه سازي محدب : هدف پیدا کردن مقدار بهینه یک تابع ) min
مدار معادل تونن و نورتن
مدار معادل تونن و نورتن در تمامی دستگاه های صوتی و تصویری اگرچه قطعات الکتریکی زیادی استفاده می شود ( مانند مقاومت سلف خازن دیود ترانزیستور IC ترانس و دهها قطعه ی دیگر...( اما هدف از طراحی چنین مداراتی
معرفی شبکههای چندالیه الگوریتم آموزش شبکههای چندالیه نحوه استخراج قانون پسانتشار خطا نکات تکمیلی درباره شبکههای چندالیه کاربردهای شبکه چندالیه
معرفی شبکههای چندالیه الگوریتم آموزش شبکههای چندالیه نحوه استخراج قانون پسانتشار خطا نکات تکمیلی درباره شبکههای چندالیه کاربردهای شبکه چندالیه یادآوری: شبکه عصببی چندالیبه پیشبخور )feed-forward multilayer
جلسه ی ۲۴: ماشین تورینگ
دانشکده ی علوم ریاضی نظریه ی زبان ها و اتوماتا ۲۶ ا ذرماه ۱۳۹۱ جلسه ی ۲۴: ماشین تورینگ مدر س: دکتر شهرام خزاي ی نگارندگان: حمید ملک و امین خسر وشاهی ۱ ماشین تور ینگ تعریف ۱ (تعریف غیررسمی ماشین تورینگ)
تخمین با معیار مربع خطا: حالت صفر: X: مکان هواپیما بدون مشاهده X را تخمین بزنیم. بهترین تخمین مقداری است که متوسط مربع خطا مینیمم باشد:
تخمین با معیار مربع خطا: هدف: با مشاهده X Y را حدس بزنیم. :y X: مکان هواپیما مثال: مشاهده نقطه ( مجموعه نقاط کنارهم ) روی رادار - فرض کنیم می دانیم توزیع احتمال X به چه صورت است. حالت صفر: بدون مشاهده
Spacecraft thermal control handbook. Space mission analysis and design. Cubesat, Thermal control system
سیستم زیر حرارتی ماهواره سرفصل های مهم 1- منابع مطالعاتی 2- مقدمه ای بر انتقال حرارت و مکانیزم های آن 3- موازنه انرژی 4 -سیستم های کنترل دما در فضا 5- مدل سازی عددی حرارتی ماهواره 6- تست های مورد نیاز
بسم اهلل الرحمن الرحیم آزمایشگاه فیزیک )2( shimiomd
بسم اهلل الرحمن الرحیم آزمایشگاه فیزیک )( shimiomd خواندن مقاومت ها. بررسی قانون اهم برای مدارهای متوالی. 3. بررسی قانون اهم برای مدارهای موازی بدست آوردن مقاومت مجهول توسط پل وتسون 4. بدست آوردن مقاومت
قاعده زنجیره ای برای مشتقات جزي ی (حالت اول) :
۱ گرادیان تابع (y :f(x, اگر f یک تابع دومتغیره باشد ا نگاه گرادیان f برداری است که به صورت زیر تعریف می شود f(x, y) = D ۱ f(x, y), D ۲ f(x, y) اگر رویه S نمایش تابع (y Z = f(x, باشد ا نگاه f در هر نقطه
مارکوف 1.مقدمه: سید مهدی صفوی محمد میکاییلی محمد پویان چکیده ما با مطالعه مدل مخفی میدان تصادفی مارکوف از الگوریتم EM
و بخش بندی تصاویر براساس مارکوف مدل میدان تصادفی مخفی 3 سید مهدی صفوی محمد میکاییلی محمد پویان -دانشجو گروه مهندسی پزشکی دانشکده فنی مهندسی دانشگاه شاهد 3- عضوهیات علمی دانشیار گروه مهندسی پزشکی دانشکده
فصل پنجم زبان های فارغ از متن
فصل پنجم زبان های فارغ از متن خانواده زبان های فارغ از متن: ( free )context تعریف: گرامر G=(V,T,,P) کلیه قوانین آن به فرم زیر باشد : یک گرامر فارغ از متن گفته می شود در صورتی که A x A Є V, x Є (V U T)*
جلسه دوم سوم چهارم: مقدمه اي بر نظریه میدان
هو الحق دانشکده ي مهندسی کامپیوتر کدگذاري شبکه Coding) (Network سه شنبه 21 اسفند 1393 جلسه دوم سوم چهارم: مقدمه اي بر نظریه میدان استاد: مهدي جعفري نگارنده: علیرضا حیدري خزاي ی در این نوشته مقدمه اي بر
فصل دهم: همبستگی و رگرسیون
فصل دهم: همبستگی و رگرسیون مطالب این فصل: )r ( کوواریانس ضریب همبستگی رگرسیون ضریب تعیین یا ضریب تشخیص خطای معیار برآور ( )S XY انواع ضرایب همبستگی برای بررسی رابطه بین متغیرهای کمی و کیفی 8 در بسیاری
تمرین اول درس کامپایلر
1 تمرین اول درس 1. در زبان مربوط به عبارت منظم زیر چند رشته یکتا وجود دارد (0+1+ϵ)(0+1+ϵ)(0+1+ϵ)(0+1+ϵ) جواب 11 رشته کنند abbbaacc را در نظر بگیرید. کدامیک از عبارتهای منظم زیر توکنهای ab bb a acc را ایجاد
هدف از این آزمایش آشنایی با رفتار فرکانسی مدارهاي مرتبه اول نحوه تأثیر مقادیر عناصر در این رفتار مشاهده پاسخ دامنه
آزما ی ش شش م: پا س خ فرکا نس ی مدا رات مرتبه اول هدف از این آزمایش آشنایی با رفتار فرکانسی مدارهاي مرتبه اول نحوه تأثیر مقادیر عناصر در این رفتار مشاهده پاسخ دامنه و پاسخ فاز بررسی رفتار فیلتري آنها بدست
نویسنده: محمدرضا تیموری محمد نصری مدرس: دکتر پرورش خالصۀ موضوع درس سیستم های مینیمم فاز: به نام خدا
به نام خدا پردازش سیگنالهای دیجیتال نیمسال اول ۹۵-۹۶ هفته یازدهم ۹۵/۰8/2۹ مدرس: دکتر پرورش نویسنده: محمدرضا تیموری محمد نصری خالصۀ موضوع درس یا سیستم های مینیمم فاز تجزیه ی تابع سیستم به یک سیستم مینیمم
جلسه 14 را نیز تعریف کرد. عملگري که به دنبال آن هستیم باید ماتریس چگالی مربوط به یک توزیع را به ماتریس چگالی مربوط به توزیع حاشیه اي آن ببرد.
تي وري اطلاعات کوانتمی ترم پاییز 39-39 مدرس: ابوالفتح بیگی و امین زاده گوهري نویسنده: کامران کیخسروي جلسه فرض کنید حالت سیستم ترکیبی AB را داشته باشیم. حالت سیستم B به تنهایی چیست در ابتداي درس که حالات
فعالیت = ) ( )10 6 ( 8 = )-4( 3 * )-5( 3 = ) ( ) ( )-36( = m n m+ m n. m m m. m n mn
درس»ریشه ام و توان گویا«تاکنون با مفهوم توان های صحیح اعداد و چگونگی کاربرد آنها در ریشه گیری دوم و سوم اعداد آشنا شده اید. فعالیت زیر به شما کمک می کند تا ضمن مرور آنچه تاکنون در خصوص اعداد توان دار و
7- روش تقریب میانگین نمونه< سر فصل مطالب
1 بنام خدا بهینه سازی شبیه سازی Simulation Optimization Lecture 7 روش تقریب میانگین نمونه Sample Average Approximation 7- روش تقریب میانگین نمونه< سر فصل مطالب 2 شماره عنوان فصل 1-7 معرفی 2-7 تقریب 3-7
شاخصهای پراکندگی دامنهی تغییرات:
شاخصهای پراکندگی شاخصهای پراکندگی بیانگر میزان پراکندگی دادههای آماری میباشند. مهمترین شاخصهای پراکندگی عبارتند از: دامنهی تغییرات واریانس انحراف معیار و ضریب تغییرات. دامنهی تغییرات: اختالف بزرگترین و
جلسه 16 نظریه اطلاعات کوانتمی 1 ترم پاییز
نظریه اطلاعات کوانتمی ترم پاییز 39-39 مدرسین: ابوالفتح بیگی و امین زاده گوهري نویسنده: محم دحسن آرام جلسه 6 تا اینجا با دو دیدگاه مختلف و دو عامل اصلی براي تعریف و استفاده از ماتریس چگالی جهت معرفی حالت
به نام خدا. الف( توضیح دهید چرا از این تکنیک استفاده میشود چرا تحلیل را روی کل سیگنال x[n] انجام نمیدهیم
پردازش گفتار به نام خدا نیمسال اول 59-59 دکتر صامتی تمرین سری سوم پیشبینی خطی و کدینگ شکلموج دانشکده مهندسی کامپیوتر زمان تحویل: 32 آبان 4259 تمرینهای تئوری: سوال 1. می دانیم که قبل از انجام تحلیل پیشبینی
دانشکده ی علوم ریاضی جلسه ی ۵: چند مثال
دانشکده ی علوم ریاضی احتمال و کاربردا ن ۴ اسفند ۹۲ جلسه ی : چند مثال مدر س: دکتر شهرام خزاي ی نگارنده: مهدی پاک طینت (تصحیح: قره داغی گیوه چی تفاق در این جلسه به بررسی و حل چند مثال از مطالب جلسات گذشته
عنوان: رمزگذاري جستجوپذیر متقارن پویا
دانشگاه صنعتی شریف دانشکده مهندسی برق گزارش درس ریاضیات رمزنگاري عنوان: رمزگذاري جستجوپذیر متقارن پویا استاد درس: مهندس نگارنده: ز 94 دي ماه 1394 1 5 نماد گذاري و تعریف مسي له 1 6 رمزگذاري جستجوپذیر متقارن
جلسه ی ۱۸: درهم سازی سرتاسری - درخت جست و جوی دودویی
دانشکده ی علوم ریاضی ساختمان داده ۱۰ ا ذر ۹۲ جلسه ی ۱۸: درهم سازی سرتاسری - درخت جست و جوی دودویی مدر س: دکتر شهرام خزاي ی نگارنده: معین زمانی و ا رمیتا اردشیری ۱ یادا وری همان طور که درجلسات پیش مطرح
جلسه 28. فرض کنید که m نسخه مستقل یک حالت محض دلخواه
نظریه اطلاعات کوانتمی 1 ترم پاییز 1392-1391 مدرسین: ابوالفتح بیگی و امین زاده گوهري نویسنده: مرتضی نوشاد جلسه 28 1 تقطیر و ترقیق درهم تنیدگی ψ m بین آذر و بابک به اشتراك گذاشته شده است. آذر و AB فرض کنید
جلسه ی ۵: حل روابط بازگشتی
دانشکده ی علوم ریاضی ساختمان داده ها ۶ مهر ۲ جلسه ی ۵: حل روابط بازگشتی مدر س: دکتر شهرام خزاي ی نگارنده: ا رمیتا ثابتی اشرف و علی رضا علی ا بادیان ۱ مقدمه پیدا کردن کران مجانبی توابع معمولا با پیچیدگی
جلسه ی ۳: نزدیک ترین زوج نقاط
دانشکده ی علوم ریاضی ا نالیز الگوریتم ها ۴ بهمن ۱۳۹۱ جلسه ی ۳: نزدیک ترین زوج نقاط مدر س: دکتر شهرام خزاي ی نگارنده: امیر سیوانی اصل ۱ پیدا کردن نزدیک ترین زوج نقطه فرض می کنیم n نقطه داریم و می خواهیم
نظریه زبان ها و ماشین ها
نظریه زبان ها و ماشین ها Theory of Languages & Automatas سید سجاد ائم ی زمستان 94 به نام خدا پیش گفتار جزوه پیش رو جهت استفاده دانشجویان عزیز در درس نظریه زبانها و ماشینها تهیه شده است. در این جزوه با
جلسه ی ۴: تحلیل مجانبی الگوریتم ها
دانشکده ی علوم ریاضی ساختمان داده ها ۲ مهر ۱۳۹۲ جلسه ی ۴: تحلیل مجانبی الگوریتم ها مدر س: دکتر شهرام خزاي ی نگارنده: شراره عز ت نژاد ا رمیتا ثابتی اشرف ۱ مقدمه الگوریتم ابزاری است که از ا ن برای حل مسا
تابع هزینه حداقل میانگین مربعات توأم با حداقل واریانس خطا
تابع هزینه حداقل میانگین مربعات توأم با حداقل واریانس خطا فریبا پاکیزه حاجی یار هادی صدوقی یزدی دانشجوی کارشناسی ارشدگروه کامپیوتر دانشکده مهندسی دانشگاه فردوسی مشهد ایران f.pazehhajyar@stu.um.ac.r دانشیار
جلسه 15 1 اثر و اثر جزي ی نظریه ي اطلاعات کوانتومی 1 ترم پاي یز جدایی پذیر باشد یعنی:
نظریه ي اطلاعات کوانتومی 1 ترم پاي یز 1391-1391 مدرس: دکتر ابوالفتح بیگی ودکتر امین زاده گوهري نویسنده: محمدرضا صنم زاده جلسه 15 فرض کنیم ماتریس چگالی سیستم ترکیبی شامل زیر سیستم هايB و A را داشته باشیم.
معرفی تخصیص الگو و حافظه انجمنی تفاوت تخصیص الگو و دستهبندی الگو انواع شبکههای تخصیصدهنده الگو قوانین آموزش مورد استفاده حافظه انجمنی یک الیه حافظه
معرفی تخصیص الگو و حافظه انجمنی تفاوت تخصیص الگو و دستهبندی الگو انواع شبکههای تخصیصدهنده الگو قوانین آموزش مورد استفاده حافظه انجمنی یک الیه حافظه دیگرانجمنی حافظه خودانجمنی حافظه های انجمنی تکراری شبکه
يﺎﻫ ﻢﺘﻳرﻮﮕﻟا و ﺎﻫ ﺖﺧرد فاﺮﮔ ﻲﻤﺘﻳرﻮﮕﻟا ﻪﻳﺮﻈﻧ :سرد ﻲﺘﺸﻬﺑ ﺪﻴﻬﺷ هﺎﮕﺸﻧاد ﺮﺗﻮﻴﭙﻣﺎﻛ مﻮﻠﻋ هوﺮﮔ ﻪﻴﻟوا ﺞﻳﺎﺘﻧ و ﺎﻫﻒ ﻳﺮﻌﺗ
BFS DFS : درخت یک گراف همبند بدون دور است. جنگل یک گراف بدون دور است. پس هر مولفه همبندی جنگل درخت است. هر راس درجه 1 در درخت را یک برگ مینامیم. یک درخت فراگیر از گراف G یک زیردرخت فراگیر از ان است که
آموزش شناسایی خودهمبستگی در دادههای سری زمانی و نحوه رفع آن در نرم افزار EViews
بس م الله الر حم ن الر حی م آموزش شناسایی خودهمبستگی در دادههای سری زمانی و نحوه رفع آن در نرم افزار EViews Econometrics.blog.ir حسین خاندانی مدرس داده کاوی و اقتصادسنجی بس م الله الر حم ن الر حی م سخن
تئوری جامع ماشین بخش سوم جهت سادگی بحث یک ماشین سنکرون دو قطبی از نوع قطب برجسته مطالعه میشود.
مفاهیم اصلی جهت آنالیز ماشین های الکتریکی سه فاز محاسبه اندوکتانس سیمپیچیها و معادالت ولتاژ ماشین الف ) ماشین سنکرون جهت سادگی بحث یک ماشین سنکرون دو قطبی از نوع قطب برجسته مطالعه میشود. در حال حاضر از
چکیده مقدمه کلید واژه ها:
چکیده طی دهه های گذشته سازمان های بسیاری در اقسا نقاط جهان سیستم برنامه ریزی منابع سازمانی ERP را اتخاذ کرده اند. در باره ی منافع حسابداری اتخاذ سیستم های سازمانی تحقیقات کمی در مقیاس جهانی انجام شده است.
تحلیل الگوریتم پیدا کردن ماکزیمم
تحلیل الگوریتم پیدا کردن ماکزیمم امید اعتصامی پژوهشگاه دانشهاي بنیادي پژوهشکده ریاضیات 1 انگیزه در تحلیل الگوریتم ها تحلیل احتمالاتی الگوریتم ها روشی براي تخمین پیچیدگی محاسباتی یک الگوریتم یا مساله ي
http://econometrics.blog.ir/ متغيرهای وابسته نماد متغيرهای وابسته مدت زمان وصول حساب های دريافتني rcp چرخه تبدیل وجه نقد ccc متغیرهای کنترلی نماد متغيرهای کنترلي رشد فروش اندازه شرکت عملکرد شرکت GROW SIZE
کنترل تطبیقی غیر مستقیم مبتنی بر تخصیص قطب با مرتبه کسری
چکیده : کنترل تطبیقی غیر مستقیم مبتنی بر تخصیص قطب با مرتبه کسری روش طراحی قوانین کنترل چندجمله ای با استفاده از جایابی قطب راه کار مناسبی برای بسیاری از کاربردهای صنعتی می باشد. این دسته از کنترل کننده
سلسله مزاتب سبان مقدمه فصل : زبان های فارغ از متن زبان های منظم
1 ماشیه ای توریىگ مقدمه فصل : سلسله مزاتب سبان a n b n c n? ww? زبان های فارغ از متن n b n a ww زبان های منظم a * a*b* 2 زبان ها پذیرفته می شوند بوسیله ی : ماشین های تورینگ a n b n c n ww زبان های فارغ
جلسه 2 جهت تعریف یک فضاي برداري نیازمند یک میدان 2 هستیم. یک میدان مجموعه اي از اعداد یا اسکالر ها به همراه اعمال
نظریه اطلاعات کوانتمی 1 ترم پاییز 1391-1392 مدرسین: ابوالفتح بیگی و امین زاده گوهري جلسه 2 فراگیري نظریه ي اطلاعات کوانتمی نیازمند داشتن پیش زمینه در جبرخطی می باشد این نظریه ترکیب زیبایی از جبرخطی و نظریه
طرح یافتن مکان خطا در خطوط انتقال چندترمینالی با استفاده از اندازه گیریهای ناهمگام )آسنکرون(
طرح یافتن مکان خطا در خطوط انتقال چندترمینالی با استفاده از اندازه گیریهای ناهمگام )آسنکرون( چکیده در این مقاله یک روش ساده با استفاده از اندازه گیری ناهمگام برای تعیین مکان خطا در خطوط انتقال چند-ترمینالی
یدنب هشوخ یاه متیروگلا
تحلیل خوشه ای مقدمه در این قسمت ابتدا چند تعریف بیان می کنیم و در ادامه به جزئیات این تعاریف و کاربردهای تحلیل خوشه ای در علوم مختلف می پردازیم و نیز با مشکالتی که در تحلیل خوشه ای مواجه هستیم اشاره ای
به نام خدا. Sparse Coding ستاره فرامرزپور
به نام خدا Sparse Coding ستاره فرامرزپور 120728399 1 فهرست مطالب مقدمه... 0 برخی کاربردها... 0 4... تنک: کدگذاری مبانی تجزیه معادله تنک:... 5 6...:α Sparse پیدا ه یا الگوریتم کردن ضریب یادگیری ه یا روش
فصل 5 :اصل گسترش و اعداد فازی
فصل 5 :اصل گسترش و اعداد فازی : 1-5 اصل گسترش در ریاضیات معمولی یکی از مهمترین ابزارها تابع می باشد.تابع یک نوع رابطه خاص می باشد رابطه ای که در نمایش زوج مرتبی عنصر اول تکراری نداشته باشد.معموال تابع
تئوری رفتار مصرف کننده : می گیریم. فرض اول: فرض دوم: فرض سوم: فرض چهارم: برای بیان تئوری رفتار مصرف کننده ابتدا چهار فرض زیر را در نظر
تئوری رفتار مصرف کننده : می گیریم برای بیان تئوری رفتار مصرف کننده ابتدا چهار فرض زیر را در نظر فرض اول: مصرف کننده یک مصرف کننده منطقی است یعنی دارای رفتار عقالیی می باشد به عبارت دیگر از مصرف کاالها
محاسبات کوانتمی 1 علم ساخت و استفاده از کامپیوتري است که بر پایه ي اصول مکانیک کوانتم قرار گرفته است.
محاسبات کوانتمی (22671) ترم بهار 1390-1391 مدرس: سلمان ابوالفتح بیگی نویسنده: سلمان ابوالفتح بیگی جلسه 1 محاسبات کوانتمی 1 علم ساخت و استفاده از کامپیوتري است که بر پایه ي اصول مکانیک کوانتم قرار گرفته
طراحی و تعیین استراتژی بهره برداری از سیستم ترکیبی توربین بادی-فتوولتاییک بر مبنای کنترل اولیه و ثانویه به منظور بهبود مشخصههای پایداری ریزشبکه
طراحی و تعیین استراتژی بهره برداری از سیستم ترکیبی توربین بادی-فتوولتاییک بر مبنای کنترل اولیه و ثانویه به منظور بهبود مشخصههای پایداری ریزشبکه 2 1* فرانک معتمدی فرید شیخ االسالم 1 -دانشجوی دانشکده برق
Kowsar San'at Espadana Co.
و 1 و 1 پیش بینی پیوستگی فرآیند جوشکاری زیر پودری در ساخت لوله های اسپیرال نفت و گاز با استفاده از شبکه های عصبی مصنوعی خلاصه ٤ ٣ ٢ ١ سيد جعفر گلستانه محمدرضا فروزان فرنوش فروزان سيد مرتضی موسوی دو نوع
تخمین نقطه تغییر در ماتریس کواریانس فرآیند نرمال چند متغیره با استفاده از شبکه عصبی
تخمین نقطه تغییر در ماتریس کواریانس فرآیند نرمال چند متغیره با استفاده از شبکه عصبی امیرحسین امیری نویسنده مسئول( دانشیار گروه مهندسی صنایع دانشکده فنی و مهندسی دانشگاه شاهد تهران محمدرضا ملکی دانشجوی
Top Down Parsing LL(1) Narges S. Bathaeian
طراحی کامپایلر Top Down Parsing LL1) تعریف top down parsing Parse tree را از ریشه به سمت برگها می سازد. دو نوع LL1), LLk) Recursive descent مثال G = {S},{, ) }, P, S) S S S ) S ε ))$ مثال S S ) S ε ))$
سايت ويژه رياضيات درسنامه ها و جزوه هاي دروس رياضيات
سايت ويژه رياضيات درسنامه ها و جزوه هاي دروس رياضيات دانلود نمونه سوالات امتحانات رياضي نمونه سوالات و پاسخنامه كنكور دانلود نرم افزارهاي رياضيات و... کانال سایت ریاضی سرا در تلگرام: https://telegram.me/riazisara
2/13/2015 حمیدرضا پوررضا H.R. POURREZA 2 آخرین گام در ساخت یک سیستم ارزیابی آن است
1 ارزیا ی م حمیدرضا پوررضا قد 2 آخرین گام در ساخت یک سیستم ارزیابی آن است 1 ف ی ا ط لاحات 3 :Degrees of Freedom (DOF) این اصطلاح در سیستمهاي ردیاب استفاده میشود و بنابه تعریف عبارتست از آزادي حرکت انتقالی
نمونه برداری از سیگنالهای زمان پیوسته
فصل چهارم: نمونهبرداری: سیگنالهای گسسته را میتوان به روشهای متعددی ایجاد کرد. یکی از این روشها نمونه برداری از سیگنال های پیوسته است که با یک دوره تناوب خاص می باشد. شکل زیر بلوک دیاگرام یک مبدل سیگنال
بدست میآيد وصل شدهاست. سیمپیچ ثانويه با N 2 دور تا زمانی که کلید
آزمايش 9 ترانسفورماتور بررسی تجربی ترانسفورماتور و مقايسه با يك ترانسفورماتور ايدهآل تئوری آزمايش توان متوسط در مدار جريان متناوب برابر است با: P av = ε rms i rms cos φ که ε rms جذر میانگین مربعی ε و i
ویرایشسال 95 شیمیمعدنی تقارن رضافالحتی
ویرایشسال 95 شیمیمعدنی تقارن رضافالحتی از ابتدای مبحث تقارن تا ابتدای مبحث جداول کاراکتر مربوط به کنکور ارشد می باشد افرادی که این قسمت ها را تسلط دارند می توانند از ابتدای مبحث جداول کاراکتر به مطالعه
هر عملگرجبر رابطه ای روی يک يا دو رابطه به عنوان ورودی عمل کرده و يک رابطه جديد را به عنوان نتيجه توليد می کنند.
8-1 جبررابطه ای يک زبان پرس و جو است که عمليات روی پايگاه داده را توسط نمادهايی به صورت فرمولی بيان می کند. election Projection Cartesian Product et Union et Difference Cartesian Product et Intersection
جلسه 2 1 فضاي برداري محاسبات کوانتمی (22671) ترم بهار
محاسبات کوانتمی (22671) ترم بهار 1390-1391 مدرس: سلمان ابوالفتح بیگی نویسنده: نادر قاسمی جلسه 2 در این درسنامه به مروري کلی از جبر خطی می پردازیم که هدف اصلی آن آشنایی با نماد گذاري دیراك 1 و مباحثی از
مسائل. 2 = (20)2 (1.96) 2 (5) 2 = 61.5 بنابراین اندازه ی نمونه الزم باید حداقل 62=n باشد.
) مسائل مدیریت کارخانه پوشاک تصمیم دارد مطالعه ای به منظور تعیین میانگین پیشرفت کارگران کارخانه انجام دهد. اگر او در این مطالعه دقت برآورد را 5 نمره در نظر بگیرد و فرض کند مقدار انحراف معیار پیشرفت کاری
اصول انتخاب موتور با مفاهیم بسیار ساده شروع و با نکات کاربردی به پایان می رسد که این خود به درک و همراهی خواننده کمک بسیاری می کند.
اصول انتخاب موتور اصول انتخاب موتور انتخاب یک موتور به در نظر گرفتن موارد بسیار زیادی از استانداردها عوامل محیطی و مشخصه های بار راندمان موتور و... وابسته است در این مقاله کوتاه به تاثیر و چرایی توان و
باشند و c عددی ثابت باشد آنگاه تابع های زیر نیز در a پیوسته اند. به شرطی که g(a) 0 f g
تعریف : 3 فرض کنیم D دامنه تابع f زیر مجموعه ای از R باشد a D تابع f:d R در نقطه a پیوسته است هرگاه به ازای هر دنباله از نقاط D مانند { n a{ که به a همگراست دنبال ه ){ n }f(a به f(a) همگرا باشد. محتوی
1- مقدمه ای بر شبیه سازی< سر فصل مطالب
1 بنام خدا بهینه سازی شبیه سازی Simulation Optimization Lecture 1 مروری بر شبیه سازی A review on Simulation 1- مقدمه ای بر شبیه سازی< سر فصل مطالب 2 شماره عنوان فصل 1-1 تعاریف 2-1 مثال هایی از شبیه سازی
1- مقدمه. 2 Action. 1 Heuristic
یک الگوریتم نوین جهت رنگ آمیزی گراف با استفاده از آتوماتای یادگیر حبیب مطیع قادر دانشگاه آزاد اسلامی واحد تبریز باشگاه پژوهشگران جوان Habib_moti@yahoo.com عباس میرزایی ثمرین بورسیه هیات علمی دانشگاه آزاد
جلسه ی ۱۱: درخت دودویی هرم
دانشکده ی علوم ریاضی ساختمان داده ا بان جلسه ی : درخت دودویی هرم مدر س: دکتر شهرام خزاي ی نگارنده: احمدرضا رحیمی مقدمه الگوریتم مرتب سازی هرمی یکی دیگر از الگوریتم های مرتب سازی است که دارای برخی از بهترین
Beta Coefficient نویسنده : محمد حق وردی
مفهوم ضریب سهام بتای Beta Coefficient نویسنده : محمد حق وردی مقدمه : شاید بارها در مقاالت یا گروهای های اجتماعی مربوط به بازار سرمایه نام ضریب بتا رو دیده باشیم یا جایی شنیده باشیم اما برایمان مبهم باشد
فهرست جزوه ی فصل دوم مدارهای الکتریکی ( بردارها(
فهرست جزوه ی فصل دوم مدارهای الکتریکی ( بردارها( رفتار عناصر L, R وC در مدارات جریان متناوب......................................... بردار و کمیت برداری.............................................................
آموزش SPSS مقدماتی و پیشرفته مدیریت آمار و فناوری اطالعات -
آموزش SPSS مقدماتی و پیشرفته تهیه و تنظیم: فرزانه صانعی مدیریت آمار و فناوری اطالعات - مهرماه 96 بخش سوم: مراحل تحلیل آماری تحلیل داده ها به روش پارامتری بررسی نرمال بودن توزیع داده ها قضیه حد مرکزی جدول
5- مروری بر روش های جستجوی تصادفی > سر فصل مطالب
1 بنام خدا بهینه سازی شبیه سازی Simulation Optimization Lecture 5 مروری بر روش های جستجوی تصادفی A review of random search methods 5- مروری بر روش های جستجوی تصادفی > سر فصل مطالب 2 شماره عنوان فصل 1-5
فصل سوم : عناصر سوئیچ
فصل سوم : عناصر سوئیچ رله الکترومکانیکی: یک آهنربای الکتریکی است که اگر به آن ولتاژ بدهیم مدار را قطع و وصل می کند. الف: دیود بعنوان سوئیچ دیود واقعی: V D I D = I S (1 e η V T ) دیود ایده آل: در درس از
تمرینات درس ریاض عموم ٢. r(t) = (a cos t, b sin t), ٠ t ٢π. cos ٢ t sin tdt = ka۴. x = ١ ka ۴. m ٣ = ٢a. κds باشد. حاصل x٢
دانش اه صنعت شریف دانش ده ی علوم ریاض تمرینات درس ریاض عموم سری دهم. ١ سیم نازک داریم که روی دایره ی a + y x و در ربع اول نقطه ی,a را به نقطه ی a, وصل م کند. اگر چ ال سیم در نقطه ی y,x برابر kxy باشد جرم
طراحی و تجزیه و تحلیل کنترل کننده منطق فازي براي کنترل فرکانس بار در سیستم هاي قدرت
طراحی و تجزیه و تحلیل کنترل کننده منطق فازي براي کنترل فرکانس بار در سیستم هاي قدرت 2 1 مهرداد احمدي کمرپشتی هدي کاظمی موسسه آموزش عالی روزبهان ساري گروه برق ساري ایران Mehrdad.ahmadi.k@gmail.com hoda.kazemi.aski@gmail.com
فصل چهارم : مولتی ویبراتورهای ترانزیستوری مقدمه: فیدبک مثبت
جزوه تکنیک پالس فصل چهارم: مولتی ویبراتورهای ترانزیستوری فصل چهارم : مولتی ویبراتورهای ترانزیستوری مقدمه: فیدبک مثبت در تقویت کننده ها از فیدبک منفی استفاده می نمودیم تا بهره خیلی باال نرفته و سیستم پایدار
معادلهی مشخصه(کمکی) آن است. در اینجا سه وضعیت متفاوت برای ریشههای معادله مشخصه رخ میدهد:
شکل کلی معادلات همگن خطی مرتبه دوم با ضرایب ثابت = ٠ cy ay + by + و معادله درجه دوم = ٠ c + br + ar را معادلهی مشخصه(کمکی) آن است. در اینجا سه وضعیت متفاوت برای ریشههای معادله مشخصه رخ میدهد: c ١ e r١x
جلسه 22 1 نامساویهایی در مورد اثر ماتریس ها تي وري اطلاعات کوانتومی ترم پاییز
تي وري اطلاعات کوانتومی ترم پاییز 1391-1392 مدرس: ابوالفتح بیگی و امین زاده گوهري نویسنده: محمد مهدي مجاهدیان جلسه 22 تا اینجا خواص مربوط به آنتروپی را بیان کردیم. جهت اثبات این خواص نیاز به ابزارهایی
حفاظت مقایسه فاز خطوط انتقال جبرانشده سري.
حفاظت مقایسه فاز در خطوط انتقال جبران شده سري همراه با MOV 2 1 محمد رضا پویان فر جواد ساده 1 دانشگاه آزاد اسلامی واحد گناباد reza.pooyanfar@gmail.com 2 دانشکده فنی مهندسی دانشگاه فردوسی مشهد sadeh@um.ac.ir
باسمه تعالی آزمون نهایی درس یادگیری ماشین به همراه پاسخ کوتاه ترم اول 29-29
مدرس: محمدعلی کیوانراد باسمه تعالی آزمون نهایی درس یادگیری ماشین به همراه پاسخ کوتاه ترم اول 9-9 زمان: 01 دقیقه نام و نام خانوادگی: شماره دانشجویی: ایمیل: در این قسمت عالوه بر تعیین گزینه درست علت انتخاب
آزمایش ۱ اندازه گیری مقاومت سیم پیچ های ترانسفورماتور تک فاز
گزارش آزمایشگاه ماشینهای الکتریکی ۲ آزمایش ۱ اندازه گیری مقاومت سیم پیچ های ترانسفورماتور تک فاز شرح آزمایش ماژول تغذیه را با قرار دادن Breaker Circuit بر روی on روشن کنید با تغییر دستگیره ماژول منبع تغذیه