اکتساب مهارت در یادگیری تقویتی و الگوریتمهای آن

Σχετικά έγγραφα
روش محاسبه ی توان منابع جریان و منابع ولتاژ

محاسبه ی برآیند بردارها به روش تحلیلی

تصاویر استریوگرافی.

آزمایش 8: تقویت کننده عملیاتی 2

آزمایش 1: پاسخ فرکانسی تقویتکننده امیتر مشترك

جلسه ی ۱۰: الگوریتم مرتب سازی سریع

آزمون مقایسه میانگین های دو جامعه )نمونه های بزرگ(

مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل

همبستگی و رگرسیون در این مبحث هدف بررسی وجود یک رابطه بین دو یا چند متغیر می باشد لذا هدف اصلی این است که آیا بین

1- مقدمه. 2 Action. 1 Heuristic

ﯽﺳﻮﻃ ﺮﯿﺼﻧ ﻪﺟاﻮﺧ ﯽﺘﻌﻨﺻ هﺎﮕﺸﻧاد

مثال( مساله الپالس در ناحیه داده شده را حل کنید. u(x,0)=f(x) f(x) حل: به کمک جداسازی متغیرها: ثابت = k. u(x,y)=x(x)y(y) X"Y=-XY" X" X" kx = 0

شاخصهای پراکندگی دامنهی تغییرات:

تحلیل مدار به روش جریان حلقه

فصل چهارم : مولتی ویبراتورهای ترانزیستوری مقدمه: فیدبک مثبت

مسائل. 2 = (20)2 (1.96) 2 (5) 2 = 61.5 بنابراین اندازه ی نمونه الزم باید حداقل 62=n باشد.

شبکه های عصبی در کنترل

سلسله مزاتب سبان مقدمه فصل : زبان های فارغ از متن زبان های منظم

تخمین با معیار مربع خطا: حالت صفر: X: مکان هواپیما بدون مشاهده X را تخمین بزنیم. بهترین تخمین مقداری است که متوسط مربع خطا مینیمم باشد:

تلفات خط انتقال ابررسی یک شبکة قدرت با 2 به شبکة شکل زیر توجه کنید. ژنراتور فرضیات شبکه: میباشد. تلفات خط انتقال با مربع توان انتقالی متناسب

دانشکده ی علوم ریاضی جلسه ی ۵: چند مثال

1) { } 6) {, } {{, }} 2) {{ }} 7 ) { } 3) { } { } 8) { } 4) {{, }} 9) { } { }

مدار معادل تونن و نورتن

هو الحق دانشکده ي مهندسی کامپیوتر جلسه هفتم

فعالیت = ) ( )10 6 ( 8 = )-4( 3 * )-5( 3 = ) ( ) ( )-36( = m n m+ m n. m m m. m n mn

تمرین اول درس کامپایلر

روشی نوین برای بهبود عملکرد یادگیری Q با افزایش تعداد بهروز رسانی مقادیر Q برپایه عمل متضاد

جلسه 12 به صورت دنباله اي از,0 1 نمایش داده شده اند در حین محاسبه ممکن است با خطا مواجه شده و یکی از بیت هاي آن. p 1

جلسه ی ۲۴: ماشین تورینگ

بسم اهلل الرحمن الرحیم آزمایشگاه فیزیک )2( shimiomd

ویرایشسال 95 شیمیمعدنی تقارن رضافالحتی

مارکوف 1.مقدمه: سید مهدی صفوی محمد میکاییلی محمد پویان چکیده ما با مطالعه مدل مخفی میدان تصادفی مارکوف از الگوریتم EM

Angle Resolved Photoemission Spectroscopy (ARPES)

تئوری جامع ماشین بخش سوم جهت سادگی بحث یک ماشین سنکرون دو قطبی از نوع قطب برجسته مطالعه میشود.

جلسه 9 1 مدل جعبه-سیاه یا جستاري. 2 الگوریتم جستجوي Grover 1.2 مسا له 2.2 مقدمات محاسبات کوانتمی (22671) ترم بهار

پروژه یازدهم: ماشین هاي بردار پشتیبان

تخمین نقطه تغییر در ماتریس کواریانس فرآیند نرمال چند متغیره با استفاده از شبکه عصبی

جلسه ی ۴: تحلیل مجانبی الگوریتم ها

عنوان: رمزگذاري جستجوپذیر متقارن پویا

جلسه 3 ابتدا نکته اي در مورد عمل توابع بر روي ماتریس ها گفته می شود و در ادامه ي این جلسه اصول مکانیک کوانتمی بیان. d 1. i=0. i=0. λ 2 i v i v i.

2. β Factor. 1. Redundant

جلسه ی ۵: حل روابط بازگشتی

آموزش شناسایی خودهمبستگی در دادههای سری زمانی و نحوه رفع آن در نرم افزار EViews

Beta Coefficient نویسنده : محمد حق وردی

هدف از این آزمایش آشنایی با رفتار فرکانسی مدارهاي مرتبه اول نحوه تأثیر مقادیر عناصر در این رفتار مشاهده پاسخ دامنه

چکیده مقدمه کلید واژه ها:

الکترونیکی: پست پورمظفری

دبیرستان غیر دولتی موحد

Answers to Problem Set 5

فصل دهم: همبستگی و رگرسیون

جلسه ی ۱۸: درهم سازی سرتاسری - درخت جست و جوی دودویی

Nonparametric Shewhart-Type Signed-Rank Control Chart with Variable Sampling Interval

جلسه دوم سوم چهارم: مقدمه اي بر نظریه میدان

تمرینات درس ریاض عموم ٢. r(t) = (a cos t, b sin t), ٠ t ٢π. cos ٢ t sin tdt = ka۴. x = ١ ka ۴. m ٣ = ٢a. κds باشد. حاصل x٢

Spacecraft thermal control handbook. Space mission analysis and design. Cubesat, Thermal control system

طراحی و تعیین استراتژی بهره برداری از سیستم ترکیبی توربین بادی-فتوولتاییک بر مبنای کنترل اولیه و ثانویه به منظور بهبود مشخصههای پایداری ریزشبکه

عاطفه بابائی دانشآموخته کارشناسی ارشد دانشگاه علوم اقتصادی تهران. چکیده


قاعده زنجیره ای برای مشتقات جزي ی (حالت اول) :

6- روش های گرادیان مبنا< سر فصل مطالب

آموزش SPSS مقدماتی و پیشرفته مدیریت آمار و فناوری اطالعات -

معادلهی مشخصه(کمکی) آن است. در اینجا سه وضعیت متفاوت برای ریشههای معادله مشخصه رخ میدهد:

به نام خدا. الف( توضیح دهید چرا از این تکنیک استفاده میشود چرا تحلیل را روی کل سیگنال x[n] انجام نمیدهیم

سايت ويژه رياضيات درسنامه ها و جزوه هاي دروس رياضيات

جلسه ی ۳: نزدیک ترین زوج نقاط

اصول انتخاب موتور با مفاهیم بسیار ساده شروع و با نکات کاربردی به پایان می رسد که این خود به درک و همراهی خواننده کمک بسیاری می کند.

فصل 5 :اصل گسترش و اعداد فازی

تجزیهی بندرز مقدمه کشور هستند. بدین سبب این محدودیتهای مشترک را محدودیتهای پیچیده

جلسه 14 را نیز تعریف کرد. عملگري که به دنبال آن هستیم باید ماتریس چگالی مربوط به یک توزیع را به ماتریس چگالی مربوط به توزیع حاشیه اي آن ببرد.

باشند و c عددی ثابت باشد آنگاه تابع های زیر نیز در a پیوسته اند. به شرطی که g(a) 0 f g

فیلتر کالمن Kalman Filter

ارزیابی پاسخ لرزهای درههای آبرفتی نیمسینوسی با توجه به خصوصیات مصالح آبرفتی

نظریه زبان ها و ماشین ها

تابع هزینه حداقل میانگین مربعات توأم با حداقل واریانس خطا

جلسه 16 نظریه اطلاعات کوانتمی 1 ترم پاییز

مدل های GARCH بوتبوتاسترپ چکیده نصراله ایرانایرانپناه دانشگاه اصفهان طاهره اصالنی گروه آمار- دانشگاه اصفهان

یک سیستم تخصیص منابع هوشمند بر مبنای OFDMA در یک سیستم بیسیم توزیع شده با استفاده از تئوری بازیها

فصل پنجم زبان های فارغ از متن

2-Sink 3-Single-hop 4-Multi-hop

نویسنده: محمدرضا تیموری محمد نصری مدرس: دکتر پرورش خالصۀ موضوع درس سیستم های مینیمم فاز: به نام خدا

هد ف های هفته ششم: 1- اجسام متحرک و ساکن را از هم تشخیص دهد. 2- اندازه مسافت و جا به جایی اجسام متحرک را محاسبه و آن ها را مقایسه کند 3- تندی متوسط

جلسه 22 1 نامساویهایی در مورد اثر ماتریس ها تي وري اطلاعات کوانتومی ترم پاییز

یدنب هشوخ یاه متیروگلا

ارزیابی بهره وری متقاطع DEA بر پایه بهبود پارتو

جلسه 28. فرض کنید که m نسخه مستقل یک حالت محض دلخواه

فصل سوم : عناصر سوئیچ

2/13/2015 حمیدرضا پوررضا H.R. POURREZA 2 آخرین گام در ساخت یک سیستم ارزیابی آن است

5- مروری بر روش های جستجوی تصادفی > سر فصل مطالب

بسمه تعالی «تمرین شماره یک»

مسئله مکانیابی رقابتی تسهیالت در بازار با استفاده از خوشهبندی مشتریان

هادي ويسي. دانشگاه تهران - دانشکده علوم و فنون نوين نیم سال اول

سامانهه یا بازیابی تصویر

نمونه برداری از سیگنالهای زمان پیوسته

جلسه 2 1 فضاي برداري محاسبات کوانتمی (22671) ترم بهار

هدف از این آزمایش آشنایی با برخی قضایاي ساده و در عین حال مهم مدار از قبیل قانون اهم جمع آثار مدار تونن و نورتن

تعیین محل قرار گیری رله ها در شبکه های سلولی چندگانه تقسیم کد

مقایسهی کارایی نمونهگیری متعادلشده و PPS

ثابت. Clausius - Clapeyran 1

7- روش تقریب میانگین نمونه< سر فصل مطالب

الگوریتم مسيریابی جدید مبتنی بر فاصله برای کاهش مصرف انرژی در شبکه های حسگر بی سيم

Transcript:

کنفرانس ملی فناوری انرژی و داده با رویكرد مهندسی برق و کامپیوتر Natinal Cnference f Technlgy, Energy and Data n Electrical & Cmputer Engineering کونفرانسی نهتهوهیی فهناوهری هێز و دهیتا به روانگه ئهندازیاری کارهبا و کومپیتر اکتساب مهارت در یادگیری تقویتی و الگوریتمهای آن *2 مریم زارع و علیرضا خلیلیان کارشناس نرمافزار دانشگاه فنی و حرفهای دانشکده فنی دکتر شریعتی zare.maryam992@gmail.cm 2* دانشجوی دکتری نرمافزار دانشگاه اصفهان khalilian@eng.ui.ac.ir چكیده: یادگیری تقویتی یكی از حوزههای یادگیری ماشین است که هدف آن بهبود رفتار عامل هوشمند بر اساس سیگنالهای تقویتی است که از محیط دریافت میکند. تنها مسیر اطالعرسانی به عامل در یادگیری تقویتی از راه سیگنال پاداش یا جریمه میباشد. سیگنال پاداش به عامل میفهماند که آیا تصمیم مناسبی گرفته است یا خیر. عامل موظف است با در دست داشتن این اطالعات یاد بگیرد که بهترین عمل کدام است. یكی از مشكالت یادگیری تقویتی این است که با پیچیدهتر شدن محیط تعداد پارامترهای تصمیمگیری افزایش مییابد و زمان یادگیری نیز بیشتر میشود. تنظیم درست پارامترها اولین قدم در کاهش سرعت یادگیری است. هدف از این مقاله مروری بر ادبیات یادگیری تقویتی مفاهیم اصلی روشها و الگوریتمهای آن و مفهوم پاداش شكلدهی شده است. بهمنظور مشاهده و بررسی تاثیر برخی پارامترها در اجرای الگوریتمها روی محیطهای مختلف همچنین نتیجه استفاده از پاداش شكلدهی شده برخی از الگوریتمهای یادگیری تقویتی در قالب نرمافزار شبیهساز طراحی و پیادهسازی شده است. سپس آزمایشهایی روی چند محیط محک همچون maze و شش اتاقه انجام شده و نتایج گزارش شدهاند. کلمات کلیدی: یادگیری تقویتی پاداش ساختگی یادگیری کیو سارسا.R-max - مقدمه یادگیری درحالت کلی به سه دسته تقسیم میشود: الف- یادگیری نظارتشده: در این روش یک معلم یا ناظر وجود دارد که بهترین عمل را در هر وضعیت میداند و توصیههایی را برای تصحیح شیوهی عملکرد عامل ارائه میدهد []. ب- یادگیری غیر نظارتشده: در این نوع یادگیری عامل یادگیرنده میتواند تشخیص دهد که آنچه دریافت کرده را به نوعی به آنچه پیشتر دیده است ربط دهد. در این نوع یادگیری هدف تنها دستهبندی ورودیهاست [2]. ج- یادگیری تقویتی: در این نوع یادگیری بازخوردی به صورت عبارات کمکی مثبت )پاداش( یا منفی )جریمه( به عامل یادگیرنده داده میشود []. در یادگیری تقویتی هیچگاه به عامل گفته نمیشود که عمل صحیح در هر وضعیت چیست و فقط به وسیلهی معیاری به عامل گفته میشود که یک عمل چقدر خوب یا چقدر بد است []. یادگیری تقویتی الگوریتمهای متعددی دارد که در هر کدام باید پارامترهای بسیاری تنظیم شوند. بهعالوه هرچه محیط بزرگتر میشود زمان یادگیری تقویتی نیز بیشتر میگردد. یکی از راههای حل مشکل اول برپایی آزمایشهای گوناگون روی محیطهایی با اندازههای متفاوت است تا اثر هر پارامتر بررسی گردد. ضمن اینکه تاکنون برای مقایسه عملکرد روشهای جدید با هر روش پیشنهادی هر شخصی خودش الگوریتمها را پیادهسازی کرده است. میکند. این مقاله یادگیری تقویتی مفاهیم و الگوریتمهای آنرا معرفی سپس مشخصات نرمافزار شبیهساز طراحی شده برای آزمایشهای یادگیری را بیان میکند و در انتها نیز نتیجه اجرای شبیهسازی روی دو محیط محک با اندازههای مختلف گزارش شده است. ساختار ادامه مقاله به اینن شنرا اسنت: در بخنش دوم ینادگیری تقویتی الگوریتم کلی آن مفاهیم تابع ارزش و پاداش و محیط معرفی منیشن ود. بخنشهنای سنوم و چهنارم خاصنیت منارکوف و فراینند تصمیمگیری ماکوف را تشریح میکنند. بخنش پننجم بنه کاربردهنای یادگیری تقنویتی اختصناد دارد. در بخنشهنای ششنم و هفنتم هنم بهترتیب روشها و الگوریتمهنای ینادگیری تقنویتی منورد بحنر نرار میگیرد. بخش هشتم مفهوم پاداش شکلدهی شده را معرفی میکنند. در بخش نهم مشخصات نرمافزار شبیهساز ارائه منیشنود. بخنش دهنم نتایج آزمایشهای صورتگرفته را گزارش میکند. بخش یازدهم هم به نتیجهگیری اختصاد پیدا کرده است. 2- یادگیری تقویتی در یک مسئله یادگیری تقویتی با عاملی رو به رو هستیم که از طریق سعی و خطا با محیط تعامل کرده و یاد میگیرد تا عملی بهینه را برای رسیدن به هدف انتخاب کند [3].

در این نوع یادگیری هیچ ناظر خارجی وجود ندارد و عامل بهتنهایی با محیط تعامل کرده یاد میگیرد و تجربه کسب میکند و پاداشی دریافت میکند [4]. در یادگیری تقویتی عاملها به حسگرهایی مجهز شدهاند که می- توانند ویژگیهای طعی محیط را دریافت کنند. این ویژگیها فضای 2 عامل یادگیرنده را تشکیل میدهند. سپس در هر بازه زمانی حالت عامل با انجام عملیاتی محیط را تحت تاثیر رار میدهد. بنابراین عامل ورودیهای مختلف را در 3 بازه زمانی بعدی با توجه به عمل بلی دریافت میکند. عالوهبر ورودی جدید عامل یادگیرنده در هر زمان یک سیگنال تقویتی که میزان مطلوبیت کنش بلی را نشان میدهد دریافت میکند که به آن پاداش میگویند و با توجه به این که کنش مناسب بوده یا خیر این مقدار میتواند مثبت یا منفی باشد [3]. به طور کلی تمام عاملهای یادگیری تقویتی هدف آشکاری دارند. میتوانند محیط خود را درک کنند اعمالی را انتخاب کنند تا در محیطشان تاثیر بگذارند. با محیط خود تعامل دارند عملی انجام میدهند و پاداشی دریافت میکنند. با وجود این ممکن است محیط پیرامون خود را بهطور کامل نشناسند. از آنجایی که عامل با محیط خود در تعامل است پس اعمال او در محیط و وضعیتهای بعدی تاثیرگذار است. پس عامل باید به طور متناوب محیطش را نظارت کند و بهدرستی واکنش نشان دهد [4]. -2- الگوریتم یادگیری تقویتی الگوریتم کلی در یادگیری تقویتی به شرا زیر است:. مشاهده حالت فعلی 2. تصمیم گرفتن برای انجام کنش 3. انجام کنش 4. دریافت سیگنال تقویتی 5. مشاهده حالت جدید 6. یادگیری از تجربیات.7 تکرار [3] 2-2- اجزای اصلی یادگیری تقویتی یادگیری تقویتی چهار جزء اصلی و اساسی دارد که در ادامه هر کدام بیان شده اند: -2-2- سیاست سیاست یا راهبرد عامل شیوهی رفتار کردن عامل را تعریف میکند. در وا ع سیاست نگاشتی بین وضعیت دریافت شده از محیط و اعمال ابل انجام در آن وضعیت است. این نگاشت به عامل میگوید که در مواجهه با حاالت مختلف چه عمل یا اعمالی را انجام دهد. پیروی از یک سیاست خوب طعا عامل را به نتیجهای مناسب خواهد رساند []. به بیانی دیگر سیاست π تابع احتمالی است که احتمال انتخاب شدن هر کنش را در هر حالت و با توجه به گام زمانی میدهد. بهطور مثال π t (s,a)=p میگوید که اگر عامل در زمان t و در حالت s رار گرفته باشد با احتمال p کنش a را انتخاب میکند [5]. عالوه براین در بعضی موارد سیاست میتواند یک جدول ساده جستجو یا فرآیندهای سنگین جستجو باشد. سیاست هستهی یادگیری تقویتی بوده و بهتنهایی برای تعیین رفتار عامل کافی است [4]. 2-2-2- تابع پاداش این تابع وضعیت یا )وضعیت-کنش( دریافت شده از محیط را به یک سیگنال عددی به نام پاداش نگاشت میدهد. این تابع با پاداش یا جریمه تعیین میکند که کدام عمل برای عامل خوب و کدام عمل بد است. هدف اصلی عامل این است که پاداش هایی که در طوالنی مدت به دست میآورد بیشینه کند. همچنین ممکن است از این تابع به عنوان اصلی برای تعویض سیاست استفاده شود. مثال اگر یک عمل انتخاب شده توسط سیاستی پاداش کمی به همراه داشته باشد این سیاست ممکن است عوض شود تا در آینده عمل دیگری در آن وضعیت انتخاب گردد [4]. 3-2-2- تابع ارزش ارزش یک حالت برابر است با مجموع مقادیر پاداش دریافتی با شروع از آن حالت و پیروی از سیاست مشخصی که به یک حالت پایانی )هدف( ختم شود [4]. تابع ارزش عبارت است از نگاشتی میان حالت و ارزش آن که میتواند توسط هر تقریبزننده تابع نظیر یک شبکه عصبی تخمین زده شود [6]. تابع دیگری به نام Q π (s,a) وجود دارد که بیانگر مجموع پاداشهایی است که عامل با شروع از حالت s و انجام کنش a و در پیش گرفتن سیاست π بهدست میآورد. این تابع تابع ارزش-کنش برای سیاست π نام دارد [5]. - محیط -2-2 عامل یادگیرنده با سعی و خطا با یک محیط پویا درگیر شده و یاد میگیرد که برای هر وضعیت چه عملی انجام دهد. در وا ع هر چیزی که خارج از عامل است و عامل با آن تعامل دارد محیط نامیده میشود. این محیط باید ابل مشاهده و یا حدا ل تا سمتی ابل مشاهده باشد. مشاهده محیط ممکن است از طریق خواندن اطالعات یک حسگر و توضیح نمادین و... باشد. در حالت ایده آل عامل باید بهطور کامل ادر به مشاهده محیط باشد زیرا اغلب تئوریها بر اساس این فرض بنا شدهاند [6]. 3- خاصیت مارکوف

در یادگیری تقویتی عامل بر اساس سیگنال دریافتی از محیط که به آن حالت محیط گفته میشود تصمیم میگیرد. فرض کنید سیگنال نشاندهنده حالت محیط در لحظه t است. مطلوب این است که s t s t تمام دادههای مفید مربوط به حال و گذشته را در خود خالصه کند. برای نیل به این هدف چیزی فراتر از یک درک آنی الزم است ولی این به مفهوم داشتن تمام تاریخ گذشته نیز نمیباشد. به سیگنال حالتی که چنین باشد گفته میشود دارای خاصیت مارکوف است. شطرنج دارای خاصیت مارکوف است. - بهعنوان مثال چیدمان مهرهها روی صفحه زیرا با وجود اینکه تمام حرکتهایی که از اول بازی تا حال شده است را به بازیکن نمیدهد ولی تمام دادههای مفید برای ادامه بازی را در خود دارد از سیگنال حالت نباید انتظار رود تمام دادههای محیط را برای تصمیمگیری عامل نمایش دهد برای مثال اگر عامل به تماسهای دریافتی پاسخ میدهد نباید انتظار داشت اطالعاتی در مورد تماس گیرنده داشته باشد [5]. فرآیند تصمیمگیری مارکوف به مسئله یادگیری تقویتی که در آن خاصیت مارکوف بر رار باشد فرآیند تصمیمگیری مارکوف گویند. اگر فضای حاالت و مجموعه کنشهای ممکن متناهی باشد به فرآیند تصمیمگیری مارکوف متناهی گفته میشود [4]. به عبارت دیگر فرآیند تصمیمگیری مارکوف )MDP( مدلی برای تصمیمگیریهای ترتیبی میباشد و برای زمانی مورد استفاده است که خروجیها به صورت غیر طعی باشند. منظور از تصمیمگیریهای ترتیبی این است که کارایی عامل به مجموعهای از تصمیمات که بهصورت متوالی اتخاذ کرده است بستگی دارد و تنها وابسته به تصمیم فعلی او نخواهد بود. فرآیند تصمیمگیری مارکوف در حالت کلی به صورت یک مجموعه ششتایی α( )S, A, T, Next, R, نشان داده میشود که S مجموعه وضعیتهای ممکن در محیط A مجموعه کنشهای ممکن برای عامل در هر مرحله از تصمیمگیری T نمایانگر احتمال گذر عامل از وضعیت s به s است به شرط انتخاب عمل a از مجموعه اعمال ممکن : Next نشاندهنده مجموعه وضعیتهایی است که میتوان در یک دم با احتمال غیر صفر و انتخاب عمل a به آن رسید a نمایانگر مقدار پاداشی است که عامل به ازای انجام عمل R(s,a) در وضعیت s از محیط دریافت میکند و α یک فاکتور کاهنده [6]. - کاربردهای یادگیری تقویتی از گذشته تا بهحال از یادگیری تقویتی در زمینههای مختلفی استفاده شده است که مثالهایی از آن در اینجا آورده شده است: سامانههای چندعامله: سامانههای چندعامله بهعنوان الگویی از هوش مصنوعی توزیعشده هستند. این سامانهها با ساختاری متشکل از چند عامل که رفتارهای عاملهای مختلف باید در یک محیط به سمت یک هدف جامع باهم هماهنگ شوند بیان میشوند. همچنین کنترل سامانههای چندعامله بهنوعی هم متمرکزشده و هم توزیعشده است. فرآیند تصمیمگیری هر عامل باید بهدست خودش انجام شود که البته این تصمیمگیری روی مشاهداتش و دانشهایی که درباره محیط و عاملهای دیگر بنا شده است انجام میگیرد. بازیها: از یادگیری تقویتی برای چندین بازی اصلی مثل شطرنج و تخته نرد که در جهان مطرا هستند استفاده شده است. در سال 5 یک سامانه ارائه شد که به چکرزها یاد داده میشود که از راه بازی کردن با خودشان بازی کنند. این روش بعدها با ایده یادگیری به نام TD- Learning ترکیب شد و توانست درت بازی چکرزها را افزایش دهد. هدایت کردن ربات: هدایت خودکار رباتها در محیطهای ناشناخته یک بستر آزمایش برای تحقیقات زیاد در این زمینه یادگیری است. در سال 93 یک ربات ادر شد به کمک این یادگیری به اهداف تعیین شده با دوری کردن از موانع برسد. زمانبندی: یک استفاده دیگر از یادگیری تقویتی زمانبندی در کارهاست که نخست در سال 6 تحقیق شد و با موفقیت دیدگاه TD-Learning در مسائل زمان- بندی این روش یادگیری در این زمینه هم مطرا شد. مدیریت وزارت: سامانههای پشتیبان تصمیم برای سرمایه- گذاران و مشتریها به شدت در سالهای پیش مورد مطالعه بود. این سامانهها سعی دارند که سود برگشتی برای سرمایه- گذاران را بیشینه کنند. دیدگاه اخیر از یادگیری تقویتی استفاده کرد که به طور کامل ریسک سرمایهگذاری را از بین برد. مسیریابی: مسیریابی در شبکه هایی با شرایط پویا میتوانند با Q-ruting بهخوبی انجام گیرد که یک روش یادگیری تقویتی توزیعشده است که از Q-Learning که در ادامه بحر خواهد شد ناشی میشود [7]. -روشهای یادگیری تقویتی روشهای یادگیری تقویتی به سه دسته تقسیم میشود: برنامهریزی پویا : به مجموعه الگوریتمهایی گفته میشود که با در درست داشتن مدل کاملی از محیط بهعنوان فرآیند تصمیمگیری مارکوف میتوانند سیاست بهینه را محاسبه کنند.

مونت کارلو : 2 این روش نیازی بنه شنناخت کامنل محنیط ندارد و مسئله یادگیری تقویتی را بر اساس میانگین بازدهها حل میکنند. برای این منظور ( هب دست آوردن بازده مناسب و درست( مونت کارلو فقط بر روی وظایف اپیزودیک تعریف میشود بنابراین یک وظیفه به چند اپیزود تقسیم میشنود و هر اپیزودی در نهایت بهپایان میرسند و فقنط در انتهنای یک اپیزود است که تخمین مقادیر و ارزشها صورت گرفتنه و سیاستها انتخاب میشوند. تفاضل زمانی : 3 هستهی اصلی یادگیری تقویتی است. این روش ترکیبی از برنامهریزی پویا و روش مونت کارلو است یعنی عامل مانند روش مونت کارلو میتواند بدون نیاز به مدلی از محیط پویا بهصورت مستقیم از تجربهها یاد بگیرد و همانند برنامهریزی پویا براساس یادگیریهای دیگرش و بدون انتظار برای رسیدن به یک نتیجه نهایی برآورد خود را بهروز رسانی نماید [9]. - الگوریتمهای یادگیری تقویتی در ادامه سه الگوریتم یادگیری تقویتی به تفصیل بیان میشوند: این الگوریتم در سال 4 مطرا گردید. همانطور که از نام الگوریتم مشخص است )حالت کنش پاداش حالت کنش( عامل در حالت جاری s t کنش a t را انتخاب میکند و با دریافت پاداش r به حالت جدید میرود و کنش را انتخاب میکند, t+ (s t, a t, r t+, s a t+ s t+.a t+ ) میباشد: محاسبه تابع ارزش- کنش و بهروز رسانی آن مطابق فرمول )( )( Q(s t,a t ) Q(s t,a t ) + α[r t+ + γq(s t+,a t+ ) Q(s t,a t )] این بهروز رسانی پس از هر حالت غیر پایانی حالت s t s t+ حالت پایانی باشد مقدار تابع صورت میگیرد. اگر ) t+ Q(s t+,a تغییری نکرده و مقدار اولیه خود را حفظ خواهد کرد. این انون برای هر پنج تایی ) t+ (s t, a t, r t+, s t+, a که در نهایت منجر به انتقال از حالت- کنش به حالت- کنش بعدی میگردد استفاده میشود [6]. در این رابطه متغییر نرخ یادگیری α تعیین میکند که تا چه میزان اطالعات به- دست آمده جدید بر اطالعات دیمی ترجیح داده شود. مقدار صفر باعر میشود که عامل چیزی یاد نگیرد و مقدار یک باعر میشود که عامل فقط اطالعات جدید را مالک رار دهد. همچنین متغیر نرخ تنزیل γ اهمیت پاداشهای آینده را تعیین میکند. مقدار صفر باعر میشود که عامل ماهیت فرصتطلبانه گرفته و فقط پاداشهای فعلی را مدنظر رار دهد. در حالیکه مقدار یک عامل را ترغیب میکند برای یک دوره زمانی طوالنی برای پاداش تقال کند روال زیر الگوریتم سارسا را نشان میدهد:. Initialize Q(s,a) arbitarily 2. Repeat (fr each episde) 3. Initialize s 4. Chse a frm s using plicy derived frm Q (e.g, ε-greedy) 5. Repeat (fr each step f episde) 6. Take a actin, bserve r, s 7. Chse a frm s using plicy derived frm Q (e.g, ε-greedy) 8. Q(s t,a t) Q(s t,a t) + α[r t+ + Q(s t+,a t+) Q(s t,a t) شرح الگوریتم: 9. s s ; a a ; 0. Until s is terminal [4]. به ازای هر کنش در هر اپیزود تکرار کن Q a را مقداردهی اولیه کن )معموال صفر( حالت فعلی s را مشاهده کن a کنش سیاست جاری( را از حالت s فعلی تا مشاهده حالت پایانی تکرار کن )با انتخاب کن کنش a را اجرا کن پاداش r حالت جدید s را مشاهده کن یک کنش ممکن از حالت جدید s را انتخاب کن )با سیاست جاری( مقدار Q را برای s و a بهروز کن حالت جدید s را بهعنوان حالت فعلی s و کنش جدید a را بهعنوان کنش فعلی a در نظر بگیر. باید توجه داشت که الگوریتم سارسا با احتمال یک به سیاست بهینه همگرا خواهد شد و تابع ارزش- کنش Q(s,a) برای هر جفت حالت- کنش در تعداد تکرار نامتناهی بهدست خواهد آمد [6]. -- الگوریتم سارسا -2- الگوریتم یادگیری کیو در )2( الگوریتم کنترلی و غیر برخط یادگیری کیو به هر زوج حالت- کنش یک مقدار Q(s,a) نسبت داده میشود. این مقدار عبارت است از مجموع پاداشهای دریافتی و تی عامل از حالت s شروع و کنش a را انجام داده و در ادامه سیاست موجود را پیروی کرده باشد و تا زمانی که به مقدار بهینه همگرا شود با استفاده از رابطه )2( بهروز رسانی میشود. الزم به ذکر است که این الگوریتم نیازی به داشتن مدلی از محیط ندارد. همچنین در هر اپیزود زمانیکه +t s یک حالت نهایی باشد مقدار تابع Q برای آن هیچگاه بهروز نمیشود و مقدار اولیه خود را حفظ میکند [6]. Q(s t,a t ) Q(s t,a t ) + α[r t+ + γmax a Q(s t+,a t+ ) Q(s t,a t )].[]

3. s current state 4. Chse actin a in s using behavir plicy, (e.g, ε- greedy) 5. Take actin a, bserve r, s 6. Q(s,a) Q(s,a) + α[r ρ + max a Q(s,a ) Q(s,a)] 7. If Q(s,a) = max a Q(s,a), then: 8. ρ ρ + β[r ρ + max a Q(s,a ) max a Q(s,a)] روال زیر الگویتم یادگیری کیو را نشان میدهد:. Initialize Q(s,a) arbitarily 2. Repeat (fr each episde) 3. Initialize s 4. Repeat (fr each step f episde) 5. Chse a frm s using plicy derived frm Q (e.g, ε-greedy) 6. Take actin a, bserve r, s 7. Q(s t,a t) Q(s t,a t) + α[r t+ + γmax a Q(s t+,a t+) Q(s t,a t) شرح الگوریتم: 8. s s ; 9. Until s is terminal; به ازای هر کنش Q a را مقداردهی اولیه کن )معموال صفر( در هر اپیزود تکرار کن حالت فعلی s را مشاهده کن تا مشاهده حالت پایانی تکرار کن کنش a را از حالت فعلی s انتخاب کن )با سیاست جاری( کنش a را اجرا کن پاداش r و حالت جدید s را مشاهده کن مقدار Q را برای s و a بهروز کن -3- الگوریتم R-max حالت جدید s را حالت فعلی s در نظر بگیر الگوریتم R-max یک روش استاندارد و غیر برخط تفاضل زمانی بنوده و به الگوریتم یادگیری کیو خیلی نزدیک است و از دو سیاست تشکیل میشود: یک سیاست رفتاری و یک سیاسنت تخمنین بنهعنالوه تنابع ارزش- کنش و متوسط پاداش دریافتی عامل. عامل از سیاست رفتاری برای تولید تجربه و دانش استفاده میکند مانند سیاست ε- حریصنانه با توجه به تابع ارزش- کنش. از نمونههای سیاست تخمین هم میتوان به سیاست حریصانه باتوجه به تابع ارزش- کنش اشناره کنرد. الزم بنه ذکر است که این الگوریتم میتوانند متوسنط پناداش بهیننه )ρ( را در مدت زمان طوالنی بهدست آورد. در الگنوریتم R-max عامنل همنواره مدلی کامل ولی نهچندان د یق از محیط را در خود نگه منیدارد و بنر اساس این مدل سیاست بهینه را انتخاب میکنند. عامنل در ایننگوننه مسائل بهدنبال بیشینه کردن پاداش در هر گنام زمنانی اسنت تمنامی کنشها در هر حالت بیشترین مقدار پاداش را بهدست عامل میدهند. روال زیر الگوریتم R-max مانند α پارامتر نرخ یادگیری میباشد [4]. را به صورت کامنل نشنان منیدهند. β هنم شرح الگوریتم: به ازای هر حالت s و کنش )معموال صفر( تا بینهایت انجام بده حالت فعلی s را مشاهده کن کنش فعلی انتخاب کن Q a و ρ را مقداردهی اولیه کن a را با استفاده از سیاست رفتاری کنش a را اجرا کن پاداش r حالت جدید s را مشاهده کن مقدار Q را برای حالت s و کنشa بهروز کن اگر مقدار بود Q(s,a) - پاداش شكلدهی شده برابر مقدار بیشینه موجود مقدار ρ را بهروز کن در اغلب مسائل مبتنی بر هدف گرچه مجموع پناداش درینافتی عامنل بعد از هر کنش تغییر میکند اما بیشترین پناداش بعند از رسنیدن بنه هدف داده میشود و چنین تابع پاداشهایی با بازخورد همراه با تناخیر سرعت یادگیری را کاهش میدهند. از اینرو پناداش شنکلدهنی شنده میتواند تاثیر بهسزایی در افزایش سرعت یادگیری عامل داشته باشد. پاداش شکلدهی شده به معنی دادن یک بازخورد مصنوعی ایجاد شده توسط طراا بهغیر از پاداش محیط به عامل بهمنظور افزایش نرخ سرعت یادگیری است. الزم به ذکر است گرچه پاداش شکلدهنی شنده ابزار درتمندی در افزایش سرعت یادگیری عامل است امنا بنه همنان نسبت تعریف غلط آن میتواند در گمنراه نمنودن عامنل تناثیر زینادی داشته باشد [6]. - نرمافزار شبیهساز نرمافزار شبیهسازی که برای اجرای الگوریتمهای ینادگیری تقنویتی از جمله الگوریتم سارسا کیو و R-max بر روی محنیطهنای مختلنف و بههمراه تنظیم پارمترهای منوثر در اجنرا طراحنی شنده اسنت دارای مشخصاتی به این شرا میباشد: با اجرای نرمافزار ابتدا فرمنی مشنابه شکل نمایش داده شده که در این فنرم کناربر نخسنت فاینل متننی. Initialize ρ and Q(s,a), fr all s,a, arbitarily شامل ماتریس مجاورت گراف محیط منورد نظنر خنود را در ننرمافنزار 2. Repeat frever:

بارگذای کرده و سپس کلیه پارامترهای مورد نیاز را تنظیم و به مرحله بعد هدایت میشود. شکل )3(: اجرای شبیهسازی و سایر امکانات نرمافزار شکل )(: بارگذاری فایل متنی و تنظیم پارمترهای شبیهسازی مرحله دوم مروری بر روی پارامترهای تنظیمشده خواهد بود. در صورتی که موردی از لم افتاده و یا پارامتری نیناز بنه تنظنیم مجندد داشته باشد به مرحله بل بازگشته و تنظیمات مورد نظر خود را انجام میدهد )شکل 2(. در نهایت با مشاهده فنرم نهنایی بنا کلینک دکمنه اجرای شبیهسازی الگوریتم مورد نظر بر روی محنیط انتخنابی اجنرا و نتیجهی آن در الب نمودار پناداش- اپینزود بنر روی صنفحه ترسنیم میگردد. شکل )2( : مروری بر روی کلیه پارامترهای تنظیمشده برای بررسیهای بیشتر میتوان دادههای شبیهسازی را در النب فایل اکسل و همچنین میتوان تصویر نمنودار را بنه شنکل فاینل pdf ذخیره کرد. امکان دیگری که در نرمافزار تعبیه شده است امکان انجام آزمون فرض آماری بر روی دو نمونه داده به انتخاب کاربر است )شنکل 3(. این آزمون بررسی میکند که آیا برتری نموننه داده اول بنر نموننه دادهی دیگر از نظر آماری معنیدار هست یا خیر. و این معنیدار بنودن را پس از انجام آزمون با چاپ درصد اطمینان به اطالع کاربر میرساند. - آزمایشها و ارزیابی اجرای الگوریتم یادگیری کیو بر روی محیط ناوبری maze و همچننین محیط ناوبری شش اتا ه نشان داده شده است. محیط ناوبری محیطنی است که در آن عامنل شنیای را ازنقطنهای بنه نقطنهی دیگنر انتقنال میدهد. این الگوریتم بههمراه تنظیم پارامترها بهصورت = 0. α γ = = 0. 0.9 ε تعداد اپیزودها برابر 2 و تعداد تکرار در هنر اپینزود حداکثر برابر یک بار بدون اسنتفاده از پناداش سناختگی و بنار دیگر با تاثیر این پاداش به شکل رابطنهی )3( بنر روی هرینک از اینن محیطها اجرا و برای مقایسه بهترتیب به شکل نمودار پناداش- اپینزود در شکل 4 و 5 نمایش داده شدهاند. Q(s t,a t ) Q(s t,a t ) + α[r t+ + max a Q(s t+,a t+ ) Q(s t,a t ) + γmax a Q(s t+,a t+ ) - Q(s t,a t )] )3( طبق آنچه در شکلهنا مشناهده منیشنود سنرعت همگراینی بنا استفاده از پاداش ساختگی بهطور ابل مالحظهای بهبنود یافتنه اسنت. برای تعیین اینکه آیا این افزایش سرعت از لحاظ آماری معنیدار است از یک روش آماری بهنام آزمون فرض آماری برای تفاضنل دو مینانگین استفاده شده است. با استفاده از فرمول )4( مقدار z را محاسبه کرده و در جدولی از مقادیر بحرانی جستجو میکنیم. بنا محاسنبه روی داده- های آزمایش مقادیر 5/5 و 3/73 بهترتیب در محیطهای maze و شش اتا ه برای z محاسبه شدهاند. نتیجه میشود کنه فنرض صنفر بنا احتمال حدود درصد برای هر دو محیط رد میشود. رد فرض صنفر

داللت بر این دارد که بهبود سرعت ینادگیری بنهدسنت آمنده بنا بنه- ]3[ کارگیری پاداش ساختگی از لحاظ آماری معنی دار است. )4( شکل )4( : مقایسه میانگین پاداش دریافتی در الگوریتم کیو بر روی محیط maze بدون پاداش ساختگی )نمودار آبیرنگ( و با پاداش ساختگی )نمودار نارنجیرنگ( مومن حسن "یادگیری ماشین و یادگیری بیزی" گزارش تحقیق موسسه آموزش عالی اشراق واحد بجنورد بجنورد ایران مهر 39. [4] R. S. Suttn and A. G. Bart, Reinfrcement Learning An Intrductin, Cambridge: MT press, 998. ]5[ عطریانفر. حامد "یادگیری تقویتی" گزارش تحقیق دانشگاه صنعتی شریف تهران ایران. ]6[ مرعشی مریم "کسب مهارت در یادگیری تقویتی فعال توسط عاملهای خودمختار" پایاننامه امیرکبیر تهران ایران مهر 3. کارشناسی ارشد دانشگاه صنعتی ]7[ فرحناکیان فهیمه "یادگیری تقویتی" ماهنامه هوش مصنوعی و ابزار د یق تهران ایران شماره 6 سال اول اسفند 396. ]9[ جمشیدی نیلوفر "مروری بر الگوریتمهای یادگیری تقویتی و پیادهسازی الگوریتم یادگیری کیو روی چند محیط محک" رساله کارشناسی دانشکده فنی دکتر شریعتی تهران ایران بهار 32. [] "یادگیری کیو" http://fa.wikipedia.rg/. زیرنویسها [برخط] ابل دسترسی در: Reinfrcement Learning 2 state 3 Actin 4 Plicy 5 Reward functin 6 Value functin 7 Envirnment 8 Markv Prperty 9 Markv Decisin Prcess 0 Tempral Difference Dynamic Prgramming 2 Mnt Carl 3 Tempral Difference 4 SARSA (State, Actin, Reward, State, Actin) 5 Q-Learning 6 Shaped Reward شکل )5(: مقایسه میانگین پاداش دریافتی در الگوریتم کیو بر روی محیط شش اتا ه بدون پاداش ساختگی )نمودار آبیرنگ( و با پاداش ساختگی )نمودار نارنجیرنگ( - نتیجهگیری در این مقاله مروری بر ادبیات یادگیری تقویتی مفاهیم اصلی روشها و الگوریتمهای یادگیری تقویتی و مفهوم شکلدهی پاداش در اجرای الگوریتمها انجام شد. سپس الگوریتم یادگیری کیو بر روی محیطهای محکی چون شش اتا ه و maze یکبار بدون پاداش شکلدهیشده و بار دیگر با اعمال پاداش شکلدهی شده اجرا و نتایج اجرا در الب نمودار پاداش- اپیزود نمایش داده شد. مراجع کالمی مصطفی "یادگیری تقویتی: روشها و کاربردها" سمینار دورهای گروه کنترل دانشگاه صنعتی خواجه نصیرالدین طوسی تهران ایران فروردین 399. خرامان یونس "یادگیری ماشین" گزارش تحقیق موسسه آموزش عالی اشراق واحد بجنورد بجنورد ایران مهر 39. ][ ]2[