یدنب هشوخ یاه متیروگلا

Μέγεθος: px
Εμφάνιση ξεκινά από τη σελίδα:

Download "یدنب هشوخ یاه متیروگلا"

Transcript

1 تحلیل خوشه ای مقدمه در این قسمت ابتدا چند تعریف بیان می کنیم و در ادامه به جزئیات این تعاریف و کاربردهای تحلیل خوشه ای در علوم مختلف می پردازیم و نیز با مشکالتی که در تحلیل خوشه ای مواجه هستیم اشاره ای داریم و انتظار ما از انجام آن چیست. دو ابزار مهم خوشه بندی ماتریس الگو و ماتریس مشابهت را معرفی می کنیم. همچنین در این قسمت درخت انواع رده بندی را معرفی می کنیم و چون خوشه بندی خود زیر مجموعه ای از رده بندی است شاخه ای که )خوشه بندی بدون ناظر( در این فصل به تفسیر و توضیح آن می پردازیم را مشخص می کنیم و در نتیجه الگوریتم جانسون برای خوشه بندی سلسه مراتبی تجمعی )و انواع این خوشه بندی( و همچنین الگوریتم خوشه بندی افرازی )و یک نوع مهم آن به نام K -میانگین( را بیان می کنیم. خوشه: اوریت )7( چندین تعریف برای خوشه بیان کرده است.. هر خوشه مجموعه ای از نمونه های متشابه است و نمونه های خوشه های مختلف نامتشابه اند.. خوشه اجتماعی از نقاط در فضای نمونه است بطوری که فاصله بین هر دو نقطه در یک خوشه از فاصله بین دو نقطه ای که در یک خوشه نیستند کمتر می باشد.. خوشه را می توان ناحیه ای همبند از فضای چند بعدی شامل نقاطی با چگالی نسبتا زیاد توصیف کرد. خوشه بندی فرآیند دسته بندی مجموعه ای از n نمونه به خوشه ها است نمونه های متعلق به یک خوشه نسبت به نمونه های متعلق به خوشه های دیگر تشابه بیشتری دارند. تحلیل خوشه ای: ابزاری برای اکتشاف ساختار داده هاست بدون فرضیاتی که در روش های آماری در نظر می گیریم. الگوریتم های خوشه بندی ابزارهای هستند که در جریان پیدا کردن ساختار داده ها مورد استفاده قرار می گیرند. تحلیل خوشه ای روش پیدا کردن خوشه ها در داده ها نیز نامیده می شود. مثال: مقادیر قد و وزن نفر در جدول )( داده شده است و می خواهیم این نفر را از نظر تشابهات وزنی و قدی به گروه هایی افراز کنیم.

2 افراد جدول) ( : مقادیر قد و وزن نفر صفت قد) cm ( وزن) kg ( A B 7 C 7 D 7 E F G H چون اشخاص را برای دو صفت مورد بررسی قرار داده ایم می توانیم آنها را در یک نمودار دو بعدی نمایش دهیم. با توجه به نمودار زیر وجود دو گروه بوضوح مشخص است )A,B,C,D( در یک گروه و) E,F,G,H ( در گروه و بزرگساالن در گروه دیگر قرار گرفته اند. چنین گروه هایی را خوشه می نامند و کشف چنین گروه هایی هدف تحلیل خوشه ای می باشد. اساسا پژوهشگران می خواهند خوشه هایی را تشکیل دهند که موضوعات در خوشه ها نسبت به یکدیگر تشابه دارند در صورتی که موضوعات در خوشه های مختلف)دو خوشه نسبت به یکدیگر( نامتشابه می باشند. H 65 G 6 F E 6 D C B 0 A نمودار) (:نمودار جدول )( بدون خوشه بندی

3 H 65 G 6 F E 6 D C B 0 A نمودار) (:نمودار جدول )( در دو خوشه همانطور که قبال گفتیم خوشه بندی زیر مجموعه ای از دسته بندی می باشد که به آن یادگیری بدون ناظر نیز می گویند و تعداد خوشه ها در آن مشخص نیست. به عنوان مثال فرض کنید شاخص های مختلفی از سالمتی فردی افراد سیگاری و غیر سیگاری جمع آوری شده است. یک رده بندی بدون ناظر این افراد را بر مبنای تشابهات بین شاخص های سالمتی گروه بندی می نماید و سپس سعی می کند که تعیین کند آیا سیگاری بودن عاملی در سوق دادن افراد به سمت بیماری های مختلف است یا خیر. رده بندی با نظارت راه های تشخیص سیگاری ها از غیر سیگاری ها را بر اساس شاخص های سالمتی مطالعه می کند. در واقع رده بندی بدون ناظر جوهره تحلیل خوشه ای است. طبقه بندی موضوعات متشابه به گروه ها یک فعالیت مهم است در زندگی روزمره این امر قسمتی از فرآیند یادگیری می باشد: یک کودک تشخیص بین گربه و سگ صندلی و میز زن و مرد را یاد می گیرد و بدین وسیله رویه طبقه بندی ناخودآگاه به طور پیوسته بهبود می یابد)با این توضیح روشن می شود که چرا تحلیل خوشه ای به عنوان شاخه ای از تشخیص الگو و هوش مصنوعی مطرح می شود(. طبقه بندی همواره نقش حساسی در علوم داشته است. در دهه لینایوس و ساوجس طبقه بندی گسترده ای از حیوانات گیاهان معادن و بیماری ها را تهیه کردند. در علم نجوم هرتزپرنگ و راسل ستاره ها را بر اساس دو متغیر: فزونی نورشان و دمای سطح آنها را در گروه های مختلف طبقه بندی کردند. در علوم اجتماعی خیلی اوقات مردم بر اساس اولویت ها و رفتارشان طبقه بندی می شوند. اغلب در بازاریابی بخش های بازار مشخص می شود)گروه هایی از مشتریان با نیازهای متشابه تشکیل می شوند(. مثال های بیشتری در زمینه های علومی مانند

4 جغرافیا)خوشه بندی نواحی( پزشکی)انواع سرطان ها( شیمی)رده بندی ترکیبات( باستان شناسی)گروه بندی یافته های باستان شناسی( و غیره می توان ارائه داد. توجه کنید که تحلیل خوشه ای کامال متفاوت از تحلیل ممیزی می باشد بدین طریق که در تحلیل خوشه ای دسته ها را تشکیل می دهیم در صورتی که در تحلیل ممیزی گروه ها از پیش تعیین شده اند و موضوعات را به گروه ها نسبت می دهیم. الگوریتم ها و برنامه های کامپیوتری بسیار زیادی برای تحلیل خوشه ای وجود دارند که دلیل تعدد آنها احتماال در دو مورد زیر است: نخست: تحلیل خوشه ای از سرعت رشد زیادی برخوردار بوده و در بین علوم مختلف گسترده شده است که این امر را از هزاران مقاله چاپ شده در مجالت علمی می توان فهمید و این باعث شده که پژوهشگران علوم از رشد آن در علوم دیگر بی خبرند برای همین اطالعات دقیقی از این که توسط چه کسانی توسعه داده شده و یا در کدام یک از علوم رشد کرده موجود نیست. دوم: تعریف کلی برای خوشه وجود ندارد و در حقیقت چندین نوع خوشه وجود دارد: خوشه کروی خوشه خطی خوشه محدب و غیره مجموعه گسترده ای از روش ها و همچنین نرم افزارهای مختلف موجود به راحتی ذهن کاربر را مشغول این نکته می کند که یک دیدگاه مناسب برای حل مساله اش انتخاب کند ولی معیاری که نشان دهد تکنیکی بر تکنیک دیگر برتری دارد موجود نیست و کاربرها از روی مسائل و نوع داده بهترین روش را انتخاب می کنند. اگر تحلیل خوشه ای قادر به تشخیص ساختار موجود در داده ها نباشد در عوض می تواند ساختاری را بوجود آورد که مجموعه داده ها از هم جدا شده با یک روش نسبتا مناسب کم و بیش همگن شوند. پیش نیازها اصولی که تحلیل خوشه ای باید در آنها صدق کند عبارتند از:. مقیاس پذیری.. مناسب بودن برای انواع مختلف از صفات.. کشف خوشه هایی با شکل های مختلف.. پیش نیازهای مینیمال برای شناخت زمینه برای تعیین پارامترهای ورودی.. توانایی برخورد با داده های دور افتاده و پرت.. حساس نبودن به ترتیب داده های ورودی.. قابلیت تفسیر و کاربرد. مشکالت. تکنیک های خوشه بندی به اندازه کافی پاسخگوی همه نیازها نیست.. بررسی تعداد زیاد از داده ها با بعد زیاد به خاطر پیچیدگی زمانی مشکل آفرین است.. موثر بودن روش به فاصله تعریف شده بستگی دارد.

5 اگر یک اندازه فاصله واضحی وجود نداشته باشد باید آن را تعریف کرد. که تعریف آن به خصوص در فضای چند بعدی کار آسانی نیست. نتایج الگوریتم های خوشه بندی می تواند به صورت های مختلف قابل تفسیر باشد... نکته: الگوریتم های خوشه بندی نمونه ها یا داده ها را براساس اندازه مشابهت بین دو نمونه گروه بندی می کنند. مجموعه نمونه ها شامل داده های خام هستند که برای تحلیل خوشه ای ما نیاز به دو فرم استاندارد : ماتریس الگو و ماتریس نزدیکی داریم. ماتریس الگو نمونه ها معموال بوسیله بردارهایی ( نقاطی ) در یک فضای چند بعدی نمایش داده می شوند که هر بعد یک صفت ( متغییر ) مشخص از نمونه ها را نشان می دهد مانند وزن طول جنسیت رنگ و غیره. اگر فرض کنیم n نمونه داشته باشیم که هر کدام دارای d صفت باشند پس یک ماتریس نمونه n d را می توانیم تشکیل دهیم که هر سطر این ماتریس یک نمونه و هر ستون یک صفت مربوط به نمونه ها می باشد. نام دیگر این ماتریس ماتریس داده می باشد. تاکر )7( عبارت ماتریس دو وجهی را بکار برده است ( چون درایه های سطرها و ستون ها متفاوت اند(. x x d [ ] x n x nd مثال : اگر نمونه ها تراشه های تولید شده توسط یک دستگاه باشند دو صفت مورد مطالعه می تواند قطر و طول تراشه ها باشد که جدول )( ماتریس نمونه آن را نشان می دهد. جدول )( : ماتریس الگوی متناظر چهار نمونه صفت p p p p X Y تراشه 5

6 p p p p نمودار) ( : نمودار جدول )( ماتریس نزدیکی در روش های خوشه بندی برای ادغام کردن دو خوشه به ماتریسی به نام ماتریس نزدیکی نیازمندیم. این ماتریس که یک ماتریس یک وجهی n n می باشد ( چون سطر ها با ستون های متناظر یکی هستند ( با استفاده از ماتریس نمونه ساخته می شود و مؤلفه سطر iام و ستون jام آن p ij یا: اندازه مشابهت ( دو نمونه همانند یکدیگرند مانند ضریب همبستگی ) هستند یا اندازه عدم مشابهت ( دو نمونه چقدر از یکدیگر متفاوتند مانند فاصله اقلیدسی ) می باشند. به وضوح این ماتریس متقارن است. مثال : برای ماتریس الگو جدول) ( اگر اندازه نزدیکی را فاصله ) j p ij = (x i x j ) + (y i y در نظر بگیریم ماتریس نزدیکی به صورت زیر در می آید: p p p p p 0 5 p [ 0 ] p 0 p 5 0 اگر اندازه نزدیکی را فاصله اقلیدسی در نظر بگیریم یک اندازه عدم مشابهت داریم بدین صورت که هر چه فاصله اقلیدسی بین دو نمونه بیشتر باشد عدم مشابهت بین دو نمونه بیشتر می شود و هر چه فاصله کمتر شود عدم مشابهت نیز کمتر و برعکس آن اندازه مشابهت دو نمونه بیشتر می شود. ماتریس نزدیکی برای داده های کمی مناسب بوده و داده های کیفی را در برنمی گیرد در حالی که مشابهت فراگیر است. لذا برای موارد آینده ذکر ماتریس مشابهت الزم به نظر می رسد. ماتریس برای اندازه عدم مشابهت توابع فاصله فراوانی مورد استفاده قرار می گیرد)جدول )( (. هر یک از این فاصله ها شکل هندسی مربوط به خود را دارد. تابع فاصله انتخاب شده ویژگی های هندسی ویژه ای را برای خوشه ها به همراه دارد. 6

7 تابع فاصله جدول) ( : توابع فاصله میان گروه های x وy فرمول و توضیحات n d(x, y) = i= (x i y i ) فاصله اقلیدسی d(x, y) = n i= x i y i فاصله همینگ d(x, y) = max i=,,,n x i y i فاصله چبیشف فاصله مینکوفسکی p d(x, y) = n i= (x i y i ) p p > 0 d(x, y) = n x i y i فاصله کانبرا =i x i +y i x i و y i مثبت می باشند جدایی زاویه ای d(x, y) = n i= x i y i i= ] [ n x i= i n y i تذکر: زاویه بین بردارهای یکه ای که در جهت x و y هستند مد نظر است. برای اندازه مشابهت از ضریب همبستگی استفاده می شود.اگر صفت برای نمونه ها به صورت دو حالتی باشد چندین نوع اندازه مشابهت می توان تعریف کرد. جدول )( را برای اندازه مشابهت تشکیل می دهیم: x k x i a c جدول )( 0 b d a= تعدادی از صفات که برای هر دو نمونه یک می باشند. =b =c تعدادی از صفات که برای نمونه iام صفر و برای نمونه kام یک هستند. تعدادی از صفات که برای نمونه iام یک و برای نمونه kام صفر هستند. d= تعدادی از صفات که برای هر دو نمونه صفر می باشند. ساده ترین معیار سنجش عبارت است از ضریب تطابق که به صورت زیر تعریف می شود a + d a + b + c + d یکی دیگر از معیار های سنجش تشابه را راسل و رائو تعریف کرده اند: 7

8 است: a a + b + c + d در شاخص جاکارد مواردی در نظر گرفته می شود که در آنها حداقل یکی از دو ورودی مقدار را اختیار کرده a a + b + c شاخص چکانوفسکی تا حدودی مشابه با شاخص قبلی می باشد. اما این شاخص با اضافه کردن ضریب وزنی رخ دادن وضعیت هایی را مورد تاکید قرار داده است که در آنها هر دو درایه موجود در x و y مقدار را اختیار می کنند: a a + b + c در رابطه با داده های دودویی استفاده از فاصله همینگ نیز می تواند مفید واقع شود. آگاهی از رویکردهای متعدد در تعریف معیارهای سنجش تشابه از اهمیت فراوانی برخوردار است. در ضمن انتخاب معیار سنجش تشابه به نوع کاربرد مورد نظر نیز بستگی دارد. مثال : یک آزمون سوالی که جواب های آن بلی )( یا خیر )( است برای دو نفر برگزار گردیده است که نتیجه آن در جدول زیر است. 7 سوال x x 7 برای محاسبه اندازه مشابهت و عدم مشابهت جدول زیر را تشکیل می دهیم نفر x x مشابهت 5 0 = 0/75 = 0/65 جدول) ( 0 در نتیجه داریم عدم مشابهت 5 0 = 0/5 5 = 0/5 ضریب تطابق ضریب جاکارد

9 انواع رده بندی تحلیل خوشه ای فرآیند رده بندی نمونه ها به زیر مجموعه هایی است که در رابطه با مسئله خاصی دارای معنی و مفهوم می باشند. این نمونه ها به طور مؤثری سازماندهی می شوند تا جامعه ای را که نمونه گیری می کنیم مشخص نمایند. الگوریتم خوشه بندی سلسله مراتبی عبارت از مشخص کردن گام هایی برای اجرای خوشه بندی سلسله مراتبی است. اغلب بهتر است که روش خوشه بندی سلسله مراتبی را با برقراری یک الگوریتم مشخص کنیم. ولی باید الگوریتم از خود روش جدا شده باشد. در این قسمت عالوه بر تعریف الگوریتم ها و روش ها نوع ساختار ریاضی را که یک خوشه بندی سلسله مراتبی بر داده ها تحمیل می کند تعریف کرده و راه های نگاه به این مسئله را توضیح می دهیم. خوشه بندی یک نوع خاص رده بندی روی یک مجموعه متناهی از نمونه ها می باشد. شکل زیر یک درخت از مسائل رده بندی را نشان می دهد. هر برگ این درخت یک نوع مختلف از مسائل رده بندی را مطرح می کند. گره های درخت به صورت زیر تعریف می شوند. رده بندی رده بندی جد از هم رده بندی متداخل بدون ناظر با ناظر شکل) ( : درخت انواع رده بندی رده بندی جدا از هم و رده بندی متداخل رده بندی جدا از هم افرازی از مجموعه نمونه ها است که هر نمونه می تواند فقط متعلق به یک زیر مجموعه یا خوشه باشد ولی در رده بندی متداخل یک نمونه می تواند در چندین زیر مجموعه قرار بگیرد. برای مثال اگر یک گروه از افراد را بخواهیم نسبت به صفات سن و جنس خوشه بندی کنیم خوشه بندی جدا از هم است در صورتی که اگر این افراد را نسبت به نوع بیماری خوشه بندی کنیم خوشه بندی متداخل است زیرا ممکن است یک فرد همزمان به چندین بیماری مبتال باشد. یک نوع از خوشه بندی متداخل خوشه بندی فازی است که در آن هر نمونه می تواند با یک درجه عضویت متعلق به چند خوشه باشد. در اینجا ما فقط با رده بندی غیر فازی روبرو هستیم.

10 رده بندی بدون ناظر و با ناظر رده بندی بدون ناظر برای انجام رده بندی فقط از ماتریس مشابهت استفاده می کند. این نوع رده بندی را در تشخیص الگو یادگیری بدون ناظر می گویند زیرا هیچ برچسب رده ای که یک افراز پیشاپیش از نمونه ها را نمایش دهد مورد استفاده قرار نمی دهد ولی رده بندی با ناظر برچسب های مربوط به نمونه ها و همین طور ماتریس مشابهت را مورد استفاده قرار می دهد. مبحث ما رده بندی بدون ناظر جدا از هم می باشد که به آن خوشه بندی می گویند. نکته: خوشه بندی در واقع یک عملیات غیر نظارتی می باشد. این عملیات هنگامی استفاده می شود که ما به دنبال یافتن گروه هایی از داده های مشابه می باشیم بدون اینکه از قبل یک پیش بینی در مورد شباهت های موجود داشته باشیم. هر خوشه شامل مجموعه ای از اشیاء داده ای است که به هم شبیه هستند اما با اشیاء خارج از آن متفاوت می باشند. برای اینکه بتوانیم داده ها را خوشه بندی کنیم باید بتوانیم میزان شباهت آنها را بدست آوریم. اینکار معموال به صورت غیر مستقیم انجام می شود یعنی با استفاده از معیارهای اندازه گیری فاصله میزان تفاوت بین دو شی بدست می آید بطوریکه اشیاء شبیه به هم دارای فاصله کمتری خواهند بود. چندین معیار اندازه گیری فاصله برای خوشه بندی وجود دارد که معروفترین آن فاصله اقلیدسی است. طبقه بندی الگوریتم های خوشه بندی می توان تکنیک های خوشه بندی را به دو گروه اصلی تقسیم کرد: - خوشه بندی سلسله مراتبی - خوشه بندی افرازی خوشه بندی سلسله مراتبی الگوریتم های خوشه بندی سلسله مراتبی داده ها را به صورت یک درخت نمایش می دهد که به این درخت سلسله مراتبی دندروگرام می گویند. دندروگرام مرکب از الیه هایی از گره هاست که هر کدام یک خوشه را نمایش می دهد. ساخت این درخت با توجه به دو رویکرد انجام می شود:پایین به باال و باال به پایین در رویکرد پایین به باال که به آن رویکرد انباشتی یا تجمعی نیز گفته می شود هر دادهها به عنوان خوشهای مجزا در نظر گرفته میشود و در طی فرایندی تکراری در هر مرحله خوشههایی که شباهت بیشتری با یکدیگر با یکدیگر ترکیب میشوند تا در نهایت یک خوشه و یا تعداد مشخصی خوشه حاصل شود. 0

11 در رویکرد باال به پایین که به آن رویکرد تقسیم کننده نیز گفته می شود تمام دادهها به عنوان یک خوشه در نظر گرفته میشوند و سپس در طی یک فرایند تکراری در هر مرحله دادههایی شباهت کمتری به هم دارند به خوشههای مجزایی شکسته میشوند و این روال تا رسیدن به خوشههایی که دارای یک عضو هستند ادامه پیدا میکند. روش های خوشه بندی سلسله مراتبی تجمعی از الگوریتم کلی زیر استفاده می کنند که در آن P=[p(i,j)] یک ماتریس مشابهت n n و L(k) k=0,,,,n- سطح k امین خوشه بندی است. الگوریتم جانسون برای خوشه بندی سلسله مراتبی تجمعی گام : با خوشه بندی جدا با سطح 0=(0)L و عدد دنباله ای 0=m آغاز کنید. گام : در خوشه بندی جاری دو خوشه دارای کمترین عدم مشابهت )بیشترین مشابهت( مثال جفت {(s),(r)} را که در p[(r), (s)] = min{p[(i), (j)]} صدق می کند پیدا کنید که در آن مینیمم روی همه جفت از خوشه ها در خوشه بندی جاری می باشد. گام : شماره دنباله را افزایش دهید: +m m. برای تشکیل خوشه بندی بعدی m خوشه های (r) و (s) را با هم ادغام کرده و یک خوشه تکی بوجود آورید. سطح این خوشه بندی را قرار دهید. (r) و L (m)= p[(r), (s)] گام : ماتریس مشابهت P را دوباره تشکیل دهید بدین صورت که سطر و ستون متناظر باخوشه های (s) را حذف می کنیم و یک سطر و ستون برای خوشه ای که جدیدا تشکیل شده اضافه می کنیم. مشابهت بین خوشه جدید )r,s( و یکی از خوشه های قدیم )k( بصورت زیر تعریف می شود. d[(k), (r, s)]= α r d[(k), (r)]+α s d[(k), (s)]+βd[(r), (s)]+γ d[(k), (r)] d[(k), (s)] لنس و ویلیامز )7( اولین بار این فرمول را پیشنهاد کردند. جدول )( مقادیر پارامترها برای معمول ترین الگوریتم ها را نشان می دهد. جدول )(: مقادیر پارامترهای اندازه مشابهت الگوریتم سلسه مراتبی ضرایب α r α s β γ اتصال تک اتصال کامل روش خوشه بندی سلسله مراتبی

12 گام 5: اگر همه نمونه ها در یک خوشه باشند الگوریتم ها را متوقف کنید در غیر اینصورت به گام بروید. مثال: فرض می کنیم ماتریس نزدیکی براساس عدم مشابهت به شکل زیر می باشد. 5 0 / / / /7 / 0 /6 / /6 / /6 0 / 0/7 / / / 0 / 5 [ /7 /6 0/7 / 0 ] در نتیجه خوشه ها را بر اساس مینیمم با هم ادغام می کنیم ولی اگر ماتریس براساس اندازه مشابهت باشد خوشه ها را براساس ماکزیمم با هم ادغام می کنیم چون دو خوشه ای با هم ادغام می شوند که دارای بیشترین مشابهت باشند.. خوشه بندی سلسله مراتبی تجمعی اتصال تک مشابهت بین خوشه جدید )r,s( و خوشه قدیم )k( براساس پارامتر های جدول) ( به صورت زیر می باشد d[(k), (r, s)] = d[(k), (r)] + d[(k), (s)] d[(k), (r)] d[(k), (s)] = min {d[(k), (r)], d[(k), (s)]} فاصله بین دو خوشه خوشه خوشه شکل )( : فاصله بین دو خوشه در روش اتصال تک مینیمم فاصله ها می باشد حال طبق مراحل الگوریتم داریم = minp ij = p در نتیجه خوشه )( و )( را به عنوان یک خوشه جدید در نظر می گیریم پس برای تشکیل ماتریس مشابهت چهار خوشه ),( )( ) (و) ( را داریم فاصله خوشه جدید از دیگر خوشه ها را به شکل زیر بدست می آوریم. P (,5) = min (P, P 5 ) = min (.,.7) =. P (,5) = min (P, P 5 ) = min (.6,.6) =.6 P (,5) = min (P, P 5 ) = min (.,.) =.

13 ,5,5 0 / / / / 0 /6 / [ / /6 ] minp 0 / ij =/ / / / 0,,5, 0 / / [ / 0 /6] minp ij =/,5 / /6 0,,,5,,,5 [ 0 /6 /6 0 ] خوشه بندی سلسله مراتبی تجمعی اتصال کامل عدم مشابهت بین خوشه جدید )r,s( و خوشه قدیم )k( براساس پارامترهای جدول) ( به صورت زیر است. d[(k), (r, s)] = max {d[(k), (r)], d[(k), (s)]} فاصله بین دو خوشه خوشه خوشه شکل )( : فاصله بین دو خوشه در روش اتصال کامل ماکسیمم فاصله ها می باشد حال طبق مراحل الگوریتم داریم = minp ij = p در نتیجه خوشه )( و )( را به عنوان یک خوشه جدید در نظر می گیریم برای تشکیل ماتریس مشابهت چهار خوشه ) ( )( ) (و) ( را داریم فاصله خوشه جدید از دیگر خوشه ها را به شکل زیر به دست می آوریم. P (,5) = max (P, P 5 ) = max (.,.7) =.7 P (,5) = max (P, P 5 ) = max (.6,.6) =.6 P (,5) = max (P, P 5 ) = max (.,.) =.

14 ,5,5 0 / /7 / / 0 /6 / [ /7 /6 ] minp 0 / ij =/ / / / 0,,5, 0 / / [ / 0 /6] minp ij =/,5 / /6 0,,,5,,,5 [ 0 /6 /6 0 ] دندروگرام اتصال تک و کامل به صورت زیر می باشد. 0/7 0/7 / / /6 / /6 / دندروگرام اتصال تک دندروگرام اتصال کامل نمودار) ( : دندروگرام اتصال تک و اتصال کامل خوشه بندی افرازی

15 تکنیک های خوشه بندی سلسله مراتبی داده ها را به صورت دنباله ای النه ای از گروه ها سازمان دهی می کند. مشخخصخه مهمی از روش های خوشه بندی سلسله مراتبی تاثیر بصری دندروگرام است که به تحلیل گر داده ها این امکان را می دهد که مشخاهده کند چگونه نمونه ها در سطوح متوالی مشابهت در خوشه ها ادغام یا تفکیک می شوند. نوع دیگر از روش خوشخه بندی خوشخه بندی غیر سخلسله مراتبی یا روش افرازی می باشد. در این روش خوشه بندی یک افراز تک از داده ها ایجاد می شود. هر دو روش سلسله مراتبی و افرازی زمینه های کاربرد مخصوص به خود را دارند روش های خوشه بندی سلسله مراتبی فقط نیاز به ماتریس مشابهت دارند در صورتی که روش های افرازی عالوه بر آن به ماتریس الگو نیز نیاز دارند. روش های خوشخه بندی سلسله مراتبی بیشتر در علوم زیست شناسی اجتماعی رفتاری به دلیل نیاز به ساختن رده بندی های بسیار بیشتر طرفدار دارد و تکنیک های افرازی در کاربردهای مهندسی که در آنها افرازهای تکی اهمیت دارند مورد استفاده واقع می شود. روش های افرازی خوشخه بندی بویژه برای نمایش و فشخردگی موثر پایگاه داده های حجیم بسیار مناسب است. دندروگرام ها برای بیشتر از چند صد نمونه غیر عملی است. مسئله خوشه بندی افزاری را می توان به صورت کلی زیر بیان کرد: n نمونه در یک فضای متریک d بعدی مفروض اند افرازی از نمونه ها را به صورت k گروه یا خوشه تعیین کنید به طوری که نمونه های متعلق به یک خوشخه بیشختر از نمونه های خوشخه های مختلف دیگر به یکدیگر شخبیه باشند. مقدار k تعداد خوشه ها می تواند از قبل مشخص باشد یا نباشد. یک معیار خوشه بندی مانند مربعات خطا باید انتخاب شود. معیارها را می توان به صورت فراموضعی و موضعی طبقه بندی کرد. یک معیار فراموضعی در ابتدا k نمونه را انتخاب می کند و خوشه ها را بدین شکل تشکیل می دهد که هر نمونه ای که به یکی از این k نمونه اولیه متشخخابه تر باشخخد در آن خوشخخه قرار می گیرد. ولی معیار موضخعی k خوشه را بر حسب تراکم ناحیه ها تعیین می کند یا k ناحیه ای که دارای نزدیکترین همسایگی ها هستند. راه حل نظری این مسخاله افرازی مستقیم است. یک معیار را انتخاب کرده و آن را به ازای کلیه افرازهای ممکن شامل k خوشه ارزیابی کنید و افرازی را که این معیار را بهینه می سازد انتخاب نمائید. اولین مشکلی که خوشه بندی افرازی با آن مواجه می شود انتخاب یک معیار است که مفاهیم شهودی فرد درباره خوشخه را بصورت فرمول های ریاضی معقول ترجمه کند. معیارها شدیدا به پارامترهای مسئله بستگی دارد و به دالیل محاسباتی باید ساده ولی به اندازه کافی پیچیده باشند تا ساختارهای داده های گوناگون را بازتاب دهند. دومین مشخکل این روش ارقام نجومی این افرازها حتی برای تعداد متوسخط داده ها می باشخد که بدین ترتیب ارزیابی حتی ساده ترین معیار نسبت به کلیه افرازها غیر عملی است. 5

16 فرض کنید S(n,k).. تعداد خوشخه بندی های n نمونه بصورت k خوشه را نشان می دهد. از ترتیب نمونه ها در هر خوشه و ترتیب خود خوشه ها و تعداد خوشه های تهی صرف نظر شده است. یک معادله تفاضلی جزیی را می توان به صورت زیر برای S(n,k) نوشت. فرض کنید همه خوشه بندی های متشکل از -n نمونه فهرست شده اند. یک خوشه بندی مرکب از n نمونه را از این فهرست می توان به دو طریق تشکیل داد. نمونه nام را می توان بعنوان یک خوشه تک به هر عضو این لیست با دقیقا -k خوشه اضافه کرد. نمونه nام را می توان به هر خوشه عضو دلخواه این فهرست با دقیقا k خوشه اضافه کرد. بنابراین شرایط مرزی بر روی معادله عبارتند از: S(n,K)=S(n-,K-)+KS(n-,K) s.t. S(n,)=,S(n,n)=,S(n,K)=0 if K>n برای حل معادله S(n,k) نیاز است مقادیر {(p {S(j, برای معلوم باشند. {(j, p): j n p K} جواب معادله تفاضلی جزیی)اعداد استرلینگ از نوع دوم(به صورت زیر است: S(n, K) = K! K i= ( )n ( K i ) (i)n همانطور که محاسبات نشان می دهند برای افراز نمونه به خوشه افراز داریم و این عدد برای افراز 7 نمونه به خوشه برابر است با 7 که رشد خیلی زیاد داشته است. پس تعیین همه افرازهای ممکن حتی برای تعداد کم از نمونه های کاری نا ممکن است. یک راه برای دوری از این حجم محاسخبات این است که یک تابع معیار تنها برای مجموعه کوچکی از افرازهای قابل قبول ارزیابی می شود. چگونه زیر مجموعه ای کوچک از افرازها را که دارای شخانس خوبی برای در بر داشختن افراز بهینه می باشخند را مشخخص کنیم معمول ترین رهیافت عبارت از بهینه کردن تابع معیار با استفاده از فن تکراری صعود از پله می باشد. با آغاز از یک افراز اولیه نمونه ها را از خوشه ای به خوشه ای دیگر حرکت می دهیم با این هدف که مقدار تابع معیار را بهبود بخشیم. بنابراین هر افراز متوالی جابجایی از فراز قبلی است و بنابراین تنها یک تعداد کمی از فرازها بررسی می شوند. راه دیگر دوری از انفجار ترکیباتی تا حدی مشخخص و رد کردن تعداد زیادی افرازهاست که محتمال مورد توجه نمی باشند)جنسن )77( یک برنامه ریزی پویا برای این کار به کار برده است(. معیار خوشه بندی 6

17 به خاطر وجود نداشتن یک تعریف معین و عملی از خوشه بهترین معیار تک برای بدست آوردن یک افراز وجود ندارد. از آن سخو صخدها توابع معیار پیشنهاد شده در ادبیات خوشه بندی مرتبت هستند و یک معیار یکسانی به چندین صورت ظاهر می شود و هر معیار خوشعه بندی ساختاری دیگر بر روی داده ها تحمیل می کند. معیار خوشه بندی مربعات خطا (K-means) معیار مجموع مربعات خطا K- میانگین در اکثر استراتژی های خوشه بندی بکار می رود. هدف کلی بدست آوردن آن افرازی است که مربعات خطا )اختالف درون خوشه ها( را برای یک تعداد ثابت از خوشه ها مینیمم کند ( یا ماکزیمم کردن اختالف بین خوشه ها(. کلیات خوشه بندی افرازی فرض کنید n نمونه d بعدی را به K خوشه } k {C, C,, C به گونه ای افراز کنیم که C k دارای n k k و هر نمونه فقط متعلق به یک خوشه است. به طوری که =k n k = n و بردارمیانگین یا مرکز خوشه عنوان مرکزیت این خوشه تعریف می شود یعنی که در آن نمونه c k n k c k = (k) (k) (k) n k i= = (c, c,, cd ) x i (k) x i (k) نمونه iام متعلق به خوشه است. C k e n k (k) k = x i ck i= به C k مربع خطای خوشه اش k ام است که برابر مجموع مربعات فاصله های اقلیدسی بین هر نمونه در و مرکز خوشه c k می باشد. این مربعات خطا تغییرات درون خوشه نیز نامیده میشود و E K K = e k k= مجموع اختالف بین خوشه هاست که باید مینیمم شود. الگوریتم خوشه بندی افرازی تکراری )K- میانگین( گام : K خوشه دلخواه را به عنوان اولین افراز انتخاب کنید. تکرار گام تا تا اینکه اعضای هر خوشه تثبیت شوند. گام : افراز جدید را با انتساب هر نمونه به نزدیکترین مرکز خوشه اش تشکیل دهید. گام : مرکز خوشه های جدید را محاسبه کنید. گام : مرحله و را تا بدست آوردن یک مقدار بهینه برای تابع معیار تکرار کنید. 7

18 گام 5: تعداد خوشه ها را بوسیله یکی کردن و جدا کردن خوشه های موجود و یا بوسیله حذف خوشه های کوچک و دور افتاده تعدیل کنید. مربعات خطا با افزایش تعداد خوشه ها کاهش پیدا می کندو باید برای تعداد ثابت از خوشه ها مینیمم شود. اولین افراز ( گام اول ) افراز اولیه می تواند بوسیله مجموعه ای از K نقطه هسته ای که بطور تصادفی از ماتریس الگوانتخاب شده اند تشکیل شود نقاط هسته ممکن است اولین K نمونه یا K نمونه ای که از ماتریس الگو به تصادف انتخاب شده اند باشند.مجموعه مرکب از K نمونه که کامال از یکدیگر جدا باشند را می توان با انتخاب مرکزیت این داده ها به عنوان نقطه هسته اولیه و گزینش نقاط هسته متوالی که حداقل یک فاصله معینی از نقاط هسته قبال انتخاب شده دارند به دست آورد.افراز اولیه یا خوشه بندی با انتساب اولیه هر نمونه به نزدیکترین نقطه هسته تشکیل می شود. از خوشه بندی سلسله مراتبی نیز می توان برای تعیینی K خوشه استفاده کرد. به روز کردن افراز ( گام دوم ) افراز ها با انتساب مجدد نمونه ها به خوشه ها با تالش برای کاهش مربع خطا به روز می شوند. برای این منظور باید مرکز خوشه ها محاسبه شده و نمونه به آن خوشه ای متعلق است که کمترین فاصله را از مرکز خوشه داشته باشد و این عمل تکرار می شود تا معیار همگرایی بدست آید و اعضای خوشه ها دیگر تغییر نکنند. محاسبه مرکز خوشه های جدید ( گام سوم ) چند روش برای محاسبه مرکز خوشه ها وجود دارد. مک کوئین روشی را ارائه کرد که در آن مرکز خوشه پس از اینکه نمونه ای به آن خوشه متعلق شد دوباره محاسبه شود ولی در روش فرجی مرکز خوشه پس از تعیین همه اعضای خوشه محاسبه می شود. مثال : فرض کنید جدول زیر ماتریس الگوی مشاهده باشد برای تبدیل آن به =K خوشه

19 جدول )( : ماتریس الگو شماره نمونه صفت x صفت y 7 7 اگر خوشه بندی افرازی باشد با توجه به جدول زیر ( جدول فاصله نمونه ها از و ) دو خوشه {,,,}= C و {5,6,7,,,0}= C به وجود می آید که میانگین فاصله ها 7/ است. جدول )( : انتساب نمونه ها به دو نمونه و نزدیکترین نمونه کمترین عدم مشابهت / / / / 7/ شماره نمونه 7 عدم مشابهت از عدم مشابهت از نمونه نمونه 7 / / /7 7 / / /7 / / / / 7/

20 اگر با افراز ابتدایی و شروع شود جدول زیرو دو خوشه {,,,,5}= C و{ 6,7,,,0 }= C با میانگین جدول )7( : انتساب نمونه ها به دو نمونه و عدم مشابهت / بوجود می آید. نزدیکترین نمونه کمترین عدم مشابهت عدم مشابهت از نمونه عدم مشابهت از نمونه شماره نمونه 7 ={,,,,5} C و / / / /7 /7 / / / / ولی اگر با افراز ابتدایی و الگوریتم خوشه بندی آغاز شود خوشه ها همان }6,7,,,0}= C می باشند با این تفاوت که میانگین عدم مشابهت ها /7 بدست می آید. نمودار زیر تصویری از دو افراز ابتدایی را نشان می دهد. به وضوح افراز ابتدایی که با و شروع شده بهتر و 7 سریع تر همگراست. نمودار) ( : خوشه بندی براساس جدول )( 0

21 7 نمودار) ( : خوشه بندی براساس جدول )7( تعدیل تعداد خوشه ها ( گام پنجم ) در بعضی مواقع پس از پایان یافتن خوشه بندی افرازی الزم است که تعداد خوشه دست خوش تغییر و تحوالتی شوند. بعنوان مثال یک خوشه وقتی دارای تعداد زیادی نمونه و دارای واریانس غیر معمولی بزرگ همرا با صفات متنوع است به دو بخش تبدیل می شود دو خوشه ای که مراکز شان به اندازه کافی بهم نزدیک اند یکی می شوند داده ها ی پرت و دور افتاده نیز باید شناسایی و با آنها به طرز مناسبی رفتار شود مثال یک داده دور افتاده در شکل زیر باعث شده تا دو خوشه ای که خوب از هم جدا هستند در یک خوشه قرار بگیرند. خوشه : خوشه : شکل) ( : تاثیر داده دور افتاده در خوشه بندی همگرایی ( گام چهارم ) الگوریتم چه موقع باید متوقف شود الگوریتم افرازی وقتی تابع معیار نتواند بهبود پیدا کند باید یعنی بین دو تکرار متوالی بر چسب خوشه برای همه نمونه ها بدون تغییر بماند. متوقف شود

22 هیچ ضمانتی برای رسیدن به یک مینیمم کلی برای یک الگوریتم تکراری وجود ندارد ولی باید شروطی را قرار داد تا الگوریتم به تکرارخود ادامه ندهد مثال تعداد تکرارها را از قبل معین کرد یا اگر مربعات خطا از یک حدی کمتر شد حلقه تکرار متوقف شود. مثال: با استفاده از روش K- میانگین و ماتریس الگوی زیر دو خوشه بدست آورید. دوم جدول )( : ماتریس الگو صفت اول نمونه x x x x x 5 / ابتدا دو خوشه } C = { x, x, x و } 5 C = { x, x دو خوشه عبارتند از: را بطور تصادفی انتخاب می کنیم.مرکزیت این c = { c = {.5 + 5, } = {.66,0.66}, 0 + } = {.5,.00} اختالف درون خوشه ها e = [(0 /66) + ( 0/66) ] + [(0 /66) + (0 0/66) ] + [(5 /66) + (0 0/66) ] = /6 e = [(/5 /5) + (0 ) ] + [(5 /5) + ( ) ] = / مجموع مربعات کل E = e + e =.6 +. = 7.

23 جدول )( : فاصله نمونه ها از مراکز خوشه ها در تکرار اول نزدیک ترین خوشه فاصله از مرکز خوشه C فاصله از مرکز خوشه C نمونه x x x x x 5 / / /7 / / / / / / / c c c c c حال خوشه های جدید عبارتند از } C = { x, x, x و } 5 C = { x, x (0.5,0.67) = { c مرکزیت دو خوشه c = (5,) =.7 e }اختالف درون خوشه ها e =.00 E = 6.7 جدول )( : فاصله نمونه ها از مراکز خوشه ها در تکرار دوم نزدیک ترین خوشه فاصله از مرکز خوشه C فاصله از مرکز خوشه C نمونه x x x x x 5 / / / / / / / /7 c c c c c در این جدول دیده می شود اعضای خوشه های و C تغییر نمی کنند و معیار همگرایی بدست آمده است. C

محاسبه ی برآیند بردارها به روش تحلیلی

محاسبه ی برآیند بردارها به روش تحلیلی محاسبه ی برآیند بردارها به روش تحلیلی برای محاسبه ی برآیند بردارها به روش تحلیلی باید توانایی تجزیه ی یک بردار در دو راستا ( محور x ها و محور y ها ) را داشته باشیم. به بردارهای تجزیه شده در راستای محور

Διαβάστε περισσότερα

روش محاسبه ی توان منابع جریان و منابع ولتاژ

روش محاسبه ی توان منابع جریان و منابع ولتاژ روش محاسبه ی توان منابع جریان و منابع ولتاژ ابتدا شرح کامل محاسبه ی توان منابع جریان: برای محاسبه ی توان منابع جریان نخست باید ولتاژ این عناصر را بدست آوریم و سپس با استفاده از رابطه ی p = v. i توان این

Διαβάστε περισσότερα

مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل

مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل شما باید بعد از مطالعه ی این جزوه با مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل کامال آشنا شوید. VA R VB به نظر شما افت ولتاژ مقاومت R چیست جواب: به مقدار عددی V A

Διαβάστε περισσότερα

مثال( مساله الپالس در ناحیه داده شده را حل کنید. u(x,0)=f(x) f(x) حل: به کمک جداسازی متغیرها: ثابت = k. u(x,y)=x(x)y(y) X"Y=-XY" X" X" kx = 0

مثال( مساله الپالس در ناحیه داده شده را حل کنید. u(x,0)=f(x) f(x) حل: به کمک جداسازی متغیرها: ثابت = k. u(x,y)=x(x)y(y) XY=-XY X X kx = 0 مثال( مساله الپالس در ناحیه داده شده را حل کنید. (,)=() > > < π () حل: به کمک جداسازی متغیرها: + = (,)=X()Y() X"Y=-XY" X" = Y" ثابت = k X Y X" kx = { Y" + ky = X() =, X(π) = X" kx = { X() = X(π) = معادله

Διαβάστε περισσότερα

تصاویر استریوگرافی.

تصاویر استریوگرافی. هب انم خدا تصاویر استریوگرافی تصویر استریوگرافی یک روش ترسیمی است که به وسیله آن ارتباط زاویه ای بین جهات و صفحات بلوری یک کریستال را در یک فضای دو بعدی )صفحه کاغذ( تعیین میکنند. کاربردها بررسی ناهمسانگردی

Διαβάστε περισσότερα

قاعده زنجیره ای برای مشتقات جزي ی (حالت اول) :

قاعده زنجیره ای برای مشتقات جزي ی (حالت اول) : ۱ گرادیان تابع (y :f(x, اگر f یک تابع دومتغیره باشد ا نگاه گرادیان f برداری است که به صورت زیر تعریف می شود f(x, y) = D ۱ f(x, y), D ۲ f(x, y) اگر رویه S نمایش تابع (y Z = f(x, باشد ا نگاه f در هر نقطه

Διαβάστε περισσότερα

جلسه ی ۱۰: الگوریتم مرتب سازی سریع

جلسه ی ۱۰: الگوریتم مرتب سازی سریع دانشکده ی علوم ریاضی داده ساختارها و الگوریتم ها ۸ مهر ۹ جلسه ی ۱۰: الگوریتم مرتب سازی سریع مدر س: دکتر شهرام خزاي ی نگارنده: محمد امین ادر یسی و سینا منصور لکورج ۱ شرح الگور یتم الگوریتم مرتب سازی سریع

Διαβάστε περισσότερα

تحلیل مدار به روش جریان حلقه

تحلیل مدار به روش جریان حلقه تحلیل مدار به روش جریان حلقه برای حل مدار به روش جریان حلقه باید مراحل زیر را طی کنیم: مرحله ی 1: مدار را تا حد امکان ساده می کنیم)مراقب باشید شاخه هایی را که ترکیب می کنید مورد سوال مسئله نباشد که در

Διαβάστε περισσότερα

همبستگی و رگرسیون در این مبحث هدف بررسی وجود یک رابطه بین دو یا چند متغیر می باشد لذا هدف اصلی این است که آیا بین

همبستگی و رگرسیون در این مبحث هدف بررسی وجود یک رابطه بین دو یا چند متغیر می باشد لذا هدف اصلی این است که آیا بین همبستگی و رگرسیون در این مبحث هدف بررسی وجود یک رابطه بین دو یا چند متغیر می باشد لذا هدف اصلی این است که آیا بین دو صفت متغیر x و y رابطه و همبستگی وجود دارد یا خیر و آیا می توان یک مدل ریاضی و یک رابطه

Διαβάστε περισσότερα

مدار معادل تونن و نورتن

مدار معادل تونن و نورتن مدار معادل تونن و نورتن در تمامی دستگاه های صوتی و تصویری اگرچه قطعات الکتریکی زیادی استفاده می شود ( مانند مقاومت سلف خازن دیود ترانزیستور IC ترانس و دهها قطعه ی دیگر...( اما هدف از طراحی چنین مداراتی

Διαβάστε περισσότερα

آزمون مقایسه میانگین های دو جامعه )نمونه های بزرگ(

آزمون مقایسه میانگین های دو جامعه )نمونه های بزرگ( آزمون مقایسه میانگین های دو جامعه )نمونه های بزرگ( فرض کنید جمعیت یک دارای میانگین و انحراف معیار اندازه µ و انحراف معیار σ باشد و جمعیت 2 دارای میانگین µ2 σ2 باشند نمونه های تصادفی مستقل از این دو جامعه

Διαβάστε περισσότερα

جلسه 3 ابتدا نکته اي در مورد عمل توابع بر روي ماتریس ها گفته می شود و در ادامه ي این جلسه اصول مکانیک کوانتمی بیان. d 1. i=0. i=0. λ 2 i v i v i.

جلسه 3 ابتدا نکته اي در مورد عمل توابع بر روي ماتریس ها گفته می شود و در ادامه ي این جلسه اصول مکانیک کوانتمی بیان. d 1. i=0. i=0. λ 2 i v i v i. محاسبات کوانتمی (671) ترم بهار 1390-1391 مدرس: سلمان ابوالفتح بیگی نویسنده: محمد جواد داوري جلسه 3 می شود. ابتدا نکته اي در مورد عمل توابع بر روي ماتریس ها گفته می شود و در ادامه ي این جلسه اصول مکانیک

Διαβάστε περισσότερα

تخمین با معیار مربع خطا: حالت صفر: X: مکان هواپیما بدون مشاهده X را تخمین بزنیم. بهترین تخمین مقداری است که متوسط مربع خطا مینیمم باشد:

تخمین با معیار مربع خطا: حالت صفر: X: مکان هواپیما بدون مشاهده X را تخمین بزنیم. بهترین تخمین مقداری است که متوسط مربع خطا مینیمم باشد: تخمین با معیار مربع خطا: هدف: با مشاهده X Y را حدس بزنیم. :y X: مکان هواپیما مثال: مشاهده نقطه ( مجموعه نقاط کنارهم ) روی رادار - فرض کنیم می دانیم توزیع احتمال X به چه صورت است. حالت صفر: بدون مشاهده

Διαβάστε περισσότερα

سايت ويژه رياضيات درسنامه ها و جزوه هاي دروس رياضيات

سايت ويژه رياضيات   درسنامه ها و جزوه هاي دروس رياضيات سايت ويژه رياضيات درسنامه ها و جزوه هاي دروس رياضيات دانلود نمونه سوالات امتحانات رياضي نمونه سوالات و پاسخنامه كنكور دانلود نرم افزارهاي رياضيات و... کانال سایت ریاضی سرا در تلگرام: https://telegram.me/riazisara

Διαβάστε περισσότερα

دانشکده ی علوم ریاضی جلسه ی ۵: چند مثال

دانشکده ی علوم ریاضی جلسه ی ۵: چند مثال دانشکده ی علوم ریاضی احتمال و کاربردا ن ۴ اسفند ۹۲ جلسه ی : چند مثال مدر س: دکتر شهرام خزاي ی نگارنده: مهدی پاک طینت (تصحیح: قره داغی گیوه چی تفاق در این جلسه به بررسی و حل چند مثال از مطالب جلسات گذشته

Διαβάστε περισσότερα

شاخصهای پراکندگی دامنهی تغییرات:

شاخصهای پراکندگی دامنهی تغییرات: شاخصهای پراکندگی شاخصهای پراکندگی بیانگر میزان پراکندگی دادههای آماری میباشند. مهمترین شاخصهای پراکندگی عبارتند از: دامنهی تغییرات واریانس انحراف معیار و ضریب تغییرات. دامنهی تغییرات: اختالف بزرگترین و

Διαβάστε περισσότερα

آزمایش 8: تقویت کننده عملیاتی 2

آزمایش 8: تقویت کننده عملیاتی 2 آزمایش 8: تقویت کننده عملیاتی 2 1-8 -مقدمه 1 تقویت کننده عملیاتی (OpAmp) داراي دو یا چند طبقه تقویت کننده تفاضلی است که خروجی- هاي هر طبقه به وروديهاي طبقه دیگر متصل شده است. در انتهاي این تقویت کننده

Διαβάστε περισσότερα

جلسه ی ۵: حل روابط بازگشتی

جلسه ی ۵: حل روابط بازگشتی دانشکده ی علوم ریاضی ساختمان داده ها ۶ مهر ۲ جلسه ی ۵: حل روابط بازگشتی مدر س: دکتر شهرام خزاي ی نگارنده: ا رمیتا ثابتی اشرف و علی رضا علی ا بادیان ۱ مقدمه پیدا کردن کران مجانبی توابع معمولا با پیچیدگی

Διαβάστε περισσότερα

ﯽﺳﻮﻃ ﺮﯿﺼﻧ ﻪﺟاﻮﺧ ﯽﺘﻌﻨﺻ هﺎﮕﺸﻧاد

ﯽﺳﻮﻃ ﺮﯿﺼﻧ ﻪﺟاﻮﺧ ﯽﺘﻌﻨﺻ هﺎﮕﺸﻧاد دانشگاه صنعتی خواجه نصیر طوسی دانشکده برق - گروه کنترل آزمایشگاه کنترل سیستمهای خطی گزارش کار نمونه تابستان 383 به نام خدا گزارش کار آزمایش اول عنوان آزمایش: آشنایی با نحوه پیاده سازی الکترونیکی فرایندها

Διαβάστε περισσότερα

هو الحق دانشکده ي مهندسی کامپیوتر جلسه هفتم

هو الحق دانشکده ي مهندسی کامپیوتر جلسه هفتم هو الحق دانشکده ي مهندسی کامپیوتر کدگذاري شبکه Coding) (Network شنبه 2 اسفند 1393 جلسه هفتم استاد: مهدي جعفري نگارنده: سید محمدرضا تاجزاد تعریف 1 بهینه سازي محدب : هدف پیدا کردن مقدار بهینه یک تابع ) min

Διαβάστε περισσότερα

1) { } 6) {, } {{, }} 2) {{ }} 7 ) { } 3) { } { } 8) { } 4) {{, }} 9) { } { }

1) { } 6) {, } {{, }} 2) {{ }} 7 ) { } 3) { } { } 8) { } 4) {{, }} 9) { } { } هرگاه دسته اي از اشیاء حروف و اعداد و... که کاملا"مشخص هستند با هم در نظر گرفته شوند یک مجموعه را به وجود می آورند. عناصر تشکیل دهنده ي یک مجموعه باید دو شرط اساسی را داشته باشند. نام گذاري مجموعه : الف

Διαβάστε περισσότερα

آزمایش 1: پاسخ فرکانسی تقویتکننده امیتر مشترك

آزمایش 1: پاسخ فرکانسی تقویتکننده امیتر مشترك آزمایش : پاسخ فرکانسی تقویتکننده امیتر مشترك -- مقدمه هدف از این آزمایش بدست آوردن فرکانس قطع بالاي تقویتکننده امیتر مشترك بررسی عوامل تاثیرگذار و محدودکننده این پارامتر است. شکل - : مفهوم پهناي باند تقویت

Διαβάστε περισσότερα

جلسه ی ۳: نزدیک ترین زوج نقاط

جلسه ی ۳: نزدیک ترین زوج نقاط دانشکده ی علوم ریاضی ا نالیز الگوریتم ها ۴ بهمن ۱۳۹۱ جلسه ی ۳: نزدیک ترین زوج نقاط مدر س: دکتر شهرام خزاي ی نگارنده: امیر سیوانی اصل ۱ پیدا کردن نزدیک ترین زوج نقطه فرض می کنیم n نقطه داریم و می خواهیم

Διαβάστε περισσότερα

بسم اهلل الرحمن الرحیم آزمایشگاه فیزیک )2( shimiomd

بسم اهلل الرحمن الرحیم آزمایشگاه فیزیک )2( shimiomd بسم اهلل الرحمن الرحیم آزمایشگاه فیزیک )( shimiomd خواندن مقاومت ها. بررسی قانون اهم برای مدارهای متوالی. 3. بررسی قانون اهم برای مدارهای موازی بدست آوردن مقاومت مجهول توسط پل وتسون 4. بدست آوردن مقاومت

Διαβάστε περισσότερα

جلسه 14 را نیز تعریف کرد. عملگري که به دنبال آن هستیم باید ماتریس چگالی مربوط به یک توزیع را به ماتریس چگالی مربوط به توزیع حاشیه اي آن ببرد.

جلسه 14 را نیز تعریف کرد. عملگري که به دنبال آن هستیم باید ماتریس چگالی مربوط به یک توزیع را به ماتریس چگالی مربوط به توزیع حاشیه اي آن ببرد. تي وري اطلاعات کوانتمی ترم پاییز 39-39 مدرس: ابوالفتح بیگی و امین زاده گوهري نویسنده: کامران کیخسروي جلسه فرض کنید حالت سیستم ترکیبی AB را داشته باشیم. حالت سیستم B به تنهایی چیست در ابتداي درس که حالات

Διαβάστε περισσότερα

فصل چهارم : مولتی ویبراتورهای ترانزیستوری مقدمه: فیدبک مثبت

فصل چهارم : مولتی ویبراتورهای ترانزیستوری مقدمه: فیدبک مثبت فصل چهارم : مولتی ویبراتورهای ترانزیستوری مقدمه: فیدبک مثبت در تقویت کننده ها از فیدبک منفی استفاده می نمودیم تا بهره خیلی باال نرفته و سیستم پایدار بماند ولی در فیدبک مثبت هدف فقط باال بردن بهره است در

Διαβάστε περισσότερα

جلسه ی ۲۴: ماشین تورینگ

جلسه ی ۲۴: ماشین تورینگ دانشکده ی علوم ریاضی نظریه ی زبان ها و اتوماتا ۲۶ ا ذرماه ۱۳۹۱ جلسه ی ۲۴: ماشین تورینگ مدر س: دکتر شهرام خزاي ی نگارندگان: حمید ملک و امین خسر وشاهی ۱ ماشین تور ینگ تعریف ۱ (تعریف غیررسمی ماشین تورینگ)

Διαβάστε περισσότερα

فصل پنجم زبان های فارغ از متن

فصل پنجم زبان های فارغ از متن فصل پنجم زبان های فارغ از متن خانواده زبان های فارغ از متن: ( free )context تعریف: گرامر G=(V,T,,P) کلیه قوانین آن به فرم زیر باشد : یک گرامر فارغ از متن گفته می شود در صورتی که A x A Є V, x Є (V U T)*

Διαβάστε περισσότερα

جلسه ی ۴: تحلیل مجانبی الگوریتم ها

جلسه ی ۴: تحلیل مجانبی الگوریتم ها دانشکده ی علوم ریاضی ساختمان داده ها ۲ مهر ۱۳۹۲ جلسه ی ۴: تحلیل مجانبی الگوریتم ها مدر س: دکتر شهرام خزاي ی نگارنده: شراره عز ت نژاد ا رمیتا ثابتی اشرف ۱ مقدمه الگوریتم ابزاری است که از ا ن برای حل مسا

Διαβάστε περισσότερα

مسائل. 2 = (20)2 (1.96) 2 (5) 2 = 61.5 بنابراین اندازه ی نمونه الزم باید حداقل 62=n باشد.

مسائل. 2 = (20)2 (1.96) 2 (5) 2 = 61.5 بنابراین اندازه ی نمونه الزم باید حداقل 62=n باشد. ) مسائل مدیریت کارخانه پوشاک تصمیم دارد مطالعه ای به منظور تعیین میانگین پیشرفت کارگران کارخانه انجام دهد. اگر او در این مطالعه دقت برآورد را 5 نمره در نظر بگیرد و فرض کند مقدار انحراف معیار پیشرفت کاری

Διαβάστε περισσότερα

جلسه 12 به صورت دنباله اي از,0 1 نمایش داده شده اند در حین محاسبه ممکن است با خطا مواجه شده و یکی از بیت هاي آن. p 1

جلسه 12 به صورت دنباله اي از,0 1 نمایش داده شده اند در حین محاسبه ممکن است با خطا مواجه شده و یکی از بیت هاي آن. p 1 محاسبات کوانتمی (67) ترم بهار 390-39 مدرس: سلمان ابوالفتح بیگی نویسنده: سلمان ابوالفتح بیگی جلسه ذخیره پردازش و انتقال اطلاعات در دنیاي واقعی همواره در حضور خطا انجام می شود. مثلا اطلاعات کلاسیکی که به

Διαβάστε περισσότερα

فصل دهم: همبستگی و رگرسیون

فصل دهم: همبستگی و رگرسیون فصل دهم: همبستگی و رگرسیون مطالب این فصل: )r ( کوواریانس ضریب همبستگی رگرسیون ضریب تعیین یا ضریب تشخیص خطای معیار برآور ( )S XY انواع ضرایب همبستگی برای بررسی رابطه بین متغیرهای کمی و کیفی 8 در بسیاری

Διαβάστε περισσότερα

جلسه 9 1 مدل جعبه-سیاه یا جستاري. 2 الگوریتم جستجوي Grover 1.2 مسا له 2.2 مقدمات محاسبات کوانتمی (22671) ترم بهار

جلسه 9 1 مدل جعبه-سیاه یا جستاري. 2 الگوریتم جستجوي Grover 1.2 مسا له 2.2 مقدمات محاسبات کوانتمی (22671) ترم بهار محاسبات کوانتمی (22671) ترم بهار 1390-1391 مدرس: سلمان ابوالفتح بیگی نویسنده: هیربد کمالی نیا جلسه 9 1 مدل جعبه-سیاه یا جستاري مدل هایی که در جلسه ي پیش براي استفاده از توابع در الگوریتم هاي کوانتمی بیان

Διαβάστε περισσότερα

تمرینات درس ریاض عموم ٢. r(t) = (a cos t, b sin t), ٠ t ٢π. cos ٢ t sin tdt = ka۴. x = ١ ka ۴. m ٣ = ٢a. κds باشد. حاصل x٢

تمرینات درس ریاض عموم ٢. r(t) = (a cos t, b sin t), ٠ t ٢π. cos ٢ t sin tdt = ka۴. x = ١ ka ۴. m ٣ = ٢a. κds باشد. حاصل x٢ دانش اه صنعت شریف دانش ده ی علوم ریاض تمرینات درس ریاض عموم سری دهم. ١ سیم نازک داریم که روی دایره ی a + y x و در ربع اول نقطه ی,a را به نقطه ی a, وصل م کند. اگر چ ال سیم در نقطه ی y,x برابر kxy باشد جرم

Διαβάστε περισσότερα

هندسه تحلیلی بردارها در فضای R

هندسه تحلیلی بردارها در فضای R هندسه تحلیلی بردارها در فضای R فصل اول-بردارها دستگاه مختصات سه بعدی از سه محور ozوoyوox عمود بر هم تشکیل شده که در نقطه ای به نام o یکدیگر را قطع می کنند. قرارداد: دستگاه مختصات سه بعدی راستگرد می باشد

Διαβάστε περισσότερα

آموزش SPSS مقدماتی و پیشرفته مدیریت آمار و فناوری اطالعات -

آموزش SPSS مقدماتی و پیشرفته مدیریت آمار و فناوری اطالعات - آموزش SPSS مقدماتی و پیشرفته تهیه و تنظیم: فرزانه صانعی مدیریت آمار و فناوری اطالعات - مهرماه 96 بخش سوم: مراحل تحلیل آماری تحلیل داده ها به روش پارامتری بررسی نرمال بودن توزیع داده ها قضیه حد مرکزی جدول

Διαβάστε περισσότερα

Angle Resolved Photoemission Spectroscopy (ARPES)

Angle Resolved Photoemission Spectroscopy (ARPES) Angle Resolved Photoemission Spectroscopy (ARPES) روش ARPES روشی است تجربی که برای تعیین ساختار الکترونی مواد به کار می رود. این روش بر پایه اثر فوتوالکتریک است که توسط هرتز کشف شد: الکترونها می توانند

Διαβάστε περισσότερα

ویرایشسال 95 شیمیمعدنی تقارن رضافالحتی

ویرایشسال 95 شیمیمعدنی تقارن رضافالحتی ویرایشسال 95 شیمیمعدنی تقارن رضافالحتی از ابتدای مبحث تقارن تا ابتدای مبحث جداول کاراکتر مربوط به کنکور ارشد می باشد افرادی که این قسمت ها را تسلط دارند می توانند از ابتدای مبحث جداول کاراکتر به مطالعه

Διαβάστε περισσότερα

جلسه 22 1 نامساویهایی در مورد اثر ماتریس ها تي وري اطلاعات کوانتومی ترم پاییز

جلسه 22 1 نامساویهایی در مورد اثر ماتریس ها تي وري اطلاعات کوانتومی ترم پاییز تي وري اطلاعات کوانتومی ترم پاییز 1391-1392 مدرس: ابوالفتح بیگی و امین زاده گوهري نویسنده: محمد مهدي مجاهدیان جلسه 22 تا اینجا خواص مربوط به آنتروپی را بیان کردیم. جهت اثبات این خواص نیاز به ابزارهایی

Διαβάστε περισσότερα

تئوری جامع ماشین بخش سوم جهت سادگی بحث یک ماشین سنکرون دو قطبی از نوع قطب برجسته مطالعه میشود.

تئوری جامع ماشین بخش سوم جهت سادگی بحث یک ماشین سنکرون دو قطبی از نوع قطب برجسته مطالعه میشود. مفاهیم اصلی جهت آنالیز ماشین های الکتریکی سه فاز محاسبه اندوکتانس سیمپیچیها و معادالت ولتاژ ماشین الف ) ماشین سنکرون جهت سادگی بحث یک ماشین سنکرون دو قطبی از نوع قطب برجسته مطالعه میشود. در حال حاضر از

Διαβάστε περισσότερα

فعالیت = ) ( )10 6 ( 8 = )-4( 3 * )-5( 3 = ) ( ) ( )-36( = m n m+ m n. m m m. m n mn

فعالیت = ) ( )10 6 ( 8 = )-4( 3 * )-5( 3 = ) ( ) ( )-36( = m n m+ m n. m m m. m n mn درس»ریشه ام و توان گویا«تاکنون با مفهوم توان های صحیح اعداد و چگونگی کاربرد آنها در ریشه گیری دوم و سوم اعداد آشنا شده اید. فعالیت زیر به شما کمک می کند تا ضمن مرور آنچه تاکنون در خصوص اعداد توان دار و

Διαβάστε περισσότερα

باشند و c عددی ثابت باشد آنگاه تابع های زیر نیز در a پیوسته اند. به شرطی که g(a) 0 f g

باشند و c عددی ثابت باشد آنگاه تابع های زیر نیز در a پیوسته اند. به شرطی که g(a) 0 f g تعریف : 3 فرض کنیم D دامنه تابع f زیر مجموعه ای از R باشد a D تابع f:d R در نقطه a پیوسته است هرگاه به ازای هر دنباله از نقاط D مانند { n a{ که به a همگراست دنبال ه ){ n }f(a به f(a) همگرا باشد. محتوی

Διαβάστε περισσότερα

Beta Coefficient نویسنده : محمد حق وردی

Beta Coefficient نویسنده : محمد حق وردی مفهوم ضریب سهام بتای Beta Coefficient نویسنده : محمد حق وردی مقدمه : شاید بارها در مقاالت یا گروهای های اجتماعی مربوط به بازار سرمایه نام ضریب بتا رو دیده باشیم یا جایی شنیده باشیم اما برایمان مبهم باشد

Διαβάστε περισσότερα

فصل 5 :اصل گسترش و اعداد فازی

فصل 5 :اصل گسترش و اعداد فازی فصل 5 :اصل گسترش و اعداد فازی : 1-5 اصل گسترش در ریاضیات معمولی یکی از مهمترین ابزارها تابع می باشد.تابع یک نوع رابطه خاص می باشد رابطه ای که در نمایش زوج مرتبی عنصر اول تکراری نداشته باشد.معموال تابع

Διαβάστε περισσότερα

تمرین اول درس کامپایلر

تمرین اول درس کامپایلر 1 تمرین اول درس 1. در زبان مربوط به عبارت منظم زیر چند رشته یکتا وجود دارد (0+1+ϵ)(0+1+ϵ)(0+1+ϵ)(0+1+ϵ) جواب 11 رشته کنند abbbaacc را در نظر بگیرید. کدامیک از عبارتهای منظم زیر توکنهای ab bb a acc را ایجاد

Διαβάστε περισσότερα

جلسه 2 1 فضاي برداري محاسبات کوانتمی (22671) ترم بهار

جلسه 2 1 فضاي برداري محاسبات کوانتمی (22671) ترم بهار محاسبات کوانتمی (22671) ترم بهار 1390-1391 مدرس: سلمان ابوالفتح بیگی نویسنده: نادر قاسمی جلسه 2 در این درسنامه به مروري کلی از جبر خطی می پردازیم که هدف اصلی آن آشنایی با نماد گذاري دیراك 1 و مباحثی از

Διαβάστε περισσότερα

جلسه 2 جهت تعریف یک فضاي برداري نیازمند یک میدان 2 هستیم. یک میدان مجموعه اي از اعداد یا اسکالر ها به همراه اعمال

جلسه 2 جهت تعریف یک فضاي برداري نیازمند یک میدان 2 هستیم. یک میدان مجموعه اي از اعداد یا اسکالر ها به همراه اعمال نظریه اطلاعات کوانتمی 1 ترم پاییز 1391-1392 مدرسین: ابوالفتح بیگی و امین زاده گوهري جلسه 2 فراگیري نظریه ي اطلاعات کوانتمی نیازمند داشتن پیش زمینه در جبرخطی می باشد این نظریه ترکیب زیبایی از جبرخطی و نظریه

Διαβάστε περισσότερα

دبیرستان غیر دولتی موحد

دبیرستان غیر دولتی موحد دبیرستان غیر دلتی محد هندسه تحلیلی فصل دم معادله های خط صفحه ابتدا باید بدانیم که از یک نقطه به مازات یک بردار تنها یک خط می گذرد. با تجه به این مطلب برای نشتن معادله یک خط احتیاج به داشتن یک نقطه از خط

Διαβάστε περισσότερα

جلسه 15 1 اثر و اثر جزي ی نظریه ي اطلاعات کوانتومی 1 ترم پاي یز جدایی پذیر باشد یعنی:

جلسه 15 1 اثر و اثر جزي ی نظریه ي اطلاعات کوانتومی 1 ترم پاي یز جدایی پذیر باشد یعنی: نظریه ي اطلاعات کوانتومی 1 ترم پاي یز 1391-1391 مدرس: دکتر ابوالفتح بیگی ودکتر امین زاده گوهري نویسنده: محمدرضا صنم زاده جلسه 15 فرض کنیم ماتریس چگالی سیستم ترکیبی شامل زیر سیستم هايB و A را داشته باشیم.

Διαβάστε περισσότερα

جلسه ی ۱۸: درهم سازی سرتاسری - درخت جست و جوی دودویی

جلسه ی ۱۸: درهم سازی سرتاسری - درخت جست و جوی دودویی دانشکده ی علوم ریاضی ساختمان داده ۱۰ ا ذر ۹۲ جلسه ی ۱۸: درهم سازی سرتاسری - درخت جست و جوی دودویی مدر س: دکتر شهرام خزاي ی نگارنده: معین زمانی و ا رمیتا اردشیری ۱ یادا وری همان طور که درجلسات پیش مطرح

Διαβάστε περισσότερα

جلسه 16 نظریه اطلاعات کوانتمی 1 ترم پاییز

جلسه 16 نظریه اطلاعات کوانتمی 1 ترم پاییز نظریه اطلاعات کوانتمی ترم پاییز 39-39 مدرسین: ابوالفتح بیگی و امین زاده گوهري نویسنده: محم دحسن آرام جلسه 6 تا اینجا با دو دیدگاه مختلف و دو عامل اصلی براي تعریف و استفاده از ماتریس چگالی جهت معرفی حالت

Διαβάστε περισσότερα

معادلهی مشخصه(کمکی) آن است. در اینجا سه وضعیت متفاوت برای ریشههای معادله مشخصه رخ میدهد:

معادلهی مشخصه(کمکی) آن است. در اینجا سه وضعیت متفاوت برای ریشههای معادله مشخصه رخ میدهد: شکل کلی معادلات همگن خطی مرتبه دوم با ضرایب ثابت = ٠ cy ay + by + و معادله درجه دوم = ٠ c + br + ar را معادلهی مشخصه(کمکی) آن است. در اینجا سه وضعیت متفاوت برای ریشههای معادله مشخصه رخ میدهد: c ١ e r١x

Διαβάστε περισσότερα

تحلیل الگوریتم پیدا کردن ماکزیمم

تحلیل الگوریتم پیدا کردن ماکزیمم تحلیل الگوریتم پیدا کردن ماکزیمم امید اعتصامی پژوهشگاه دانشهاي بنیادي پژوهشکده ریاضیات 1 انگیزه در تحلیل الگوریتم ها تحلیل احتمالاتی الگوریتم ها روشی براي تخمین پیچیدگی محاسباتی یک الگوریتم یا مساله ي

Διαβάστε περισσότερα

فهرست مطالب جزوه ی فصل اول مدارهای الکتریکی مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل تحلیل مدار به روش جریان حلقه... 22

فهرست مطالب جزوه ی فصل اول مدارهای الکتریکی مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل تحلیل مدار به روش جریان حلقه... 22 فهرست مطالب جزوه ی فصل اول مدارهای الکتریکی آنچه باید پیش از شروع کتاب مدار بدانید تا مدار را آسان بیاموزید.............................. 2 مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل................................................

Διαβάστε περισσότερα

چکیده مقدمه کلید واژه ها:

چکیده مقدمه کلید واژه ها: چکیده طی دهه های گذشته سازمان های بسیاری در اقسا نقاط جهان سیستم برنامه ریزی منابع سازمانی ERP را اتخاذ کرده اند. در باره ی منافع حسابداری اتخاذ سیستم های سازمانی تحقیقات کمی در مقیاس جهانی انجام شده است.

Διαβάστε περισσότερα

1 دایره فصل او ل کاربردهای بسیاری داشته است. یک قضیۀ بنیادی در هندسه موسوم با محیط ثابت دایره دارای بیشترین مساحت است. این موضوع در طراحی

1 دایره فصل او ل کاربردهای بسیاری داشته است. یک قضیۀ بنیادی در هندسه موسوم با محیط ثابت دایره دارای بیشترین مساحت است. این موضوع در طراحی فصل او ل 1 دایره هندسه در ساخت استحکامات دفاعی قلعهها و برج و باروها از دیرباز کاربردهای بسیاری داشته است. یک قضیۀ بنیادی در هندسه موسوم به»قضیۀ همپیرامونی«میگوید در بین همۀ شکلهای هندسی بسته با محیط ثابت

Διαβάστε περισσότερα

ارزیابی بهره وری متقاطع DEA بر پایه بهبود پارتو

ارزیابی بهره وری متقاطع DEA بر پایه بهبود پارتو چکیده ارزیابی بهره وری متقاطع DEA بر پایه بهبود پارتو جی.وو جونفی.چو جیاس ن سان کینگ یوآن ژو ارزیابی بهره وری متقاطع به عنوان یک ابزار گسترده برای تحلیل پوششی داده ها (DEA) دارای کاربرد گسترده ای در ارزیابی

Διαβάστε περισσότερα

آشنایی با پدیده ماره (moiré)

آشنایی با پدیده ماره (moiré) فلا) ب) آشنایی با پدیده ماره (moiré) توری جذبی- هرگاه روی ورقه شفافی چون طلق تعداد زیادی نوارهای خطی کدر هم پهنا به موازات یکدیگر و به فاصله های مساوی از هم رسم کنیم یک توری خطی جذبی به وجود می آید شکل

Διαβάστε περισσότερα

به نام خدا. الف( توضیح دهید چرا از این تکنیک استفاده میشود چرا تحلیل را روی کل سیگنال x[n] انجام نمیدهیم

به نام خدا. الف( توضیح دهید چرا از این تکنیک استفاده میشود چرا تحلیل را روی کل سیگنال x[n] انجام نمیدهیم پردازش گفتار به نام خدا نیمسال اول 59-59 دکتر صامتی تمرین سری سوم پیشبینی خطی و کدینگ شکلموج دانشکده مهندسی کامپیوتر زمان تحویل: 32 آبان 4259 تمرینهای تئوری: سوال 1. می دانیم که قبل از انجام تحلیل پیشبینی

Διαβάστε περισσότερα

تلفات خط انتقال ابررسی یک شبکة قدرت با 2 به شبکة شکل زیر توجه کنید. ژنراتور فرضیات شبکه: میباشد. تلفات خط انتقال با مربع توان انتقالی متناسب

تلفات خط انتقال ابررسی یک شبکة قدرت با 2 به شبکة شکل زیر توجه کنید. ژنراتور فرضیات شبکه: میباشد. تلفات خط انتقال با مربع توان انتقالی متناسب تلفات خط انتقال ابررسی یک شبکة قدرت با 2 به شبکة شکل زیر توجه کنید. ژنراتور فرضیات شبکه: این شبکه دارای دو واحد کامال یکسان آنها 400 MW میباشد. است تلفات خط انتقال با مربع توان انتقالی متناسب و حداکثر

Διαβάστε περισσότερα

6- روش های گرادیان مبنا< سر فصل مطالب

6- روش های گرادیان مبنا< سر فصل مطالب 1 بنام خدا بهینه سازی شبیه سازی Simulation Optimization Lecture 6 روش های بهینه سازی شبیه سازی گرادیان مبنا Gradient-based Simulation Optimization methods 6- روش های گرادیان مبنا< سر فصل مطالب 2 شماره

Διαβάστε περισσότερα

به نام خدا. Sparse Coding ستاره فرامرزپور

به نام خدا. Sparse Coding ستاره فرامرزپور به نام خدا Sparse Coding ستاره فرامرزپور 120728399 1 فهرست مطالب مقدمه... 0 برخی کاربردها... 0 4... تنک: کدگذاری مبانی تجزیه معادله تنک:... 5 6...:α Sparse پیدا ه یا الگوریتم کردن ضریب یادگیری ه یا روش

Διαβάστε περισσότερα

فهرست جزوه ی فصل دوم مدارهای الکتریکی ( بردارها(

فهرست جزوه ی فصل دوم مدارهای الکتریکی ( بردارها( فهرست جزوه ی فصل دوم مدارهای الکتریکی ( بردارها( رفتار عناصر L, R وC در مدارات جریان متناوب......................................... بردار و کمیت برداری.............................................................

Διαβάστε περισσότερα

4 آمار استنباطی 2 برآورد 1 فصل چهارم: آمار استنباطی

4 آمار استنباطی 2 برآورد 1 فصل چهارم: آمار استنباطی 4 آمار استنباطی 1 گردآوری داده ها برآورد 1 فصل چهارم: آمار استنباطی گردآوری داده ها 1 فعالیت می خواهیم برخی از ویژگی های مگس های سفید مزاحم در شهر تهران را بررسی کنیم. آیا برای انجام این کار می توانیم

Διαβάστε περισσότερα

سلسله مزاتب سبان مقدمه فصل : زبان های فارغ از متن زبان های منظم

سلسله مزاتب سبان مقدمه فصل : زبان های فارغ از متن زبان های منظم 1 ماشیه ای توریىگ مقدمه فصل : سلسله مزاتب سبان a n b n c n? ww? زبان های فارغ از متن n b n a ww زبان های منظم a * a*b* 2 زبان ها پذیرفته می شوند بوسیله ی : ماشین های تورینگ a n b n c n ww زبان های فارغ

Διαβάστε περισσότερα

جلسه دوم سوم چهارم: مقدمه اي بر نظریه میدان

جلسه دوم سوم چهارم: مقدمه اي بر نظریه میدان هو الحق دانشکده ي مهندسی کامپیوتر کدگذاري شبکه Coding) (Network سه شنبه 21 اسفند 1393 جلسه دوم سوم چهارم: مقدمه اي بر نظریه میدان استاد: مهدي جعفري نگارنده: علیرضا حیدري خزاي ی در این نوشته مقدمه اي بر

Διαβάστε περισσότερα

مارکوف 1.مقدمه: سید مهدی صفوی محمد میکاییلی محمد پویان چکیده ما با مطالعه مدل مخفی میدان تصادفی مارکوف از الگوریتم EM

مارکوف 1.مقدمه: سید مهدی صفوی محمد میکاییلی محمد پویان چکیده ما با مطالعه مدل مخفی میدان تصادفی مارکوف از الگوریتم EM و بخش بندی تصاویر براساس مارکوف مدل میدان تصادفی مخفی 3 سید مهدی صفوی محمد میکاییلی محمد پویان -دانشجو گروه مهندسی پزشکی دانشکده فنی مهندسی دانشگاه شاهد 3- عضوهیات علمی دانشیار گروه مهندسی پزشکی دانشکده

Διαβάστε περισσότερα

فصل سوم جریان های الکتریکی و مدارهای جریان مستقیم جریان الکتریکی

فصل سوم جریان های الکتریکی و مدارهای جریان مستقیم جریان الکتریکی فصل سوم جریان های الکتریکی و مدارهای جریان مستقیم جریان الکتریکی در رساناها مانند یک سیم مسی الکترون های آزاد وجود دارند که با سرعت های متفاوت بطور کاتوره ای)بی نظم(در حال حرکت هستند بطوریکه بار خالص گذرنده

Διαβάστε περισσότερα

فصل چهارم تعیین موقعیت و امتدادهای مبنا

فصل چهارم تعیین موقعیت و امتدادهای مبنا فصل چهارم تعیین موقعیت و امتدادهای مبنا هدف های رفتاری پس از آموزش و مطالعه این فصل از فراگیرنده انتظار می رود بتواند: 1 راهکار کلی مربوط به ترسیم یک امتداد در یک سیستم مختصات دو بعدی و اندازه گیری ژیزمان

Διαβάστε περισσότερα

مود لصف یسدنه یاه لیدبت

مود لصف یسدنه یاه لیدبت فصل دوم 2 تبدیلهای هندسی 1 درس او ل تبدیل های هندسی در بسیاری از مناظر زندگی روزمره نظیر طراحی پارچه نقش فرش کاشی کاری گچ بری و... شکل های مختلف طبق الگویی خاص تکرار می شوند. در این فصل وضعیت های مختلفی

Διαβάστε περισσότερα

هد ف های هفته ششم: 1- اجسام متحرک و ساکن را از هم تشخیص دهد. 2- اندازه مسافت و جا به جایی اجسام متحرک را محاسبه و آن ها را مقایسه کند 3- تندی متوسط

هد ف های هفته ششم: 1- اجسام متحرک و ساکن را از هم تشخیص دهد. 2- اندازه مسافت و جا به جایی اجسام متحرک را محاسبه و آن ها را مقایسه کند 3- تندی متوسط هد ف های هفته ششم: 1- اجسام متحرک و ساکن را از هم تشخیص دهد. - اندازه مسافت و جا به جایی اجسام متحرک را محاسبه و آن ها را مقایسه کند 3- تندی متوسط اجسام متحرک را محاسبه کند. 4- تندی متوسط و لحظه ای را

Διαβάστε περισσότερα

جلسه ی ۱۱: درخت دودویی هرم

جلسه ی ۱۱: درخت دودویی هرم دانشکده ی علوم ریاضی ساختمان داده ا بان جلسه ی : درخت دودویی هرم مدر س: دکتر شهرام خزاي ی نگارنده: احمدرضا رحیمی مقدمه الگوریتم مرتب سازی هرمی یکی دیگر از الگوریتم های مرتب سازی است که دارای برخی از بهترین

Διαβάστε περισσότερα

راهنمای کاربری موتور بنزینی )سیکل اتو(

راهنمای کاربری موتور بنزینی )سیکل اتو( راهنمای کاربری موتور بنزینی )سیکل اتو( هدف آزمایش : شناخت و بررسی عملکرد موتور بنزینی تئوری آزمایش: موتورهای احتراق داخلی امروزه به طور وسیع برای ایجاد قدرت بکار می روند. ژنراتورهای کوچک پمپ های مخلوط

Διαβάστε περισσότερα

Spacecraft thermal control handbook. Space mission analysis and design. Cubesat, Thermal control system

Spacecraft thermal control handbook. Space mission analysis and design. Cubesat, Thermal control system سیستم زیر حرارتی ماهواره سرفصل های مهم 1- منابع مطالعاتی 2- مقدمه ای بر انتقال حرارت و مکانیزم های آن 3- موازنه انرژی 4 -سیستم های کنترل دما در فضا 5- مدل سازی عددی حرارتی ماهواره 6- تست های مورد نیاز

Διαβάστε περισσότερα

Top Down Parsing LL(1) Narges S. Bathaeian

Top Down Parsing LL(1) Narges S. Bathaeian طراحی کامپایلر Top Down Parsing LL1) تعریف top down parsing Parse tree را از ریشه به سمت برگها می سازد. دو نوع LL1), LLk) Recursive descent مثال G = {S},{, ) }, P, S) S S S ) S ε ))$ مثال S S ) S ε ))$

Διαβάστε περισσότερα

اصول انتخاب موتور با مفاهیم بسیار ساده شروع و با نکات کاربردی به پایان می رسد که این خود به درک و همراهی خواننده کمک بسیاری می کند.

اصول انتخاب موتور با مفاهیم بسیار ساده شروع و با نکات کاربردی به پایان می رسد که این خود به درک و همراهی خواننده کمک بسیاری می کند. اصول انتخاب موتور اصول انتخاب موتور انتخاب یک موتور به در نظر گرفتن موارد بسیار زیادی از استانداردها عوامل محیطی و مشخصه های بار راندمان موتور و... وابسته است در این مقاله کوتاه به تاثیر و چرایی توان و

Διαβάστε περισσότερα

فیلتر کالمن Kalman Filter

فیلتر کالمن Kalman Filter به نام خدا عنوان فیلتر کالمن Kalman Filter سیدمحمد حسینی SeyyedMohammad Hosseini Seyyedmohammad [@] iasbs.ac.ir تحصیالت تکمیلی علوم پایه زنجان Institute for Advanced Studies in Basic Sciences تابستان 95

Διαβάστε περισσότερα

:موس لصف یسدنه یاه لکش رد یلوط طباور

:موس لصف یسدنه یاه لکش رد یلوط طباور فصل سوم: 3 روابط طولی درشکلهای هندسی درس او ل قضیۀ سینوس ها یادآوری منظور از روابط طولی رابطه هایی هستند که در مورد اندازه های پاره خط ها و زاویه ها در شکل های مختلف بحث می کنند. در سال گذشته روابط طولی

Διαβάστε περισσότερα

سینماتیک مستقیم و وارون

سینماتیک مستقیم و وارون 3 سینماتیک مستقیم و وارون بهنام میری پور فرد استادیار گروه مهندسی رباتیک دانشگاه صنعتی همدان همدان ایران bmf@hut.ac.ir B. Miripour Fard Hamedan University of Technology 1 در سینماتیک حرکت بررسی کند می

Διαβάστε περισσότερα

هر عملگرجبر رابطه ای روی يک يا دو رابطه به عنوان ورودی عمل کرده و يک رابطه جديد را به عنوان نتيجه توليد می کنند.

هر عملگرجبر رابطه ای روی يک يا دو رابطه به عنوان ورودی عمل کرده و يک رابطه جديد را به عنوان نتيجه توليد می کنند. 8-1 جبررابطه ای يک زبان پرس و جو است که عمليات روی پايگاه داده را توسط نمادهايی به صورت فرمولی بيان می کند. election Projection Cartesian Product et Union et Difference Cartesian Product et Intersection

Διαβάστε περισσότερα

یک سیستم تخصیص منابع هوشمند بر مبنای OFDMA در یک سیستم بیسیم توزیع شده با استفاده از تئوری بازیها

یک سیستم تخصیص منابع هوشمند بر مبنای OFDMA در یک سیستم بیسیم توزیع شده با استفاده از تئوری بازیها یک سیستم تخصیص منابع هوشمند بر مبنای OFDMA در یک سیستم بیسیم توزیع شده با استفاده از تئوری بازیها حامد رشیدی 1 و سیامک طالبی 2 1 -دانشگاه شهید باهنر كرمان 2 -دانشگاه شهید باهنر كرمان Hamed.hrt@gmail.com

Διαβάστε περισσότερα

عنوان: رمزگذاري جستجوپذیر متقارن پویا

عنوان: رمزگذاري جستجوپذیر متقارن پویا دانشگاه صنعتی شریف دانشکده مهندسی برق گزارش درس ریاضیات رمزنگاري عنوان: رمزگذاري جستجوپذیر متقارن پویا استاد درس: مهندس نگارنده: ز 94 دي ماه 1394 1 5 نماد گذاري و تعریف مسي له 1 6 رمزگذاري جستجوپذیر متقارن

Διαβάστε περισσότερα

نظریه زبان ها و ماشین ها

نظریه زبان ها و ماشین ها نظریه زبان ها و ماشین ها Theory of Languages & Automatas سید سجاد ائم ی زمستان 94 به نام خدا پیش گفتار جزوه پیش رو جهت استفاده دانشجویان عزیز در درس نظریه زبانها و ماشینها تهیه شده است. در این جزوه با

Διαβάστε περισσότερα

هادي ويسي. دانشگاه تهران - دانشکده علوم و فنون نوين نیم سال اول

هادي ويسي. دانشگاه تهران - دانشکده علوم و فنون نوين نیم سال اول هادي ويسي h.veisi@ut.ac.ir دانشگاه تهران - دانشکده علوم و فنون نوين نیم سال اول 1392-1393 مقدمه انتخاب ويژگي ها روش پوشه )Wrapper( روش فیلتر )Filter( معیارهای انتخاب ویژگی )میزان اهمیت ویژگی( آزمون آماری

Διαβάστε περισσότερα

نویسنده: محمدرضا تیموری محمد نصری مدرس: دکتر پرورش خالصۀ موضوع درس سیستم های مینیمم فاز: به نام خدا

نویسنده: محمدرضا تیموری محمد نصری مدرس: دکتر پرورش خالصۀ موضوع درس سیستم های مینیمم فاز: به نام خدا به نام خدا پردازش سیگنالهای دیجیتال نیمسال اول ۹۵-۹۶ هفته یازدهم ۹۵/۰8/2۹ مدرس: دکتر پرورش نویسنده: محمدرضا تیموری محمد نصری خالصۀ موضوع درس یا سیستم های مینیمم فاز تجزیه ی تابع سیستم به یک سیستم مینیمم

Διαβάστε περισσότερα

هدف از این آزمایش آشنایی با رفتار فرکانسی مدارهاي مرتبه اول نحوه تأثیر مقادیر عناصر در این رفتار مشاهده پاسخ دامنه

هدف از این آزمایش آشنایی با رفتار فرکانسی مدارهاي مرتبه اول نحوه تأثیر مقادیر عناصر در این رفتار مشاهده پاسخ دامنه آزما ی ش شش م: پا س خ فرکا نس ی مدا رات مرتبه اول هدف از این آزمایش آشنایی با رفتار فرکانسی مدارهاي مرتبه اول نحوه تأثیر مقادیر عناصر در این رفتار مشاهده پاسخ دامنه و پاسخ فاز بررسی رفتار فیلتري آنها بدست

Διαβάστε περισσότερα

بسم هللا الرحمن الرحیم

بسم هللا الرحمن الرحیم بسم هللا الرحمن الرحیم نام سر گروه : نام اعضای گروه : شماره گروه : تاریخ انجام آزمایش : تاریخ تحویل آزمایش : هدف آزمایش : بررسی جریان و ولتاژ در مدارهای RLC و مطالعه پدیده تشدید وسایل آزمایش : منبع تغذیه

Διαβάστε περισσότερα

عوامل جلوگیری کننده از موازی سازی عبارتند از : 1.هزینه I/O 2.هماهنگی/رقابت

عوامل جلوگیری کننده از موازی سازی عبارتند از : 1.هزینه I/O 2.هماهنگی/رقابت عوامل جلوگیری کننده از موازی سازی عبارتند از :.هزینه I/O.هماهنگی/رقابت ممکن است یک برنامه sequential بهتر از یک برنامه موازی باشد بطور مثال یک عدد 000 رقمی به توان یک عدد طوالنی اینکه الگوریتم را چگونه

Διαβάστε περισσότερα

تئوری رفتار مصرف کننده : می گیریم. فرض اول: فرض دوم: فرض سوم: فرض چهارم: برای بیان تئوری رفتار مصرف کننده ابتدا چهار فرض زیر را در نظر

تئوری رفتار مصرف کننده : می گیریم. فرض اول: فرض دوم: فرض سوم: فرض چهارم: برای بیان تئوری رفتار مصرف کننده ابتدا چهار فرض زیر را در نظر تئوری رفتار مصرف کننده : می گیریم برای بیان تئوری رفتار مصرف کننده ابتدا چهار فرض زیر را در نظر فرض اول: مصرف کننده یک مصرف کننده منطقی است یعنی دارای رفتار عقالیی می باشد به عبارت دیگر از مصرف کاالها

Διαβάστε περισσότερα

محاسبات کوانتمی 1 علم ساخت و استفاده از کامپیوتري است که بر پایه ي اصول مکانیک کوانتم قرار گرفته است.

محاسبات کوانتمی 1 علم ساخت و استفاده از کامپیوتري است که بر پایه ي اصول مکانیک کوانتم قرار گرفته است. محاسبات کوانتمی (22671) ترم بهار 1390-1391 مدرس: سلمان ابوالفتح بیگی نویسنده: سلمان ابوالفتح بیگی جلسه 1 محاسبات کوانتمی 1 علم ساخت و استفاده از کامپیوتري است که بر پایه ي اصول مکانیک کوانتم قرار گرفته

Διαβάστε περισσότερα

تجزیهی بندرز مقدمه کشور هستند. بدین سبب این محدودیتهای مشترک را محدودیتهای پیچیده

تجزیهی بندرز مقدمه کشور هستند. بدین سبب این محدودیتهای مشترک را محدودیتهای پیچیده تجزیهی بندرز مقدمه بسیاری از مسایلی که از نطر عملی از اهمیت برخوردارند را میتوان بهصورت ترکیبی از چند مساله کوچک در نظر گرفت. در واقع بسیاری از سیستمهای دنیای واقعی دارای ساختارهایی غیر متمرکز هستند. به

Διαβάστε περισσότερα

جلسه 28. فرض کنید که m نسخه مستقل یک حالت محض دلخواه

جلسه 28. فرض کنید که m نسخه مستقل یک حالت محض دلخواه نظریه اطلاعات کوانتمی 1 ترم پاییز 1392-1391 مدرسین: ابوالفتح بیگی و امین زاده گوهري نویسنده: مرتضی نوشاد جلسه 28 1 تقطیر و ترقیق درهم تنیدگی ψ m بین آذر و بابک به اشتراك گذاشته شده است. آذر و AB فرض کنید

Διαβάστε περισσότερα

فصل چهارم : مولتی ویبراتورهای ترانزیستوری مقدمه: فیدبک مثبت

فصل چهارم : مولتی ویبراتورهای ترانزیستوری مقدمه: فیدبک مثبت جزوه تکنیک پالس فصل چهارم: مولتی ویبراتورهای ترانزیستوری فصل چهارم : مولتی ویبراتورهای ترانزیستوری مقدمه: فیدبک مثبت در تقویت کننده ها از فیدبک منفی استفاده می نمودیم تا بهره خیلی باال نرفته و سیستم پایدار

Διαβάστε περισσότερα

تعیین محل قرار گیری رله ها در شبکه های سلولی چندگانه تقسیم کد

تعیین محل قرار گیری رله ها در شبکه های سلولی چندگانه تقسیم کد تعیین محل قرار گیری رله ها در شبکه های سلولی چندگانه تقسیم کد مبتنی بر روش دسترسی زلیخا سپهوند دانشکده مهندسى برق واحد نجف آباد دانشگاه آزاد اسلامى نجف آباد ایر ان zolekhasepahvand@yahoo.com روح االله

Διαβάστε περισσότερα

فصل اول پیچیدگی زمانی و مرتبه اجرایی

فصل اول پیچیدگی زمانی و مرتبه اجرایی فصل اول پیچیدگی زمانی و مرتبه اجرایی 1 2 پیچیدگی زمانی Complexity) (Time مثال : 1 تابع زیر جمع عناصر یک آرایه را در زبان C محاسبه می کند. در این برنامه اندازه ورودی همان n یا تعداد عناصر آرایه است و عمل

Διαβάστε περισσότερα

1- مقدمه. 2 Action. 1 Heuristic

1- مقدمه. 2 Action. 1 Heuristic یک الگوریتم نوین جهت رنگ آمیزی گراف با استفاده از آتوماتای یادگیر حبیب مطیع قادر دانشگاه آزاد اسلامی واحد تبریز باشگاه پژوهشگران جوان Habib_moti@yahoo.com عباس میرزایی ثمرین بورسیه هیات علمی دانشگاه آزاد

Διαβάστε περισσότερα

Nonparametric Shewhart-Type Signed-Rank Control Chart with Variable Sampling Interval

Nonparametric Shewhart-Type Signed-Rank Control Chart with Variable Sampling Interval International Journal of Industrial Engineering & Production Management 2013) ugust 2013, Volume 24, Number 2 pp. 183-189 http://ijiepm.iust.ac.ir/ Nonparametric Shewhart-Type Signed-Rank Control Chart

Διαβάστε περισσότερα

شبکه های عصبی در کنترل

شبکه های عصبی در کنترل شبکه های عصبی در کنترل دانشگاه نجف آباد درس: کنترل هوشمند در فضای سایبرنتیک مدرس: حمید محمودیان مدل ریاضی نرون مدل ریاضی یک نرون ساده به صورت روبرو است P: مقدار کمیت ورودی b: مقدار بایاس )عرض از مبدا تابع

Διαβάστε περισσότερα

SanatiSharif.ir مقطع مخروطی: دایره: از دوران خط متقاطع d با L حول آن یک مخروط نامحدود بدست میآید که سطح مقطع آن با یک

SanatiSharif.ir مقطع مخروطی: دایره: از دوران خط متقاطع d با L حول آن یک مخروط نامحدود بدست میآید که سطح مقطع آن با یک مقطع مخروطی: از دوران خط متقاطع d با L حول آن یک مخروط نامحدود بدست میآید که سطح مقطع آن با یک صفحه میتواند دایره بیضی سهمی هذلولی یا نقطه خط و دو خط متقاطع باشد. دایره: مکان هندسی نقاطی است که فاصلهی

Διαβάστε περισσότερα

Delaunay Triangulations محیا بهلولی پاییز 93

Delaunay Triangulations محیا بهلولی پاییز 93 محیا بهلولی پاییز 93 1 Introduction در فصل های قبلی نقشه های زمین را به طور ضمنی بدون برجستگی در نظر گرفتیم. واقعیت این گونه نیست. 2 Introduction :Terrain یک سطح دوبعدی در فضای سه بعدی با یک ویژگی خاص

Διαβάστε περισσότερα