فی دوو

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

فی دوو

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

تحقیق در مورد تحلیل عملکرد تغذیهای خانوارها کاربرد برنامه ریزی خطی

اختصاصی از فی دوو تحقیق در مورد تحلیل عملکرد تغذیهای خانوارها کاربرد برنامه ریزی خطی دانلود با لینک مستقیم و پر سرعت .

تحقیق در مورد تحلیل عملکرد تغذیهای خانوارها کاربرد برنامه ریزی خطی


تحقیق در مورد تحلیل عملکرد تغذیهای خانوارها کاربرد برنامه ریزی خطی

لینک پرداخت و دانلود *پایین مطلب*

 

فرمت فایل:Word (قابل ویرایش و آماده پرینت)

  

تعداد صفحه36

 

فهرست مطالب

  چکیده مقدمه 1. داده‌ها و اطلاعات 2. عملکرد تغذیه‌ای خانوارهای شهری و روستایی ایران 3. تعیین حداقل مخارج لازم برای تأمین ارزش‌های غذایی: کاربرد برنامه‌ریزی خطی

عملکرد تغذیه‌ای خانوارها به عوامل مختلفی همچون توان اقتصادی، دسترسی به بازار مواد خوراکی، سطح دانش و اطلاعات تغذیه‌ای آنها وابسته است. در سالهای اخیر در خصوص الگوی مصرف خانوارها و ضرورت تصحیح آن بسیار بحث شده است. متخصصین علم تغذیه بر دسترسی خانوارها به ارزش‌های غذایی متنوع بسیار تأکید نموده‌اند. الگوی مصرف بهینه را در حوزه علم اقتصاد می‌توان به صورت دسترسی به ارزش‌های غذایی مختلف همچون انرژی و پروتئین، مواد معدنی و سایر ریزمغذی‌ها با حداقل هزینه ممکن تعریف نمود. در این مقاله ضمن بررسی عملکرد تغذیه‌ای خانوارها با استفاده از روش برنامه‌ریزی خطی، حداقل مخارج لازم برای تأمین نیازهای غذایی متناسب با الگوی پیشنهادی متخصصین علم تغذیه محاسبه می‌گردد و سپس با مقایسه آن با مخارج واقعی گروههای مختلف درآمدی در شهر و روستا، نسبت به کارایی مخارج واقعی خانوارهای شهری و روستایی ایران قضاوت می‌کنیم. در تعیین حداقل مخارج لازم، از 29 قید که در برگیرنده توصیه‌های مراجع علم تغذیه می‌باشد استفاده شد. یافته‌های این مقاله دلالت بر آن دارد که خانوارهای شهری و روستایی در تعیین محتویات سبد خوراکی خود کارا عمل نموده‌اند و با توجه به توصیه‌های متخصصین علم تغذیه، مخارج خود را به طور مؤثر بین اقلام مختلف خوراکی تخصیص


دانلود با لینک مستقیم


تحقیق در مورد تحلیل عملکرد تغذیهای خانوارها کاربرد برنامه ریزی خطی

دانلود مقاله برنامه ریزی خطی حوزه حداقل ، برای پوشش تنظیم های افراطی

اختصاصی از فی دوو دانلود مقاله برنامه ریزی خطی حوزه حداقل ، برای پوشش تنظیم های افراطی دانلود با لینک مستقیم و پر سرعت .

 

 

برنامه ریزی خطی حوزه حداقل ، برای پوشش تنظیم های افراطی در ماشین های یادگیری

 


خلاصه مطا لب
در بهینه سازی جدید ماشین های یادگیری (ELM) روش های ترکیبی پیشنهاد شده ، که به وسیله آنها ماتریس با پوشش گسترده را توسط تابع صاف ،آرامش عینی ومحدود یت های کلی تر روش برنامه ریزی خطی برای تعیین حوزه حداقل ، در تدوین و شکل گیری پوشش های مشکل تعریف کردیم . ما این روش را برنامه ریزی خطی حوزه حداقل را برای پوشش تنظیم های افراطی ماشین های یادگیری (LPMSSC) نام گذاری کردیم . علاوه بر این در این مقاله ما به مطابقت LPMSSC محدود و LPMSSC گسترده با استفاده از معادله نا اقلیدسی L1 و متریک L- بی نهایت پرداخته و سپس آن برای کاربرد ،روش LPMSSC را در ELM پیشنهاد نمودیم و در نهایت یک داده مستقل در الگوریتم (DDELM) ELM را ارائه دادیم . به این وسیله ما میتوانیم ELM پیوسته را برای طبقه بندی نمونه ها به طریق LPMSSC به دست آوریم . در این مقاله ما به بررسی عملکرد روش ارائه شده از طریق مبنا قرار دادن مجموعه داده ها UCI پرداختیم .

 

واژه های کلیدی :
ماشین های یاد گیری افراطی ، پوشش مجموعه حوزه های حد اقل ، بر نامه ریزی خطی ، طبقه بندی الگویی

 

مقدمه :
اخیراً یک الگوریتم یادگیری جدید برای شبکه های کنترل کننده با لایه مخفی منفرد (SLFN) پیشنهاد شده است که ماشین یادگیری افراطی (ELM) نامیده می شود . در(ELM) پارامتر های گره مخفی (وزن های ورودی ،تمایلات پنهان یا مراکز RBF و عوامل موثر بر گره پنهان می باشد که به شکل تصادفی انتخاب شده و وزن های خروجی به صورت تحلیلی با استفاده مور-پنورس (MP) معکوس عمومی تعیین شده اند . ELM تنها به یادگیری بسیارسریع با عملکرد بالاتر کلیت اجرا نسبت به شیب قدیمی بر اساس الگوریتم های یادگیری نمی پردازد بلکه از مشکلات بسیاری که به وسیله شیب ایجاد میگردد که مبتنی بر روش های یاد گیری مانند معیار توقف ، نرخ یاد گیری ، دوره های یاد گیری ، و اقلیت های بومی می باشد جلوگیری می کند .
بنابراین پیشنهاد می شود که نسخه پویا ELM به صورت E-ELM نام گذاری شود ودراین صورت E-ELM ثبت شده می تواند معماری شبکه های فشرده بیشتری را نسبت به ELM اصلی فراهم کند. بنابراین انتخاب معیار عملکرد برای الگوریتم محاسبات تکاملی و همین طور E-ELM ها تعیین می گردد که این معیار ممکن است در ساختارهای توپولوژی های مختلف مورد استفاده قرار گیرد . همین طر برای شبکه های عصبی کنترل کننده ساختار های بسیاری از روش های اکتشافی وجود دارد که مانند ساختار داده ها برای حفظ معیار ها [K] و تعامد حداقل توان (OLS) [16] هرس و تنظیم در حال رشد و مانند آن موثر باشد . د رواقع برای اکثر این روش ها ما به یک معیار قیاسی برای مشکل انتخاب ساختار نیاز داریم که این امر کاملا ً بر تجارب ذهنی مرتبط می باشد . از آنجایی که در اغلب موارد به شکل غیر ضروری تعداد زیادی از نرونها در ELM مخفی می باشد لازم است برای استفاده کار آمد از برخی از آنها ساختار های توپولوژی شبکه های پویاتری را فراهم نمود . در این مقاله ما سعی می کنیم به تعیین مدل توپولوژی شبکه ELM-RBF به عنوان مشکل پوشش مجموعه از حوزه های حد اقل بپردازیم .
در ابتدا ما به تولید داده های حوزه های وابسته با توجه به نمونه های آموزشی و سپس به معرفی مفهوم 1-0 ماتریس پوشش می پردازیم . از آنجایی که راه حل برنامه ریزی عدد صحیح یک سیستم سخت می باشد ما پیشنهاد کنیم که از یک مبنای ساده تابع (مشابه تابع فعال سازی حساب کاربری سنتی مثل شبکه های عصبی کنترل کننده) استفاده گردد. ما دراین مقاله روش پوشش مجموعه حوزه های بر نامه ریزی خطی را(LPMSSC) می نامیم LPMSSC می تواند به صورت اتوماتیک به تولید کنترل کننده های پیوسته در ساختار شبکه های عصبی خنثی با استفاده از دادههای وابسته به تابع صاف و را ه حل برنامه ریزی خطی بپردازد که این می توان در چارچوب تئوری VC توجیه نمود . این مقاله به شکل زیر سازماندهی شده است . در بخش 2 ما به بررسی روش LP و برخی از الگوریتم های توسعه یافته حل مشکل پوشش مجموعه ای از حوزه ها می پردازیم . بخش 3 ارائه دهنده داده های مر تبط با الگوریتم ELM-RBF می باشد . آزمایش های انجام گرفته در این زمینه و بررسی آنها در بخش 4 مورد بررسی قرار می گیرد ودر نهایت اظهارات و نتیجه گیری های انجام شده در بخش 5 ارائه می شود.

 

2- روش برنامه ریزی خطی پوشش حداقل حوزه های مجموعه
در نمونه های آموزشی داده شده D= در اینجا و می باشد. پوشش مجموعه حوزه ها در مساله طبقه بندی دودویی برای یافتن مجموعه ای از حوزه ها با طبقه بندی ویژه می باشد که در این صورت و است در اینجا هر حوزه Si توسط مرکز C(Sj) ،شعاع r(si) و برچسب رده r(si) توصیف شده است. اگر در نمونه مفروض Xi به وسیله حوزه Sj پوشش داده شود به عنوان مثال این صورت تنها فاصله اقلیدسی میان نمونه Xi و مرکزC(Sj) کمتر از شعاع r(Sj) خواهد بود که به عنوان نمونه بنابراین با ثبت سوابق قبلی ما می توانیم داده های وابسته به حوزه si را برای xi به شکل زیر تعریف نماییم :
1)
در اینجا xi نمونه ای است که به نزدیکترین طبقه به مثال xi تعلق دارد.

 

1-2 پوشش مجموعه ای از حوزه های حداقل از طریق برنامه ریزی عدد صحیح
برای مجموعه ای از حوزه های داده شده S={si,i= 1,….,n} مامی توانیم در یک ماتریس پوشش 1-0را چنین تعریف نماییم.

یا
در اینجا d(xi,xj)یک فاصله اقلیدسی میان rj , xi , xj می باشد که شعاع حوزه sj بر xj تمرکز یافته است . بنابراین kij ورودی 1 می باشد که این امر در صورتی ممکن است که حوزه مورد نظر برای xj تمرکز یافته و xi را پوشش دهد . مساله پوشش مجموعه حوزه حداقل می تواند به عنوان برنامه ریزی عدد صحیح به صورت زیر فرمول بندی شود :

3)

در اینجا حاصل جمع شماری از حوزه های است که در مجموعه فرعی حوزه z قرار می گیرد. و شماری از حوزه هایی که است که نمونه xi را در برمی گیرد . حداکثر تابع هدف شمار حوزه ها در زیر مجموعه های z می باشد که دراین وقت محدودیت ها پوشش حوزه ها در حداقل یک نمونه را تضمین می کند . برای برخی از مسائل امکاناتی در هر نکته وجود دارد که می تواند حوزه را تحت پوشش قرار دهد. برای هموار کردن برخی از خطاها ما می توانیم متغییرهای کمکی را معرفی نماییم همچون ماشین بردار کمکی (svm) و این برنامه ریزی عدد صحیح را به صورت زیر بازنویسی نماییم :

 

4)

در اینجا c>0 یک عدد ثابت است که مبادله میان اشتباهات آموزشی و شماره حوزه را کنترل می کند برای حل مساله برنامه ریزی عدد صحیح ما میتوانیم نتیجه را با استفاده از تابع طبقه بندی به دست آوریم .
5)

علاوه بر این هر دو فرمول (3) و(4) مساله برنامه ریزی عدد صحیح می باشد که LP را برای مجموعه پوشش ماشینی بسط و گسترش می دهد .

 

2-2پوشش مجموعه حوزه های حداقل گسترده از طریق برنامه ریزی خطی
همان طور که در معادله (2) تعریف شد ماتریس پوشای k به صورت دودویی می باشد که این امر به خاطر عناصر مجموعه s در حوزه می باشد و این امر بیشتر به وسیله تصمیم گیری دودویی حاصل می شو د . ما می
توانیم بار دیگر ماتریس پوشا را با استفاده از تابع صاف ویژه به صورت زیر نشان دهیم :
6)
در اینجا F basis(0) یک تابع صاف همچون یک تابع RBF به صورت
می باشد که یک پارامتر کنترل با سرعت از بین میرود . چیزی که بیشتر ما میتوانیم در این زمینه انجام دهیم کم کردن قیود ومحدودیت ها که در این زمینه وجود دارد که میتواند به صورت در عوض اعداد صحیح ثابت قرار گیرد. برای بررسی طبقه بندی برچسب اطلاعات ما میتوانیم فرمول LP را به شکل زیر به دست آوریم :

 

7)

تابع هدف شمار حوزه ها در زیر مجموعه به حداقل می رساند در اینجا c>0 ثابت است که مبادله میان خطاهای آموزشی و شمار حوزه ها را کنترل می کند . در نهایت ما می توانیم هر حل کننده LP را به خاطر حل این مساله به کار بریم . بار دیگر ما میتوانیم تابع تصمیم را برای هر نمونه نامکشوف x به شکل زیر نشان دهیم :
8)

 

3-2 پوشش مجموعه حوزه های حداقل هستهای از طریق برنامه ریزی خطی
به خاطر اینکه روش پیشنهادی به خوبی در فضای ابعادی کار می کند تکنیک هسته ای می تواند مورد استفاده قرار گیرد . برای یاد آوری فوت وفن هسته ای اولا باید تابع غیر خطی استفاده کرد وسپس داده ها را در فضای ویژه F جاسازی نمود که در آنجا نمونه های غیر خطی موجود به شکل خطی نشان داده می شود. در الگوریتم اجرایی بیشتر سعی بر این است که حاصلضرب میانی به شکل جفت در نقاط مختلف جاسازی شود . در نهایت بخش های هسته ای می توانند مورد استفاده قرار گیرند مثلا مضرب درونی در فضای ویژه می تئاند به شکل مستقیم از منابع وتوسط هسته های مرسر مورد محاسبه قرار گیرد . در حال حاضر ما می توانیم تعریفی از داده اهی وابسته به حوزه ها را ارائه دهیم . با استفاده از تابع نقشه کشی غیر خطی ما میتوانیم از گام های مشتق گیری در معادله (1) پیروی کنیم و به این وسیله مساله را می توانیم به این شکل توضیح دهیم :
اگر نمونه داده شده توسط حوزه بالاتر sjk پوشش داده شود در این صورت خواهد بود در اینجا k ارائه دهنده هسته مرسر می باشد . و این امر تنها در صورتی است که فاصله میان نمونه و مرکزc(sjk) از شعاع r(sjk) کمتر است . بنابراین با توجه به نشانه های قبلی ما می توانیم داده های زیر را در ارتباط با حوزه های فوق در sik تعریف نماییم برای هر نمونه در xi فضای ویژه در هسته می شود.
9)
با استفاده از خطوط هسته ای در معادله (9) ما میتوانیم آن را به صورت زیر ساده سازی نماییم :
10)
در نتیجه ما میتوانیم ماتریس پوشای هسته ای 1-0 را به شکل زیر تعریف کنیم :
11)
با استفاده از این تعریف ما میتوانیم به سادگی همان راه حل به عنوان معادل 4 را ارائه دهیم اما توجه کنید که ماتریس پوشا اکنون به صورت هسته ای می باشد
همین طور ما میتوانیم بار دیگر ماتریس پوشای هسته ای را به شکل سلیس به صورت زیر نشان دهیم .
12)
با توجه به تابع RBF ما باید آن را بار دیگر در فضای ویژه هسته به صورت زیر بنویسیم :
13)
در اینجا
این مقاله هسته به دلیل عملکرد عالی درحوزه طبقه بندی انتخاب شده است . بنابراین به دلیل قابل تنظیم و تطبیق می باشد . ما میتوانیم به سادگی آیتم را از معادله 13 پاک کنیم.
بار دیگر ما میتوانیم همان راه حل را همچون معادله 7 ارائه نماییم اما توجه داشته باشید ورودی در ماتریس پوشا در حال حاضر توسط معادله زیر جایگزین می گردد .

با توجه به این که مثال نادیده x از تابع تصمیم هسته ای به شکل زیر تبعیت می کند :
14)

 

باید توجه کرد که در شکل هسته ای نیازی به دانستن تعابیر واقعی در مرکز فضای ویژه نیست همانطور که پیش از این ذکر شد ما تنها به بدست آوردن حاصلضرب شکل درونی هبورتی که بتواند توسط مرسر هسته ای جایگزین گردد نمی باشیم .

 

4-2 گسترش فاصله نا اقلیدسی
در واقع جز برای بیان فاصله اقلیدسی یا (L2) همچنان فاصله L1 و فاصله L نامحدود نیز موجود می باشد از آنجا که تنها در زمینه اصلاح ما باید مراقب فاصله متریک باشیم ما فقط داده های وابسته به تعاریف حوزه برای در تعمیم فاصله اقلیدسی را ارائه می دهیم . برای فاصله مورد L1 ما میتوانیم داده های وابسته به حوزه زا به صورت زیر تعریف می کنیم :
15)
در اینجا 1 روش L1 را مشخص می کند
برای فاصله مورد بی نهایت L- ما می توانیم داده وابسته به حوزه را به صورت زیر تعریف نماییم :
16)
در اینجا روش L1 را مشخص می کند
با استفاده از این دو تعریف ما می توانیم به طور طبیعی ،به نتیجه گیری حوزه مربوط به تعیین حداقل پوشش عبارات از طریق LP بپردازیم . توجه داشته باشید ایجاد اصلاحات بزرگ هنوز در فاصله آیتم کذب واوی خلاف واقع می باشد . با انواع فواصل متفاوت ما میتوانیم بسط و گسترش متفتوتی را ایجاد نماییم گام بعدی تقریبا مانند عملکرد در نسخه هسته ای می باشد . به منظور اختصار ما در این مقاله به بحث و بررسی این موضوع نمی پردازیم . اما قطعا تلاش برای استفاده از دیگر فواصل متریک (به غیر از بی نهایت L1 , L2 , L0) ارزشمند است در واقع یکی کردن از دانش های قبلی در یادگیری کارهایی چون فواصل متریک ماهالانوبین از جمله این امور می باشد . بدیهی است که این امر می تواند راهی جهت پیشرفت های آینده باشد .

 

3- داده های وابسته به الگوریتم ELM-RBF
در این بخش ما داده های وابسته الگوریتم یاد گیری ELM-RBF را پیشنهاد می کنیم . ما نشان می دهیم که چگونه LPMSSC می تواند به اجرای داده های وابسته به توپولوژی ELM-RBF برای مساله طبقه بندی دور ده بپردازد . پیش از اینکه ما به این مبحث وارد شویم ، به طور مختصری به بررسی الگوریتم اصلی ELM-RBF که توسط هوآنک پیشنهاد شده است می پردازیم .

 

1-3 بررسی ELM-RBF
نمونه آموزشی داده شده D= یک REFNN با هسته های n برای دو طبقه بندی رده می باشد که می تواند به شکل زیر نمایش داده شود
17)
در اینجا رابط فشار I هسته ای و اعصاب خروجی و کاربرد i هسته ای که معمولا به شکل تابع گائوسی می باشد :
18)

در اینجا هسته مرکزی I می باشد و عرض تماس می باشد .
بنابراین الگوریتم اصلیELM-RBF در[9] عبارت است از:مجموعه داده های آموزشی مفروض وشمار هسته ای
گام اول: اختصاص بی هدف مرکز هستهای و عرض تماس
گام دوم : محاسبه لایه پنهانی (هسته) در ماتریس خارجی
گام سوم : محاسبه فشار خارجی
نکته : توجه کنید که در الگوریتم اصلی ELM-RBF هسته مرکزی و عرض فشار کاملا بی هدف و به طور مستقل مجموعه داده ها را آموزش می دهد . این امر نیازمند به شمار هسته ای برای یاد گیری کار می باشد که این روند به خوبی مشخص شده است .
2-3 داده های وابسته به الگوریتم ELM-RBF

 

 

فرمت این مقاله به صورت Word و با قابلیت ویرایش میباشد

تعداد صفحات این مقاله 14   صفحه

پس از پرداخت ، میتوانید مقاله را به صورت انلاین دانلود کنید


دانلود با لینک مستقیم


دانلود مقاله برنامه ریزی خطی حوزه حداقل ، برای پوشش تنظیم های افراطی

جزوه آموزش اجزاء محدود غیر خطی پروفسور عیسی سلاجقه

اختصاصی از فی دوو جزوه آموزش اجزاء محدود غیر خطی پروفسور عیسی سلاجقه دانلود با لینک مستقیم و پر سرعت .

جزوه آموزش اجزاء محدود غیر خطی پروفسور عیسی سلاجقه


جزوه آموزش اجزاء محدود غیر خطی پروفسور عیسی سلاجقه

 

 

 

 

در طول دهه های گذشته تحلیل به روش اجزای محدود از یک ابزار صرفا تحلیلی وارد دنیای عملی طراحی های مهندسی شده است. نرم افزار های کامپیوتری با قابلیت تحلیل به روش اجزای محدود مجهز شده اند و مهندسان طراح به طور گسترده از روش اجزای محدود در مراحل طراحی خود استفاده می کنند. هرچند اخیرا بیشتر نرم افزار های تحلیلی مورد استفاده مهندسان به روش تحلیل خطی بودند، تحلیل خطی تقریب قابل قبولی از ویژگی ها و رفتار حقیقی بیشتر مسائل مهندسی ارائه می دهد ولی در برخی موارد که باعث رفتار غیر خطی می گردند چالش های بزرگی بوجود می آید. از نظر تاریخی مهندسان به علت وجود فرمول های پیچیده و زمان طولانی حل مسائل غیر خطی به استفاده از روش های تحلیل غیر خطی تمایلی نشان نمی دادند، اما امروزه به علت وجود نرم افزارهایی با قابلیت تحلیل غیر خطی به روش اجزای محدود با محیط کاربری آسان این رویکرد دچار تحول شده است. بعلاوه روش های توسعه یافته حل مسائل و کامپیوترهای قدرتمند زمان حل مسائل را بسیار کاهش داده است. در یک دهه گذشته مهندسان روش اجزای محدود را به عنوان یک روش طراحی با ارزش و دور از دسترس قلمداد می کردند. امروزه مهندسان طراح به فواید تحلیل غیر خطی به روش اجزای محدود و استفاده از آن در مراحل طراحی آگاهی کامل دارند...

جزوه آموزش اجزاء محدود غیر خطی پروفسور عیسی سلاجقه، جزوه ای مفید و کاربردی از درس اجزاء محدود غیر خطی است. این جزوه مشتمل بر 7 فصل، 206 صفحه، با فرمت pdf، به زبان فارسی، همراه با ذکر نکات، فرمول های مهم و کاربردی و همچنین حل مثال های متعدد به ترتیب زیر گردآوری شده است:

فصل 1: تحلیل غیر خطی هندسی عضو خرپایی

  • خرپای دو عضوی
  • تحلیل غیر خطی خرپای دو عضوی بر اساس روابط مثلثاتی
  • روش های کنترل بار
  • روش نموی خالص
  • مثال: تحلیل خرپای دو عضوی از روش بدون تکرار
  • روش نیوتن، رافسون
  • روش نیوتن، رافسون اصلاح شده
  • مثال: تحلیل خرپای دو عضوی با روش نیوتن، رافسون
  • مثال: تحلیل خرپای دو عضوی با وجود یک فنر انتقالی
  • تحلیل غیر خطی هندسی خرپا با دو درجه آزادی
  • بدست آوردن ماتریس سختی با استفاده از کار مجازی
  • بدست آوردن ماتریس سختی با استفاده از روش انرژی
  • المان خرپایی دو بعدی کم عمق (روند اجزاء محدود)

فصل 2: المان های خرپا با فرمول های متفاوت برای محاسبه کرنش ها

  • کرنش مهندسی
  • کرنش گرین
  • کرنش چرخشی لگاریتمی
  • کرنش چرخشی لگاریتمی با لحاظ تغییرات حجم
  • کرنش المانسی
  • روابط حاکم بر یک میله تحت کشش با لحاظ کرنش های متفاوت
  • روابط هندسی و رابطه کرنش، جابجایی بر مبنای کرنش گرین
  • تغییرات کرنش گرین
  • محاسبه بار داخلی گرهی با استفاده از روش کار مجازی
  • ماتریس سختی مماس
  • استفاده از توابع شکل در محاسبه ماتریس سختی مماس
  • محاسبه ماتریس سختی در حالت مختصات به هنگام شده
  • تحلیل غیرخطی هندسی خرپاهای دو بعدی بر مبنای کرنش مهندسی
  • تحلیل غیرخطی هندسی خرپاهای دو بعدی بر مبنای کرنش لگاریتمی
  • فرمول بندی هم چرخشی با استفاده از کرنش مهندسی
  • المان خرپای سه بعدی
  • مثال عددی: (مقایسه کد نوشته شده در Matlab با  Ansys)

فصل 3: تحلیل غیرخطی مصالح مسائل یک بعدی (به ویژه خرپا)

  • الگوی یک بعدی الاستیک، پلاستیک
  • معیار تسلیم
  • محاسبه وضعیت جدید در روند گام به گام
  • الگوریتم محاسبه وضعیت جدید در حالت سخت شوندگی ایزوتزوپیک
  • الگوریتم محاسبه وضعیت جدید در حالت سخت شوندگی کینماتیکی
  • مدل رامبرگ، اسگود
  • روند تعیین حالت
  • تحلیل عضو محوری
  • فرمول بندی اجزاء محدود المان خرپایی
  • مثال خرپای دو بعدی
  • الگوی رفتاری عضو خرپایی با در نظر گرفتن رفتار کمانشی و پس کمانشی
  • مثال عددی: (مقایسه کد نوشته شده در Matlab با  Ansys)

فصل 4: تحلیل غیر خطی هندسی محیط های پیوسته

  • روابط تنش و کرنش
  • روابط تانسور تنش با نیروها
  • کرنش و تنش صفحه ای و تقارن محوری
  • تجزیه تنش ها و کرنش ها به مولفه های حجمی و انحرافی
  • فرم دیگر روابط تنش، کرنش با استفاده از ثوابت لامه
  • انتقال و چرخش ها
  • چرخش صلب
  • تحلیل غیر خطی محیط های پیوسته
  • مثال: المان چهار گرهی
  • روابط بین سطح اولیه و سطح تغییر شکل یافته
  • تنش های کوشی و پیولاکیرشهف
  • کارمجازی با استفاده از کرنش گرین
  • کارمجازی با استفاده از روابط غیر خطی کرنش، جابجایی ون کارمن
  • فرم عمومی ماتریس سختی مماسی در حالت دو بعدی (حل اجزاء محدود)
  • تعمیم فرم عمومی ماتریس سختی مماسی برای حالت سه بعدی

قصل 5: تحلیل غیرخطی مصالح محیط های پیوسته

  • فرم عمومی معادلات اجزاء محدود
  • فرم کلی معادلات نموی تنش، کرنش
  • روند تعیین حالت
  • محاسبه نقطه تقاطع
  • انتگرال گیری اولر در مرحله پلاستیک
  • انتگرال گیری پیشرو اولر (روش صریح)
  • انتگرال گیری پیشرو اولر (روش ضمنی)
  • انتگرال گیری پیشرو اولر اصلاح شده با کنترل خطا
  • اصلاح برای برگشت به سطح تسلیم
  • معیار ون مایسز و مدل های سخت شوندگی
  • معادلات تنش و کرنش نموی بدون سخت شوندگی
  • معادلات تنش و کرنش نموی با سخت شوندگی ایزوتروپیک
  • معادلات تنش و کرنش نموی با سخت شوندگی کینماتیک
  • تعیین حالت در پلاستیسیته ون مایسز
  • مثال: آنالیز غیر خطی با فرض مدل ون مایسز

فصل 6: تحلیل غیرخطی تیرهای دو بعدی

  • تیرهای خمیده دو بعدی بدون تغییر شکل برشی
  • محاسبه تغییرات کرنش
  • بدست آوردن ماتریس سختی مماسی
  • تیرهای خمیده دو بعدی با در نظر گرفتن تغییر شکل برشی (تیر تیموشنکو)
  • ماتریس سختی

فصل 7: تحلیل غیرخطی پوسته ها

  • فرمول بندی پوسته کم عمق
  • رابطه کرنش، جابجایی
  • رابطه تنش، کرنش
  • توابع شکل
  • کار مجازی
  • ماتریس سختی مماسی
  • تحلیل غیرخطی پوسته ها در حالت کلی
  • ماتریس سختی مماسی

پیوست: روش های حل معادلات غیر خطی

  • مقدمه
  • الگوریتم تحلیل غیر خطی
  • روش نیوتن، رافسون
  • روش طول کمان اصلاح شده (روش کریسفیلد)

جهت خرید جزوه آموزش اجزاء محدود غیر خطی پروفسور عیسی سلاجقه به مبلغ فقط 3000 تومان و دانلود آن بر لینک پرداخت و دانلود در پنجره زیر کلیک نمایید.

!!لطفا قبل از خرید از فرشگاه اینترنتی کتیا طراح برتر قیمت محصولات ما را با سایر محصولات مشابه و فروشگاه ها مقایسه نمایید!!

!!!تخفیف ویژه برای کاربران ویژه!!!

با خرید حداقل 20000 (بیست هزارتومان) از محصولات فروشگاه اینترنتی کتیا طراح برتر برای شما کد تخفیف ارسال خواهد شد. با داشتن این کد از این پس می توانید سایر محصولات فروشگاه را با 20% تخفیف خریداری نمایید. کافی است پس از انجام 20000 تومان خرید موفق عبارت درخواست کد تخفیف، شماره همراه و ایمیلی که موقع خرید ثبت نمودید را به ایمیل فروشگاه (catia2015.sellfile@gmail.com) ارسال نمایید. همکاران ما پس از بررسی درخواست، کد تخفیف را به ایمیل شما ارسال خواهند نمود.


دانلود با لینک مستقیم


جزوه آموزش اجزاء محدود غیر خطی پروفسور عیسی سلاجقه

دانلود مقاله الگوریتم بهینه سازی بر اساس برنامه ریزی خطی

اختصاصی از فی دوو دانلود مقاله الگوریتم بهینه سازی بر اساس برنامه ریزی خطی دانلود با لینک مستقیم و پر سرعت .

 

 

الگوریتم بهینه سازی بر اساس برنامه ریزی خطی برای حل مسائل برنامه ریزی غیر خطی

 

 

 

خلاصه :
در این مقاله الگوریتم بهینه سازی براساس برنامه ریزی خطی که روش توالی cutting plane (صفحۀ برش ) نامیده می شود ارائه شده است . ویژگی اصلی این الگوریتم توصیف شده ( توضیح داده شده ) است ، همگرایی به نقطۀ مانای Karush - Kuhn - Tucker ثابت شده و نتایج عددی روی مجموعه ای از نمونه های شناخته شده نشان داده شده است . این روش بر اساس حالت خطی برای مسائل با (محدودیت نامساوی) محدب است اما در اینجا این روش به مسائل برنامه ریزی غیر خطی دیفرانسیلی متناوب شامل هر دو محدودیت مساوی و نامساوی غیر خطی گسترش داده شده است . در مقایسه با حل کننده های موجود فهمیده می شود که این روش قابل رقابت با این حل کننده ها است . بنابراین این روش که براساس حل زیر برنامه ، برنامه ریزی خطی است یک روش خوب برای حل مسائل برنامه ریزی غیر خطی است . این الگوریتم به عنوان زیر حل کننده در الگوریتم برنامه ریزی غیر خطی اعداد مختلط در جایی که مسائل خطی باندهای پایین برای حل بهینه در زیر مسئله های برنامه ریزی غیر خطی در درخت شاخه و باند برای مسائل با محدودیت غیر خطی محدب به کار برده می شود .

 

مقدمه :
روش cutting plane (صفحۀ برش) Kelly [11] در سال 1960 برای حل مسائل برنامه ریزی غیر خطی (NP) با حل یک توالی از مسائل برنامه ریزی خطی (LP) ارائه شد . اگر چه بعضی روش های دیگر که براساس برنامه ریزی خطی هستند وجود دارد مثل روش برنامه ریزی تقریبی [6] ، تکنیک های LP کاملاً در طرفداری از روش برنامه ریزی درجۀ 2 متوالی (SQP) کنار گذاشته شده اند . بعد از اینکه Han همگرایی اصلی و محلی را در روش (SQP) [8و7] ثابت کرد تعداد زیادی از مقالات تحقیقاتی براساس تکنیک های SQP تولید شدند . در واقع امروزه تعدادی از حل کننده های NLP فرم هایی از تکنیک های SQP را به کار برده اند . اخیراً مقالات جالبی در تایید موفقیت تکنیک های برنامه ریزی خطی (SLP) ارائه شده است . در [2] مقاله ای ارائه شده که برنامه ریزی خطی و زیر مسائل برنامه ریزی خطی درجۀ 2 با موفقیت حل شده و حل بهینه را به دست آورده است . مسائل برنامه ریزی خطی یک برآوردی از شرایط (محدودیت های) فعال در ناحیۀ معتبر فراهم کرده است و یک مسئلۀ برنامه ریزی درجه 2 با استفاده از شرایط (محدودیت های) فعال در حل بهینۀ مسئلۀ خطی ساختاربندی شده و حل شده است . اگرچه روش ارائه شده در [2] اساساً برای برآورد (تخمین) شرایط (محدودیت های) فعال در هر تکرار، مسائل برنامه ریزی خطی را به کار می برد و به علاوه در هر تکرار یک مسئله با محدودیت مساوی درجه 2 را حل می کند . در این مقاله این نشان داده می شود که تکنیک های LP در حل مسائل NLP به صورت مؤثری با موفقیت به کار می رود حتی بدون اینکه مجبور باشد زیر مسئله های درجه 2 را حل کند . در واقع آزمایشات عددی روی 2 مجموعۀ مورد آزمایش از مسائل استاندارد نشان می دهد که روش توصیف شده قالب رقابت با سایر حل کننده های NLP است . روش توصیف شده در اینجا می تواند برای حل مسائل NLP با هر دو شرط مساوی و نامساوی غیرخطی به کار برده شود و همگرایی اصلی به نقطۀ مانا Karush - Kuhn – Tucker (KKT) برای مسائل دیفرانسیلی متناوب غیر محدب نشان داده شده است . الگوریتم پیشنهاد شده یک بسطی از الگوریتم (SCP) صفحۀ برش متوالی که در [19] معرفی شده است . روش اصلی فقط مسائل محدب با شرایط نامساوی غیر خطی را حل می کند . دقت کنید که سر نام SCP با Sequential Conven Programming ارائه شده در [24] نباید اشتباه گرفته شود . در برنامه ریزی محدب متوالی مسئلۀ NLP اصلی با حل کردن یک توالی از زیربرنامه های غیر خطی مجزای محدب حل می شود . در اینجا ، این روش زیر مسئله های خطی را برای حل مسئلۀ NLP اصلی استفاده می کند . هدف اصلی الگوریتم توصیف شده در این مقاله به ویژه در حالت محدب الگوریتم بهینه کردن اجرا روی مسئله هاست به طوری که هدف و شرایط به آسانی ارزیابی شوند . هدف اصلی مینیمم کردن ارزیاب های تابع نیست .
اگر شرایط و تابع برای محاسبه کردن زمان بر باشد تعدادی الگوریتم دیگر برای چنین مسائلی وجود دارد که کاربردی تر و مفیدتر است . یکی از کاربردهای الگوریتم این است که به عنوان یک ترکیب کننده در یک الگوریتم برنامه ریزی غیر خطی عدد مختلط (MINLP) به کار رود . برای مسائل MINLP با محدودیت نامساوی محدب زیر مسئله ها LP به راحتی یک باند پایین برای حل بهینۀ مسئلۀ NLP محدب فراهم می کند . باندهای پایین (حدهای پایین) در روش شاخه و باند برای اثبات درست مورد نیاز هستند . جزئیات بیشتر در [21] دیده می شود . نتایج بسیار امیدوار کننده ای برای یک مجموعۀ خاص از مسائل بهینه سازی پیچیده در [20] گزارش شده است . مدل MINLP از الگوریتم می تواند حل های بهتری را در یک دقیقه بدست می آورد در حالی که حل کننده های اقتصادی که جواب ها را در مدت 12 ساعت به دست می آورند . حل مسائل MINLP محدب در بهینه سازی MINLP اصلی مهم است زیرا بیشتر الگوریتم های مشخص براساس حل یک توالی از مسائل MINLP محدب هستند [23و16و1] این الگوریتم می تواند همچنین برای حل کلی مسائل MINLP غیر محدب به عنوان حل کنندۀ فرعی در روش شاخه و باند NLP به کار برده شود [4] . آزمایشات عددی نشان می دهد که الگوریتم SCP می تواند برای این نوع از مسائل به کار برده شود و نیز همگرایی به نقطۀ مانا سریعتر آشکار می شود نسبت به زمانی که تکرارها از نقطۀ مانا دور هستند .
مرور : الگوریتم پیشنهادی ما مسائلی از این فرم را حل می کند .




که تابع های
دیفرانسیل های متناوب روی هستند . برخلاف [19] تابع و شرایط به صورت محدب در نظر گرفته نشده است . در نظر گرفته شده که شرایط شامل می شود شرایط خطی که یک ناحیۀ محدود X تعریف می کند . همچنین فرض شده است که ویژگی های شرایط (محدودیت) Mangasarion – Fromovitz توسعه یافته (EMFCQ) برای هر بر قرار است . شرایط در هر برای وقتی که مستقل خطی هستند برقرار است و یک وجود دارد به طوری که :


که یک مجموعه شاخص هایی هستند که بر شرایط مرزی دلالت می کند .

و یک مجموعه از شاخص هایی است که بر شرایط فعال دلالت می کند .

EMFCQ و رابطه ی آن توابع پنالتی (جبرانی) ملاحظه شده در [15] را نیاز دارد . در این الگوریتم ویژگی شرایط (محدودیت ها) به صورتی است که ضمانت می کند که برای هر نقطۀ غیر عملی می تواند یک جهت جستجویی را پیدا می کند به طوری که غیر عملی بودن شرایط کاهش یابد .
2. الگوریتم :
این الگوریتم شبیه به الگوریتم ارائه شده در [16] است از این جهت که یک توالی از تکرارهای NLP را اجرا می کند تا اینکه حل بهینۀ محلی را به دست آورد . هر تکرار NLP یک توالی از زیر تکرارهای LP را شامل می شود .
در هر زیر تکرار LP یک مسئلۀ LP حل می شود و یک جستجوی خطی در جهت جستجوی به دست آمده به عنوان حل برای مسئلۀ LP اجرا می شود . در پایان تکرار NLP ، آن تکرار جدید باید تابع شایستگی (مزیت) را به اندازۀ کافی کاهش دهد به منظور اینکه همگرایی را تضمین کند . و گرنه یک تکرار جدید باید به وجود آید به طوری که تابع شایستگی را به اندازه کافی کاهش دهد .

 

2.1 : زیر تکرارهای LP :
در هر زیر تکرار LP یک مسئلۀ LP حل می شود . مسئلۀ LP براساس (شکل گیری) صفحه های برش در تکرار جاری است . در زیر تکرار (i) از تکرارهای NLP مسئلۀ LP حل شده هست :

a1
b1
c1
d1
e1
f1
g1
که در نقطۀ به وجود آمده اند . مسئله LP( ) و حل بهینه مسئلۀ در جایی که است بیان شده است . در اینجا شرایط a1 و b1 خطی شدۀ تابع شرایط غیر خطی h,g در هستند و مجموعه ای برای آرام سازی شرایط هستند به طوری که یک حل d در حل محدودۀ شرایط (1d) ایجاد می شود این شرایط اطمینان می دهد که جواب با توجه به جهت جستجوی به دست آمدۀ قبلی در طی تکرار NLP به صورت یک جهت ترکیبی می شود . جهت های جستجو برای زیر تکرارهای LP قبلی در طی تکرار NLP با مشخص شده است و برآورد (تخمین) است در زیر تکرار LP(i) در Hessian لاگرانتری در (NLP) .
توجه کنید که برای اثبات همگرایی فقط یک زیر تکرار در LP در تکرار NLP مورد نیاز است . توالی زیر تکرارهای LP فقط برای بهبود شرعت همگرایی اجرا می شوند . توالی زیر تکرارهای LP جهت های جستجوی ترکیبی را ایجاد می کند و بنابراین این الگوریتم روش جستجوی (شیب) گرادیانی ترکیبی را برای مسائل بدون محدودیت اجرا می کند . باندهای پایین (حدهای پایین) به صورت منفی و حدهای بالا (باندهای بالا) به صورت مثبت در نظر گرفته شده است . است . دقت کنید که هر دو خطی سازی شرایط به خوبی شرایط ترکیب را با توجه به تخمین Hessian لاگرانتری محدود می کند می توانند به عنوان صفحه های برش دیده شوند شرایط a1 حالت نیم فضایی ناحیۀ قابل قبول برای g را تقریب می زنند و b1 ها صفحه های رویین برش هستند که ناحیۀ قابل قبول را برای h تخمین می زنند و c1 صفحه های رویین برش هستند که جهت جستجوی d را با این شرایط که برروی صفحه های رویین وجود داشته باشند محدود می کند و بنابراین یک صفحه ترکیبی برای جهت های جستجوی به دست آمدۀ قبلی در طی تکرار NLP ایجاد می شود .

 

2.1.1 : تخمین افزایندۀ لاگرانتری :
مقادیر بهینۀ متغیرهای دوگان از 1 به عنوان تخمین های افزایندۀ لاگرانتری برای توالی جستجوهای خطی و برای تخمین Hessian لاگرانتری به کار می رود . اگر مسئلۀ LP در نقطۀ مانای برای NLP ایجاد شود سپس متغیرهای دوگان از شرایط a1 و b1 برای حل ، افزایندۀ لاگرانتری برای در NLP شناخته می شوند .

 

2.1.2 : مسائل LP غیر ممکن
اولین مسئلۀ LP در طی تکرار NLP نمی تواند غیر عملی باشد . زیرا که متغیرهای مسئله را به اندازۀ کافی آرام می کنند به طوری که یک حل d=0 را برای هر مسئله می پذیرد . ( وقتی که متغیرهای آرام سازی برابر با ماکزیمم مقدار مجاز شرایط است ) . بنابراین نیازی به بررسی مساله های LP عملی به عنوان موردی در حالت محدب در الگوریتم ارائه شده در [19] نیست . توجه کنید که ثابت C برای تضمین در تکرارهای غیر ممکن به اندازۀ کافی بزرگ انتخاب می شوند و یک حل بهینه وقتی که است به دست می آید و غیر عملی بودن شرایط کاهش می یابد وقتی که برای حل بهینۀ داریم : به طوری که و یا وجود دارد به طوری که اگر مسئل در زیر تکرار LP اول بدست نیاید سپس مسئلۀ NLP اصلی غیر عملی فرض می شود . به طور کلی چنانچه الگوریتم به نقطۀ غیر ممکن (غیر قابل قبول) محلی همگرا شود ، این درست نیست . اگر چه این فرض شده که EMFCQ برقرار است و شرایط تضمین می کند که چنین جوابهایی را می تواند پیدا کند .

 

2.1.3 : جستجوی خطی :
حل بهینۀ برای یک جهت جستجو را فراهم می کند و برای مینیمم کردن تابع در یک جستجوی خطی عمل می کند :


در اینجا تخمین های افزایندۀ لاگرانتری به دست آمده از متغییرهای دوگانه مسئلۀ LP حل شدۀ قبلی هستند و . پارامتر P یک پارامتر جبرانی هست که در طی فرآیند بهینه سازی ثابت نگه داشته می شود . جستجوی خطی برای مینیمم کردن استفاده می شود که تخمین های افزایندۀ لاگرانتری هستند که در زیر تکرار i(LP) به دست آمده اند . جستجوی خطی در جهت باشد و شروع از اجرا می شود که هست : .
تکرار بعدی بر اساس است و به عنوان نقطۀ شروع در زیر تکرار LP بعدی به کار برده می شود . دقت کنید که جستجوی خطی دقیق ضرورتاً مورد نیاز نیست و همچنین معیار برای جستجوی خطی به اندازۀ کافی کاهش یابد .

 


2.1.4 : تخمین Hessian :
فرمول تجدید شدۀ (BFGS) Broyden – Fletcher – Goldfard - Shanno استاندارد برای ایجاد تخمین ها برای Hessian به کار برده می شود اگرچه روش های دیگر هم به کار برده می شود . تخمین Hessian براساس تابع لاگرانتری زیر است :

2.1.5 : معیار خاتمه دادن زیر تکرار :
مراحل توصیف شدۀ بالا تکرار می شود تا اینکه یک معیار خاتمه را مشاهده کند . تعدادی معیار برای پایان دادن به زیر تکرار LP به کار برده می شود . برخلاف الگوریتم توصیف شده در [19] اولین زیر مسئلۀ LP در هر تکرار NLP نمی تواند عملی باشد ، همچنین متغیرهای وجود دارد که زیر مسئلۀ LP را آرام سازی می کند . در اولین زیر تکرار ، حل بهینه زیر مسئلۀ LP که غیر عملی بودن را کاهش نمی دهد که ممکن است مسئلۀ اصلی غیر عملی باشد و یا نقطه به نقطۀ غیر عملی محلی نزدیک است .
در توالی زیر تکرارها اگر هر یک از متغیرهای آرام سازی از صفر بزرگتر باشند شرایط مساوی (1C) ممکن است بسیار محدود شود و زیر تکرارها خاتمه می یابد . الگوریتم بیشتر زیر تکرارهای LP را متوقف می کند اگر یکی از معیارهای زیر دیده شود :
اگر i>n خاتمه می یابد (1
اگر به صفر نزدیک شود خاتمه می یابد (2
اگر کاهش نیابد خاتمه می یابد (3
به طوری که وجود ندارد و به طوری که
برای حل بهینۀ وجود دارد .
اگر i>1 باشد و هر متغیر از صفر بزرگتر باشند خاتمه می یابد . (4
اگر به یک نزدیک باشد خاتمه می یابد . (5

 

2.2 : تکرار NLP :
هر تکرار NLP یک مجموعه از زیر تکرارهای LP را شامل می شود . بنابراین چندین مسئلۀ LP حل می شود و چندین جستجوی خطی در هر تکرار NLP اجرا می شود تا اینکه اولین معیار خاتمۀ زیر تکرارها چنانچه در 2.1.5 توضیح داده شده مشاهده می شود . در پایان هر تکرار NLP ، تکرار جدید باید یک تابع شایستگی را به اندازۀ کافی کاهش دهد تا همگرایی به نقطۀ مانای KKT را تضمین کند . در غیر این صورت تکرار جدید باید با یک تکراری که تابع شایستگی را به اندازۀ کافی کاهش دهد جایگزین شود . بنابراین یک تکرار با شروع از تکرار پذیرفته شدۀ قبلی به دست می آید و تابع شایستگی را نسبت به تابع در جهت تر ولی برای تابع شایستگی مینیمم می کند . تابع شایستگی به کار برده شده در اینجا هست :

که ترم جبرانی هست که به صورت زیر تعریف شده است :

پارامترهای باید به صورتی انتخاب شوند که از قدر مطلق مقدار هر تخمین افزایندۀ لاگرانتری بزرگتر باشد . بنابراین :
2
3
باید برای هر تخمین افزایندۀ لاگرانتری به دست آمده در طی پروسۀ بهینه سازی برقرار باشد .
در عمل آزمایشات عددی نشان می دهد که بهتر است پروسه (فرآیندی) را به کار ببریم که را به صورت پویا در طی فرآیند بهینه سازی وقتی که تخمین های افزایندۀ لاگرانتری بزرگتر از در حال استفاده هستند تجدید می کند ( یا بعضی از روش های مشابه برای تخمین این پارامترها به کار رود ) . فرض های 2و3 برای اثبات همگرایی مورد نیاز است .

 

2.2.1 : آزمایش کاهش کافی :
تکرار جدید در پایان تکرار NLP باید آزمایش کاهش کافی را ارضا کند . ابتدا دقت کنید که مشتق های جهتی در جهت d هستند :

,
در نتیجه : مشتق جهتی M در جهت d هست :

تکرار جدید در پایان تکرار k,NLP باید روابط زیر را ارضا کند :
4
باید ارضا کند رابطۀ :
5
6
در اینجا تکرار در حال اجرا در اولین زیر تکرار LP برای تکرار NLP K است و جهت جستجوی به دست آمده به عنوان حل برای است و نتایج برای جستجوی خطی متناظر است . از آنجایی که جستجوی خطی به محدود می شود تکرار می تواند به ازای قابل قبول باشد حتی اگر رابطۀ 6 برقرار نشود . شرایط ذکر شده در 4-6 شرایط تئوری مورد نیاز هستند که همگرایی الگوریتم را بهبود می بخشد .
شرط 5 اطمینان می دهد که تابع شایستگی به اندازۀ کافی کاهش می دهد و 6 اطمینان می دهد که مراحل (پله ها) به اندازۀ کافی در هر تکرار اجرا شده اند . این اختیاری کوچک پذیرفته نمی شود . به علاوه متناوباً پذیرفته می شود . در آخر ، 4 اطمینان می دهد که آن تکرار در انتهای تکرار NLP مقدار تابع شایستگی را بیشتر از مقدار تابع شایستگی به دست آمده بعد از اولین زیر تکرار LP در تکرار NLP افزایش نمی دهد . توجه کنید که بعداً در قضیۀ 6 ثابت می شود که است مگر اینکه نقطۀ مانای KKT باشد . دقت کنید که اگر یک جهت نزولی برای M باشد و یک جستجوی خطی دقیق با شروع از که M را مینیمم می کند اجرا شود ، سپس معیار کاهش کافی (6) و (4) را ارضا می کند اما ضرورتاً (5) را ارضا نمی کند.
اگر چه در عمل از انتخاب 6 که به اندازۀ کافی به صفر نزدیک باشد اجتناب می شود . به طور متناوب الگوریتم جستجوی خطی غیر دقیق مرحله ای را پیدا می کند که 5 و 6 و همچنین 4 را ارضا کند به شرطی که که در [13] توضیح داده شده است .

 

2.2.2 : ایجاد تکرارهای مورد قبول :
اگر تکرار آزمایش کاهش کافی را که در 4 – 6 بیان شده ارضا نکند یک تکرار جدید که آزمایش را ارضا کند ایجاد می شود . در قضیۀ 6 نشان داده شده که حل برای اولین زیر مسئلۀ LP در یک تکرار NLP یک جهت نزولی برای تابع شایستگی M است . بنابراین یک نقطۀ جدید که ازمایش کاهش کافی را ارضا کند می تواند با شروع زیرتکرار LP از و تکرار کردن جستجوهای خطی در جهت های به دست آمده در زیر تکرارهای LP به دست آید (ایجاد شود ) . اما البته M را به جای در هر جستجوی خطی min می کنیم . از آنجایی که یک جهت نزولی برای تابع شایستگی است یک تکرار قابل قبول با به کار بردن این فرآیند ایجاد می شود .

 

2.3 : تجدید کردن باندها (حدهای) ناحیه ی اطمینان :
حدها (باندهای) یک ناحیه ی اطمینان را برای حل d برای زیر مسئلۀ LP شکل می دهند . این ناحیۀ اطمینان ممکن است افزایش یابد اگر ناحیۀ اطمینان در حال اجرا خیلی کوچک باشد و یا کاهش یابد اگر ناحیۀ اطمینان در حال اجرا خیلی بزرگ باشد . یک فرآیند نمونه برای تجدید کردن ناحیۀ اطمینان براساس طول مراحل استفاده شده در هر تکرار NLP به کار برده شده است . در نظر بگیریم :

و . در اینجا مرحلۀ بین 2 تکرار NLP وابسته به باندهای بالا و پایین را اندازه گیری می کند .
توجه کنید که ممکن است از 1 بزرگتر باشد زیرا زیر تکرارهای افزایندۀ LP در هر تکرار NLP اجرا می شود. به علاوه را به عنوان میزان دقتی در نظر بکیرید که چگونه بزرگی یا کوچکی یک پله (مرحله) بدون کاهش یا افزایش باندهای ناحیۀ اطمینان صورت می گیرد .
بنابراین اگر ، باندهای ناحیه ی اطمینان کاهش می یابد :

اگر ، باندهای ناحیه ی اطمینان افزایش می یابد :

2.4 : معیار خاتمه ی تکرار NLP :
تکرارهای NLP ادامه می یابد تا اینکه در حال اجرا یک نقطۀ مانا شود . در اینجا فرض شده است که مسئله ها همیشه نقاط مانا دارند . به طور کلی الگوریتم ممکن است در نقاطی که غیر عملی بودن شرایط نمی تواند کاهش یابد متوقف شود . متغیرهای آرام سازی به حدهای بالای این متغیرها برای اولین زیر مسئلۀ LP یک تکرار NLP نزدیک می شود . در این مورد این باید فرض شود که مسئلۀ NLP اصلی غیر عملی است اگر چه ممکن است به این صورت باشد که الگوریتم به نقطۀ غیر ممکن محلی همگرا شود . تکرار در حال اجرای یک نقطۀ مانا است اگر اولین دستور از شرط Karush – Kuhn – Tucker را ارضا کند .





محاسبه ی این معیارها با به کار بردن تقریب های آسان است که از مسئلۀ دوگان زیر مسئلۀ LP به دست امده اند . دقت کنید که 4 همیشه به عنوان تقریب براساس مسئلۀ دوگان زیر مسئله LP به شرط ارضا می شود . دقت کنید همچنین ممکن است الگوریتم در مواردی برنامه هایی را حل کند که نقطۀ مانا یک نقطۀ مانای Karush – Kuhn – Tucker نیست همچنین معیارهای بالا در چنین نقطه ای برقرار نیستند . در این موارد اگر چه آزمایشات عددی اولیه نشان می دهد که الگوریتم ممکن است هنوز یک نقطۀ مانای Karush – Kuhn – Tucke را در طی حل پذیرفته شده ای در همسایگی جواب درست به دست آورد .

 


2.5 : الگوریتم SCP :
الگوریتم SCP به صورت خلاصه در زیر امده است .
1) تنظیم کردن نقطۀ شروع اولیه .
2) انجام زیر تکرارهای LP
2.1) تنظیم کردن :
2.2) ایجاد و حل آن برای به دست آوردن جهت جستجوی و تخمین افزایندۀ لاگرانتری (حل بهینۀ دوگان)
2.3) بررسی اینکه آیا تکرار در حال اجرا یک نقطۀ مانا هست یا نه ؟ (بخش 2.4) .
2.4) اجرای جستجوی خطی برای مینیمم کردن (بخش 2.1.3 ) در نظر بگیریم :

2.5) تجدید کردن تخمین Hessian لاگرانتری با به کار بردن فرمول تجدید کنندۀ BFGS و نامیده آن به صورت (بخش 2.1.4 )
2.6) اگر بعضی معیارهای خاتمۀ زیر تکرارها ارضا شود ( بخش 2.1.5 ) . سپس از زیر تکرارهای LP خارج می شود . ( برو به 3 ) .
پس در نظر می گیریم : i:=i+1 و به 2.2 می رویم .
3) ذخیرۀ تکرار در حال اجرا و تخمین Hessian از زیر تکرارهای LP

4) اگر کاهش کافی برای تابع شایستگی وجود نداشت (بخش 2.2.1 ) سپس یک تکرار جدید با کاهش کافی پیدا می کنیم . (بخش 2.2.2)
5) اگر ناحیه ی اطمینان خیلی کوچک یا خیلی بزرگ باشد ناحیه ی اطمینان را تجربه می کنیم (بخش 2.3)
6) اگر تکرار یک نقطۀ مانا نباشد (بخش 2.4) سپس k:=k+1 را در نظر می گیریم و تکرار NLP جدید را شروع می کنیم . (به 2 برو )

 

3: همگرایی :
در این بخش نشان داده می شود که الگوریتم ویژگی همگرایی کلی را دارد . این بخش به صورت ادامه تقسیم بندی شده است : در قضیه ی 2 نشان داده می شود که ثابت C ممکن است به دست بیاید به صورتی که غیر عملی بودن شرایط در زیر تکرار LP کاهش یابد .
در قضیه ی 6 نشان داده می شود که این الگوریتم در اولین زیر تکرار LP ، جهت هایی که جهت های نزولی برای تابع شایستگی هستند در زمانی که مسالۀ LP ، را حل می کند به وجود می آورد . در آخر در قضیه ی 8 نشان داده می شود که هر نقطۀ محدود در مراحل نامحدود تکرارها یک نقطۀ محدود مانای KKT است . دقت کنید که قضیۀ 6 بیان می کند که اگر جواب مسئلۀ LP حل شده در اولین زیر تکرار از تکرار NLP برای تابع شایستگی یک جهت نزولی بنا شده پس تکرار در حال اجرا یک نقطۀ مانای KKT برای NLP است . ابتدا این نشان داده می شود که ممکن است در اولین زیر تکرار LP ثابت های C برای هر به گونه ای به دست آید که غیر عملی بودن شرایط برای خطی سازی مسئلۀ کاهش یابد . اثبات این موضوع به قضایایی که در ادامه آمده است نیازمند است .
قضیۀ 1 : هر را به گونه ای در نظر می کیریم که EMFCQ برقرار باشد . پس یک d وجود دارد به گونه ای که:


اثبات : در نظر می گیریم max (ماکزیمم) مقدار مجاز برای شرایط (محدودیت های) نامساوی است . را با 1 جایگزین می کنیم در صورتی که شرایط نامساوی وجود نداشته باشد و یا هیچ یک از شرایط نامساوی از مقدار مشخص تجاوز نکرده باشند . بخشی از قضیۀ 2.2 در [9] می تواند برای اینکه ببینیم آیا یک وجود دارد به طوری که شرط زیر را برقرار کند یا نه ، به کار می بریم .





قضیه ای که در ادامه آمده است نشان می دهد که یک c به اندازۀ کافی بزرگ وجود دارد به طوری که حل بهینه برای غیر عملی بودن شرایط رابرای را کاهش می دهد .
قضیۀ 2 : برای هر یک C به اندازۀ کافی بزرگ وجود دارد به طوری که غیر عملی بودن شرایط برای هر یک از شرایط غیر عملی کاهش می دهد . وجود دارد یک به طوری که و یا یک وجود دارد به طوری که برای هر حل بهینۀ .
اثبات : با استفاده از قضیۀ 1 می نویسیم که یک وجود دارد به طوری که :


ممکن است یک پیدا شود به طوری که را طوری انتخاب می کنیم که :


به مقدار تابع در نقطۀ دقت کنید و را در نظر بگیرید .





از این راه ثابت انتخاب می شود . بنابراین (جواب) حل از حل (جواب) برای بهتر است و ماکزیمم برابر است با . بنابراین غیر عملی بودن شرایط برای شرایط غیر عملی کاهش می یابد .
سپس جهت به دست آمده در اولین مسئلۀ LP حل شده در تکرار NLP را مورد بررسی قرار می دهیم . می تواند نشان داده شود که این جهت جستجو برای تابع شایستگی یک جهت نزولی است جهت که حلی برای مسئلۀ LP (1) است در نقطۀ در اولین زیر تکرار LP به دست می آید . حل مسئلۀ هست :

a7
b7
c7
d7
e7
f7
g7
به منظور اینکه ثابت کنیم که جهت های جهت های نزولی هستند تعداد قضیه مورد نیاز است . اولین قضیه بیان می کند که تکرار در حال اجرا برای مسئلۀ NLP اصلی یک نقطۀ مانا است البته اگر مقدار بهینه برای مسئلۀ خطی صفر باشد و تکرار در حال اجرای قابل قبول باشد .
قضیۀ 3 : فرض کنید که حل بهینه هست . به علاوه فرض کنید که است . از آنجایی که در (NLP) قابل قبول است در نتیجه حل قابل قبول برای است . به علاوه یک حل بهینه برای مسئلۀ زیر است :
8



که متغیرهای آرام سازی در اینجا همه صفر هستند زیرا قابل قبول (عملی) است به علاوه می تواند کاهش یابد .
همچنین توجه کنید اگر حل بهینۀ برای 8 وجود داشته باشد به طوری که باشد ممکن است بتوان ثابت کرد را به گونه ای که و به دست آورد . از آنجایی که در NLP مورد قبول است شرایط در NLP را ارضا خواهد کرد . بنابراین برای یک جواب (حل) می شود . این شرایط تایید می کند که یک حل بهینه برای است و است .
مسالۀ دوگان 8 به این صورت است :


9
و متغیرهای دوگان متناظر با شرایط 8 هستند . برای مثال در [12] اطلاعات بیشتری در مورد دوگانی خطی را می بینیم . فرض شده حل بهینه برای 9 هستند . با استفاده از قضیۀ دوگانی فهمیده می شود که مقدار بهینه برای مسائل دوگان و اولیه برابر هستند و بنابراین
10

با فرض .
همچنین فرض شده که است و از شرایط 9 در می یابیم که بنابراین
11
از 10 و 11 می فهمیم که :

در نظر بگیرید : پس از شرایط در 9 می فهمیم که :

و
بنابراین تکرار در حال اجرای اولین دستور از شرایط Karush - Kuhn – Tucker را ارضا می کند ( برای NLP ) و یک نقطۀ مانا KKT برای NLP می شود . قضیۀ بعدی یک باند بالای عملی را برای مشتق جهتی بر روی جزء (ترم) جبرانی در تابع شایستگی فراهم می کند .
قضیۀ 4 : را به عنوان یک حل بهینه برای در نظر بگیرید با به ترتیب به عنوان متغیرهای دوگان برای vd ,vc ,vb ,va و به علاوه در NLP غیر عملی فرض شده و نیز فرض شده که :

 

 

فرمت این مقاله به صورت Word و با قابلیت ویرایش میباشد

تعداد صفحات این مقاله 36   صفحه

پس از پرداخت ، میتوانید مقاله را به صورت انلاین دانلود کنید


دانلود با لینک مستقیم


دانلود مقاله الگوریتم بهینه سازی بر اساس برنامه ریزی خطی

دانلودمقاله حل مسائل برنامه ریزی خطی چند هدفۀ چند سطحی

اختصاصی از فی دوو دانلودمقاله حل مسائل برنامه ریزی خطی چند هدفۀ چند سطحی دانلود با لینک مستقیم و پر سرعت .

حل مسائل برنامه ریزی خطی چند هدفۀ چند سطحی از طریق روش برنامه ریزی آرمان

 

چکیده :
در این مقاله ، دو الگوریتم جدید برای حل مسائل برنامه ریزی خطی چند هدفه چند سطحی (ML – MOLP) از طریق روش برنامه ریزی فازی آرمانی (FGP) ارائه می شود . توابع عضویت برای آرمان های فازی معین همۀ توابع هدف در تمام سطوح ، در فرمول بندی مدل این مسئله به دست می آیند ؛ بنابراین همچنین توابع عضویت برای بردارهای آرمان های فازی متغیرهای تصمیم گیرنده ها در سطوح بالا کنترل می شوند . پس روش برنامه ریزی آرمانی فازی برای رسیدن به بالاترین درجه هر یک از آرمان های (اهداف) عضویت با به حداقل رساندن متغیرهای انحرافی ، استفاده می شود و در نتیجه رضایت بخش ترین جواب باری همه ی تصمیم گیران به دست می آید . اولین الگوریتم پیشنهادی توابع عضویت را برای اهداف فازی معین توابع هدف در تمام سطوح و متغیرهای تصمیم گیری برای هر سطحی به جز سطح پایین تر مسئله ی چند سطحی گروه بندی می کند . الگوریتم پیشنهادی دوم به صورت الفبایی مسائل MOLP از مسئله ی ML – MOLP را با در نظر گرفتن تصمیمات مسائل MOLP برای سطوح بالاتر حل می کند . یک مثال عددی گویا برای نشان دادن این الگوریتم ها ارائه شده است .

واژه های کلیدی :
برنامه ریزی خطی چند هدفه – مسائل برنامه ریزی چند سطحی – برنامه ریزی ارمانی – برنامه ریزی فازی آرمانی

 

 

1- مقدمه :
مسئله ی برنامه ریزی ریاضی استاندارد شامل یافتن یک جواب بهینه تنها برای یک تصمیم گیرنده می باشد . با این وجود ، مسائل برنامه ریزی بسیاری شامل یک ساختار تصمیم گیری سلسله مراتبی ، هر یک با اهداف مستقل و اغلب متضاد می باشند . این نوع از اهداف را می توان با استفاده از روش برنامه ریزی ریاضی چند سطحی (MOLP) مدلسازی کرد . مفهوم اصلی روش MLMP این است که تصمیم گیرندۀ سطح اول (FLDM) هدف و/یا تصمیم خود را تعیین می کند ، و سپس از هر سطح فرعی سازمان حد مطلوب را ، که به تنهایی محاسبه شده ، مطالبه می کند . سپس تصمیمات تصمیم گیران سطح پایین تر توسط FLDM با توجه به سود کلی برای سازمان ، ارائه و اصلاح می شود . این فرآیند تا رسیدن به یک جواب رضایت بخش ادامه می یابد . اغلب پیشرفت ها در مسائل MLP بر روی برنامه ریزی خطی دو سطحی به عنوان نوعی از MLP متمرکز می باشند [9-1] . برنامه ریزی غیر خطی دو سطحی در [6 و 5] مطالعه شد . در [7] یک الگوریتم تعاملی (interactive) برای برنامه ریزی چند هدفه دو سطحی ارائه می شود ، و با استفاده از مفهوم رضایت بخشی تشریح می شود . برنامه ریزی چند هدفه دو سطحی با چند تصمیم گیرنده وابسته (مرتبط با هم) در [8] مورد بحث قرار می گیرد . برنامه ریزی سه سطحی (TLP) نوع دیگری از مسائل MLP می باشد که در آن سه تصمیم گیرنده ی مستقل (DM) وجود دارند [10 و 9] . هر (DM) (تصمیم گیرنده) سعی می کند تا تابع هدف خود را بهینه کند و تحت تاثیر اقدامات سایر تصمیم گیران قرار می گیرد . چند مسئله ی برنامه ریزی سه سطحی مانند :
1- الگوریتم جستجوی پیوندی نقطۀ اکسترم (حدی) [11 و 3]
2- مسئله ی آمیخته با اعداد صحیح همراه با کمک مکمل [9]
3- روش تابع جریمه [9 – 6] و
4- روش فضای متوازن [24 – 12]
همراه با روش های حل آنها مورد بررسی قرار گرفته و ارائه می شوند .
یک کتاب نامه از منابع مرتبط دربارۀ برنامه ریزی دو سطحی و چند سطحی هم در نمونه های خطی و هم در نمونه های غیر خطی را که هر شش ماه یکبار به روز می شود ، می توانید در [15] بیابید . استفاده از نظریه ی مجموعه های فازی [16] برای مسائل تصمیم گیری با چند هدف متضاد ابتدا توسط Zimmermann ارائه شد [17] بعد از آن انواع مختلفی از برنامه ریزی فازی [FP] مورد بررسی قرار گرفته اند و به طور گسترده در نوشته ها و کتاب ها منتشر شده اند [21- 18 ، 11 ، 9] . در یک زمینۀ تصمیم گیری سلسه مراتبی ، پی برده اند که هر تصمیم گیرنده DM باید انگیزه ای برای همکاری با تصمیم گیرندۀ دیگر داشته باشد ، و یک سطح حداقل از رضایت DM در سطحی پایین تر باید برای منفعت کلی سازمان در نظر گرفته شود .
استفاده از مفهوم تابع عضویت نظریۀ مجموعه های فازی در مسائل برنامه ریزی چند سطحی برای تصمیمات رضایت بخش اولین بار توسط Lai سال 1996 ارائه شد . بعد از آن مفهوم جواب رضایت بخش Lai توسط Shih و سایرین بسط و توسعه یافت و یک روش جستجوی نظارتی با استفاده از عملگر ماکزیمم – مینیمم Zadeh , Bellman پیشنهاد شد . Abo – Sinna روش فازی را برای مسئل برنامه ریزی چند سطحی Shih و سایرین [23] به منظور حل مسائل برنامه ریزی چند هدفه غیر خطی دو سطحی و سه سطحی توسعه داد . مفهوم اصلی این روش های برنامه ریزی فازی (FP) همان است که اشاره دارد بر اینکه هر تصمیم گیرندۀ سطح پایین تر با در نظر گرفتن یک هدف یا اولویت تصمیم گیرندگان سطح اول ، تابع هدف خود را بهینه می کند . در فرآیند تصمیم گیری ، توابع عضویت اهداف فازی برای متغیرهای تصمیم گیری همه ی تصمیم گیران در نظر گرفته می شوند و یک مسئله ی FP با یک محدودیت در درجه ی کلی رضایت هر کدام از سطوح بالا حل می شود . اگر جواب پیشنهادی برای هر یک از سطوح بالاتر رضایت بخش نباشد ، جستجوی جواب با تعریف مجدد توابع عضویت استخراج شده ادامه می یابد تا اینکه به یک جواب رضایت بخش برسند . مشکل اصلی که در رابطه با روش برنامه ریزی فازی Shih و سایرین به وجود می آید ، این است که احتمال رد جواب به کرات از سوی FLDM (تصمیم گیرندۀ سطح اول) وجود دارد و در جائیکه اهداف تصمیم گیران بسیار متناقض می باشد برای رسیدن به تصمیم رضایت بخش ، ارزیابی مجدد مسئله بارها نیاز می شود . حتی ممکن است بین آرمان های فازی اهداف و متغیرهای تصمیم گیری ناسازگاری رخ دهد . این اتفاق ، فرآیند جواب را یک فرآیند طولانی و خسته کننده می سازد . روش برنامه ریزی آرمانی فازی که توسط Mohamed ارائه شد - برای توزیع مناسب قدرت های تصمیم گیری DMS ها برای اینکه موفق به گرفتن یک تصمیم رضایت بخش به سود سازمان شوند – برای غلبه بر وضعیت نامطلوب بالا توسعه یافت . روش برنامه ریزی فازی آرمانی Mohamed برای حل مسائل برنامه ریزی خطی کسری چند هدفه در [20] ، مسائل برنامه ریزی دو سطحی در [19] ، مسائل برنامه ریزی کوادراتیک دو سطحی در [25] بسط و گسترش پیدا کرد . در [26] ، روش FGP وی برای مسائل برنامه ریزی چند سطحی با یک تابع هدف در هر سطح ، بیشتر توسعه پیدا می کند . در این مقاله ، روش FGP که توسط Mohamed ارائه شده است برای حل مسائل برنامه ریزی خطی چند هدفه چند سطحی (ML – MOLP) استفاده می شود . دو روش FGP برای مسائل ML – MOLP ، در این مقاله ارائه می شود . برای فرمول بندی کردن هر یک از این دو مدل FGP پیشنهادی مسئله ی TL – MOLP ، آرمان های فازی اهداف با یافتن جواب های بهینه منفرد ، تعیین (مشخص) می شوند . آنها سپس توسط توابع عضویت متناظر ، مشخص می شوند . این توابع از طریق نشان دادن متغیرهای بالایی و پایینی و تخصیص بالاترین مقدار عضویت (واحد) به عنوان سطح انتظار هر یک از آنها به اهداف عضویت فازی انعطاف پذیر تبدیل می شوند . برای استخراج توابع عضویت بردارهای تصمیم گیری که توسط تصمیم گیرندۀ هر سطح کنترل می شوند ، جواب بهینۀ مسئلهMOLP متناظر به طور مجزا تعیین می شود . یک تنشزدایی از تصمیمات برای جلوگیری از بن بست تصمیم گیری در نظر گرفته می شود . روش FGP پیشنهادی اول تعمیمی از اثر Pal وسایرین [19] ، و Pramanik و Roy [26] بوجود می آورد .
Pal و سایرین به مسائل برنامه ریزی خطی یک هدفه دو سطحی می پردازند ، و Pramanik و Roy [26]یک روش FGP را برای مسائل برنامه ریزی چند سطحی با تنها یک هدف خطی در هر سطح پیشنهاد می کنند . مدل نهایی فازی Pramanik , Roy متغیرهای تصمیم گیری در همۀ سطوح را که به طور مجزا برای هر سطح پایین مسئله ی چند سطحی ارزیابی می سوند و نیز توابع عضویت را برای آرمان های فازی تعریف شده ی توابع هدف گروه بندی می کند . روش پیشنهادی دوم ممکن است به عنوان روش الفبایی برای حل مسائل برنامه ریزی چند هدفه تعبیر شود . اولاً ، این روش مدل FGP مسئله سطح اول را فرمول بندی می کند تا یک جواب رضایت بخش برای مسئله ی FLDM به دست آورد . یک تنشزدایی از تصمیمات FLDM برای جلوگیری از بن بست در تصمیم گیری در نظر می گیرد .این تصمیمات FLDM توسط توابع عضویت نظریه ی مجموعه فازی مدلسازی می شوند و به عنوان محدودیت های بیشتر به تصمیم گیرندۀ سطح دوم (SLDM) اظهار می شوند . سپس ، SLDM مدل FGP خود را فرمول بندی می کند که آرمان های عضویت اهداف و متغیرهای تصمیم گیری FLDM را مورد توجه قرار می دهد . بعد از آن ، جواب به دست آمده به تصمیم گیرندۀ سطح سوم (TLDM) فرستاده می شود ، TLDM جواب را به روشنی مشابه جستجو می کند . این فرآیند تا سطح پایین ادامه می یابد . این روش ممکن است به عنوان تعمیمی از الگوریتم برنامه ریزی ریاضی فازی Shih و سایرین تلقی شود ، که به دنبال روش FGP (برنامه ریزی فازی آرمانی) Mohamed توسط Shih اصلاح شد .

2- فرمول بندی مساله
یک مسئله ی برنامه ریزی p سطحی توابع چند هدفه از نوع کمینه سازی را در هر سطح در نظر بگیرید . فرض کنید ، تصمیم گیرنده را در سطح i ام نشان می دهد که بر متغیر تصمیم گیری و کنترل دارد که و باشد و بعلاوه فرض کنید که :
1)
بردارهای توابع هدف برای باشند . به لحاظ ریاضی مسئله ی ML – MOLP از نوع کمینه سازی ممکن است به این ترتیب فرمول بندی شود :
[ سطح اول ]

جائیکه
[ سطح دوم ]

را حل می کند ،
جائیکه
[ سطح p ام ]
2)
را با توجه به
3)
حل می کند که
4)


و G مموعه ی انتخاب قابل قبول محدودیت های محدب چند سطحی می باشد ، تعداد توابع هدف هستند ، m تعداد محدودیت ها می باشد ، مقادیر ثابت هستند ، و ماتریس های ضرایب مرتبۀ می باشند .


3- فرمول بندی برنامه ریزی آرمانی فازی
در مسائل ML – MOLP اگر یک سطح انتظار مبهم (غیر دقیق) به هر یک از اهداف در هر سطح ML – MOLP اختصاص داده شود ، پس این اهداف فازی ، آرمان های فازی نامیده می شوند . آنها با توابع عضویت متناظر خود از طریق مشخص کردن حدود تحمل برای دستیابی به سطوح انتظارشان مشخص می شوند .

1-3- ساختار توابع عضویت
چون همه ی DM ها به حداقل رساندن توابع هدف خودشان در همان منطقه ی قابل قبول تعیین شده با سیستم محدودیت های (3) علاقه مند می باشند ، جواب های بهینه ی هر دوی آنها را که به طور مجزا محاسبه شده است ، می توان به عنوان سطوح انتظار آرمان های فازی متناظر آنها تلقی کرد . فرض کنید
به ترتیب جواب های بهینه ی توابع هدف DM ها باشند ، وقتی که به تنهایی محاسبه شوند . فرض کنید که سطح انتظار اختصاص داده شده به تابع هدف ijام باشد (اندیس ij به این معناست که وقتی برای مسئله ی ، i=p باشد می باشد ) . همچنین هرگاه جواب بهینه ی مسائل MOLP سطح Pام باشد . آنگاه آرمان های فازی توابع هدف تصمیم گیران در هر سطح و بردار آرمان های فازی متغیرهای تصمیم گیری که توسط تصمیم گیران سطح بالای P-1 کنترل می شوند ، اینگونه ظاهر می شوند :

که " " و " " فازی بودن سطوح انتظار را نشان می دهند ، و به ترتیب به صورت «اساساً کمتر از» و «اساساً برابر با» استنباط می شوند . ممکن است متوجه شوید که جواب های
معمولاً متفاوت هستند چون اهداف همه ی DM ها اساساً متضاد (متعارض) هستند . بنابراین ، می توان به طور منطقی فرض کرد که مقادیر و همه ی مقادیر بزرگتر از کاملاً برای تابع هدف غیر قابل قبول هستند . به معنای دقیق کلمه ، را می توان به عنوان حد تحمل بالای آرمان فازی برای توابع هدف در نظر گرفت . پس ، توابع عضویت برای آرمان فازی ijام را می توان اینگونه فرمول بندی کرد (شکل 1) :
شکل 1 : تابع عضویت توابع هدف از نوع کمینه سازی (5)

به منظور ساخت توابع عضویت برای آرمان های فازی متغیرهای تصمیم گیری که توسط کنترل می شوند ، جواب های بهینه ی مسائل MOLP سطح iام ،
باید ابتدا بعد از هر روش MOLP تعیین شوند (ضمیمه ی A را ببینید) .
فرض کنید که مقادیر خطای مجاز (تحمل) مثبت و منفی حداکثر (ماکزیمم) در بردارهای تصمیم گیری باشند که توسط DM سطح iام در نظر گرفته می شوند . خطاهای مجاز ضرورتاً یکسان نیستند . توابع عضویت خطی (شکل 2) برای هر یک از مولفه های بردار تصمیم گیری کنترل شده توسط تصمیم گیران سطوح بالای p-1 را می توان اینگونه فرمول بندی کرد .

ممکن است متوجه نشوید که تصمیم گیرنده شاید بخواهد دامنه ی را تغییر دهد . بعد از Pramanik و Roy [26] . Shiha [28] می توان به این تغییر دست پیدا کرد . اکنون ، در یک محیط تصمیم گیری فازی ، آرمان های فازی شامل توابع هدف تصمیم گیرنده در هر سطح و بردار آرمان های فازی متغیرهای تصمیم گیری کنترل شده از سوی تصمیم گیران سطح بالای p - 1 می باشند . دستیابی آنها به سطوح انتظارشان با اندازه ای که ممکن است در واقع با دستیابی احتمالی مقادیر عضویت مربوطه آنها به بالاترین درجه نشان داده می شود . در رابطه با این جنبه ی مسائل برنامه ریزی فازی ، یک روش برنامه ریزی آرمانی به نظر می رسد که برای حل مسائل برنامه ریزی خطی چند هدفه سطح pام بالایی و مسئله برنامه ریزی خطی چند هدفه ی چند سطحی مناسب ترین روش باشد .

2-3- روش برنامه ریزی فازی آرمانی
در روش های برنامه ریزی فازی ، بالاترین درجه ی تابع عضویت "یک" می باشد . بنابراین ، برای توابع عضویت تعریف شده در (5) و (6) ، آرمان های انعطاف پذیر عضویت با سطح انتظار 1 را می توان اینگونه نشان داد :
7)
8)
شکل 2 : توابع عضویت بردارهای تصمیم گیری

 

 

 

فرمت این مقاله به صورت Word و با قابلیت ویرایش میباشد

تعداد صفحات این مقاله  25  صفحه

پس از پرداخت ، میتوانید مقاله را به صورت انلاین دانلود کنید


دانلود با لینک مستقیم


دانلودمقاله حل مسائل برنامه ریزی خطی چند هدفۀ چند سطحی