سورنا فایل

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

سورنا فایل

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

پروژه روشی جدید برای الگوریتم زمانبندی CPU :با گردش بنوبت ژنتیکی

اختصاصی از سورنا فایل پروژه روشی جدید برای الگوریتم زمانبندی CPU :با گردش بنوبت ژنتیکی دانلود با لینک مستقیم و پر سرعت .

پروژه روشی جدید برای الگوریتم زمانبندی CPU :با گردش بنوبت ژنتیکی


دانلود  پروژه روشی  جدید برای الگوریتم زمانبندی CPU :با گردش بنوبت ژنتیکی

یک موضوع جالب در سیستم عامل, زمانبندی CPU است.این زمانبندی به تخصیص CPU مربوط است که فراینده ها را در سیستمی کامپیوتری اجرا میکند.زمانبندی CPU وظیفه ی اصلی سیستم عامل است[1].زمانبندی باید بدرستی برای نگه داشتن بیطرفی و جلوگیری از فرایندهایی که هرگز CPU را تخصیص نمیدهد انجام شود(فرایند گرسنگی).زمانبندی CPU ضروری است , بخصوص در سیستم شبکه ی کامپیوتری که از گروهی از ایستگاههای کاری و سرویس دهندهها تشکیل میشود.سپس,در این سیستم عامل جدید ,کامپیوتر چند وظیفه ای ,یک هدف است و این به الگوریتم برای زمانبندی CPU متکی است.بهمین دلیل CPU بخش موثر یا مهم یک کامپیوتر است.[1].علاوه بر این ,در این عصر به کمک VLSL (در مقیاس بسیار بزرگ مدار مجتمع)ممکن است پردازنده هایی با قدرت بالا تولید کنند.این قدرت شگفت انگیز بایداستفاده شود تا بی فایده نباشد.همزمان با قدرت محاسبه ی پردازنده, در برنامه های کاربردی افزایش وجود دارد که آن قدرت را استفاده میکند. یک معیار که باید بوسیله ی برنامه انجام شود ,به حداقل رساندن میانگین زمان انتظار برای همه ی فرایندها در بدست آوردن تخصیص CPU است.الگوریتمهای مختلفی برای زمانبندی CPU وجود دارد:یکی از آنها گردش بنوبت(RR) است.مفهوم اساسی در RR استفاده از اشتراک گذاری زمان است[3].هر فرایند همان زمان CPU را بدست می آورد یعنی زمان کوانتومی, که بعنوان محدودیت در زمان پردازش ,بطور کلی در محدوده ی 1-100 میلی ثانیه عمل میکند.بعد از اینکه زمان کوانتومی برای فرایندی بپایان رسید,فرایند از اجرای آن متوقف میشود و در صف آماده گذارده میشوند.سپس ,فرایند بعدی انتخاب میشودتا اجرا شود.این مراحل چندین بار اجرا خواهند شد تا زمانیکه همه ی فرایندها بطور کامل بوسیله ی CPU بکار روند.اگر چه محدوده ی مقدار برای زمان کوانتومی وجود دارد,هنوز هیچ استانداردی وجود ندارد. ضمنا اگر زمان کوانتومی بسیار زیاد باشد,زمان مورد نیاز برای پاسخ / انتظار (چقدر زمان مورد نیاز است که آن بکار گرفته شود) کاملا زیاد است.علاوه براین, اگر خیلی کم باشد برای CPU مخارج کلی بوجود می آورد.جستجو برای بهترین زمان کوانتومی هدف دارد که به حداقل رساندن میانگین زمان انتظار برای گروهی از فرایندهاست.امیدواریم که هر فرایند بتواند کارش را در زمان معقول انجام دهد.تسریع کننده  یک فرایند اثرات کارش را در بسیاری از فرایندها بپایان میرساند که میتواند بوسیله ی CPU بکار گرفته شود.این کار به توان عملیاتی بهتری از CPU میرسد برای اینکه همیشه مشغول است و هرگز غیرفعال نیست.

59 صفحه word


دانلود با لینک مستقیم


پروژه روشی جدید برای الگوریتم زمانبندی CPU :با گردش بنوبت ژنتیکی

دانلودمقاله الگوریتم های متراکم سازی

اختصاصی از سورنا فایل دانلودمقاله الگوریتم های متراکم سازی دانلود با لینک مستقیم و پر سرعت .

 

 

 

 

 

فایلهای قبل از چاپ اغلب بزرگ هستند .بنابر این ، این یک امر منطقی است که داده اغلب فشرده شده است . تعداد کاملاً کمی الگوریتم وجود دارد که بتواند هم برای نوشتار و هم برای تصاویر استفاده کرد . یک دانش ابتدایی درباره اینکه چگونه الگوریتم های متفاوت کار می کنند می تواند ارزنده باشد . این اوراق یک دید کلی از الگوریتم های تراکم سازی گوناگون که در صنعت پیش چاپ استفاده می شود ارائه خواهد کرد . آن به هیچ وجه یک دید کلی کامل از همه الگوریتم های موجود نیست .
انواع تراکم سازی ملاک عبارتند از :
متراکم سازی CCITT ‌ گروه 3 و 4 ( هم اکنون در حال ساخت )
• متراکم سازی Flate / deflate
• متراکم سازی JPEG
• متراکم سازی LZW
• متراکم RLE
انواع الگوریتم های متراکم سازی
الگوریتم های بالا می توانند به 2 بخش جداگانه تقسیم شوند آنها یا بی فایده هستند و یا بافایده .
الگوریتم های بی ضرر محتوای یک فایل را تغییر نمی دهند . اگر شما یک فایل را متراکم سازید و آنگاه آن را گسترده کنید ، آن تغییر نکرده است . الگوریتم های زیر بی ضرر هستند :
• متراکم سازی CCITT ‌ گروه 3 و 4 ( هم اکنون در حال ساخت )
• متراکم سازی Flate / deflate
• متراکم سازی Huffman
• متراکم سازی LZW
• متراکم RLE
الگوریتم های مضر نرخ تراکم بهتری را به وسیله خلاص شدن از برخی اطلاعات گزیده در فایل حاصل می آیند . چنین الگوریتم هایی می توانند برای تصاویر یا فایل های صدا و نه برای داده های برنامه یا نوشتاری استفاده بشوند. الگوریتم های زیر مضر هستند :
• متراکم سازی JPEG
کدام الگوریتم بهترین است ؟
متاسفانه پاسخ قاطعی برای آن سوال وجود ندارد . آن همه اش بستگی به نوع فایلی که باید فشرده بشود ، همچنین مفهوم واقعی فایل و این سوال که آیا شما مایل به پذیرش یک الگوریتم مضر برای آن فایل ویژه هستید یا نه ، دارد .
به عنوان یک قانون عمومی قبل از فشرده سازی افراد موارد زیر را در نظر
می گیرند :
نوشتار
ارزش فشرده سازی ندارد برخی اوقات RLE به کار رفته است .
تصاویر تک رنگ LZW
داده های سینمایی و هنری تک رنگ CCITT گروه 4
تصاویر فانتری LZW برای فایل هایی که جزئیات خیلی زیادی را دربرنمی‌گیرند. تصاویر رنگی JPEG اگر متراکم سازی با ضرر مطلوب باشد .
کشیدن خط به وسیله برنامه های کاربردی حمایت نشده است .
پایان شماره 1
متراکم سازی Flate / deflate
الگوریتم متراکم سازی بدون اتلاف deflate بر مبنای 2 الگوریتم متراکم سازی دیگر است :
رمز کردن هاف من و متراکم سازی LZVV . شما باید بدانید که این دو الگوریتم چگونه کار می کنند به منظور درک فشرده سازی Flate / deflate چگونه کار می کند . deflate یک الگوریتم باهوش است که مبتنی با روشی که داده را به داده اصلی خودشان فشرده می کند . 3 روش فشرده سازی که موجود هستند :
1- هیچ گاه فشرده نشده باشد . این یک انتخاب هوشمند است برای داده ای که قبلاً فشرده بوده است می باشد . داده ذخیره شده در این وضعیت به مقدار کمی گسترش خواهد یافت ، اما نه آنقدر که اگر قبلاً‌ فشرده باشد و یکی از روشهای دیگر فشرده سازی بر روی آن انجام شده باشد توسعه نمی یابد .
2- فشرده سازی می کند ابتدا با lzvv و سپس با یک نسخه کمی اصلاح شده کد کردن هاف من .
شاخه هایی که برای فشرده سازی این وضعیت به وسیله مشخصه deflate خودش تعریف شده است ، بنابر این هیچ فضای اضافی برای ذخیره کردن این شاخه ها نیاز نداریم .
3- متراکم سازی می کند ابتدا با LZVV و سپس با نسخه کمی تغییر یافته از کد گذاری هاف من با شاخه هایی که فشرده ساز ایجاد می کند و در طول داده ذخیره می شود .
داده ها به بلوک ها شکسته می شود و هر بلوک یک روش واحد از متراکم فشرده سازی را به کار می برد . اگر فشرده ساز بخواهد از ذخیره غیر فشرده به فشرده سازی با شاخه هایی ویژه تغییر وضعیت دهد یا به متراکم سازی با شاخه های هاف من مشخص کند یا به متراکم سازی با یک جفت متفاوت از شاخه های هاف من تغییر وضعیت دهد بلوک جاری باید پایان یابد و یک بلوک جدید شروع شده باشد .
من نظری ندارم . برای من بفرستید اگر شما چیزی درباره نفع و ضررها می دانید متراکم سازی Flate / deflate در کجا به کار رفته اند . من فقط از یک کاربرد قبل از فشرده سازی عمومی که مبتنی بر متراکم سازی Flate که Adobe Acrobat هست مطلع هستم . متراکم سازی Flate یک خاصیت استاندارد از قالب فایل PDF که Acrobat می تواند به کار برد ، است .
فشرده سازی JPEG
JPEG گرفته شده از گروه ماهر عکاسی است ، که یک کمیته استاندارد است . همچنین الگوریتم متراکم سازی به وسیله این کمیته ایجاد شده است .
دو الگوریتم فشرده سازی JPEG وجود دارند : قدیمی ترین آن به عنوان JPEG درون این صفحه به سادگی به کار می رود . الگوریتم جدید تر 2000 JPEG در پایین این صفحه مطرح شده است . لطفاً توجه کنید که شما باید بین الگوریتم فشرده سازی JPEG – که درون این صفحه مطرح شده – و متناظر با آن قالب بندی فایل JFIF ( که خیلی از مردم آن را با نام فایل های JPEG می شناسند ) .
JPEG یک الگوریتم فشرده سازی پر اتلاف است که ایجاد شده است تا اندازه طبیعی فایل تصاویر رنگی شبیه عکاسی به اندازه ممکن بدون تاثیر بر کیفیت تصاویر همانگونه که به وسیله موتور درک انسانی تجربه شده کاهش دهد . ما تغییرات کوچک در روشنایی را آسانتر از تغییرات کوچک در رنگ درک می کنیم . آن ، این جنبه از آگاهی ماست که فشرده JPEG از آن بهره برده و تلاش می کنند تا اندازه فایل را کاهش دهد .
JPEG چگونه کار می کند .

 

فرمت این مقاله به صورت Word و با قابلیت ویرایش میباشد

تعداد صفحات این مقاله  23  صفحه

پس از پرداخت ، میتوانید مقاله را به صورت انلاین دانلود کنید


دانلود با لینک مستقیم


دانلودمقاله الگوریتم های متراکم سازی

جزوه کلاس خصوصی ارشد طراحی الگوریتم دکتر سید جوادی

اختصاصی از سورنا فایل جزوه کلاس خصوصی ارشد طراحی الگوریتم دکتر سید جوادی دانلود با لینک مستقیم و پر سرعت .

جزوه کلاس خصوصی ارشد طراحی الگوریتم دکتر سید جوادی


جزوه کلاس خصوصی ارشد طراحی الگوریتم دکتر سید جوادی

این جـــزوه  کلاس خصوصی استاد دکتـــر سیـــد جوادی می باشد که حاوی نکات کلیدی فراوان به همراه سوال و جواب های تشریحی فراوان می باشد که در هیچ کتابــــــ  و سایت مشابـــــه ای نیـــامده است و صرفــاَ مختص این فروشگــاه اینترنتی می باشد. در این کتاب که خود استاد چند سال طراح سوال در کنکور ارشد بوده به ذکر نکات کلیدی اشاره می کند که داوطلب و دانشجو خیلی راحت مفاهیم را درک می کنند و در حافظه به یاد می سپارند. شما این کتاب را با هزینـــه ای بسیــار اندک می توانید از این فروشگاه دریافت کنید و بکار بگیرید. هزینه شرکت در کلاس خصوصی دکتر سید جوادی در رنج قیمتی 400000 الی 500000 هزار تومان قرار دارد.           پس این فرصت استثنایی برای آموزش را از دست ندهید.

 

برای خرید اینجا کلیک کنید


دانلود با لینک مستقیم


جزوه کلاس خصوصی ارشد طراحی الگوریتم دکتر سید جوادی

ترجمه فارسی مقاله اسپرینگر معرفی یک الگوریتم تخصیص منبع جدید برای پردازش ابری بر اساس نظریه بازی

اختصاصی از سورنا فایل ترجمه فارسی مقاله اسپرینگر معرفی یک الگوریتم تخصیص منبع جدید برای پردازش ابری بر اساس نظریه بازی دانلود با لینک مستقیم و پر سرعت .

ترجمه فارسی مقاله اسپرینگر معرفی یک الگوریتم تخصیص منبع جدید برای پردازش ابری بر اساس نظریه بازی


ترجمه فارسی مقاله اسپرینگر معرفی یک الگوریتم تخصیص منبع جدید برای پردازش ابری بر اساس نظریه بازی

 معرفی یک الگوریتم تخصیص منبع جدید برای پردازش ابری بر اساس نظریه بازی

A New Game Theoretical Resource Allocation Algorithm for Cloud Computing

Fei Teng and Fr´ ed´ eric Magoul` es

کلمات کلیدی

پردازش ابری، تخصیص منبع، نظریه بازی، تعادل نش

سال انتشار مقاله: Springer-Verlag Berlin Heidelberg 2010

R-S. Chang et al. (Eds.): GPC 2010, LNCS 6104, pp. 321–330, 2010.

 چکیده

پردازش ابری و دیگر مدل های پردازشی، اهداف یکسانی را دنبال می کنند و هدف تمامی این مدل ها عبارت است از اجرای پردازش های موازی در ارتباط با منابع بزرگ توزیع شده. با این وجود، مدل پردازش ابری در مقایسه با سایر مدل های پردازشی به میزان فزاینده ای به حالات در اختیار گرفتن و مصرف منابع میان ارائه دهندگان سرویس و کاربران آن وابسته می باشد. از اینرو چگونگی تخصیص منبع به صورت منطقی بگونه ای که نیازمندی ها و الزامات هر دو طرف (ارائه دهندگان سرویس و کاربران) رفع شود؛ موضوعی است که توجه گسترده ای را به خود معطوف داشته است. در این مقاله برای رفع مشکل مدیریت منابع در پردازش ابری یک الگوریتم بیزی تخصیص «تعادل نش» را بر اساس نظریه بازی ارائه می نماییم. این الگوریتم به طور کامل ضوابط و معیار های مختلفی نظیر توزیع ناهمگن منابع، حالات تعاملی عقلانی کاربران ابر، اطلاعات ناقص مشترک و تخصیص متوالی و پویا را مورد توجه قرار می دهد. در مقایسه با نتایج حاصل از کار های تحقیقاتی پیشین، نتایج تجربی ارائه شده در این مقاله نشان می دهند که حتی با وجود نامعلوم بودن اطلاعات مربوط به رقیب، کاربران سرویس ابری می توانند از طریق فرآیند شرط بندی و ارائه پیشنهادات خود به صورت مرحله به مرحله، از راه حل های تخصیص تعادل نش استفاده نمایند. بعلاوه در انتهای زنجیره شرط بندی، قیمت منبع محاسبه شده بوسیله الگوریتم، به قیمت بهینه و مطلوب همگرا می شود.

Abstract

Cloud computing and other computing paradigms share the similar visions which aim to implement parallel computations on large distributed resources. However, this cloud computing is more involved in purchasing and consuming manners between providers and users than others. So how to allocate resources reasonably to cater requirements from both sides attracts wide attentions. Based on game theory, we introduce a new Bayesian Nash Equilibrium Allocation algorithm to solve resource management problem in cloud computing. This algorithm fully considers several criteria such as the heterogeneous distribution of resources, rational exchange behaviors of cloud users, incomplete common information and dynamic successive allocation. Compared to former researches, experimental results presented in this paper show that even though rivals’ information is uncertain, cloud users can receive Nash equilibrium allocation solutions by gambling stage by stage. Furthermore, the resource price evaluated by the algorithm will converge to the optimal price at the end of the gambling sequence

Keywords: cloud computing, resource allocation, game theory, Nash equilibrium.

نمونه داکیومنت را می توانید در تصویر زیر مشاهده نمایید:

 

آنچه تحویل داده می شود:

  1. فایل ورد Microsoft Word .docx ترجمه به فارسی (فرمولها تایپ نشده اند و به صورت عکس گذاشته شده اند)
  2. فایل PDF مقاله اصلی به زبان انگلیسی

 

تعداد صفحات فایل ورد مقاله ترجمه شده (فارسی): 13 صفحه

تعداد صفحات مقاله اصلی زبان انگلیسی: 10 صفحه

 

مناسب برای دانشجویان کارشناسی و ارشد کامپیوتر (مهندسی نرم افزار و معماری کامپیوتر، هوش مصنوعی) و دانشجویان IT بالاخص دانشجویان نرم افزار و هوش مصنوعی

 

می توان به عنوان پروژه دروس کارشناسی ارشد یا کارشناسی این پروژه را تحویل داد، دروسی مانند سیستم خبره، داده کاوی، مهندسی نرم افزار پیشرفته، مباحث پیشرفته در مهندسی نرم افزار، یادگیری ماشین،Machine Learning ، Data Mining، تئوری بازی ها، پردازش ابری، محاسبات توزیع شده، سیستم عامل پیشرفته، محاسبات موازی، پردازش توزیع شده، پردازش موازی

 

پس از خرید از درگاه امن بانکی، لینک دانلود در اختیار شما قرار میگیرد و همچنین به آدرس ایمیل شما فرستاده می شود.

تماس با ما برای راهنمایی، درخواست مقالات و پایان نامه ها و یا ترجمه و یا انجام پروژه های برنامه نویسی و حل تمرینات با آدرس ایمیل:

ebarkat.shop@yahoo.com

یا شناسه تلگرام (آی دی تلگرام ما): @ebarkat

توجه: اگر کارت بانکی شما رمز دوم ندارد و یا در خرید الکترونیکی به مشکل برخورد کردید و یا به هر دلیلی تمایل به پرداخت الکترونیکی ندارید با ما تماس بگیرید تا راههای دیگری برای پرداخت به شما پیشنهاد کنیم.

از پایین همین صفحه (بخش پرداخت و دانلود) می توانید این پروژه را خریداری و دانلود نمایید.


دانلود با لینک مستقیم


ترجمه فارسی مقاله اسپرینگر معرفی یک الگوریتم تخصیص منبع جدید برای پردازش ابری بر اساس نظریه بازی

دانلود مقاله الگوریتم بهینه سازی بر اساس برنامه ریزی خطی

اختصاصی از سورنا فایل دانلود مقاله الگوریتم بهینه سازی بر اساس برنامه ریزی خطی دانلود با لینک مستقیم و پر سرعت .

 

 

الگوریتم بهینه سازی بر اساس برنامه ریزی خطی برای حل مسائل برنامه ریزی غیر خطی

 

 

 

خلاصه :
در این مقاله الگوریتم بهینه سازی براساس برنامه ریزی خطی که روش توالی cutting plane (صفحۀ برش ) نامیده می شود ارائه شده است . ویژگی اصلی این الگوریتم توصیف شده ( توضیح داده شده ) است ، همگرایی به نقطۀ مانای Karush - Kuhn - Tucker ثابت شده و نتایج عددی روی مجموعه ای از نمونه های شناخته شده نشان داده شده است . این روش بر اساس حالت خطی برای مسائل با (محدودیت نامساوی) محدب است اما در اینجا این روش به مسائل برنامه ریزی غیر خطی دیفرانسیلی متناوب شامل هر دو محدودیت مساوی و نامساوی غیر خطی گسترش داده شده است . در مقایسه با حل کننده های موجود فهمیده می شود که این روش قابل رقابت با این حل کننده ها است . بنابراین این روش که براساس حل زیر برنامه ، برنامه ریزی خطی است یک روش خوب برای حل مسائل برنامه ریزی غیر خطی است . این الگوریتم به عنوان زیر حل کننده در الگوریتم برنامه ریزی غیر خطی اعداد مختلط در جایی که مسائل خطی باندهای پایین برای حل بهینه در زیر مسئله های برنامه ریزی غیر خطی در درخت شاخه و باند برای مسائل با محدودیت غیر خطی محدب به کار برده می شود .

 

مقدمه :
روش cutting plane (صفحۀ برش) Kelly [11] در سال 1960 برای حل مسائل برنامه ریزی غیر خطی (NP) با حل یک توالی از مسائل برنامه ریزی خطی (LP) ارائه شد . اگر چه بعضی روش های دیگر که براساس برنامه ریزی خطی هستند وجود دارد مثل روش برنامه ریزی تقریبی [6] ، تکنیک های LP کاملاً در طرفداری از روش برنامه ریزی درجۀ 2 متوالی (SQP) کنار گذاشته شده اند . بعد از اینکه Han همگرایی اصلی و محلی را در روش (SQP) [8و7] ثابت کرد تعداد زیادی از مقالات تحقیقاتی براساس تکنیک های SQP تولید شدند . در واقع امروزه تعدادی از حل کننده های NLP فرم هایی از تکنیک های SQP را به کار برده اند . اخیراً مقالات جالبی در تایید موفقیت تکنیک های برنامه ریزی خطی (SLP) ارائه شده است . در [2] مقاله ای ارائه شده که برنامه ریزی خطی و زیر مسائل برنامه ریزی خطی درجۀ 2 با موفقیت حل شده و حل بهینه را به دست آورده است . مسائل برنامه ریزی خطی یک برآوردی از شرایط (محدودیت های) فعال در ناحیۀ معتبر فراهم کرده است و یک مسئلۀ برنامه ریزی درجه 2 با استفاده از شرایط (محدودیت های) فعال در حل بهینۀ مسئلۀ خطی ساختاربندی شده و حل شده است . اگرچه روش ارائه شده در [2] اساساً برای برآورد (تخمین) شرایط (محدودیت های) فعال در هر تکرار، مسائل برنامه ریزی خطی را به کار می برد و به علاوه در هر تکرار یک مسئله با محدودیت مساوی درجه 2 را حل می کند . در این مقاله این نشان داده می شود که تکنیک های LP در حل مسائل NLP به صورت مؤثری با موفقیت به کار می رود حتی بدون اینکه مجبور باشد زیر مسئله های درجه 2 را حل کند . در واقع آزمایشات عددی روی 2 مجموعۀ مورد آزمایش از مسائل استاندارد نشان می دهد که روش توصیف شده قالب رقابت با سایر حل کننده های NLP است . روش توصیف شده در اینجا می تواند برای حل مسائل NLP با هر دو شرط مساوی و نامساوی غیرخطی به کار برده شود و همگرایی اصلی به نقطۀ مانا Karush - Kuhn – Tucker (KKT) برای مسائل دیفرانسیلی متناوب غیر محدب نشان داده شده است . الگوریتم پیشنهاد شده یک بسطی از الگوریتم (SCP) صفحۀ برش متوالی که در [19] معرفی شده است . روش اصلی فقط مسائل محدب با شرایط نامساوی غیر خطی را حل می کند . دقت کنید که سر نام SCP با Sequential Conven Programming ارائه شده در [24] نباید اشتباه گرفته شود . در برنامه ریزی محدب متوالی مسئلۀ NLP اصلی با حل کردن یک توالی از زیربرنامه های غیر خطی مجزای محدب حل می شود . در اینجا ، این روش زیر مسئله های خطی را برای حل مسئلۀ NLP اصلی استفاده می کند . هدف اصلی الگوریتم توصیف شده در این مقاله به ویژه در حالت محدب الگوریتم بهینه کردن اجرا روی مسئله هاست به طوری که هدف و شرایط به آسانی ارزیابی شوند . هدف اصلی مینیمم کردن ارزیاب های تابع نیست .
اگر شرایط و تابع برای محاسبه کردن زمان بر باشد تعدادی الگوریتم دیگر برای چنین مسائلی وجود دارد که کاربردی تر و مفیدتر است . یکی از کاربردهای الگوریتم این است که به عنوان یک ترکیب کننده در یک الگوریتم برنامه ریزی غیر خطی عدد مختلط (MINLP) به کار رود . برای مسائل MINLP با محدودیت نامساوی محدب زیر مسئله ها LP به راحتی یک باند پایین برای حل بهینۀ مسئلۀ NLP محدب فراهم می کند . باندهای پایین (حدهای پایین) در روش شاخه و باند برای اثبات درست مورد نیاز هستند . جزئیات بیشتر در [21] دیده می شود . نتایج بسیار امیدوار کننده ای برای یک مجموعۀ خاص از مسائل بهینه سازی پیچیده در [20] گزارش شده است . مدل MINLP از الگوریتم می تواند حل های بهتری را در یک دقیقه بدست می آورد در حالی که حل کننده های اقتصادی که جواب ها را در مدت 12 ساعت به دست می آورند . حل مسائل MINLP محدب در بهینه سازی MINLP اصلی مهم است زیرا بیشتر الگوریتم های مشخص براساس حل یک توالی از مسائل MINLP محدب هستند [23و16و1] این الگوریتم می تواند همچنین برای حل کلی مسائل MINLP غیر محدب به عنوان حل کنندۀ فرعی در روش شاخه و باند NLP به کار برده شود [4] . آزمایشات عددی نشان می دهد که الگوریتم SCP می تواند برای این نوع از مسائل به کار برده شود و نیز همگرایی به نقطۀ مانا سریعتر آشکار می شود نسبت به زمانی که تکرارها از نقطۀ مانا دور هستند .
مرور : الگوریتم پیشنهادی ما مسائلی از این فرم را حل می کند .




که تابع های
دیفرانسیل های متناوب روی هستند . برخلاف [19] تابع و شرایط به صورت محدب در نظر گرفته نشده است . در نظر گرفته شده که شرایط شامل می شود شرایط خطی که یک ناحیۀ محدود X تعریف می کند . همچنین فرض شده است که ویژگی های شرایط (محدودیت) Mangasarion – Fromovitz توسعه یافته (EMFCQ) برای هر بر قرار است . شرایط در هر برای وقتی که مستقل خطی هستند برقرار است و یک وجود دارد به طوری که :


که یک مجموعه شاخص هایی هستند که بر شرایط مرزی دلالت می کند .

و یک مجموعه از شاخص هایی است که بر شرایط فعال دلالت می کند .

EMFCQ و رابطه ی آن توابع پنالتی (جبرانی) ملاحظه شده در [15] را نیاز دارد . در این الگوریتم ویژگی شرایط (محدودیت ها) به صورتی است که ضمانت می کند که برای هر نقطۀ غیر عملی می تواند یک جهت جستجویی را پیدا می کند به طوری که غیر عملی بودن شرایط کاهش یابد .
2. الگوریتم :
این الگوریتم شبیه به الگوریتم ارائه شده در [16] است از این جهت که یک توالی از تکرارهای NLP را اجرا می کند تا اینکه حل بهینۀ محلی را به دست آورد . هر تکرار NLP یک توالی از زیر تکرارهای LP را شامل می شود .
در هر زیر تکرار LP یک مسئلۀ LP حل می شود و یک جستجوی خطی در جهت جستجوی به دست آمده به عنوان حل برای مسئلۀ LP اجرا می شود . در پایان تکرار NLP ، آن تکرار جدید باید تابع شایستگی (مزیت) را به اندازۀ کافی کاهش دهد به منظور اینکه همگرایی را تضمین کند . و گرنه یک تکرار جدید باید به وجود آید به طوری که تابع شایستگی را به اندازه کافی کاهش دهد .

 

2.1 : زیر تکرارهای LP :
در هر زیر تکرار LP یک مسئلۀ LP حل می شود . مسئلۀ LP براساس (شکل گیری) صفحه های برش در تکرار جاری است . در زیر تکرار (i) از تکرارهای NLP مسئلۀ LP حل شده هست :

a1
b1
c1
d1
e1
f1
g1
که در نقطۀ به وجود آمده اند . مسئله LP( ) و حل بهینه مسئلۀ در جایی که است بیان شده است . در اینجا شرایط a1 و b1 خطی شدۀ تابع شرایط غیر خطی h,g در هستند و مجموعه ای برای آرام سازی شرایط هستند به طوری که یک حل d در حل محدودۀ شرایط (1d) ایجاد می شود این شرایط اطمینان می دهد که جواب با توجه به جهت جستجوی به دست آمدۀ قبلی در طی تکرار NLP به صورت یک جهت ترکیبی می شود . جهت های جستجو برای زیر تکرارهای LP قبلی در طی تکرار NLP با مشخص شده است و برآورد (تخمین) است در زیر تکرار LP(i) در Hessian لاگرانتری در (NLP) .
توجه کنید که برای اثبات همگرایی فقط یک زیر تکرار در LP در تکرار NLP مورد نیاز است . توالی زیر تکرارهای LP فقط برای بهبود شرعت همگرایی اجرا می شوند . توالی زیر تکرارهای LP جهت های جستجوی ترکیبی را ایجاد می کند و بنابراین این الگوریتم روش جستجوی (شیب) گرادیانی ترکیبی را برای مسائل بدون محدودیت اجرا می کند . باندهای پایین (حدهای پایین) به صورت منفی و حدهای بالا (باندهای بالا) به صورت مثبت در نظر گرفته شده است . است . دقت کنید که هر دو خطی سازی شرایط به خوبی شرایط ترکیب را با توجه به تخمین Hessian لاگرانتری محدود می کند می توانند به عنوان صفحه های برش دیده شوند شرایط a1 حالت نیم فضایی ناحیۀ قابل قبول برای g را تقریب می زنند و b1 ها صفحه های رویین برش هستند که ناحیۀ قابل قبول را برای h تخمین می زنند و c1 صفحه های رویین برش هستند که جهت جستجوی d را با این شرایط که برروی صفحه های رویین وجود داشته باشند محدود می کند و بنابراین یک صفحه ترکیبی برای جهت های جستجوی به دست آمدۀ قبلی در طی تکرار NLP ایجاد می شود .

 

2.1.1 : تخمین افزایندۀ لاگرانتری :
مقادیر بهینۀ متغیرهای دوگان از 1 به عنوان تخمین های افزایندۀ لاگرانتری برای توالی جستجوهای خطی و برای تخمین Hessian لاگرانتری به کار می رود . اگر مسئلۀ LP در نقطۀ مانای برای NLP ایجاد شود سپس متغیرهای دوگان از شرایط a1 و b1 برای حل ، افزایندۀ لاگرانتری برای در NLP شناخته می شوند .

 

2.1.2 : مسائل LP غیر ممکن
اولین مسئلۀ LP در طی تکرار NLP نمی تواند غیر عملی باشد . زیرا که متغیرهای مسئله را به اندازۀ کافی آرام می کنند به طوری که یک حل d=0 را برای هر مسئله می پذیرد . ( وقتی که متغیرهای آرام سازی برابر با ماکزیمم مقدار مجاز شرایط است ) . بنابراین نیازی به بررسی مساله های LP عملی به عنوان موردی در حالت محدب در الگوریتم ارائه شده در [19] نیست . توجه کنید که ثابت C برای تضمین در تکرارهای غیر ممکن به اندازۀ کافی بزرگ انتخاب می شوند و یک حل بهینه وقتی که است به دست می آید و غیر عملی بودن شرایط کاهش می یابد وقتی که برای حل بهینۀ داریم : به طوری که و یا وجود دارد به طوری که اگر مسئل در زیر تکرار LP اول بدست نیاید سپس مسئلۀ NLP اصلی غیر عملی فرض می شود . به طور کلی چنانچه الگوریتم به نقطۀ غیر ممکن (غیر قابل قبول) محلی همگرا شود ، این درست نیست . اگر چه این فرض شده که EMFCQ برقرار است و شرایط تضمین می کند که چنین جوابهایی را می تواند پیدا کند .

 

2.1.3 : جستجوی خطی :
حل بهینۀ برای یک جهت جستجو را فراهم می کند و برای مینیمم کردن تابع در یک جستجوی خطی عمل می کند :


در اینجا تخمین های افزایندۀ لاگرانتری به دست آمده از متغییرهای دوگانه مسئلۀ LP حل شدۀ قبلی هستند و . پارامتر P یک پارامتر جبرانی هست که در طی فرآیند بهینه سازی ثابت نگه داشته می شود . جستجوی خطی برای مینیمم کردن استفاده می شود که تخمین های افزایندۀ لاگرانتری هستند که در زیر تکرار i(LP) به دست آمده اند . جستجوی خطی در جهت باشد و شروع از اجرا می شود که هست : .
تکرار بعدی بر اساس است و به عنوان نقطۀ شروع در زیر تکرار LP بعدی به کار برده می شود . دقت کنید که جستجوی خطی دقیق ضرورتاً مورد نیاز نیست و همچنین معیار برای جستجوی خطی به اندازۀ کافی کاهش یابد .

 


2.1.4 : تخمین Hessian :
فرمول تجدید شدۀ (BFGS) Broyden – Fletcher – Goldfard - Shanno استاندارد برای ایجاد تخمین ها برای Hessian به کار برده می شود اگرچه روش های دیگر هم به کار برده می شود . تخمین Hessian براساس تابع لاگرانتری زیر است :

2.1.5 : معیار خاتمه دادن زیر تکرار :
مراحل توصیف شدۀ بالا تکرار می شود تا اینکه یک معیار خاتمه را مشاهده کند . تعدادی معیار برای پایان دادن به زیر تکرار LP به کار برده می شود . برخلاف الگوریتم توصیف شده در [19] اولین زیر مسئلۀ LP در هر تکرار NLP نمی تواند عملی باشد ، همچنین متغیرهای وجود دارد که زیر مسئلۀ LP را آرام سازی می کند . در اولین زیر تکرار ، حل بهینه زیر مسئلۀ LP که غیر عملی بودن را کاهش نمی دهد که ممکن است مسئلۀ اصلی غیر عملی باشد و یا نقطه به نقطۀ غیر عملی محلی نزدیک است .
در توالی زیر تکرارها اگر هر یک از متغیرهای آرام سازی از صفر بزرگتر باشند شرایط مساوی (1C) ممکن است بسیار محدود شود و زیر تکرارها خاتمه می یابد . الگوریتم بیشتر زیر تکرارهای LP را متوقف می کند اگر یکی از معیارهای زیر دیده شود :
اگر i>n خاتمه می یابد (1
اگر به صفر نزدیک شود خاتمه می یابد (2
اگر کاهش نیابد خاتمه می یابد (3
به طوری که وجود ندارد و به طوری که
برای حل بهینۀ وجود دارد .
اگر i>1 باشد و هر متغیر از صفر بزرگتر باشند خاتمه می یابد . (4
اگر به یک نزدیک باشد خاتمه می یابد . (5

 

2.2 : تکرار NLP :
هر تکرار NLP یک مجموعه از زیر تکرارهای LP را شامل می شود . بنابراین چندین مسئلۀ LP حل می شود و چندین جستجوی خطی در هر تکرار NLP اجرا می شود تا اینکه اولین معیار خاتمۀ زیر تکرارها چنانچه در 2.1.5 توضیح داده شده مشاهده می شود . در پایان هر تکرار NLP ، تکرار جدید باید یک تابع شایستگی را به اندازۀ کافی کاهش دهد تا همگرایی به نقطۀ مانای KKT را تضمین کند . در غیر این صورت تکرار جدید باید با یک تکراری که تابع شایستگی را به اندازۀ کافی کاهش دهد جایگزین شود . بنابراین یک تکرار با شروع از تکرار پذیرفته شدۀ قبلی به دست می آید و تابع شایستگی را نسبت به تابع در جهت تر ولی برای تابع شایستگی مینیمم می کند . تابع شایستگی به کار برده شده در اینجا هست :

که ترم جبرانی هست که به صورت زیر تعریف شده است :

پارامترهای باید به صورتی انتخاب شوند که از قدر مطلق مقدار هر تخمین افزایندۀ لاگرانتری بزرگتر باشد . بنابراین :
2
3
باید برای هر تخمین افزایندۀ لاگرانتری به دست آمده در طی پروسۀ بهینه سازی برقرار باشد .
در عمل آزمایشات عددی نشان می دهد که بهتر است پروسه (فرآیندی) را به کار ببریم که را به صورت پویا در طی فرآیند بهینه سازی وقتی که تخمین های افزایندۀ لاگرانتری بزرگتر از در حال استفاده هستند تجدید می کند ( یا بعضی از روش های مشابه برای تخمین این پارامترها به کار رود ) . فرض های 2و3 برای اثبات همگرایی مورد نیاز است .

 

2.2.1 : آزمایش کاهش کافی :
تکرار جدید در پایان تکرار NLP باید آزمایش کاهش کافی را ارضا کند . ابتدا دقت کنید که مشتق های جهتی در جهت d هستند :

,
در نتیجه : مشتق جهتی M در جهت d هست :

تکرار جدید در پایان تکرار k,NLP باید روابط زیر را ارضا کند :
4
باید ارضا کند رابطۀ :
5
6
در اینجا تکرار در حال اجرا در اولین زیر تکرار LP برای تکرار NLP K است و جهت جستجوی به دست آمده به عنوان حل برای است و نتایج برای جستجوی خطی متناظر است . از آنجایی که جستجوی خطی به محدود می شود تکرار می تواند به ازای قابل قبول باشد حتی اگر رابطۀ 6 برقرار نشود . شرایط ذکر شده در 4-6 شرایط تئوری مورد نیاز هستند که همگرایی الگوریتم را بهبود می بخشد .
شرط 5 اطمینان می دهد که تابع شایستگی به اندازۀ کافی کاهش می دهد و 6 اطمینان می دهد که مراحل (پله ها) به اندازۀ کافی در هر تکرار اجرا شده اند . این اختیاری کوچک پذیرفته نمی شود . به علاوه متناوباً پذیرفته می شود . در آخر ، 4 اطمینان می دهد که آن تکرار در انتهای تکرار NLP مقدار تابع شایستگی را بیشتر از مقدار تابع شایستگی به دست آمده بعد از اولین زیر تکرار LP در تکرار NLP افزایش نمی دهد . توجه کنید که بعداً در قضیۀ 6 ثابت می شود که است مگر اینکه نقطۀ مانای KKT باشد . دقت کنید که اگر یک جهت نزولی برای M باشد و یک جستجوی خطی دقیق با شروع از که M را مینیمم می کند اجرا شود ، سپس معیار کاهش کافی (6) و (4) را ارضا می کند اما ضرورتاً (5) را ارضا نمی کند.
اگر چه در عمل از انتخاب 6 که به اندازۀ کافی به صفر نزدیک باشد اجتناب می شود . به طور متناوب الگوریتم جستجوی خطی غیر دقیق مرحله ای را پیدا می کند که 5 و 6 و همچنین 4 را ارضا کند به شرطی که که در [13] توضیح داده شده است .

 

2.2.2 : ایجاد تکرارهای مورد قبول :
اگر تکرار آزمایش کاهش کافی را که در 4 – 6 بیان شده ارضا نکند یک تکرار جدید که آزمایش را ارضا کند ایجاد می شود . در قضیۀ 6 نشان داده شده که حل برای اولین زیر مسئلۀ LP در یک تکرار NLP یک جهت نزولی برای تابع شایستگی M است . بنابراین یک نقطۀ جدید که ازمایش کاهش کافی را ارضا کند می تواند با شروع زیرتکرار LP از و تکرار کردن جستجوهای خطی در جهت های به دست آمده در زیر تکرارهای LP به دست آید (ایجاد شود ) . اما البته M را به جای در هر جستجوی خطی min می کنیم . از آنجایی که یک جهت نزولی برای تابع شایستگی است یک تکرار قابل قبول با به کار بردن این فرآیند ایجاد می شود .

 

2.3 : تجدید کردن باندها (حدهای) ناحیه ی اطمینان :
حدها (باندهای) یک ناحیه ی اطمینان را برای حل d برای زیر مسئلۀ LP شکل می دهند . این ناحیۀ اطمینان ممکن است افزایش یابد اگر ناحیۀ اطمینان در حال اجرا خیلی کوچک باشد و یا کاهش یابد اگر ناحیۀ اطمینان در حال اجرا خیلی بزرگ باشد . یک فرآیند نمونه برای تجدید کردن ناحیۀ اطمینان براساس طول مراحل استفاده شده در هر تکرار NLP به کار برده شده است . در نظر بگیریم :

و . در اینجا مرحلۀ بین 2 تکرار NLP وابسته به باندهای بالا و پایین را اندازه گیری می کند .
توجه کنید که ممکن است از 1 بزرگتر باشد زیرا زیر تکرارهای افزایندۀ LP در هر تکرار NLP اجرا می شود. به علاوه را به عنوان میزان دقتی در نظر بکیرید که چگونه بزرگی یا کوچکی یک پله (مرحله) بدون کاهش یا افزایش باندهای ناحیۀ اطمینان صورت می گیرد .
بنابراین اگر ، باندهای ناحیه ی اطمینان کاهش می یابد :

اگر ، باندهای ناحیه ی اطمینان افزایش می یابد :

2.4 : معیار خاتمه ی تکرار NLP :
تکرارهای NLP ادامه می یابد تا اینکه در حال اجرا یک نقطۀ مانا شود . در اینجا فرض شده است که مسئله ها همیشه نقاط مانا دارند . به طور کلی الگوریتم ممکن است در نقاطی که غیر عملی بودن شرایط نمی تواند کاهش یابد متوقف شود . متغیرهای آرام سازی به حدهای بالای این متغیرها برای اولین زیر مسئلۀ LP یک تکرار NLP نزدیک می شود . در این مورد این باید فرض شود که مسئلۀ NLP اصلی غیر عملی است اگر چه ممکن است به این صورت باشد که الگوریتم به نقطۀ غیر ممکن محلی همگرا شود . تکرار در حال اجرای یک نقطۀ مانا است اگر اولین دستور از شرط Karush – Kuhn – Tucker را ارضا کند .





محاسبه ی این معیارها با به کار بردن تقریب های آسان است که از مسئلۀ دوگان زیر مسئلۀ LP به دست امده اند . دقت کنید که 4 همیشه به عنوان تقریب براساس مسئلۀ دوگان زیر مسئله LP به شرط ارضا می شود . دقت کنید همچنین ممکن است الگوریتم در مواردی برنامه هایی را حل کند که نقطۀ مانا یک نقطۀ مانای Karush – Kuhn – Tucker نیست همچنین معیارهای بالا در چنین نقطه ای برقرار نیستند . در این موارد اگر چه آزمایشات عددی اولیه نشان می دهد که الگوریتم ممکن است هنوز یک نقطۀ مانای Karush – Kuhn – Tucke را در طی حل پذیرفته شده ای در همسایگی جواب درست به دست آورد .

 


2.5 : الگوریتم SCP :
الگوریتم SCP به صورت خلاصه در زیر امده است .
1) تنظیم کردن نقطۀ شروع اولیه .
2) انجام زیر تکرارهای LP
2.1) تنظیم کردن :
2.2) ایجاد و حل آن برای به دست آوردن جهت جستجوی و تخمین افزایندۀ لاگرانتری (حل بهینۀ دوگان)
2.3) بررسی اینکه آیا تکرار در حال اجرا یک نقطۀ مانا هست یا نه ؟ (بخش 2.4) .
2.4) اجرای جستجوی خطی برای مینیمم کردن (بخش 2.1.3 ) در نظر بگیریم :

2.5) تجدید کردن تخمین Hessian لاگرانتری با به کار بردن فرمول تجدید کنندۀ BFGS و نامیده آن به صورت (بخش 2.1.4 )
2.6) اگر بعضی معیارهای خاتمۀ زیر تکرارها ارضا شود ( بخش 2.1.5 ) . سپس از زیر تکرارهای LP خارج می شود . ( برو به 3 ) .
پس در نظر می گیریم : i:=i+1 و به 2.2 می رویم .
3) ذخیرۀ تکرار در حال اجرا و تخمین Hessian از زیر تکرارهای LP

4) اگر کاهش کافی برای تابع شایستگی وجود نداشت (بخش 2.2.1 ) سپس یک تکرار جدید با کاهش کافی پیدا می کنیم . (بخش 2.2.2)
5) اگر ناحیه ی اطمینان خیلی کوچک یا خیلی بزرگ باشد ناحیه ی اطمینان را تجربه می کنیم (بخش 2.3)
6) اگر تکرار یک نقطۀ مانا نباشد (بخش 2.4) سپس k:=k+1 را در نظر می گیریم و تکرار NLP جدید را شروع می کنیم . (به 2 برو )

 

3: همگرایی :
در این بخش نشان داده می شود که الگوریتم ویژگی همگرایی کلی را دارد . این بخش به صورت ادامه تقسیم بندی شده است : در قضیه ی 2 نشان داده می شود که ثابت C ممکن است به دست بیاید به صورتی که غیر عملی بودن شرایط در زیر تکرار LP کاهش یابد .
در قضیه ی 6 نشان داده می شود که این الگوریتم در اولین زیر تکرار LP ، جهت هایی که جهت های نزولی برای تابع شایستگی هستند در زمانی که مسالۀ LP ، را حل می کند به وجود می آورد . در آخر در قضیه ی 8 نشان داده می شود که هر نقطۀ محدود در مراحل نامحدود تکرارها یک نقطۀ محدود مانای KKT است . دقت کنید که قضیۀ 6 بیان می کند که اگر جواب مسئلۀ LP حل شده در اولین زیر تکرار از تکرار NLP برای تابع شایستگی یک جهت نزولی بنا شده پس تکرار در حال اجرا یک نقطۀ مانای KKT برای NLP است . ابتدا این نشان داده می شود که ممکن است در اولین زیر تکرار LP ثابت های C برای هر به گونه ای به دست آید که غیر عملی بودن شرایط برای خطی سازی مسئلۀ کاهش یابد . اثبات این موضوع به قضایایی که در ادامه آمده است نیازمند است .
قضیۀ 1 : هر را به گونه ای در نظر می کیریم که EMFCQ برقرار باشد . پس یک d وجود دارد به گونه ای که:


اثبات : در نظر می گیریم max (ماکزیمم) مقدار مجاز برای شرایط (محدودیت های) نامساوی است . را با 1 جایگزین می کنیم در صورتی که شرایط نامساوی وجود نداشته باشد و یا هیچ یک از شرایط نامساوی از مقدار مشخص تجاوز نکرده باشند . بخشی از قضیۀ 2.2 در [9] می تواند برای اینکه ببینیم آیا یک وجود دارد به طوری که شرط زیر را برقرار کند یا نه ، به کار می بریم .





قضیه ای که در ادامه آمده است نشان می دهد که یک c به اندازۀ کافی بزرگ وجود دارد به طوری که حل بهینه برای غیر عملی بودن شرایط رابرای را کاهش می دهد .
قضیۀ 2 : برای هر یک C به اندازۀ کافی بزرگ وجود دارد به طوری که غیر عملی بودن شرایط برای هر یک از شرایط غیر عملی کاهش می دهد . وجود دارد یک به طوری که و یا یک وجود دارد به طوری که برای هر حل بهینۀ .
اثبات : با استفاده از قضیۀ 1 می نویسیم که یک وجود دارد به طوری که :


ممکن است یک پیدا شود به طوری که را طوری انتخاب می کنیم که :


به مقدار تابع در نقطۀ دقت کنید و را در نظر بگیرید .





از این راه ثابت انتخاب می شود . بنابراین (جواب) حل از حل (جواب) برای بهتر است و ماکزیمم برابر است با . بنابراین غیر عملی بودن شرایط برای شرایط غیر عملی کاهش می یابد .
سپس جهت به دست آمده در اولین مسئلۀ LP حل شده در تکرار NLP را مورد بررسی قرار می دهیم . می تواند نشان داده شود که این جهت جستجو برای تابع شایستگی یک جهت نزولی است جهت که حلی برای مسئلۀ LP (1) است در نقطۀ در اولین زیر تکرار LP به دست می آید . حل مسئلۀ هست :

a7
b7
c7
d7
e7
f7
g7
به منظور اینکه ثابت کنیم که جهت های جهت های نزولی هستند تعداد قضیه مورد نیاز است . اولین قضیه بیان می کند که تکرار در حال اجرا برای مسئلۀ NLP اصلی یک نقطۀ مانا است البته اگر مقدار بهینه برای مسئلۀ خطی صفر باشد و تکرار در حال اجرای قابل قبول باشد .
قضیۀ 3 : فرض کنید که حل بهینه هست . به علاوه فرض کنید که است . از آنجایی که در (NLP) قابل قبول است در نتیجه حل قابل قبول برای است . به علاوه یک حل بهینه برای مسئلۀ زیر است :
8



که متغیرهای آرام سازی در اینجا همه صفر هستند زیرا قابل قبول (عملی) است به علاوه می تواند کاهش یابد .
همچنین توجه کنید اگر حل بهینۀ برای 8 وجود داشته باشد به طوری که باشد ممکن است بتوان ثابت کرد را به گونه ای که و به دست آورد . از آنجایی که در NLP مورد قبول است شرایط در NLP را ارضا خواهد کرد . بنابراین برای یک جواب (حل) می شود . این شرایط تایید می کند که یک حل بهینه برای است و است .
مسالۀ دوگان 8 به این صورت است :


9
و متغیرهای دوگان متناظر با شرایط 8 هستند . برای مثال در [12] اطلاعات بیشتری در مورد دوگانی خطی را می بینیم . فرض شده حل بهینه برای 9 هستند . با استفاده از قضیۀ دوگانی فهمیده می شود که مقدار بهینه برای مسائل دوگان و اولیه برابر هستند و بنابراین
10

با فرض .
همچنین فرض شده که است و از شرایط 9 در می یابیم که بنابراین
11
از 10 و 11 می فهمیم که :

در نظر بگیرید : پس از شرایط در 9 می فهمیم که :

و
بنابراین تکرار در حال اجرای اولین دستور از شرایط Karush - Kuhn – Tucker را ارضا می کند ( برای NLP ) و یک نقطۀ مانا KKT برای NLP می شود . قضیۀ بعدی یک باند بالای عملی را برای مشتق جهتی بر روی جزء (ترم) جبرانی در تابع شایستگی فراهم می کند .
قضیۀ 4 : را به عنوان یک حل بهینه برای در نظر بگیرید با به ترتیب به عنوان متغیرهای دوگان برای vd ,vc ,vb ,va و به علاوه در NLP غیر عملی فرض شده و نیز فرض شده که :

 

 

فرمت این مقاله به صورت Word و با قابلیت ویرایش میباشد

تعداد صفحات این مقاله 36   صفحه

پس از پرداخت ، میتوانید مقاله را به صورت انلاین دانلود کنید


دانلود با لینک مستقیم


دانلود مقاله الگوریتم بهینه سازی بر اساس برنامه ریزی خطی