
سایت مقالات فارسی – کلاسهبندی رادارهای کشف شده توسط سیستمهای جنگ الکترونیک- قسمت ۹
حال اگر های بهدستآمده از رابطه در رابطه قرار داده شوند، یکی از ویژگیهای مهم PCA به دست میآید:
(۳-۱۰) |
مطابق رابطه ، واریانس تصویر بردار X روی نخستین محور مختصات جدید PCA بیشترین مقدار و به ترتیب برای سایر محورها سیر نزولی دارد. اهمیت مسئله ازاینجهت است که برای بسیاری از سیگنالهای طبیعی، مقادیر ویژه ماتریس کوواریانس به سرعت به سمت صفر میل میکند. لذا میتوان بیشتر انرژی بردار X را در تعدادی محدود از ضرایب اجزاء اصلی جمع و از سایر ضرایب صرفنظر کرد. این خصوصیت PCA موجب استفاده آن در مباحث فشردهسازی شده است.
الگوریتمهای کلاسهبندی مورد استفاده
شبکه عصبی پرسپترون چند لایه[۱۷](MLP)
ساختار طبقهبندی شبکه عصبی
شبکههای عصبی را میتوان با اغماض، مدلهای الکترونیکی ساختار عصبی مغز انسان نامید. مکانیسم فراگیری و آموزش مغز اساساً بر تجربه استوار است؛ مدلهای الکترونیکی شبکههای عصبی نیز بر اساس همین الگو بناشدهاند. روش برخورد چنین مدلهایی با مسائل، با روشهای محاسباتی که بهطورمعمول توسط سیستمهای کامپیوتری در پیشگرفته شدهاند، تفاوت دارد.]۱[
شبکه های عصبی از یک سری لایه ها شامل اجزای سادهای به نام نرون تشکیل شدهاند که به صورت موازی باهم عمل میکنند. در ۳-۲ یک نرون ساده با R ورودی نشان داده شده است. هر بردار ورودی با انتخاب مناسب وزن W، وزندار شده است. جمع ورودیهای وزندار با بایاس، ورودی تابع محرک F را تشکیل میدهند. ساختار عادی یک شبکه عصبی مصنوعی، معمولاً از لایه ورودی، لایه های میانی یا لایه مخفی و لایه خروجی تشکیل شده است. لایه ورودی یک لایه انتقالدهنده و وسیلهای برای تهیه داده ها است. آخرین لایه یا لایه خروجی شامل مقادیر پیشبینیشده بهوسیله شبکه میباشد و بنابراین خروجی مدل را معرفی میکند. لایه میانی یا لایه مخفی که از نرونهای پردازشگر تشکیل شده، محل پردازش داده ها است. تعداد نرونها در هر لایه مخفی بهطورمعمول بهوسیله روش آزمونوخطا مشخص میشود. نرونهای لایه های مجاور در شبکه بهطور کامل باهم در ارتباط هستند. بهطورکلی شبکه های عصبی به دو نوع شبکه های پیشخور[۱۸](FFN) و پسخور[۱۹](RNN) تقسیم میشوند. تفاوت آن ها در این است که در شبکه های پسخور، حداقل یک سیگنال برگشتی از یک نرون یا نرونهای همان لایه یا لایه قبل وجود دارد. در بیشتر موارد، شبکه های عصبی پسخور میتوانند بسیار مفید واقع شوند؛ بااینحال در ۸۰ درصد کاربردها از شبکه های عصبی پیشخور استفاده میشود[۴].
برای دانلود متن کامل این پایان نامه به سایت fumi.ir مراجعه نمایید. |
شکل ۳-۲- مدل نرون |
شکل ۳-۳- شبکه پیشخور دو لایه |
معرفی شبکه های پرسپترون چند لایه(MLP)
شبکه های پرسپترون چند لایه از نوع شبکه های عصبی پیشخور میباشند که یکی از پرکاربردترین مدلهای شبکه های عصبی مصنوعی در تشخیص نوع مدولاسیونها هستند. در شبکه های پرسپترون چند لایه هر نرون در هر لایه به تمام نرونهای لایه قبل متصل میباشد. به چنین شبکه هایی، شبکه های کاملاً مرتبط میگویند[۴].
جهت اجرای دقیق شبکه پرسپترون چند لایه در محیط برنامهنویسی، نکات زیر به عنوان اصول کلی اجرا در نظر گرفته میشود.
نرمالیزه کردن داده ها: وارد کردن داده ها به صورت خام باعث کاهش سرعت و دقت شبکه میشود؛ ازاینرو داده های ورودی باید نرمالیزه شوند.
تعداد لایه های پنهان: تعداد لایه های پنهان تا حد امکان باید کم باشد. ثابت شده است که هر تابع میتواند حداکثر با سه لایه پنهان تقریب زده شود. ابتدا شبکه با یک لایه پنهان آموزش داده میشود که در صورت عملکرد نامناسب تعداد لایه های پنهان آن افزایش خواهد یافت.
تعداد نرونهای لایه پنهان: اندازه یک لایه مخفی عموماً بهطور تجربی به دست میآید. برای یک شبکه عصبی با اندازه مناسب، تعداد نرونهای مخفی با یک نسبت کوچک از تعداد ورودیها انتخاب میشود. اگر شبکه MLP به جواب مطلوب همگرا نگردد، تعداد نرونهای لایه مخفی را افزایش میدهند؛ اگر شبکه همگرا گردید و از قدرت خوبی نیز برخوردار بود، در صورت امکان تعداد نرونهای مخفی کمتری را مورد آزمایش قرار میدهند.
توابع محرک: نرونها میتوانند از توابع محرک متفاوتی جهت تولید استفاده کنند. از رایجترین آن ها میتوان به توابع لگاریتم سیگموئیدی، تانژانت سیگموئیدی، و تابع محرک خطی اشاره کرد.
تعداد تراز یا سیکل[۲۰]: زمانی که پارامترهای شبکه پس از یک دوره کامل ارائه الگوها به دست آمدند، در اصطلاح به این تکرار اپوک یا یک سیکل میگویند. تعداد تکرارهای شبکه، برابر تعداد داده های یادگیری میباشد[۴].