سایت مقالات فارسی – 
کلاسه‌بندی رادارهای کشف شده توسط سیستم‌های جنگ الکترونیک- قسمت ۹
AI (Artificial Intelligence) concept. Communication network.

سایت مقالات فارسی – کلاسه‌بندی رادارهای کشف شده توسط سیستم‌های جنگ الکترونیک- قسمت ۹

حال اگر های به‌دست‌آمده از رابطه در رابطه قرار داده شوند، یکی از ویژگی‌های مهم PCA به دست میآید:

(۳-۱۰)

مطابق رابطه ، واریانس تصویر بردار X روی نخستین محور مختصات جدید PCA بیشترین مقدار و به ترتیب برای سایر محورها سیر نزولی دارد. اهمیت مسئله ازاین‌جهت است که برای بسیاری از سیگنالهای طبیعی، مقادیر ویژه ماتریس کوواریانس به سرعت به سمت صفر میل می‌کند. لذا میتوان بیشتر انرژی بردار X را در تعدادی محدود از ضرایب اجزاء اصلی جمع و از سایر ضرایب صرفنظر کرد. این خصوصیت PCA موجب استفاده آن در مباحث فشردهسازی شده است.
الگوریتم‌های کلاسه‌بندی مورد استفاده
شبکه عصبی پرسپترون چند لایه[۱۷](MLP)
ساختار طبقه‌بندی شبکه عصبی
شبکه‌های عصبی را می‌توان با اغماض، مدل‌های الکترونیکی ساختار عصبی مغز انسان نامید. مکانیسم فراگیری و آموزش مغز اساساً بر تجربه استوار است؛ مدل‌های الکترونیکی شبکه‌های عصبی نیز بر اساس همین الگو بناشده‌اند. روش برخورد چنین مدل‌هایی با مسائل، با روش‌های محاسباتی که به‌طورمعمول توسط سیستم‌های کامپیوتری در پیش‌گرفته شده‌اند، تفاوت دارد.]۱[
شبکه های عصبی از یک سری لایه ها شامل اجزای سادهای به نام نرون تشکیل شده‌اند که به صورت موازی باهم عمل میکنند. در ۳-۲ یک نرون ساده با R ورودی نشان داده شده است. هر بردار ورودی با انتخاب مناسب وزن W، وزندار شده است. جمع ورودیهای وزندار با بایاس، ورودی تابع محرک F را تشکیل میدهند. ساختار عادی یک شبکه عصبی مصنوعی، معمولاً از لایه ورودی، لایه های میانی یا لایه مخفی و لایه خروجی تشکیل شده است. لایه ورودی یک لایه انتقال‌دهنده و وسیلهای برای تهیه داده ها است. آخرین لایه یا لایه خروجی شامل مقادیر پیش‌بینی‌شده به‌وسیله شبکه می‌باشد و بنابراین خروجی مدل را معرفی می‌کند. لایه میانی یا لایه مخفی که از نرون‌های پردازشگر تشکیل شده، محل پردازش داده ها است. تعداد نرون‌ها در هر لایه مخفی به‌طورمعمول به‌وسیله روش آزمون‌وخطا مشخص میشود. نرونهای لایه های مجاور در شبکه به‌طور کامل باهم در ارتباط هستند. به‌طورکلی شبکه های عصبی به دو نوع شبکه های پیشخور[۱۸](FFN) و پسخور[۱۹](RNN) تقسیم می‌شوند. تفاوت آن‌ ها در این است که در شبکه های پسخور، حداقل یک سیگنال برگشتی از یک نرون یا نرونهای همان لایه یا لایه قبل وجود دارد. در بیشتر موارد، شبکه های عصبی پسخور میتوانند بسیار مفید واقع شوند؛ بااین‌حال در ۸۰ درصد کاربردها از شبکه های عصبی پیشخور استفاده میشود[۴].

برای دانلود متن کامل این پایان نامه به سایت  fumi.ir  مراجعه نمایید.

شکل ۳-۲- مدل نرون
شکل ۳-۳- شبکه پیشخور دو لایه

معرفی شبکه های پرسپترون چند لایه(MLP)
شبکه های پرسپترون چند لایه از نوع شبکه های عصبی پیشخور میباشند که یکی از پرکاربردترین مدلهای شبکه های عصبی مصنوعی در تشخیص نوع مدولاسیونها هستند. در شبکه های پرسپترون چند لایه هر نرون در هر لایه به تمام نرونهای لایه قبل متصل میباشد. به چنین شبکه هایی، شبکه های کاملاً مرتبط میگویند[۴].
جهت اجرای دقیق شبکه پرسپترون چند لایه در محیط برنامهنویسی، نکات زیر به عنوان اصول کلی اجرا در نظر گرفته میشود.
نرمالیزه کردن داده ها: وارد کردن داده ها به صورت خام باعث کاهش سرعت و دقت شبکه می‌شود؛ ازاین‌رو داده های ورودی باید نرمالیزه شوند.
تعداد لایه های پنهان: تعداد لایه های پنهان تا حد امکان باید کم باشد. ثابت شده است که هر تابع میتواند حداکثر با سه لایه پنهان تقریب زده شود. ابتدا شبکه با یک لایه پنهان آموزش داده میشود که در صورت عملکرد نامناسب تعداد لایه های پنهان آن افزایش خواهد یافت.
تعداد نرونهای لایه پنهان: اندازه یک لایه مخفی عموماً به‌طور تجربی به دست میآید. برای یک شبکه عصبی با اندازه مناسب، تعداد نرونهای مخفی با یک نسبت کوچک از تعداد ورودیها انتخاب میشود. اگر شبکه MLP به جواب مطلوب همگرا نگردد، تعداد نرونهای لایه مخفی را افزایش میدهند؛ اگر شبکه همگرا گردید و از قدرت خوبی نیز برخوردار بود، در صورت امکان تعداد نرونهای مخفی کمتری را مورد آزمایش قرار میدهند.
توابع محرک: نرونها می‌توانند از توابع محرک متفاوتی جهت تولید استفاده کنند. از رایجترین آن‌ ها میتوان به توابع لگاریتم سیگموئیدی، تانژانت سیگموئیدی، و تابع محرک خطی اشاره کرد.
تعداد تراز یا سیکل[۲۰]: زمانی که پارامترهای شبکه پس از یک دوره کامل ارائه الگوها به دست آمدند، در اصطلاح به این تکرار اپوک یا یک سیکل میگویند. تعداد تکرارهای شبکه، برابر تعداد داده های یادگیری میباشد[۴].

برچسب گذاری شده با: , , , , ,