جستجوی مقالات فارسی – 
کلاسه‌بندی رادارهای کشف شده توسط سیستم‌های جنگ الکترونیک- قسمت ۱۰

جستجوی مقالات فارسی – کلاسه‌بندی رادارهای کشف شده توسط سیستم‌های جنگ الکترونیک- قسمت ۱۰

شکل ۳-۴- توابع محرک رایج در شبکه عصبی پرسپترون چند لایه(MLP)

روش های آموزش در شبکه های پرسپترون چند لایه
جهت آموزش شبکه های عصبی، چهار الگوریتم آموزشی مرسوم وجود دارد که بر اساس ساختار معروف پرسپترون چند لایه میباشند. این روشها عبارت‌اند از: پس انتشار خطای بیشترین شیب (پس انتشار خطای استاندارد)، گرادیان مزدوج، شبه نیوتن، مارکوارت-لونبرگ و پس انتشار ارتجاعی. الگوریتم مارکوارت-لونبرگ از سال ۱۹۹۳ تا به امروز به عنوان سریعترین روش آموزش شبکه های عصبی شناخته شده است.]۱[
شبکه عصبی شعاعمبنا
شبکه های با تابع شعاعی به‌طور گستردهای برای تخمین غیر پارامتریک توابع چند بعدی از طریق مجموعه‌ای محدود از اطلاعات آموزشی به کار میروند. شبکه های شعاعی به‌واسطه آموزش سریع و فراگیر، بسیار جالب و مفید هستند و موردتوجه خاصی قرار گرفته‌اند[۱۳]. در سال ۱۹۹۰ میلادی ژیروسی، پوگی و هم‌چنین هارتمن و کپلر اثبات کردند که شبکه های با تابع مدار شعاعی تقریب سازهای بسیار قدرتمند هستند، به‌طوری‌که با داشتن تعداد نرونهای کافی در لایه مخفی، قادر به‌تقریب سازی هر تابع پیوسته با هر درجه دقت میباشد. نکته بسیار جالب آن است که این شبکه ها تنها با داشتن یک لایه مخفی، دارای چنین خاصیتی هستند. شبکه های با تابع مدار شعاعی از تکنیکهای آماری طبقهبندی الگوها بیشترین الهام را گرفتهاند که اساساً به عنوان گونهای از شبکه های عصبی، حیاتی نو یافته‌اند؛ مزیت عمده آن‌ ها طبقهبندی الگوهایی است که دارای فضای غیرخطی هستند. .با قرار دادن این شبکه برای طبقهبندی اصلی شبکه های عصبی، این تکنیک‌ها گرچه تعدادشان اندک است، به فراوانی به کار گرفته‌شده‌اند.
ساختار شبکه عصبی شعاعمبنا
معماری اصلی RBF متشکل از یک شبکه سه لایه مانند ۳-۵ می‌باشد. لایه ورودی فقط یک لایه ورودی است و در آن هیچ پردازشی صورت نمی‌گیرد. لایه دوم یا لایه پنهان، یک انطباق غیرخطی بین فضای ورودی و یک فضای با بعد بزرگ‌تر برقرار می‌کند و نقش مهمی در تبادل الگوهای غیرخطی به الگوهای تفکیکپذیر خطی دارد. سرانجام لایه سوم، جمع وزنی را به همراه یک خروجی خطی تولید میکند. درصورتی‌که از RBF برای تقریب تابع استفاده شود، چنین خروجی‌ مفید خواهد بود، ولی درصورتی‌که نیاز باشد طبقهبندی الگوها انجام شود، آنگاه یک محدودکننده سخت یا یک تابع سیگموئید را می‌توان بر روی عصب‌های خروجی قرار داد تا مقادیر خروجی صفر یا یک تولید شوند.

برای دانلود متن کامل این پایان نامه به سایت  jemo.ir  مراجعه نمایید.

شکل۳-۵- لایه پنهان(اوزان مرتبط با مرکز خوشه، تابع خروجی معمولاً گوسین)

همان‌طور که از توضیحات بالا مشخص میشود، خصوصیت منحصربه‌فرد این شبکه پردازشی است که در لایه پنهان انجام میگیرد. تابع لایه پنهان دارای رابطه است:

(۳-۱۱)

این رابطه نشان میدهد که برای تقریب f از p تابع شعاعی که دارای مراکز ثقل می‌باشد، استفاده می‌شود. نماد تابع فاصله در فضای می‌باشد که معمولاً فاصله اقلیدسی انتخاب می‌شود. ازآنجایی‌که منحنی نمایش تابع‌های مدار شعاعی به صورت شعاعی متقارن است، نرونهای لایه مخفی به نرونهای تابع شعاعی معروف هستند.
تابع معروف در شبکه های شعاعی همان تابع گوسی یا نمایی به فرم رابطه میباشد:

برچسب گذاری شده با: , ,
(۳-۱۲)