سبز اندیشان امروز

ساختار شبکه

شبکه عصبی شعاعمبنا
شبکههای با تابع شعاعی به‌طور گستردهای برای تخمین غیر پارامتریک توابع چند بعدی از طریق مجموعه‌ای محدود از اطلاعات آموزشی به کار میروند. شبکههای شعاعی به‌واسطه آموزش سریع و فراگیر، بسیار جالب و مفید هستند و موردتوجه خاصی قرارگرفته‌اند[13]. در سال 1990 میلادی ژیروسی، پوگی و هم‌چنین هارتمن و کپلر اثبات کردند که شبکههای با تابع مدار شعاعی تقریب سازهای بسیار قدرتمند هستند، به‌طوری‌که با داشتن تعداد نرونهای کافی در لایه مخفی، قادر به‌تقریب سازی هر تابع پیوسته با هر درجه دقت میباشد. نکته بسیار جالب آن است که این شبکهها تنها با داشتن یک لایه مخفی، دارای چنین خاصیتی هستند. شبکههای با تابع مدار شعاعی از تکنیکهای آماری طبقهبندی الگوها بیشترین الهام را گرفتهاند که اساساً به عنوان گونهای از شبکههای عصبی، حیاتی نو یافته‌اند؛ مزیت عمده آن‌ها طبقهبندی الگوهایی است که دارای فضای غیرخطی هستند. .با قرار دادن این شبکه برای طبقهبندی اصلی شبکههای عصبی، این تکنیک‌ها گرچه تعدادشان اندک است، به فراوانی به کار گرفته‌شده‌اند.
ساختار شبکه عصبی شعاعمبنا
معماری اصلی RBF متشکل از یک شبکه سه لایه مانند شکل3-5 می‌باشد. لایه ورودی فقط یک لایه ورودی است و در آن هیچ پردازشی صورت نمی‌گیرد. لایه دوم یا لایه پنهان، یک انطباق غیرخطی بین فضای ورودی و یک فضای با بعد بزرگ‌تر برقرار می‌کند و نقش مهمی در تبادل الگوهای غیرخطی به الگوهای تفکیکپذیر خطی دارد. سرانجام لایه سوم، جمع وزنی را به همراه یک خروجی خطی تولید میکند. درصورتی‌که از RBF برای تقریب تابع استفاده شود، چنین خروجی‌ مفید خواهد بود، ولی درصورتی‌که نیاز باشد طبقهبندی الگوها انجام شود، آنگاه یک محدودکننده سخت یا یک تابع سیگموئید را می‌توان بر روی عصب‌های خروجی قرار داد تا مقادیر خروجی صفر یا یک تولید شوند.
شکل3-5- لایه پنهان(اوزان مرتبط با مرکز خوشه، تابع خروجی معمولاً گوسین)
همان‌طور که از توضیحات بالا مشخص میشود، خصوصیت منحصربه‌فرد این شبکه پردازشی است که در لایه پنهان انجام میگیرد. تابع لایه پنهان دارای رابطه (3-11) است:
(3-11)
این رابطه نشان میدهد که برای تقریب f از p تابع شعاعی که دارای مراکز ثقل می‌باشد، استفاده می‌شود. نماد تابع فاصله در فضای می‌باشد که معمولاً فاصله اقلیدسی انتخاب می‌شود. ازآنجایی‌که منحنی نمایش تابع‌های مدار شعاعی به صورت شعاعی متقارن است، نرونهای لایه مخفی به نرونهای تابع شعاعی معروف هستند.
تابع معروف در شبکههای شعاعی همان تابع گوسی یا نمایی به فرم رابطه (3-12) میباشد:
(3-12)
در این رابطه فاکتور عرض کرنل jام میباشد. دلیل انتخاب تابع نمایی گوسی به عنوان تابع پاسخ نرونها در شبکههای با تابع شعاعمبنا این است که زیروسی و پوگی در سال 1990 میلادی نشان دادند که تابع نمایی جزء گروهی از توابع است که دارای بهترین خواص در تقریب سازی هستند. این موضوع تضمین میکند مجموعهای از وزنها وجود دارند که رابطه بین ورودیها و بردارهای هدف را بهتر از هر مجموعه دیگر تقریب سازی میکنند؛ این خاصیت در تابع سیگموئیدی، که در طراحی شبکههای پس انتشار خطا به‌کاربرده میشود، وجود ندارد. در ساختار بالا بسته به ساختار ورودی، توابع گوسی مختلفی مطرح میشود. اگر ورودی یک بعدی باشد، از یک نرون منفرد ساده در لایه مخفی که فقط دارای یک ورودی است، مشابه شکل3-6 استفاده می‌شود. در این حالت u نیز مقداری یک بعدی میباشد.
شکل3-6- نرون شعاعی با یک ورودی
منحنی نمایش این تابع در شکل3-7 نشان داده شده است.
شکل3-7- منحنی نمایش تابع پاسخ با تابع انتقال(تحریک) نرون شعاع با یک ورودی
با توجه به رابطه بالا برای مقادیر ورودی برابر میانگین u=x، تابع پاسخ نرون به ماکزیمم مقدار خود میرسد. با افزایش فاصله x از این میانگین، مقدار پاسخ نرون به‌شدت افت میکند و هر چه این فاصله بیشتر باشد، مقدار پاسخ نرون در یک محدوده خاصی در مقادیر x، قابل بررسی است. به این محدوده خاص میدان پذیرا گفته میشود. اندازه و محدوده این میدان با پارامتر تعیین می‌شود.
در مقایسه با منحنی توزیع استاندارد آماری که دارای شکلی شبیه به منحنی نمایش تابع پاسخ نرون است، می‌توان u را میانه و را انحراف استاندارد منحنی پاسخ نرون در نظر گرفت.
در شکل3-8 ساختار نرون لایه مخفی با ورودی دو بعدی x نشان داده شده است؛ در این حالت میانه u نیز برداری دو بعدی می‌باشد.
شکل3-8- نرون شعاعی با دو ورودی
در این حالت تابع شعاعی به یک تابع دو متغیره تبدیل میشود. منحنی نمایش این تابع در شکل 3-9 نشان داده شده است. این تابع نیز برای ورودی برابر u ماکزیمم خواهد بود.
شکل 3-9- منحنی نمایش تابع پاسخ یا تابع انتقال(تحریک) نرون شعاع با دو ورودی
با توجه به شکل می‌توان ملاحظه کرد که تابع گوسی نمایی که به عنوان تابع پاسخ نرون در نظر گرفته شده است، حول میانه u به صورت شعاعی متقارن است. باید توجه داشت که در شبکههای با تابع شعاعمبنا هیچ محدودیتی در تعداد نرونهای ورودی و خروجی وجود ندارد. هرچند تجسم فضایی منحنی نمایش تابع پاسخ نرونهای لایه مخفی در فضاهای بیش از سه بعد ممکن نیست، ولی مسائل مطرح‌شده در مورد آن‌ها صادق می‌باشد. در این حالت هم هر لایه پنهان دارای پاسخی به فرم رابطه (3-13) خواهد بود.
(3-13)