در رابطه فوق، نماد T نشاندهنده ترانهاده بردار، x بردار ستونی ورودی و uj بردار مرکز ثقل مربوط به نرون لایه مخفی میباشد که معادل با یک بردار ورودی آموزشی است(باید توجه نمود که در صورت عدم استفاده از خوشهبندی برای بردارهای ورودی آموزشی باید یک نرون در لایه مخفی وجود داشته باشد). اگر هر یک از بردارهای ورودی و بردارهای مرکز ثقل را به عنوان یک نقطه در یک فضای n بعدی تلقی شود، مقدار پاسخ نرونهای لایه مخفی یعنی با افزایش فاصله آن دو نقطه از هم، به‌شدت کاهش مییابد. نکته مهم در طراحی شبکههای با تابع شعاعمبنا این است که توابع پاسخ نرونها باید تمام نواحی معنیدار و مهم فضای بردارهای ورودی را پوشش دهند.
بردار ماشین تکیهگاه(SVM)
جداکننده‌های خطی
یک جداکننده اغلب به صورت یک تابع نشان داده می‌شود. وقتی دو کلاس وجود داشته باشد٬ اگر f(x)≥0، یک داده به کلاس مثبت نسبت داده می‌شود؛ در غیر این صورت به کلاس منفی تعلق دارد. تابع خطی تابعی است که از ترکیب خطی ورودی x به صورت رابطه (3-14) تعریف می‌شود:
(3-14)
اگر یک جداکننده‌ی خطی بتوان پیدا کرد، به‌نحوی‌که برای تمام i ها رابطه‌ی (3-15) برقرار باشد، آنگاه مجموعهای از نقاط (x,y) که ، به صورت خطی قابل جداسازی هستند.
(3-15)
ضرایب لاگرانژ: ضرایب لاگرانژ یک استراتژی برای پیدا کردن مینیمم یا ماکزیمم یک تابع با توجه به محدودیتها است. مثلاً در شکل زیر، هدف یافتن x و y به‌گونه‌ای است که با توجه به محدودیت g(x,y)=c، f(x,y) ماکزیمم شود.
g(x,y)=c
شکل 3-10- نمایی از استفاده از ضرایب لاگرانژ
در ادامه متغیر جدید ضریب لاگرانژ(λ) معرفی میشود. تابع لاگرانژ به صورت (3-16) تعریف میشود:
(3-16)
اگر (x,y) برای مسئله محدود شده اولیه ماکزیمم باشد λای وجود دارد به‌طوری‌که (x,y,λ) برای تابع لاگرانژ نقطه تکین است(نقطه تکین نقطهای است که مشتق جزئی L نسبت به تابع صفر است.)
ابرصفحه: ابرصفحه یک مفهوم در هندسه است و تعمیمی از یک صفحه در تعداد متفاوتی از ابعاد میباشد. هر ابرصفحه یک زیر فضای k بعدی در یک فضای n بعدی تعریف میکند که kماشین بردار پشتیبان(SVM): ماشین بردار پشتیبان یک مجموعه از متدهای یادگیری با ناظر است که برای طبقهبندی و رگرسیون استفاده میشود]18[. ماشین بردار پشتیبان در سال 1992 توسط Vapnik و Chervonenkis بر پایه تئوری یادگیری آماری معرفی شد[7]. ماشین بردار پشتیبان یک مفهوم ریاضی برای ماکزیمم کردن تابع ریاضی با توجه به مجموعه دادههای داده شده است. هم‌چنین شهرت آن به خاطر کارایی در تشخیص حروف دستنویس است که با شبکههای عصبی پیچیده قابل قیاس میباشد.
در SVM یک داده به صورت یک بردار P بعدی(یک لیست از P عدد) دیده می‌شود که می‌توان چنین نقاطی را با یک ابرصفحه P-1 بعدی جدا کرد. این عمل جداسازی خطی نامیده می‌شود. ابرصفحههای بسیاری وجود دارند که می‌توانند دادهها را جدا کنند. البته انتخاب ابرصفحه مناسب نقش کلیدی دارد.
مفهوم آموزشی که دادهها بتوانند به عنوان نقاط در یک فضای با ابعاد بالا دستهبندی شوند و پیدا کردن خطی که آن‌ها را جدا کند، منحصربه‌فرد نیست. آنچه SVM را از سایر جداکننده‌ها متمایز می‌کند، چگونگی انتخاب ابرصفحه است.
درSVM ماکزیمم کردن حاشیه بین دو کلاس مدنظر است. بنابراین ابرصفحهای را انتخاب می‌کند که فاصله آن از نزدیکترین دادهها در هر دو طرف جداکننده خطی ماکزیمم باشد. اگر چنین ابرصفحهای وجود داشته باشد به عنوان ابرصفحه ماکزیمم حاشیه شناخته می‌شود. شکل 3-11 این مفهوم را به صورت بصری نشان می‌دهد.
یک ابرصفحه حداکثر کننده حاشیه مدنظر می‌باشد، چون به نظر می‌رسد مطمئنترین راه‌حل باشد و تئوریهایی بر مبنای VC dimension وجود دارد که مفید بودن آن را اثبات می‌کند؛ هم‌چنین این روش به‌طور تجربی نتایج قابل قبولی داده است.
شکل 3-11- نمایش ماکزیمم کردن حاشیه بین دو کلاس
برای ساخت ماکزیمم حاشیه دو صفحه مرزی موازی با صفحه جداکننده رسم کرده، آن دو را آن‌قدر از هم دور می‌کنند که به دادهها برخورد کنند. صفحه جداکننده‌ای که بیشترین فاصله را از صفحات مرزی داشته باشد بهترین جداکننده خواهد بود.
تابع تصمیمگیری برای جدا کردن دادهها با یک زیرمجموعه از نمونههای آموزشی تعیین می‌شود؛ نمونههای آموزشی در اینجا بردارهای پشتیبان نزدیک‌ترین دادههای آموزشی به ابرصفحه جداکننده میباشند؛ درواقع ابرصفحه بهینه در SVM جداکننده‌ای بین بردارهای پشتیبان است.

                                                    .