You can edit almost every page by Creating an account. Otherwise, see the FAQ.

حداقل سازی ریسک تجربی

از EverybodyWiki Bios & Wiki
پرش به:ناوبری، جستجو

حداقل سازی ریسک تجربی[ویرایش]

به حداقل رساندن ریسک تجربی (ERM) یک اصل در تئوری یادگیری آماری است که خانواده ای از الگوریتم های یادگیری را تعریف می کند و برای ارائه محدودیت های نظری بر عملکرد آنها استفاده می شود. ایده اصلی این است که ما نمی‌توانیم دقیقاً بدانیم که یک الگوریتم در عمل چقدر خوب کار می‌کند ("ریسک" واقعی) زیرا ما از توزیع واقعی داده‌هایی که الگوریتم روی آن کار می‌کند نمی‌دانیم، اما در عوض می‌توانیم عملکرد آن را بر اساس اندازه‌گیری کنیم. مجموعه ای شناخته شده از داده های آموزشی (ریسک "تجربی").

"این مقاله در حال ترجمه از ویکی انگلیسی است

لطفا حذف نشود."

پیشینه[ویرایش]

وضعیت زیر را در نظر بگیرید، که مجموعه ای کلی از بسیاری از مشکلات یادگیری تحت نظارت است.ما دو فضای از اشیاء X و Y داریم و می خواهیم یک تابع را یاد بگیریم

h:X→Y که خروجی آن از X به Y است.برای انجام این کار، ما یک مجموعه آموزشی از n مثال در اختیار داریمکه در آن x عضو مجموعه X و y عضو مجموعه Y است.

به بیان رسمی تر، فرض می کنیم که یک توزیع احتمال مشترک وجود دارد برروی X و Y و اینکه مجموعه آموزشی از n نمونه تشکیل شده است بدست آمده از است.توجه داشته باشید که فرض توزیع احتمال مشترک به ما امکان می دهد تا عدم قطعیت در پیش بینی ها را مدل کنیم (مثلاً از نویز در داده ها) زیرا y تابع قطعی x نیست.بلکه یک متغیر تصادفی با توزیع شرطی P (y | x) P(y|x) برای x ثابت است.

همچنین فرض می‌کنیم که یک تابع ضرر واقعی غیر منفی به ما داده می‌شود که میزان تفاوت پیش‌بینی را اندازه می‌گیرد. یک فرضیه از نتیجه واقعی y است. y ریسک مرتبط با فرضیه h (x) سپس به عنوان انتظار تابع زیان تعریف می شود:

یک تابع ضرر که معمولاً در تئوری استفاده می شود، تابع ضرر 0-1 است:

هدف نهایی یک الگوریتم یادگیری یافتن یک فرضیه *h در میان یک کلاس ثابت از توابع H است که ریسک R (h) برای آن حداقل است.

برای مسائل طبقه بندی، طبقه بندی بیز به عنوان طبقه بندی کننده ای تعریف می شود که ریسک تعریف شده با تابع ضرر 0-1 را به حداقل می رساند.

Empirical risk minimization[ویرایش]

به طور کلی، ریسک R (h) را نمی توان محاسبه کرد زیرا توزیع P (x، y) برای الگوریتم یادگیری ناشناخته است (این وضعیت به عنوان یادگیری آگنوستیک شناخته می شود). با این حال، می‌توانیم یک تقریبی به نام ریسک تجربی را با میانگین‌گیری تابع ضرر در مجموعه آموزشی محاسبه کنیم. به طور رسمی تر، محاسبه انتظار با توجه به معیار تجربی:اصل تجربی به حداقل رساندن ریسک[1] بیان می کند که الگوریتم یادگیری باید فرضیه را انتخاب کند که ریسک تجربی را به حداقل برساند:

بنابراین الگوریتم یادگیری تعریف شده توسط اصل ERM شامل حل مسئله بهینه سازی فوق است

Computational complexity[ویرایش]

به حداقل رساندن ریسک تجربی برای یک مسئله طبقه بندی با یک تابع ضرر 0-1 به عنوان یک مشکل NP-hard شناخته شده است، حتی برای یک دسته نسبتاً ساده از توابع مانند طبقه بندی کننده های خطی.[2] اگرچه، زمانی که حداقل ریسک تجربی صفر باشد، یعنی داده ها به صورت خطی قابل تفکیک هستند، می توان آن را به طور موثر حل کرد. در عمل، الگوریتم‌های یادگیری ماشین یا با استفاده از یک تقریب محدب برای تابع ضرر 0-1 (مانند از دست دادن لولا برای SVM)، که بهینه‌سازی آسان‌تر است، یا با تحمیل فرضیات بر توزیع P (x, y) P با آن مقابله می‌کنند. (x,y) (و بنابراین دیگر الگوریتم های یادگیری آگنوستیکی نباشند که نتیجه فوق در مورد آنها اعمال می شود)

منابع[ویرایش]

V. Vapnik (1992). Principles of Risk Minimization for Learning Theory.

V. Feldman, V. Guruswami, P. Raghavendra and Yi Wu (2009).


This article "حداقل سازی ریسک تجربی" is from Wikipedia. The list of its authors can be seen in its historical and/or the page Edithistory:حداقل سازی ریسک تجربی. Articles copied from Draft Namespace on Wikipedia could be seen on the Draft Namespace of Wikipedia and not main one.



Read or create/edit this page in another language[ویرایش]