مفاهیم پایه

گرادیان بوستینگ چیست ؟

اصل این مقاله به قلم جناب آیدین عابدی نیا در سایت ویرگول منتشر شده است و سایت مهندسی داده با هدف جمع آوری مطالب مفید حوزه علم داده به معرفی و بازنشر آن پرداخته است.

آیدین عابدی نیا : پس از کلی زمانی که بر روی گرادیان بوستینگ گذاشتم متوجه شدم که مطلب خوبی به فارسی که اصلا نیست و انگلیسی هم بسیار سطحی توضیح داده شدند، برای همین سعی کردم اینجا به صورت مختصر مفهوم کلی این روش بنویسم. (این مطلب برگرفته شده از بلاگ kaggle است)

اگر رگرسیون را یک بی ام دبلیو در نظر بگیریم گرادیان بوستینگ مانند یک هلیکوپتر آپاچی است که می‌تواند در عمل نشان دهد که به چه میزان بهتر عمل می‌کند که معمولاً از آن به عنوان یک جعبه سیاه در مسابقات داده‌کاوی استفاده می‌شود (بخصوص نسخه XGBoost آن) و مکانیزم عملکرد آن برای بسیاری از علاقه‌مندان، شفاف و واضح نیست . به همین خاطر تصمیم گرفتیم که کمی دقیق تر به آن نگاه کنیم.

برای توضیح گرادیان بوستینگ از یک مجموعه داده ساده شامل نه رکورد استفاده می‌کنیم و هدف ما هم پیشگویی سن هر نفر می‌باشد بر اساس میزان علاقه آن نفر به بازي‌هاي ویدیویی، باغبانی و تمایل او به پوشیدن کلاه. هدف اصلی ما هم یافتن مدلی است که مقدار مربع خطا یا squared error مقادیر پیش‌بینی شده در آن کمترین باشد.
داده مورد نظر در زیر ذکر شده است :

نمونه داده اولیه
نمونه داده اولیه

می‌توان در همین حال حدس زد که کسانی که به باغبانی علاقه دارند از سن بالاتري برخوردار هستند و کسانی که بازي ویدیویی را دوست دارند سن کمتري دارند، سن کسانی که علاقه به داشتن کلاه دارند را نمیتوان حدس زد و یا به اصطلاح نویز هستند. داده‌ را به صورت زیر میتوان تغییر داد تا مطالب به مراتب بهتر حس شود.

شمای دیگری از داده‌
شمای دیگری از داده‌

در این مرحله کار خود را با یک یادگیرنده ضعیف که می‌تواند رگرسیون درخت (regression tree) باشد بر روي داده شروع می‌کنیم و مدلی بر اساس آن می‌سازیم.  شرط قبول مدل را این می گذاریم که نودهاي پایانی حداقل ۳ عدد داده را در خود داشته باشند. این مدل، درختی که تولید کرده است انشعاب خود را بر روی علاقمندي به  باغبانی انجام داده است. در زیر درخت اول ترسیم شده است.

یادگیرنده ضعیف
یادگیرنده ضعیف

حال اگر تمایل به ادامه دادن درخت داشته باشیم که مانند روشهاي درخت تصمیم باشد بر روي خصوصیت تمایل به کلاه و بازيهاي ویدیویی درخت را ادامه میدهیم. به صورت زیر :

ادامه روش در درخت تصمیم
ادامه روش در درخت تصمیم

در درختی که حاصل شده است تصمیم نهایی بخشی بر اساس تمایل به پوشیدن کلاه و بخشی بر اساس تمایل به بازیهای ویدیویی گرفته می شود که خود نشان‌دهنده overfitting مدل (برازش بیش از حد مدل با داده‌های آزمایشی  که در محیط‌ های واقعی خطا را بالا می برد) می‌شود.

حال درنظر میگیریم که فقط درختی که در اول ذکر شده مورد استفاده قرار میگیرد و داده ها به صورت زیر دریافت شده است.

پاسخ بدست آمده از مدل اول (درخت تصمیم)
پاسخ بدست آمده از مدل اول (درخت تصمیم)

در اینجا دو فیلد اضافه شده است که یکی مقدار پیشبنی شده از سن افراد توسط یادگیرنده ضعیف اول است و دومی مقدار باقی مانده است از تفاضل مقدار واقعی و پیشبینی شده. حال درخت دوم را بر اساس خطاهاي درخت اول می‌سازیم و به صورت زیر ساخته میشود :

یادگیرنده ضعیف بر اساس مقدار پیشبینی شده یادگیرنده قبلی
یادگیرنده ضعیف بر اساس مقدار پیشبینی شده یادگیرنده قبلی

دلیل این عمل این است که این درخت توانایی رسیدگی کردن به تمایل به بازي ویدیویی و داشتن کلاه را با توجه به تمامی داده دارد، دقیقا برعکس روشی درخت تصمیم سنتی که البته در بالا هر خصوصیت را درفضاي کوچکی در نظر میگرفت، بدین صورت اجازه به انتخاب مقادیري که نویز دارند براي بازي ویدیویی و داشتن کلاه را می‌داد. حال از مدل دوم یا درخت دومی که ارایه شده به مقادیر زیر دست پیدا می‌کنیم:

مقادیر بدست آمده از یادگیرنده دوم
مقادیر بدست آمده از یادگیرنده دوم

درخت دوم مقدار خطاهاي درخت اول را پیش‌بینی می‌کند و به مقدار باقی مانده خطا‌ها برای درخت دوم را ارایه می‌کند.براي مقادیري که در سمت راست مدل یادگیرنده دوم قرار گرفته اند مقدار۳٫۵۶۷- و براي مقادیري که در سمت چپ قرار گرفته اند مقدار۷٫۳۳۳ در نظر گرفته شده است که این مقدار مقدار میانگین همه داده در سمت چپ و راست است.در مدلCART بدین صورت انجام می‌شود که میانگین از تمامی داده در برگها گرفته شده و به عنوان مقدار آن در نهایت در نظر می‌گیرد. حال این مقدار را با مقداري که توسط درخت اول پیشگویی شده جمع میکنیم که به مقدار مجموع پیشگویی‌ها می‌رسیم و پس از آن مقدار به دست آمده را با مقدار واقعی مقایسه کرده و خطاي بدست آمده را در خطای نهایی قرار میدهیم به صورت زیر:

خطای نهایی
خطای نهایی

پیشنویس اول از گرادیان بوستینگ

با توجه به ایده‌هاي که در بالا مطرح شد مدل ساده‌ای از گرادیان بوستینگ مطرح شد و به صورت شبه کد زیر عنوان می‌شود :

شبه کد مدل گرادیان بوستینگ
شبه کد مدل گرادیان بوستینگ

در نهایت به معادله زیر برای مدل نهایی می‌رسیم

مدل نهایی گرادیان بوستینگ
مدل نهایی گرادیان بوستینگ
نمونه دیگری از این روش برای مربع خطا
نمونه دیگری از این روش برای مربع خطا

در جدول بالا برای مربع خطا ٣ مرحله از این الگوریتم به صورت کامل نشان داده شده است. با توجه به معادله نهایی یادگیرنده که در بالا ذکر شد مشخص است که در هر مرحله به مقدار واقعی نزدیک می‌شویم. با استفاده از دو مدل یادگیرنده ساده که در بالا ذکر شده است مقدار h0 و مقدار h1 محاسبه می‌شود.

امیدوارم که مفید واقع شده باشد.

مجتبی بنائی

دانشجوی دکترای نرم‌افزار دانشگاه تهران (yun.ir/smbanaie)، مدرس دانشگاه و فعال در حوزه توسعه نرم‌افزار و مهندسی داده که تمرکز کاری خود را در چند سال اخیر بر روی مطالعه و تحقیق در حوزه کلان‌داده و زیرساخت‌های پردازش داده و تولید محتوای تخصصی و کاربردی به زبان فارسی و انتشار آنها در سایت مهندسی داده گذاشته است. مدیریت پروژه‌های نرم‌افزاری و طراحی سامانه‌های مقیاس‌پذیر اطلاعاتی از دیگر فعالیتهای صورت گرفته ایشان در چند سال گذشته است.

۳ دیدگاه

  1. زحمت کشیدید. اما روش انجام توضیح داده نشده. در مثال هم اشکال و جداول استفاده شده توضیح ندارند و گنگ هستند. بسیار مختصر هست و برای خواننده حرفه‌ای هم درکش سخته. سعی کردم بفهمم این مقاله رو و احساس می‌کنم بی‌فایده بوده

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

جای خالی در معادله زیر را با کی برد انگلیسی وارد کنید : * Time limit is exhausted. Please reload CAPTCHA.

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.

دکمه بازگشت به بالا