کلمات | توضیح | |
---|---|---|
۱ | L1 loss |
تابع زبانی بر اساس قدرمطلق تفاضل مقدار پیشبینی شده توسط مدل و مقدار واقعی برچسب. تابع زیان L1 نسبت به تابع زیان L2 کمتر به استثنائات حساس است. |
۲ | L1 Regularization |
نوعی از نظمدهی (regularization) که وزنها را به نسبت مجموع مقدار قدر مطلق آنها کاهش میدهد. در مدلهایی که بر ویژگیهای پراکنده (sparse features) تکیه دارند، نظمدهی L1 کمک میکند تا وزن ویژگیهای... |
۳ | L2 Loss |
تابع زیان مربعات (squared loss) را ببینید. |
۴ | L2 Regularization |
نوعی از نظمدهی که وزنها را به نسبت مجموع مربعات آنها کاهش میدهد. نظمدهی L2 تلاش میکند تا وزنهای استثناء (آنهایی که مقدار مثبت بسیار بالا یا مقدار منفی بسیار پایین دارند) به صفر نزدیک شوند اما... |
۵ | Label |
در یادگیری با ناظر به «پاسخ» یا «نتیجه» مورد انتظار به ازای یک نمونه برچسب میگویند. هر نمونه در یک مجموعه داده برچسبخورده از یک یا بیشتر ویژگی و یک برچسب تشکیل میشود. به عنوان مثال، در یک مجموعه... |
۶ | Labeled Example |
نمونهای که شامل ویژگیها و یک برچسب است. در یادگیری با ناظر، مدلها از نمونههای برچسبخورده یاد میگیرند. |
۷ | Lambda |
مترادف: نرخ نظمدهی این یک اصطلاح با معانی مختلف است. در اینجا بر معنی مربوط به نظمدهی (regularization) تمرکز شده است. |
۸ | Landmarks |
مترادف: نقاط کلیدی (keypoints) |
۹ | Layer |
مجموعهای از نورونها در یک شبکه عصبی که مجموعه ویژگیهای ورودی یا خروجی نورونهای دیگر را پردازش میکنند. |
۱۰ | Learning Rate |
یک مقدار عددی که در آموزش مدل با روش کاهش شیب (gradient descent) استفاده میشود. در هر گام، الگوریتم کاهش شیب مقدار نرخ یادگیری را در گرادیانها یا شیبها ضرب میکند. حاصل ضرب اینها گام شیب نامیده... |
۱۱ | Least Squares Regression |
یک مدل رگرسیون خطی که با کمینه کردن تابع خطای L2 آموزش دیده است. |
۱۲ | Linear Model |
مدلی که برای پیشبینی کردن به هر ویژگی یک وزن اختصاص میدهد. (مدلهای خطی همچنین یک مقدار اریبی را با حاصل جمع ادغام میکنند.) در مقابل مدلهای خطی، رابطه وزنها با ویژگیها در مدلهای عمیق یک به یک... |
۱۳ | Linear Regression |
استفاده از خروجی خام (y') یک مدل خطی به عنوان نتیجه نهایی یک مدل رگرسیون. هدف مسالههای رگرسیون یک پیشبینی با ارزش واقعی ات. به عنوان مثال، اگر مقدار خروجی مدل خطی ۸.۳۷ باشد، مقدار پیشبینی نیز... |
۱۴ | Log-odds |
لگاریتم احتمالات چندین پیشامد. اگر پیشامد به یک احتمال دودویی اشاره کند، در این صورت odds به نسبت موفقیت (p) بر روی شکست (1-p) اشاره میکند. به عنوان مثال، فرض کنید که پیشامدی ۹۰٪ احتمال موفقیت و ۱۰٪... |
۱۵ | Log Loss |
تابع زیانی که در مسالههای رگرسیون خطی دو کلاسه استفاده میشود. |
۱۶ | Logistic Regression |
رگرسیون لجستیک یا آمادی یک مدل طبقهبندی است که با استفاده از تابع sigmoid پیشبینیهای خام یک مدل خطی (y') را به مقداری بین ۰ و ۱ تبدیل میکند. این مقدار بین ۰ و ۱ را میتوان به یکی از روشهای... |
۱۷ | Logits |
برداری از پیشبینیهای خام (نرمال نشده) که یک مدل طبقهبندی تولید میکند، و در شرایط عادی به عنوان ورودی به یک تابع نرمالسازی پاس داده میشوند. اگر مدل یک مساله طبقهبندی چند-دستهای را حل کند،... |
۱۸ | Long Short-Term Memory (LSTM) |
نوعی از نورونهای سازنده یک شبکه عصبی بازگشتی که برای پردازش دنبالهای از دادهها در حوزههایی مانند تشخیص دستنوشته، ترجمه ماشینی و شرح تصاویر استفاده میشود. آنها مشکل محوشدگی گرادیان را که به خاطر... |
۱۹ | Loss |
معیاری برای اندازهگیری این که پیشبینیهای مدل چقدر از برچسبها دورند. به بیان دیگر، این معیار برای اندازهگیری مقدار بد بودن مدل است. برای مشخص شدن این مقدار، باید برای مدل یک تابع زیان تعریف شود.... |
۲۰ | Loss Curve |
نمودار مقادیر تابع زیان به عنوان تابعی از گامهای آموزش. به عنوان مثال نمودار زیر را درنظر بگیرید: منحنی زیان برای تشخیص همگرایی، بیشبرازشی (overfitting) و کمبرازشی (underfitting) مدل استفاده... |
۲۱ | Loss Function |
تابعی که جهت اندازهگیری مقدار بد عمل کردن یک مدل تعریف میشود. به بیان دیگر، تابع زیان تابعیست که نگاشتی از وضعیت مدل به یک مقدار حقیقی که تحت عنوان زیان شناخته میشود برقرار میسازد. |
۲۲ | Loss Surface |
نموداری از وزن(ها) در برابر مقدار تابع زیان. الگوریتم کاهش شیب (gradient descent) تلاش میکند تا وزنی را پیدا کند که به ازای آن مقدار نمای زیان در نقطه کمینه محلی باشد. |
۲۳ | LSTM |
مخفف حافظه طولانی کوتاه-مدت (Long Short-Term Memory). |