کلمات | توضیح | |
---|---|---|
۱ | Calibration Layer |
یک تعدیل پس از پیشبینی (post-prediction adjustment) که معمولا برای بررسی سوگیری پیشبینی (prediction bias) استفاده میشود. پیشبینیهای تعدیل شده و احتمالاتشان باید با توزیع مجموعهی بررسیشدهای از... |
۲ | Candidate Generation |
مجموعه اولیهای از پیشنهادات که توسط یک سامانه پیشنهادگر انتخاب شدهاند. به عنوان مثال، کتابفروشیای که ۱۰۰۰۰۰ عنوان کتاب دارد را در نظر بگیرید. در مرحله تولید کاندیدا، مجموعهی بسیار کوچکتری (مثلا... |
۳ | Candidate Sampling |
یک بهینهسازی در زمان آموزش که در آن احتمال تمامی برچسبهای مثبت با استفاده از مثلا softmax محاسبه میشود؛ اما این کار تنها برای نمونههایی تصادفی از برچسبهای منفی میافتد. به عنوان مثال، برای یک... |
۴ | Categorical Data |
ویژگیهایی که تنها میتوانند مجموعهی گسستهای از مقادیر ممکن را داشته باشند. برای مثال یک دادهی رستهای به نام نوع خانه را در نظر بگیرید، که میتواند سه مقدار ممکن ویلایی، آپارتمانی و برج را داشته... |
۵ | Centroid-based Clustering |
شاخهای از الگوریتمهای خوشهبندی یا clustering که دادهها را در خوشههای غیرسلسله مراتبی سازماندهی میکند. k-means از پراستفادهترین الگوریتمهای این شاخه است. متضادها: خوشهبندی سلسله مراتبی... |
۶ | Centroid |
مرکز خوشههایی که توسط الگوریتمهای k-means یا k-median مشخص میشوند. به عنوان مثال، اگر k برابر ۳ باشد، الگوریتمهای k-means یا k-median سه مرکز خوشه یا centroid پیدا خواهند کرد. |
۷ | Checkpoint |
دادههایی که وضعیت متغیرهای یک مدل را در یک زمان مشخص ذخیره میکنند. با استفاده از این دادهها، امکان خروجی گرفتن از وزنهای مدل را در حالی که در نشستهای (session) مختلف در حال آموزش است فراهم... |
۸ | Class-imbalanced Dataset |
مشکلی است که در مسالههای دستهبندی دوتایی (binary classification) پیش میآید که در آن تعداد برچسبهای یک دسته با دیگری تفاوت زیادی دارد. به عنوان مثال، مجموعه دادهای مربوط به یک بیماری که در آن... |
۹ | Class |
هر کدام از مجموعه مقادیر ذکر شده که یک برچسب میتواند بپذیرد. برای مثال، در یک مدل دستهبندی دوتایی که هرزنامهها را تشخیص میدهد، «هرزنامه» و «غیر هرزنامه» دو دسته هستند. یا در یک مدل دستهبندی... |
۱۰ | Classification Model |
نوعی از مدلهای یادگیری ماشین که برای تمایز قائل شدن میان دو یا چند دسته مجزا استفاده میشوند. به عنوان مثال، یک مدل دستهبندی پردازش زبان طبیعی میتواند تشخیص دهد که جمله ورودی به کدام یک از زبانهای... |
۱۱ | Classification Threshold |
یک مقدار عددی معیار که بر روی امتیاز خروجی مدل اعمال میشود تا دسته مثبت را از دسته منفی جدا کند. از این مقدار زمانی استفاده میشود که نیاز است نگاشتی (mapping) بین نتیجه [وایازش آمادی (رگرسیون لجستیک... |
۱۲ | Clipping |
روشی برای رسیدگی به دادههای پرت است. در این روش، ویژگیهایی که مقداری بیش از یک مقدار بیشینه مشخص دارند کاهش پیدا میکنند تا به آن مقدار بیشینه برسند. همچنین، ویژگیهایی که مقداری کمتر از یک مقدار... |
۱۳ | Clustering |
قرار دادن نمونههای مرتبط در یک گروه، به خصوص در حین یادگیری بدون نظارت (unsupervised learning). پس از این که تمامی نمونهها در گروهها قرار گرفتند، انسانها میتوانند به هر خوشه معنایی اختصاص... |
۱۴ | Co-adaptation |
هنگامی که نورونها الگوهای موجود در دادههای آموزش (training set) را به جای تکیه کردن بر رفتار شبکه به عنوان یک کل، تنها بر اساس خروجی برخی نورونهای مشخص پیشبینی میکنند. اگر الگوهایی که باعث... |
۱۵ | Collaborative Filtering |
پیشبینی کردن علاقهمندیهای یک کاربر بر اساس علاقهمندیهای کاربران دیگر. پالایش گروهی معمولا در سامانههای پیشنهادگر (recommendation systems) استفاده میشود. |
۱۶ | Confirmation Bias |
تمایل به جستجو، تفسیر، تصویب یا به خاطر آوردن اطلاعات به صورتی که باورها یا فرضیههای موجود را تایید کند. توسعهدهندگان یادگیری ماشین ممکن است ناخواسته در روند جمعآوری یا برچسب زدن دادهها به شکلی... |
۱۷ | Confusion Matrix |
یک ماتریس n×n که میزان موفقیت یک مدل دستهبندی در پیشبینی را طور مختصر نمایش میدهد. برای این کار همبستگی بین برچسبها و دستهبندیهای مدل بررسی میشود. یک محور ماتریس درهمریختگی برچسبهای پیشبینی... |
۱۸ | Continuous Feature |
یک ویژگی اعشاری که میتواند بازه نامحدودی از اعداد را بپذیرد. متضادها: ویژگی گسسته |
۱۹ | Convenience Sampling |
استفاده از مجموعه دادهای که به روش علمی جمعآوری نشده است، با هدف اجرای سریعتر آزمایشها. در این صورت لازم است که بعدا مجموعه دادهای که با روشهای علمی جمعآوری شده جایگزین آن گردد. |
۲۰ | Convergence |
معمولا به وضعیتی در روند آموزش شبکه اشاره دارد که در آن بعد از مدتی مقدار زیان دادههای آموزش (training loss) و همچنین مقدار زیان دادههای اعتبارسنجی (validation loss) در هر تکرار (iteration) خیلی کم... |
۲۱ | Convex Function |
تابعی که در آن فضای بالای گراف تابع یک مجموعه محدب باشد. نمونه اولیه تابع محدب شکلی شبیه حرف "U" دارد. به عنوان مثال، توابع زیر نمونههایی از تابع محدب هستند. در مقابل نمودارهای... |
۲۲ | Convex Optimization |
فرآیند استفاده از تکنیکهای ریاضی مانند گرادیان کاهشی (gradient descent) با هدف پیدا کردن مقدار کمینه یک تایع محدب. تحقیقات زیادی در حوزه یادگیری ماشین با تمرکز بر پیدا کردن قاعدهای جهت تبدیل مسائل... |
۲۳ | Convex Set |
زیرمجموعهای از فضای اقلیدسی بهنحویکه هر پارهخطی که بین دو نقطه دلخواه از زیرمجموعه رسم شود، کاملاً درون زیرمجموعه باقی بماند. بهعنوانمثال، شکلهای زیر مجموعه محدب هستند: در مقابل، شکلهای... |
۲۴ | Convolution |
یکی از توابع ریاضی که دو تابع را با یکدیگر ترکیب میکند. در یادگیری ماشین، عملیات کانولوشن فیلتر کانولونشی را با ماتریس ورودی ترکیب میکند و از این طریق به آموزش وزنها میپردازد. در یادگیری ماشین،... |
۲۵ | Convolutional Filter |
یکی از دو عامل درگیر در عملگر پیچشی (convolutional operation). (عامل دیگر برشی از ماتریس ورودی است.) یک پالایه پیچشی ماتریسی با رتبهای (rank) مشابه ماتریس ورودی است که ابعادی (shape) کوچکتر از آن... |
۲۶ | Convolutional Layer |
لایهای از یک شبکه عصبی عمیق که در آن یک پالایه پیچشی (convolutional fliter) از روی ماتریس ورودی گذر میکند. به عنوان مثال، پالایه پیچشی ۳ * ۳ زیر را در نظر بگیرید: انیمیشن زیر نشان میدهد که چطور... |
۲۷ | Convolutional Neural Network |
شبکه عصبیای که در آن حداقل یک لایه کانولوشنی وجود داشته باشد. یک شبکه عصبی کانولوشنی عادی شامل ترکیبی از لایههای زیر است: لایههای کانولوشنی یا پیچشی لایههای ادغام (pooling layer) لایههای چگال... |
۲۸ | Convolutional Operation |
عبارت است از عملگر ریاضی دو مرحلهای زیر: ضرب درایه به درایه پالایه کانولوشنی (convolutional fliter) و برشی از ماتریس ورودی. (برش مورد نظر از ماتریس ورودی مرتبه و اندازهای مشابه پالایه کانولوشنی... |
۲۹ | Cost |
مترادفی برای زیان (loss) است. |
۳۰ | Counterfactual Fairness |
یک معیار تساوی (fairness metric) که بررسی میکند آیا یک طبقهبند (classifier) برای دو موجودیت همسان که تنها در برخی ویژگیهای حساسیتبرانگیز (sensitive attributes) با هم تفاوت دارند، نتایج مشابهی... |
۳۱ | Coverage Bias |
سوگیری گزینش (selection bias) را ببینید. |
۳۲ | Crash Blossom |
جمله یا عبارتی با معنای مبهم. این عبارت به یک مساله مهم در درک زبان طبیعی اشاره (natural language understanding) دارد. |
۳۳ | Critic |
مترادف: Q-شبکه عمیق (Deep Q-Network) |
۳۴ | Cross Entropy |
تعمیمی از تابع زیان لگاریتمی (Log Loss) برای مسائل طبقهبندی چند دستهای. آنتروپی متقاطع اختلاف بین دو توزیع احتمال را اندازهگیری میکند. مطالعه بیشتر: سرگشتگی (perplexity) |
۳۵ | Cross Validation |
ساز و کاری برای پیشبینی این که مدل چقدر توانایی تعمیم برای دادههای جدید را دارد. این کار با آزمایش مدل بر یک یا چند زیرمجموعه از دادههای آموزش که با آن همپوشانی ندارند اتفاق میافتد. |