تعریف
هنگامی که نورونها الگوهای موجود در دادههای آموزش (training set) را به جای تکیه کردن بر رفتار شبکه به عنوان یک کل، تنها بر اساس خروجی برخی نورونهای مشخص پیشبینی میکنند. اگر الگوهایی که باعث سازگاری میشوند در دادههای اعتبارسنجی (validation set) وجود نداشته باشند، در این صورت سازگاری باعث پیشبرازاندن (overfitting) میشود. حذف تصادفی (dropout regularization) باعث کاهش سازگاری میشود؛ چون فرآیند حذف تصادفی اطمینان حاصل میکند که نورونها تنها به تعدادی نورون خاص وابسته نیستند.
آخرین ویرایش: ۱۶ مرداد ۱۳۹۹