آکادمی هوش‌مصنوعی هُوسم
2.47K subscribers
265 photos
81 videos
34 files
198 links
آکادمی هوش مصنوعی هوسم

برگزاری دوره‌های آموزشی در حوزه هوش مصنوعی

(howsam.org)

🆔 ارتباط با ادمین :
@howsam_support
Download Telegram
#مقاله شماره 1

عنوان
Fixup Initialization: Residual Learning Without Normalization

مشخصات
چاپ شده در ICLR 2019

خلاصه
لایه‌های نرمالیزاسیون (Normalization)، عناصری اساسی در شبکه‌های عصبی عمیق هستند. این لایه‌ها با ویژگی‌هایی همچون ایجاد پایداری، امکان اعمال نرخ یادگیری بزرگتر، همگرایی سریع‌تر و تعمیم‌پذیری بهتر شناخته می‌شوند. در این مطالعه، مزیت‌های ذکر شده در بالا به چالش کشیده شده و نشان داده شده است که این مزایا تنها مختص لایه‌های نرمالیزاسیون نیست. به‌طور مشخص، fixed-update initialization یا fixup پیشنهاد شده که تکنیکی برای حل مساله محو و انفجار گرادیان در ابتدای فرآیند آموزش است. در این مطالعه نشان داده شده که آموزش شبکه‌های residual با fixup به همان اندازه آموزش شبکه با لایه‌های نرمالیزاسیون پایدار است (حتی در شبکه‌های با 10.000 لایه). علاوه‌براین، با رگولاریزه مناسب، شبکه‌های residual با fixup و بدون لایه‌های نرمالیزاسیون به عملکرد قابل ملاحظه‌ای در ترجمه ماشینی و دسته‌بندی تصاویر می‌رسند.

لینک مقاله
https://openreview.net/forum?id=H1gsz30cKX

کد
https://github.com/valilenk/fixup

@howsam_org
#مقاله شماره 2

عنوان مقاله
Bag of Tricks for Image Classification with Convolutional Neural Networks

مشخصات مقاله
این مقاله در سال 2018 توسط محققان وب‌سرویس آمازون منتشر شده و تاکنون 5 ارجاع داشته است.

خلاصه مقاله
تکنیک‌های بهبود فرآیند آموزش مانند داده‌سازی‌ها، روش‌های بهینه‌سازی، نرمالیزاسیون و غیره اهمیت زیادی در فرآیند آموزش شبکه‌ها دارند. اما، در مقالات مختلف درباره نحوه اعمال این تکنیک‌های بهبود، کمتر توضیح داده شده و در سورس کدها باید اطلاعاتی درباره آنها پیدا کرد. در این مقاله، مجموعه‌ای از اینگونه تکنیک‌های بهبود، آزمایش و بررسی شده‌اند. با ترکیب این تکنیک‌های بهبود و اعمال آنها به شبکه‌های CNN، بهبودهای قابل توجهی در کارآیی شبکه‌های دسته‌بندی تصویر (Image Classification) حاصل شده است. به عنوان نمونه، با اعمال تکنیک‌های بهبود، دقت ارزیابی شبکه ResNet-50 از 75.3% به 79.9% ارتقا یافته که نسبت به DenseNet-201 با دقت 77.42% (بدون تکنیک‌های بهبود) بهتر است.

لینک مقاله
https://arxiv.org/abs/1812.01187

کدها
https://github.com/dmlc/gluon-cv

https://github.com/Tony607/Keras_Bag_of_Tricks

@howsam_org