تعداد مقالات ارسال و پذیرفته شده در کنفرانسهای معتبر طی یک سال اخیر
✅ کنفرانس AAAI 2019
+ تعداد مقالههای ارسال شده: 7095
+ تعداد مقالههای پذیرفته شده: 1150
+ درصد پذیرش مقالات: 16.2%
✅ کنفرانس ICLR 2019
+ تعداد مقالههای ارسال شده: 1591
+ تعداد مقالههای پذیرفته شده: 500
+ درصد پذیرش مقالات: 31.4%
✅ کنفرانس NIPS 2018
+ تعداد مقالههای ارسال شده: 4856
+ تعداد مقالههای پذیرفته شده: 1011
+ درصد پذیرش مقالات: 20.8%
✅ کنفرانس ICML 2018
+ تعداد مقالههای ارسال شده: 2473
+ تعداد مقالههای پذیرفته شده: 621
+ درصد پذیرش مقالات: 25.1%
✅ کنفرانس CVPR 2019
+ تعداد مقالههای ارسال شده: 5160
+ تعداد مقالههای پذیرفته شده: 1300
+ درصد پذیرش مقالات: 25.2%
🔴 اطلاعات بیشتر
https://github.com/lixin4ever/Conference-Acceptance-Rate
@howsam_org
✅ کنفرانس AAAI 2019
+ تعداد مقالههای ارسال شده: 7095
+ تعداد مقالههای پذیرفته شده: 1150
+ درصد پذیرش مقالات: 16.2%
✅ کنفرانس ICLR 2019
+ تعداد مقالههای ارسال شده: 1591
+ تعداد مقالههای پذیرفته شده: 500
+ درصد پذیرش مقالات: 31.4%
✅ کنفرانس NIPS 2018
+ تعداد مقالههای ارسال شده: 4856
+ تعداد مقالههای پذیرفته شده: 1011
+ درصد پذیرش مقالات: 20.8%
✅ کنفرانس ICML 2018
+ تعداد مقالههای ارسال شده: 2473
+ تعداد مقالههای پذیرفته شده: 621
+ درصد پذیرش مقالات: 25.1%
✅ کنفرانس CVPR 2019
+ تعداد مقالههای ارسال شده: 5160
+ تعداد مقالههای پذیرفته شده: 1300
+ درصد پذیرش مقالات: 25.2%
🔴 اطلاعات بیشتر
https://github.com/lixin4ever/Conference-Acceptance-Rate
@howsam_org
کنفرانس #AAAI2019
سیوسومین کنفرانس هوش مصنوعی AAAI در بازه زمانی 27 ژانویه الی 31 فوریه 2019 در هاوایی برگزار شد. 7095 مقاله برای این کنفرانس ارسال شد که 16.2درصد از مقالههای ارسالی پذیرفته شدند.
🔸در لینک زیر، گزارشی از کنفرانس AAAI2019 ارائه شده است:
http://ruder.io/aaai-2019-highlights/
🔸در لینک زیر، مقالههای برتر کنفرانس معرفی شدهاند:
https://syncedreview.com/2019/01/29/aaai-19-announces-best-papers/
@howsam_org
سیوسومین کنفرانس هوش مصنوعی AAAI در بازه زمانی 27 ژانویه الی 31 فوریه 2019 در هاوایی برگزار شد. 7095 مقاله برای این کنفرانس ارسال شد که 16.2درصد از مقالههای ارسالی پذیرفته شدند.
🔸در لینک زیر، گزارشی از کنفرانس AAAI2019 ارائه شده است:
http://ruder.io/aaai-2019-highlights/
🔸در لینک زیر، مقالههای برتر کنفرانس معرفی شدهاند:
https://syncedreview.com/2019/01/29/aaai-19-announces-best-papers/
@howsam_org
✅ آیا میخواهید شبکه عصبی خود را برای تسک مشخصی fine-tune کنید؟
گوگل پیشنهاد میکند از MorphNet که تکنیکی برای تنظیم دقیق مدلهاست، استفاده کنید. این تکنیک، شبکهای را بهعنوان ورودی دریافت میکند و در خروجی شبکهای کوچکتر، سریعتر و با کارآیی بهتر تولید میکند.
🌐 اطلاعات بیشتر
https://ai.googleblog.com/2019/04/morphnet-towards-faster-and-smaller.html
@howsam_org
گوگل پیشنهاد میکند از MorphNet که تکنیکی برای تنظیم دقیق مدلهاست، استفاده کنید. این تکنیک، شبکهای را بهعنوان ورودی دریافت میکند و در خروجی شبکهای کوچکتر، سریعتر و با کارآیی بهتر تولید میکند.
🌐 اطلاعات بیشتر
https://ai.googleblog.com/2019/04/morphnet-towards-faster-and-smaller.html
@howsam_org
✅ کتاب تعاملی یادگیری عمیق بههمراه کدنویسی بهصورت رایگان و در قالب وبلاگ
https://d2l.ai/index.html
@howsam_org
https://d2l.ai/index.html
@howsam_org
✅ آموزش تعاملی کتابخانه پردازش زبان طبیعی SpaCy بهصورت رایگان همراه با امکان کدنویسی در سایت
https://course.spacy.io
🔴 این آموزش توسط یکی از توسعهدهندگان این کتابخانه آماده شده است.
@howsam_org
https://course.spacy.io
🔴 این آموزش توسط یکی از توسعهدهندگان این کتابخانه آماده شده است.
@howsam_org
#transfer_learning #natural_language_processing
✅ تز دکتری در زمینه "یادگیری انتقالی در پردازش زبان طبیعی (NLP)" توسط Sebastian Ruder در سال 2019
http://ruder.io/thesis/neural_transfer_learning_for_nlp.pdf
✅ وبلاگ آقای Sebastian Ruder
http://ruder.io
@howsam_org
✅ تز دکتری در زمینه "یادگیری انتقالی در پردازش زبان طبیعی (NLP)" توسط Sebastian Ruder در سال 2019
http://ruder.io/thesis/neural_transfer_learning_for_nlp.pdf
✅ وبلاگ آقای Sebastian Ruder
http://ruder.io
@howsam_org
✅ کورس Deep Unsupervised Learning دانشگاه برکلی
✅ مباحث این کورس مبتنی بر روشهای بدونناظر (Unsupervised) در یادگیری عمیق مانند، مدلهای مولد (Generative models) و یادگیری خودناظر (Self-supervised learning) است.
🌐 لینک کورس
https://www2.eecs.berkeley.edu/Courses/CS294_3403/
@howsam_org
✅ مباحث این کورس مبتنی بر روشهای بدونناظر (Unsupervised) در یادگیری عمیق مانند، مدلهای مولد (Generative models) و یادگیری خودناظر (Self-supervised learning) است.
🌐 لینک کورس
https://www2.eecs.berkeley.edu/Courses/CS294_3403/
@howsam_org
✅ مجموعه بینظیری از مدلهای Pretrain معروف و جدید مانند BERT در پردازش زبان طبیعی (NLP)
https://github.com/huggingface/pytorch-pretrained-BERT
@howsam_org
.
https://github.com/huggingface/pytorch-pretrained-BERT
@howsam_org
.
GitHub
GitHub - huggingface/transformers: 🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX.
🤗 Transformers: State-of-the-art Machine Learning for Pytorch, TensorFlow, and JAX. - huggingface/transformers
#خبر
✅ کارت گرافیک Tesla T4 در Google Colab با 16 گيگابايت رم و قدرتی 4 برابر Tesla K80
✅ تاکنون Google Colab مجهز به Tesla K80 با 12 گیگابایت رم بود.
✅ این خبر، امروز توسط Jeremy Howard گزارش شد.
@howsam_org
✅ کارت گرافیک Tesla T4 در Google Colab با 16 گيگابايت رم و قدرتی 4 برابر Tesla K80
✅ تاکنون Google Colab مجهز به Tesla K80 با 12 گیگابایت رم بود.
✅ این خبر، امروز توسط Jeremy Howard گزارش شد.
@howsam_org
✅ مجموعه دستورالعملهای ارزشمند برای آموزش شبکههای عصبی از آقای Andrej Karpathy
https://karpathy.github.io/2019/04/25/recipe/
The qualities that in my experience correlate most strongly to success in deep learning are patience and attention to detail.
@howsam_org
https://karpathy.github.io/2019/04/25/recipe/
The qualities that in my experience correlate most strongly to success in deep learning are patience and attention to detail.
@howsam_org
#NLP #GLUE
✅ بنچمارک ارزیابی GLUE در حوزه NLP، شامل مجموعهای از دیتاستها و منابع لازم برای آموزش، ارزیابی و تحلیل کارهای انجام شده در NLP
https://gluebenchmark.com
@howsam_org
✅ بنچمارک ارزیابی GLUE در حوزه NLP، شامل مجموعهای از دیتاستها و منابع لازم برای آموزش، ارزیابی و تحلیل کارهای انجام شده در NLP
https://gluebenchmark.com
@howsam_org
This media is not supported in your browser
VIEW IN TELEGRAM
#سوال شماره 1
✅ آیا روشی برای استفاده از دیتاستهای بزرگ در google colab وجود دارد؟
🔸 بله، با روشی که در ویدئو توضیح داده شده، میتوانید از دیتاستهای حجیم در google colab بهره ببرید.
@howsam_org
✅ آیا روشی برای استفاده از دیتاستهای بزرگ در google colab وجود دارد؟
🔸 بله، با روشی که در ویدئو توضیح داده شده، میتوانید از دیتاستهای حجیم در google colab بهره ببرید.
@howsam_org
#self_supervised_learning
✅ گزیدهای از صحبتهای آقای Yann lecun درباره Self-supervised learning:
🔸 در Self-supervised learning سیستم یاد میگیرد که بخشی از ورودی خود را برمبنای بخشهای دیگر ورودی پیشبینی کند. بهعبارت دیگر، بخشی از ورودی به شبکه یا الگوریتم پیشبینی داده میشود و بخشی از همان ورودی بهعنوان سیگنال ناظر درنظر گرفته میشود.
🔸 بهعنوان نمونه، در NLP مدل BERT و سایر تکنیکهای مشابه مبتنی بر Self-supervised learning آموزش میبینند. مثلا 15% از کلمات موجود در جملهها ماسک میشود تا مدل در فرآیند آموزش بتواند آنها را پیشبینی کند. این روش آموزش باعث میشود که حجم عظیمی داده بدون نیاز به لیبل برای آموزش وجود داشته باشد.
🔸 رهیافتهای مشابهی در تصویر و ویدئو پیشنهاد شدهاند که هنوز خیلی خوب کار نمیکنند.
🔸 انجام این کار با کارآیی بالا، بزرگترین چالش در AI و ML در چند سال آینده است. درحال حاضر، Self-supervised learning در فیسبوک بهعنوان روشهای کلیدی برای بهبود کارایی سیستمهای هوش مصنوعی درنظر گرفته شده است.
🌐 اطلاعات بیشتر
https://bit.ly/2PEsbUL
@howsam_org
✅ گزیدهای از صحبتهای آقای Yann lecun درباره Self-supervised learning:
🔸 در Self-supervised learning سیستم یاد میگیرد که بخشی از ورودی خود را برمبنای بخشهای دیگر ورودی پیشبینی کند. بهعبارت دیگر، بخشی از ورودی به شبکه یا الگوریتم پیشبینی داده میشود و بخشی از همان ورودی بهعنوان سیگنال ناظر درنظر گرفته میشود.
🔸 بهعنوان نمونه، در NLP مدل BERT و سایر تکنیکهای مشابه مبتنی بر Self-supervised learning آموزش میبینند. مثلا 15% از کلمات موجود در جملهها ماسک میشود تا مدل در فرآیند آموزش بتواند آنها را پیشبینی کند. این روش آموزش باعث میشود که حجم عظیمی داده بدون نیاز به لیبل برای آموزش وجود داشته باشد.
🔸 رهیافتهای مشابهی در تصویر و ویدئو پیشنهاد شدهاند که هنوز خیلی خوب کار نمیکنند.
🔸 انجام این کار با کارآیی بالا، بزرگترین چالش در AI و ML در چند سال آینده است. درحال حاضر، Self-supervised learning در فیسبوک بهعنوان روشهای کلیدی برای بهبود کارایی سیستمهای هوش مصنوعی درنظر گرفته شده است.
🌐 اطلاعات بیشتر
https://bit.ly/2PEsbUL
@howsam_org
✅ هایلایتی از مهمترین پیشرفتهای سالهای اخیر در هوش مصنوعی
🔸 از جمله مباحث مهم در سالهای اخیر، میتوان به weakly-supervised، semi-supervised و Self-supervised اشاره نمود.
🔸 تصویر بالا مربوط به ارائه فیسبوک از پیشرفتهای اخیر هوش مصنوعی در سالهای اخیر در کنفرانس سالانه F8 است. مشاهده ویدئوی ارائه به مدت 1 ساعت:
https://ai.facebook.com/blog/ai-recap-2019-f8/
@howsam_org
🔸 از جمله مباحث مهم در سالهای اخیر، میتوان به weakly-supervised، semi-supervised و Self-supervised اشاره نمود.
🔸 تصویر بالا مربوط به ارائه فیسبوک از پیشرفتهای اخیر هوش مصنوعی در سالهای اخیر در کنفرانس سالانه F8 است. مشاهده ویدئوی ارائه به مدت 1 ساعت:
https://ai.facebook.com/blog/ai-recap-2019-f8/
@howsam_org
✅ لیست جامعی از مقالهها و کدهای Image Captioning تا سال 2019
https://github.com/zhjohnchan/awesome-image-captioning
@howsam_org
https://github.com/zhjohnchan/awesome-image-captioning
@howsam_org
✅ یک شرکت فعال در حوزه هوش مصنوعی، در موقعیتهای شغلی زیر دعوت به همکاری مینماید:
🔴 طراح دیتابیس:
🔸 مسلط به SQL
🔸 مسلط به Oracle
🔸 مسلط به #C
🔴 طراح و برنامهنویس وب:
🔸 مسلط به ASP.Net MVC
🔸 مسلط به SPA
🔸 مسلط به AngularJs
🔸 مسلط به Bootstrap
🔴 برنامهنویس Full Stack:
🔸 مسلط به #C
🔸 مسلط به ++C
✅ لطفا رزومه خود را به ایمیل dadashi@sgi.ir ارسال کنید.
🔴 طراح دیتابیس:
🔸 مسلط به SQL
🔸 مسلط به Oracle
🔸 مسلط به #C
🔴 طراح و برنامهنویس وب:
🔸 مسلط به ASP.Net MVC
🔸 مسلط به SPA
🔸 مسلط به AngularJs
🔸 مسلط به Bootstrap
🔴 برنامهنویس Full Stack:
🔸 مسلط به #C
🔸 مسلط به ++C
✅ لطفا رزومه خود را به ایمیل dadashi@sgi.ir ارسال کنید.
2019cvprpaperoverview.pdf
4 MB
✅ مروری بر 20 مقاله پذیرفتهشده در کنفرانس #CVPR2019
✅ کنفرانس CVPR 2019 از تاریخ 25 خرداد 98 آغاز خواهد شد و در تاریخ 31 خرداد 98 پایان خواهد یافت.
@howsam_org
✅ کنفرانس CVPR 2019 از تاریخ 25 خرداد 98 آغاز خواهد شد و در تاریخ 31 خرداد 98 پایان خواهد یافت.
@howsam_org