#self_supervised_learning
✅ گزیدهای از صحبتهای آقای Yann lecun درباره Self-supervised learning:
🔸 در Self-supervised learning سیستم یاد میگیرد که بخشی از ورودی خود را برمبنای بخشهای دیگر ورودی پیشبینی کند. بهعبارت دیگر، بخشی از ورودی به شبکه یا الگوریتم پیشبینی داده میشود و بخشی از همان ورودی بهعنوان سیگنال ناظر درنظر گرفته میشود.
🔸 بهعنوان نمونه، در NLP مدل BERT و سایر تکنیکهای مشابه مبتنی بر Self-supervised learning آموزش میبینند. مثلا 15% از کلمات موجود در جملهها ماسک میشود تا مدل در فرآیند آموزش بتواند آنها را پیشبینی کند. این روش آموزش باعث میشود که حجم عظیمی داده بدون نیاز به لیبل برای آموزش وجود داشته باشد.
🔸 رهیافتهای مشابهی در تصویر و ویدئو پیشنهاد شدهاند که هنوز خیلی خوب کار نمیکنند.
🔸 انجام این کار با کارآیی بالا، بزرگترین چالش در AI و ML در چند سال آینده است. درحال حاضر، Self-supervised learning در فیسبوک بهعنوان روشهای کلیدی برای بهبود کارایی سیستمهای هوش مصنوعی درنظر گرفته شده است.
🌐 اطلاعات بیشتر
https://bit.ly/2PEsbUL
@howsam_org
✅ گزیدهای از صحبتهای آقای Yann lecun درباره Self-supervised learning:
🔸 در Self-supervised learning سیستم یاد میگیرد که بخشی از ورودی خود را برمبنای بخشهای دیگر ورودی پیشبینی کند. بهعبارت دیگر، بخشی از ورودی به شبکه یا الگوریتم پیشبینی داده میشود و بخشی از همان ورودی بهعنوان سیگنال ناظر درنظر گرفته میشود.
🔸 بهعنوان نمونه، در NLP مدل BERT و سایر تکنیکهای مشابه مبتنی بر Self-supervised learning آموزش میبینند. مثلا 15% از کلمات موجود در جملهها ماسک میشود تا مدل در فرآیند آموزش بتواند آنها را پیشبینی کند. این روش آموزش باعث میشود که حجم عظیمی داده بدون نیاز به لیبل برای آموزش وجود داشته باشد.
🔸 رهیافتهای مشابهی در تصویر و ویدئو پیشنهاد شدهاند که هنوز خیلی خوب کار نمیکنند.
🔸 انجام این کار با کارآیی بالا، بزرگترین چالش در AI و ML در چند سال آینده است. درحال حاضر، Self-supervised learning در فیسبوک بهعنوان روشهای کلیدی برای بهبود کارایی سیستمهای هوش مصنوعی درنظر گرفته شده است.
🌐 اطلاعات بیشتر
https://bit.ly/2PEsbUL
@howsam_org