رفتن به محتوای اصلی
x

تاریخچه‌ی یادگیری عمیق

مسیر یادگیری عمیق تاریخی پر فراز و نشیب دارد.

دهه‌ی ۱۹۵۰: نخستین مدل پرسپترون ( Perceptron) توسط فرانک روزنبلات معرفی شد و مفهوم اولیه‌ی شبکه عصبی شکل گرفت.

دهه‌ی ۱۹۸۰: الگوریتم پس‌انتشار خطا (Backpropagation ) امکان آموزش شبکه‌های چندلایه را فراهم کرد و موج جدیدی از پژوهش‌ها آغاز شد. ( پیدایش الگوریتم پس‌انتشار خطا که آموزش شبکه‌های عصبی را ممکن ساخت.)

دهه‌ی ۲۰۰۰: افزایش قدرت پردازنده‌های گرافیکیGPU  و در دسترس بودن داده‌های عظیم، موجب تولد دوباره‌ی شبکه‌های عصبی شد.

دهه‌ی ۲۰۱۰: معرفی معماری‌هایی چون AlexNet  (2012) وResNet  (2015) در بینایی ماشین، و LSTM  و Transformer  در پردازش زبان طبیعی، یادگیری عمیق را به قلب فناوری‌های مدرن تبدیل کرد.

امروز: مدل‌های عظیمی همچون GPT، BERT، CLIP، وStable Diffusion  نماد عصر جدیدی از هوش مصنوعی مبتنی بر یادگیری عمیق هستند. 

پیشرفت در قدرت محاسباتی GPU ها و در دسترس بودن داده‌های عظیم، منجر به انقلاب یادگیری عمیق شد. مدل‌های مانند GPT، BERT و Diffusion Models توانایی‌هایی در سطح زبان، بینایی و استدلال انسانی از خود نشان می‌دهند.