۹۹/۹

زمستان ۹۹ را با دوره‌های هوش مصنوعی سر کنید

هوش مصنوعی به صحنه اصلی رقابت کشورها تبدیل شده است و همه رهبران این عرصه در پی تدوین استراتژی‌های جامع هوش مصنوعی برای پیشگامی در این حوزه‌اند. در این میان، کمبود نیروی متخصص هوش مصنوعی یک چالش بزرگ در به‌کارگیری و توسعه این فناوری نوین است. در نتیجه هر ساله شاهد تقاضای روزافزون بازار کار برای جذب دانش‌آموختگان و متخصصان این حوزه‌ هستیم. اگر به دنیای هوش مصنوعی علاقه دارید و تصمیم گرفته‌اید که آینده شغلی شما از این مسیر بگذرد، کالج تخصصی هوش مصنوعی پارت می‌تواند ایستگاه اصلی شما در مسیر موفقیت باشد.

دوران همه‌‌گیری ویروس کرونا و قرنطینه اجباری، با تمام سختی‌ها و مشکلاتی که دارد به یک فرصت عالی برای یادگیری تبدیل شده است. در مدرسه زمستانه کالج تخصصی هوش مصنوعی پارت این امکان برای شما فراهم شده تا قدم‌های ورود به دنیای هوش مصنوعی را محکم بردارید، عمیق یاد بگیرید، پروژه‌های عملی انجام دهید و با اعتمادبه‌نفس کامل برای آینده شغلی خود برنامه‌ریزی کنید. ما در کالج تخصصی هوش مصنوعی پارت به‌صورت حضوری و غیرحضوری به آموزش رایگان در حوزه‌های پردازش زبان طبیعی، پردازش گفتار، بینایی ماشین و داده‌کاوی بر اساس تقویم آموزشی زیر می‌پردازیم تا زمستانی به یادماندنی را برای شما رقم بزنیم. مدرسه زمستانه با حضور اساتیدی که دارای سوابق درخشان علمی و عملی هستند، از تاریخ ۴ دی ماه تا ۲۳ بهمن ماه ۱۳۹۹ برگزار می‌شود.

مفتخریم که در برگزاری این دوره‌ها، حمایت معنوی ستاد توسعه فناوری‌های اقتصاد دیجیتال و هوشمندسازی معاونت علمی و فناوری ریاست جمهوری را در کنار خود داریم.

موضوع دوره سرفصل‌ها زیرفصل‌ها تاریخ برگزاری نام مدرس
پایتون مقدماتی و پیشرفته با رویکرد یادگیری عمیق معرفی پایتون مقدمات پایتون (تعریف کلاس‌ها و توابع) ۱۳۹۹/۱۰/۴ ۹:۰۰ الی ۱۱:۰۰ مهندس رضا آخوندزاده
نصب محیط مجازی پایتون با استفاده از آناکوندا
استفاده از Jupyterlab notebook
معرفی کتابخانه Numpy معرفی توابع مفید در Numpy
مفاهیم یادگیری ماشین یادگیری ماشین چیست؟ ۱۱:۱۵ الی ۱۳:۰۰
یادگیری عمیق چیست؟
دسته‌بندی مسائل مختلف یادگیری ماشین
یادگیری بانظارت (ویژگی‌ها و برچسب‌های داده)
مفاهیم یادگیری عمیق مراحل یادگیری عمیق ( جمع‌آوری داده و بررسی آن - تقسیم داده‌ها به داده آموزش و آزمایش - آموزش مدل با استفاده از داده‌های آموزش - ارزیابی مدل با استفاده از داده‌های آزمایش ۱۴:۰۰ الی ۱۶:۰۰
Overfitting and Underfitting ( Overfitting - Underfitting - Generalization Idea )
مفاهیم شبکه عصبی (نورون مغزی - مثال از یک شبکه عصبی _ مدل ریاضی نورون یا همان Perceptron - تعریف لایه و شبکه - تابع فعالیت یا همان Activation Function - تابع خطا یا هزینه - شبکه Feed Forward - مرحله یادگیری و به‌روزرسانی وزن‌ها Back Propagation)
معرفی تنسورفلو و Keras حل یک مساله Classification با استفاده از Keras و شبکه‌های عصبی ۱۶:۱۵ الی ۱۸:۱۵
حل یک مساله Regression با استفاده از Keras و شبکه‌های عصبی
شبکه‌های عصبی کانولوشنی یا همان CNN ها لایه کانولوشن Convolution ۱۳۹۹/۱۰/۱۱ ۹:۰۰ الی ۱۱:۰۰
لایه پولینگ Pooling
Batch Normalization Layer
Reshape or Global Average Pooling
حل یک مساله دسته‌بندی تصاویر با استفاده از CNN ها ( Another one on a Custom Dataset - One on CIFAR 10 Dataset)
یادگیری انتقالی یا همان Transfer Learning یادگیری انتقالی چیست و چه کاربردهایی دارد؟ ۱۱:۱۵ الی ۱۳:۱۵
چگونگی Fine-Tune کردن یک شبکه در Keras
حل یک مساله دسته‌بندی تصاویر با استفاده از یادگیری انتقالی
شبکه‌های عصبی بازگشتی یا همان RNN ها مفهوم اصلی RNN ها
لایه‌های GRU و LSTM استفاده از RNN ها
برای دسته‌بندی ویدئو تمرینRNN
شبکه‌های عصبی خودرمزنگار یا همان Auto Encoders معرفی AutoEncoder ها و ایده اصلی ۱۴:۰۰ الی ۱۶:۰۰
یک مساله کاهش ابعاد چیست؟
کاهش ابعاد برای تصاویر با استفاده از شبکه‌های عصبی خودرمزنگار
آموزش یک شبکه عصبی AutoEncoder با استفاده از یک دیتاست چهره معروف
لایه شخصی‌سازی شده، تابع هزینه و لایه Custom در Tensorflow Training Loop in Tensorflow from Scratch ۱۶:۱۵ الی ۱۸:۱۵
Custom Loss Function in Tensorflow
Custom Layer in Tensorflow
How to Avoid Overfit in Real-Life Problems
مبانی شبکه‌های عصبی و یادگیری عمیق مقدمه و معرفی یادگیری عمیق انواع روش‌های یادگیری عمیق seuprvised - unsupervised - semi supervised ۱۳۹۹/۱۰/۱۸ ۹:۰۰ الی ۱۱:۰۰ امیرمحمد قریشی
شبکه‏‌های کانولوشنی
دسته‏‌بندی تصویر
تشخیص اشیاء دسته‌بندی و مکان‏‌یابی ۱۱:۱۵ الی ۱۳:۱۵
استخراج ناحیه‌های پیشنهادی
تشخیص اشیا دو مرحله‌‏ای
الگوریتم‌‏های RCNN و نسخه‏ های بهبود یافته
تبدیل لایه کاملا متصل به لایه کانولوشنی ۱۴:۰۰ الی ۱۶:۰۰
Anchor Boxes
تشخیص اشیا یک مرحله‌ای
شبکه‏‌های YOLO و SSD
حذف مقادیر غیر بیشینه ۱۶:۱۵ الی ۱۸:۱۵
ارزیابی الگوریتم‏‌های تشخیص اشیا و معیار میانگین دقت
شبیه‏‌سازی و کدنویسی (پایتون)
تشخیص و بازشناسی چهره تعاریف مقدمات ۱۳۹۹/۱۰/۲۵ ۹:۰۰ الی ۱۱:۰۰ امیرمحمد قریشی
کاربردها
معرفی مجموعه داده‌های آموزش و ارزیابی one-shot learning - similarity function - siamese network - metric learning ۱۱:۱۵ الی ۱۳:۱۵
یادگیری نظارت شده(face verification) triplet loss - center loss - separable vs discriminative feature vectors
مثال عملی تشخیص و تراز کردن چهره mtcnn - data augmentation - face landmarks - arcFace
یادگیری تقویتی مقدمه و تعریف پارادایم‌های یادگیری ۱۳۹۹/۱۱/۲ ۹:۰۰ الی ۱۱:۰۰ حمیدرضا سلطانعلی‌زاده ملکی
الگوریتم‌های کلاسیک Q learning
SARSA
مدل‌های مبتنی بر شبکه‌عصبی DQN ۱۱:۱۵ الی ۱۳:۱۵
DDQN
Actor-Critic
Policy gradient
مبانی پردازش زبان طبیعی آشنایی با پردازش زبان طبیعی ۱۳۹۹/۱۱/۹ ۹:۰۰ الی ۱۱:۰۰ سعید بی‌باک
آشنایی با کاربرد‌ها
آشنایی با تعبیه‌سازی کلمات
آشنایی با کتاب‌خانه‌های پردازش زبان طبیعی ۱۱:۱۵ الی ۱۳:۱۵
استخراج اطلاعات با استفاده از پایتون و پردازش زبان طبیعی
مبانی پردازش گفتار نحوه تولید و ادراک گفتار ۱۳۹۹/۱۱/۱۶ ۹:۰۰ الی ۱۱:۰۰ محمدصادق صفری
آشنایی با پردازش سیگنال و استخراج ویژگی‌های زمان-فرکانس
آشنایی با کاربردها ۱۱:۱۵ الی ۱۳:۱۵
کار با فایل‌های صوتی در پایتون
شبکه‌های تخاصمی مقدمه ای بر شبکه‌های تخاصمی ۱۳۹۹/۱۱/۲۳ ۹:۰۰ الی ۱۱:۰۰ حمیدرضا سلطانعلی‌زاده ملکی
کاربردهای شبکه‌های تخاصمی
معماری‌های مختلف شبکه‌های تخاصمی DCGANs ۱۱:۱۵ الی ۱۳:۱۵
Conditional GANs
StyleGAN
CycleGAN
StackGAN
مشکلات شبکه‌های تخاصمی
بهبودهای ایجاد شده در شبکه‌های تخاصمی