Program

Machine Learning 2

Machine learning and its methods can help you training neural networks to identify patterns and interpret any project or business benefit results. 

All the newcomers who take on studying machine and deep learning processes are continually developing by learning exciting problems at the forefront of technology. As the market offers only a few experts, finding a customer or an employer for young specialists takes less time.

The areas of machine learning applications are diverse but popular and in demand, like marketing, fintech, crisis management, risk management, security, medicine, robotics, etc. The widespread stereotype that machine learning is the most challenging area of data analysis is just a myth. 

Our course will help you master machine learning basics, refresh the mathematical framework in your memory, and give you a complete toolkit for working with machine learning algorithms.

Application to the program is currently not active
Start date

20 september

Duration

4 month

Group size

25-30 students

Schedule

Weekend bootcamp

Admission requirements
Expectation

Be ready for intensive training; Personal laptop or computer

Language skills

Knowledge of English: Intermediate (B2)

Requirement

Knowledge of Python, experience with NumPy, Pandas preferred; Knowledge of statistics, mathematics at the level of higher education

Age

18 years and older

Upon the course completion you will::

Strong abilities to analyze the project step by step

To use the machine learning algorithms (regression, decision tree, boost)

To be able to use algorithms in accordance with the task and model

To build Machine Learning models and know how to combine them to solve any problem to perform data preprocessing and data validation

Know the performance indicators of the model: Accuracy, Precision, Recall, etc.

To understand and practice unsupervised learning and deep learning with frameworks.

Program

Machine Learning 2
4

Number of modules

  • Probability refresher, Bayesian statistics, KDE
  • Matrix calculus, Matrix decomposition
  • Normal distribution. Distribution quartiles and box-plot
  • Central limit theorem
  • Confidence intervals for mean. The concept of tasks, classification and errors. Classification quality metrics
  • Testing Statistical Hypotheses. Nonparametric tests
  • Combinatorics and Inferential statistics
  • jupyter + numpy
  • pandas + matplotlib + seaborn +scipy
  • Introduction to ML
  • ML project lifecycle
  • Train / test split
  • KNN classifier
  • Simple evaluation: precision / recall / f-score / accuracy, ROC / PR AUC, baseline model comparison
  • Confusion matrix

  • KNN regressor
  • RMSE, MAE
  • Simple feature engineering
  • 1-hot encoding
  • Missing value imputation strategies
  • Scaling strategies

  • Pipelines
  • ColumnTransformer
  • Gini coefficient
  • Decision Tree theory
  • Decision Trees (classifier + regressor)
  • Decision Tree Regularization

  • Linear regression theory - closed form
  • Linear regression in sklearn
  • Regularization (Ridge, Lasso) theory
  • Ridge, Lasso, ElasticNet in sklearn

  • Cross validation
  • GridSearchCV
  • Feature engineering - Polynomial Features

  • Mean encodings
  • PCA - theory
  • PCA in sklearn

  • Outlier detection
  • Naive Bayes theory
  • Naive Bayes in sklearn

 

  • Logistic regression theory
  • Logistic regression in sklearn

  • Feature selection strategies
  • Model ensembles (VotingClassifier etc.)
  • Bagging ensembles
  • Random forest

  • Boosting theory
  • Boosting models in sklearn + other libraries

  • Imabalanced classification
  • Multilabel classification
  • Model explainability (permutation importance, partial plots, SHAP values; eli5, shap, LIME)

  • K-means clustering theory
  • K-means clustering in sklearn
  • Clustering evaluation
  • Choosing # of clusters
  • GMM clustering - basic theory
  • GMM clustering in sklearn
  • Review of other clustering algorithms
  • Clusters for supervised learning (feature engineering / separate model for each cluster / ...)

  • Dimensionality reduction (t-SNE, UMAP) - little theory + practice
  • Bayesian optimization
  • Hyperparameter optimization with optuna

"Neural Networks introduction:

  • History
  • Multi-level Perceptron
  • Neural network structure
  • Forward propagation
  • Backpropagation
  • Stochastic gradient descent

Numpy -də sadə NN tətbiqi

  • tf2 + keras təqdimatı
  • Sadə başdan-sona nümunə
  • Ardıcıl model
  • Sıx təbəqə
  • Aktivləşdirmə funksiyaları
  • Optimizatorlar
  • İtirmə funksiyaları
  • Dropout
  • Toplu normallaşdırma
  • Modellərin saxlanması və yüklənməsi

  • Zənglər (LR planlaşdırma, erkən dayandırma)
  • Modelin son tənzimlənməsi
  • Ağırlığın başlanğıc strategiyaları
  • Funksional API 

  • Tensorboard
  • GPU ilə işləmək (Google Colab)
  • Konvolyutsion sinir şəbəkələri (1D + 2D) 

Mətn emalı və NLP -yə giriş

  • Sözlər çantası mətn təsnifatçısı (nəzəriyyə + daxil olmaqla sklearn, CountVectorizer)
  • TF-IDF kodlaşdırması (nəzəriyyə + sklearn TfIdfVectorizer)
  • n qram
  • söz buludunun vizualizasiyası
  • nltk kitabxanası
  • Söz və cümlə tokenizasiyası
  • POS etiketləmə
  • Stemming və lemmatizasiya 

  • word2vec nəzəriyyəsi
  • gensim kitabxana + word2vec demo
  • spaCy kitabxanasına ümumi baxış (nisbətən ətraflı) 

  • Tf2 -də təbəqələrin yerləşdirilməsi
  • Mətn emalı üçün təbəqələrin yerləşdirilməsi
  • RNN nəzəriyyəsi
  • TF2 -də RNN
  • LSTM nəzəriyyəsi
  • TF2 -də LSTM
  • GRU nəzəriyyəsi
  • Tf2 -də GRU
  • Mətn emalı üçün RNN (LSTM, GRU)

  • Diqqət və transformator memarlığı
  • Huggning Face Transformers kitabxanası
  • Böyük əvvəlcədən hazırlanmış dil modellərindən istifadə (məsələn, BERT)
  • Zənginləşdirmə mövzularına ümumi baxış:
  • GAN -lar
  • Gücləndirici öyrənmə 

Recommendation systems

  •  Practice lessons