Administracja Centralna Uczelni - Wymiana międzynarodowa (S2)
Sylabus przedmiotu Machine and Deep Learning:
Informacje podstawowe
Kierunek studiów | Wymiana międzynarodowa | ||
---|---|---|---|
Forma studiów | studia stacjonarne | Poziom | drugiego stopnia |
Tytuł zawodowy absolwenta | |||
Obszary studiów | — | ||
Profil | |||
Moduł | — | ||
Przedmiot | Machine and Deep Learning | ||
Specjalność | przedmiot wspólny | ||
Jednostka prowadząca | Katedra Przetwarzania Sygnałów i Inżynierii Multimedialnej | ||
Nauczyciel odpowiedzialny | Adam Krzyżak <Adam.Krzyzak@zut.edu.pl> | ||
Inni nauczyciele | |||
ECTS (planowane) | 7,0 | ECTS (formy) | 7,0 |
Forma zaliczenia | zaliczenie | Język | angielski |
Blok obieralny | — | Grupa obieralna | — |
Formy dydaktyczne
Wymagania wstępne
KOD | Wymaganie wstępne |
---|---|
W-1 | Basic knowledge of Matlab or Mathcad environments |
W-2 | Basic knowledge about programming |
W-3 | Basic knowledge of linear algebra, probability and statistics |
Cele przedmiotu
KOD | Cel modułu/przedmiotu |
---|---|
C-1 | This course is intended to present a unified approach to machine learning techniques and algorithms and their applications in practical problems. |
Treści programowe z podziałem na formy zajęć
KOD | Treść programowa | Godziny |
---|---|---|
projekty | ||
T-P-1 | Students prepare individual project with the requirements given by the teacher. | 30 |
30 | ||
wykłady | ||
T-W-1 | Classification | 2 |
T-W-2 | Generative vs. discriminative learning | 2 |
T-W-3 | Naive Bayes | 2 |
T-W-4 | Gaussian discriminant analysis | 2 |
T-W-5 | Linear models: linear and polynomial regression | 2 |
T-W-6 | L2 and L1 regularization | 2 |
T-W-7 | Sparse models, logistic regression | 2 |
T-W-8 | Non-linear models: decision trees, instance-based learning, random forest, adaboost, shallow neural networks | 4 |
T-W-9 | Support vector machines and kernels | 2 |
T-W-10 | Computational learning theory | 2 |
T-W-11 | Unsupervised learning: clustering | 2 |
T-W-12 | K-means, mixture models, density estimation, expectation maximization | 2 |
T-W-13 | Autoencoder, PCA | 2 |
T-W-14 | Structured models: graphical models, Bayes nets. Learning in dynamical systems: Hidden Markov Models and other types of temporal/sequence models. Approximate inference. Gibbs sampling. Deep belief learning. | 4 |
T-W-15 | Suivey of deep neural network architectures | 2 |
T-W-16 | Convolutional neural networks | 4 |
T-W-17 | Recurrent neural networks, attention, transformers | 4 |
T-W-18 | Generative adVersarial networks (GANs) | 3 |
45 |
Obciążenie pracą studenta - formy aktywności
KOD | Forma aktywności | Godziny |
---|---|---|
projekty | ||
A-P-1 | Participation in classes | 30 |
A-P-2 | Generating projects' reports. | 45 |
75 | ||
wykłady | ||
A-W-1 | Participation in classes | 45 |
A-W-2 | Reading relevant literature. | 55 |
100 |
Metody nauczania / narzędzia dydaktyczne
KOD | Metoda nauczania / narzędzie dydaktyczne |
---|---|
M-1 | Traditional lecture. Students prepare individual projects and reports. |
Sposoby oceny
KOD | Sposób oceny |
---|---|
S-1 | Ocena formująca: Written exam (test) / project work |
Zamierzone efekty uczenia się - wiedza
Zamierzone efekty uczenia się | Odniesienie do efektów kształcenia dla kierunku studiów | Odniesienie do efektów zdefiniowanych dla obszaru kształcenia | Cel przedmiotu | Treści programowe | Metody nauczania | Sposób oceny |
---|---|---|---|---|---|---|
WM-WE_2-_null_W01 Knowledge of basic machine learning algorithms. Ability to implement some machine learning algorithms in chosen environment (e.g. Matlab). | — | — | C-1 | T-W-3, T-W-1, T-W-11, T-W-13, T-W-5, T-W-14, T-W-9, T-W-4, T-W-2, T-W-12, T-W-10, T-W-6, T-W-8, T-W-7 | M-1 | S-1 |
Zamierzone efekty uczenia się - umiejętności
Zamierzone efekty uczenia się | Odniesienie do efektów kształcenia dla kierunku studiów | Odniesienie do efektów zdefiniowanych dla obszaru kształcenia | Cel przedmiotu | Treści programowe | Metody nauczania | Sposób oceny |
---|---|---|---|---|---|---|
WM-WE_2-_??_U01 Students will get the skills about creating algorithms related to the machine learning theory and also ability to implement some machine learning algorithms in chosen environment (e.g. Matlab). | — | — | C-1 | T-W-3, T-W-1, T-W-11, T-W-13, T-W-5, T-W-14, T-W-9, T-W-4, T-W-2, T-W-12, T-W-10, T-W-6, T-W-8, T-W-7 | M-1 | S-1 |
Kryterium oceny - wiedza
Efekt uczenia się | Ocena | Kryterium oceny |
---|---|---|
WM-WE_2-_null_W01 Knowledge of basic machine learning algorithms. Ability to implement some machine learning algorithms in chosen environment (e.g. Matlab). | 2,0 | |
3,0 | The student received points in the range of 50-60% of credit questions. | |
3,5 | ||
4,0 | ||
4,5 | ||
5,0 |
Kryterium oceny - umiejętności
Efekt uczenia się | Ocena | Kryterium oceny |
---|---|---|
WM-WE_2-_??_U01 Students will get the skills about creating algorithms related to the machine learning theory and also ability to implement some machine learning algorithms in chosen environment (e.g. Matlab). | 2,0 | |
3,0 | The student received points in the range of 50-60% of credit questions. | |
3,5 | ||
4,0 | ||
4,5 | ||
5,0 |
Literatura podstawowa
- Christopher M. Bishop, Pattern Recognition and Machine Learning, Springer, 2006
- Yoshua Bengio, Aaron Courville and Ian Goodfellow, Deep Learning, MIT Press, Cambridge, Massachusetts, USA, 2016
- Aurelian Geren, Hands-on Machine Learning with Scikit-Learn, Keras & TensortFlow, O'Reilly, Sebastopol, CA, 2023, 3
- Charu C. Aggarwal, Neural Networks and Deep Learning, Springer, Cham, Switzerland, 2023
- Christopher M. Bishop and Hugh Bishop, Deep Learning, Springer, Cham, Switzerland, 2024
Literatura dodatkowa
- Trevor Hastie, Robert Tibshirani and Jerome Friedman, The Elements of Statistical Learning Second Edition, Springer, 2009
- Garreth James, Daniela Witten, Trevor Hastie and Robert Tibshirani, An Introduction to Statistical Learning, Springer, 2013
- Ethem Alpaydin, Introduction to Machinning Second Edition, MIT Press, 2009
- Tom Mitchell, achine Learning, McGraw-Hill, 1997