Zachodniopomorski Uniwersytet Technologiczny w Szczecinie

Wydział Informatyki - Informatyka (N2)
specjalność: grafika komputerowa i systemy multimedialne

Sylabus przedmiotu Metody rozpoznawania wzorców:

Informacje podstawowe

Kierunek studiów Informatyka
Forma studiów studia niestacjonarne Poziom drugiego stopnia
Tytuł zawodowy absolwenta magister
Obszary studiów nauki techniczne
Profil ogólnoakademicki
Moduł
Przedmiot Metody rozpoznawania wzorców
Specjalność inteligentne aplikacje komputerowe
Jednostka prowadząca Katedra Metod Sztucznej Inteligencji i Matematyki Stosowanej
Nauczyciel odpowiedzialny Marcin Korzeń <Marcin.Korzen@zut.edu.pl>
Inni nauczyciele Przemysław Klęsk <pklesk@wi.zut.edu.pl>, Marcin Korzeń <Marcin.Korzen@zut.edu.pl>
ECTS (planowane) 2,0 ECTS (formy) 2,0
Forma zaliczenia egzamin Język polski
Blok obieralny Grupa obieralna

Formy dydaktyczne

Forma dydaktycznaKODSemestrGodzinyECTSWagaZaliczenie
wykładyW2 10 1,20,62egzamin
laboratoriaL2 10 0,80,38zaliczenie

Wymagania wstępne

KODWymaganie wstępne
W-1matematyka
W-2rachunek prawdopodobieństwa i statystyka
W-3metody optymalizacji
W-4podstawy programowania
W-5wstęp do sztucznej inteligencji

Cele przedmiotu

KODCel modułu/przedmiotu
C-1Ukształtowanie rozumienia matematycznych elementów teorii uczenia dla zadania rozpoznawania wzorców, ze szczególnym naciskiem na własność zdolności do uogólniania.
C-2Przedstawienie różnych odmian algorytmu SVM i wyjaśnienie jego związków ze zdolnością do uogólaniania.
C-3Przedstawienie problemu rozpoznawania wzorców zależnych od czasu oraz możliwych praktycznych zastosowań (rozpoznawanie dokumentów tekstowych, pisma, głosu, sekwencji video). Przedstawienie algorytmów z dziedziny HMM.

Treści programowe z podziałem na formy zajęć

KODTreść programowaGodziny
laboratoria
T-L-1Metoda SVM, własna implementacja wykorzystująca funkcję quadprog, przekształcenia jądrowe2
T-L-2Metoda SVM biblioteki: LibSVM i LibLINEAR, wykorzystanie w programie Matalb2
T-L-3Analiza danych mikromacierzowych oraz danych tekstowych, sprawozdanie2
T-L-4Ukryte łańcuch markowa, algorytmy Bauma-Welcha oraz Viterbiego, własna implementacja2
T-L-5Zastosowanie ukrytych łańcuchów Markowa do rozpoznawania autorstwa2
10
wykłady
T-W-1Matematyczne postawienie zadania rozpoznawania wzorców (klasyfikacji) w terminach statystycznej teorii uczenia. Pojęcia: maszyna ucząca się, zbiór funkcji aproksymujących, zbiór funkcji błędu, błąd prawdziwy (zdolność do uogólniania), błąd na próbie, zbieżność jednostajna reguły ERM. Model PAC.2
T-W-2Ograniczenia na błąd prawdziwy i zaawansowane pojęcia w ramach teorii uczenia: shattering, wymiar Vapnika-Chervonenkisa, nierówność Chernoffa (Hoeffdinga), złożoność próbkowa, pokrycia i liczby pokryciowe, złożoność Rademachera.2
T-W-3Algorytm Support Vector Machines. Margines separacji. Różne warianty kryterium optymalizacyjnego SVM: z/bez mnożników Lagrange'a, 'soft-margin'. Przekształcenie jądrowe.3
T-W-4Rozpoznawanie wzorców przebiegających w czasie (temporal pattern recognition). Ukryte Modele Markowa (Hidden Markov Models). Pojęcia: proces stochastyczny, łańcuch stochastyczny, łańcuch stacjonarny, łańcuch markowowski. Przypadkowe błądzenie (problem przejść przez zero). Algorytmy: Forward-Backward, Viterbi'ego, Bauma-Welcha.3
10

Obciążenie pracą studenta - formy aktywności

KODForma aktywnościGodziny
laboratoria
A-L-1Uczestnictwo w zajęciach10
A-L-2Przygotowanie do zajęć8
A-L-3Samodzielna praca nad zadaniami programistycznymi i sprawozdaniami10
28
wykłady
A-W-1Samodzielne studiowanie matematycznych aspektów teorii uczenia. Łączenie nierówności probabilistycznych. Analiza wyprowadzeń ograniczeń na błąd prawdziwy.4
A-W-2Analiza pojęcia shattering i przykładów wymiarów VC dla niektórych maszyn uczących się.2
A-W-3SVM - formułowanie i rozwiązywanie przy pomocy komputera (MATLAB, Mathematica) różnych wersji kryterium optymalizacyjnego dla algorytmu SVM. Wyliczanie marginesu separacji. Dobieranie parametru 'soft-margin'.4
A-W-4"Ręczne" (pisemne) śledzenie działania poszczególnych algorytmów w ramamach HMM na małych przykładach.4
A-W-5Przygotowanie się do kolokwium egzaminacyjnego.8
A-W-6Uczestnictwo w wykładach10
32

Metody nauczania / narzędzia dydaktyczne

KODMetoda nauczania / narzędzie dydaktyczne
M-1wykład informacyjny
M-2wykład problemowy
M-3metody programowane z użyciem komputera

Sposoby oceny

KODSposób oceny
S-1Ocena podsumowująca: Pisemne kolokwium egzaminacyjne.
S-2Ocena formująca: oceny czastkowe z zadan programistycznych oraz sprawozdan
S-3Ocena podsumowująca: Ocena koncowa z laboratorium - srednia z ocen czastkowych (wazona stopniem trudnosci i zlozonosci zadania)

Zamierzone efekty kształcenia - wiedza

Zamierzone efekty kształceniaOdniesienie do efektów kształcenia dla kierunku studiówOdniesienie do efektów zdefiniowanych dla obszaru kształceniaCel przedmiotuTreści programoweMetody nauczaniaSposób oceny
I_2A_D19/6_W01
Rozumie zadania pattern recognition oraz temporal pattern recognition.
I_2A_W01, I_2A_W08C-1T-W-2, T-W-1M-1, M-2S-1
I_2A_D19/6_W02
Ma znajomość matematycznych aspektów i rezultatów z zakresu statystycznej teorii uczenia.
I_2A_W01, I_2A_W08C-1T-W-2, T-W-1M-1, M-2S-1
I_2A_D19/6_W03
Zna algorytm SVM wraz z różnymi jego wariantami.
I_2A_W01, I_2A_W05, I_2A_W08C-2T-W-3M-1, M-3, M-2S-1, S-2
I_2A_D19/6_W04
Zna algorytmy z zakresu Ukrytych Modeli Markowa (HMM).
I_2A_W01, I_2A_W05, I_2A_W08C-3T-W-4M-1, M-3, M-2S-1, S-2
I_2A_D19/6_W05
Rozumie sens zadania pattern recognition oraz temporal pattern recognition. Ma znajomość matematycznych aspektów i rezultatów z zakresu statystycznej teorii uczenia.
I_2A_W01, I_2A_W08C-1T-W-2, T-W-1M-1, M-2S-1, S-2

Zamierzone efekty kształcenia - umiejętności

Zamierzone efekty kształceniaOdniesienie do efektów kształcenia dla kierunku studiówOdniesienie do efektów zdefiniowanych dla obszaru kształceniaCel przedmiotuTreści programoweMetody nauczaniaSposób oceny
I_2A_D19/6_U01
Potrafi stosować różne odmiany algorytmu SVM.
I_2A_U05, I_2A_U07, I_2A_U09, I_2A_U10C-2T-W-3M-1, M-3, M-2S-1, S-2
I_2A_D19/6_U02
Potrafi budować modele markowowskie (i stosować algorytmy z zakresu HMM) do rozpoznawania danych ze zmiennością w czasie.
I_2A_U05, I_2A_U07, I_2A_U09, I_2A_U10C-3T-W-4M-1, M-3, M-2S-1, S-2

Zamierzone efekty kształcenia - inne kompetencje społeczne i personalne

Zamierzone efekty kształceniaOdniesienie do efektów kształcenia dla kierunku studiówOdniesienie do efektów zdefiniowanych dla obszaru kształceniaCel przedmiotuTreści programoweMetody nauczaniaSposób oceny
I_2A_D19/6_K01
Ma wysoką świadomość ważnych elementów teoretycznych i praktycznych dotyczących analizy danych i rozpoznawania wzorców.
I_2A_K02, I_2A_K03C-3, C-1, C-2T-W-2, T-W-4, T-W-3, T-W-1M-1, M-3, M-2S-1, S-2, S-3

Kryterium oceny - wiedza

Efekt kształceniaOcenaKryterium oceny
I_2A_D19/6_W01
Rozumie zadania pattern recognition oraz temporal pattern recognition.
2,0
3,0Umie sformułować zadanie rozpoznawania wzorców, zna podstawowe metody ekstrakcji cech
3,5
4,0
4,5
5,0
I_2A_D19/6_W02
Ma znajomość matematycznych aspektów i rezultatów z zakresu statystycznej teorii uczenia.
2,0
3,0zna podstawowe definicje i rezultaty z zakresu statystycznej teorii uczenia, rozróżnia pojęcie ryzyka proawdziwego od błędu na próbie uczącej
3,5
4,0
4,5
5,0
I_2A_D19/6_W03
Zna algorytm SVM wraz z różnymi jego wariantami.
2,0Nie zna podstawowych własności algorytmu SVM.
3,0Zna podstawowe własności algorytmu SVM.
3,5Rozumie pojęcie marginesu separacji.
4,0Potrafi zapisać podstawowe kryterium optymalizacji dla algorytmu SVM (hard-margin).
4,5Potrafi zapisać podstawowe kryterium optymalizacji dla algorytmu SVM (hard-margin) w wariancie z mnożnikami Lagrange'a.
5,0Potrafi zapisać kryterium optymalizacji dla algorytmu SVM z miękkim marginesem (soft-margin) w wariancie z i bez mnożników Lagrange'a.
I_2A_D19/6_W04
Zna algorytmy z zakresu Ukrytych Modeli Markowa (HMM).
2,0Nie zna podstawowych pojęć dotyczących procesów losowych.
3,0Zna podstawowe pojęcia dotyczące procesów losowych: proces, łańcuch, proces stacjonarny, łańcuch Markowa, ukryty łańcuch Markowa (HMM).
3,5Zna trzy podstawe problemy obliczeniowe stawiane w ramach HMM.
4,0Zna algorytm Forward-Backward.
4,5Zna algorytm Viterbi'ego wraz ze wstecznym śledzeniem ścieżki. Zna algorytm Bauma-Welcha.
5,0Zna algorytm skalowania gwarantujący precyzję numeryczną we wszytkich istotnych algorytmach.
I_2A_D19/6_W05
Rozumie sens zadania pattern recognition oraz temporal pattern recognition. Ma znajomość matematycznych aspektów i rezultatów z zakresu statystycznej teorii uczenia.
2,0Nie potrafi wyjaśnić sensu zadań pattern recognition oraz temporal pattern recognition.
3,0Potrafi wyjaśnić sens zadań pattern recognition oraz temporal pattern recognition.
3,5Zna i rozumie pojęcia: łączny rozkład prawdopodobieństwa problemu (i.i.d.), maszyna ucząca się, zbiór funkcji aproksymujących, algorytm uczący.
4,0Zna i rozumie pojęcia: funkcjonał ryzyka, bład prawdziwy, reguła SAE (lub ERM).
4,5Rozumie matematyczne aspekty Statystycznej Teorii Uczenia: nierówność Chernoffa, ograniczenia na błąd prawdziwy dla skończonych zbiorów funkcji.
5,0Rozumie matematyczne aspekty Statystycznej Teorii Uczenia: wymiar Vapnika-Chervonenkisa, ograniczenia na błąd prawdziwy dla nieskończonych zbiorów funkcji.

Kryterium oceny - umiejętności

Efekt kształceniaOcenaKryterium oceny
I_2A_D19/6_U01
Potrafi stosować różne odmiany algorytmu SVM.
2,0Nie potrafi użyć podstawowej wersji algorytmu SVM (środowiska MATLAB lub Mathematica).
3,0Potrafi użyć podstawową wersję algorytmu SVM (środowiska MATLAB lub Mathematica).
3,5Potrafi użyć wersję podstawow algorytmu SVM z mnożnikami Lagrange'a (środowiska MATLAB lub Mathematica).
4,0Potrafi użyć wersję algorytmu SVM z miękkim marginesem (środowiska MATLAB lub Mathematica) z zadaną z góry stałą C.
4,5Potrafi użyć wersję algorytmu SVM z miękkim marginesem (środowiska MATLAB lub Mathematica) a także dobrać stałą C, wyznaczyć: margines separacji, obliczyć błąd.
5,0Dla danego problemu potrafi samodzielnie i skutecznie dobrać właściwą postać algorytmu SVM, a także porównać wyniki z prostszymi klasyfikatorami.
I_2A_D19/6_U02
Potrafi budować modele markowowskie (i stosować algorytmy z zakresu HMM) do rozpoznawania danych ze zmiennością w czasie.
2,0Nie potrafi zbudować najprostszego (jawnego) modelu markowowskiego.
3,0Potrafi zbudować najprostszy (jawny) modelu markowowski.
3,5Potrafi zaprogramować algorytm Forward-Backward i zastosować do pewnego praktycznego problemu.
4,0Potrafi zaprogramować algorytm Vierbi'ego i zastosować do pewnego praktycznego problemu.
4,5Potrafi zaprogramować algorytm Bauma-Welcha i zastosować do pewnego praktycznego problemu.
5,0Potrafi zaprogramować algorytm skalowania obliczeń dla utrzymania precyzji numerycznej.

Kryterium oceny - inne kompetencje społeczne i personalne

Efekt kształceniaOcenaKryterium oceny
I_2A_D19/6_K01
Ma wysoką świadomość ważnych elementów teoretycznych i praktycznych dotyczących analizy danych i rozpoznawania wzorców.
2,0Nie rozumie - nie zna podstawowego sensu i zastosowań - dla rozpoznawania wzorców w danych.
3,0Rozumie - zna podstawowy sensu i zastosowania - dla rozpoznawania wzorców w danych.
3,5Rozumie pojęcia: zdolność do uogólniania, ograniczenia na błąd prawdziwy, złożoność próbkowa.
4,0Potrafi w sposób podstawowy zastosować algorytmy SVM i HMM.
4,5Potrafi w sposób zaawansowany zastosować algorytm SVM - tj. dobrać dobrą postać kryterium optymalizacyjnego, dobrać przekształcenie jądrowe, dobrać stałą C.
5,0Potrafi w sposób zaawansowany zastosować algorytmy z rodziny HMM - dobrać liczbę stanówi obserwacji, zapewnić precyzję numeryczną.

Literatura podstawowa

  1. J. Koronacki, J. Ćwik, Statystyczne systemy uczące się, WNT, Warszawa, 2005
  2. R. Rabiner, A Tutorial on Hidden Markov Models and Selected Applications in Speech Recognition, IEEE, 1989

Literatura dodatkowa

  1. V. Cherkassky, F. Mulier, Learning from data, Wiley & Sons, 2007
  2. V. Vapnik, Statistical Learning Theory, Wiley & Sons, 1998

Treści programowe - laboratoria

KODTreść programowaGodziny
T-L-1Metoda SVM, własna implementacja wykorzystująca funkcję quadprog, przekształcenia jądrowe2
T-L-2Metoda SVM biblioteki: LibSVM i LibLINEAR, wykorzystanie w programie Matalb2
T-L-3Analiza danych mikromacierzowych oraz danych tekstowych, sprawozdanie2
T-L-4Ukryte łańcuch markowa, algorytmy Bauma-Welcha oraz Viterbiego, własna implementacja2
T-L-5Zastosowanie ukrytych łańcuchów Markowa do rozpoznawania autorstwa2
10

Treści programowe - wykłady

KODTreść programowaGodziny
T-W-1Matematyczne postawienie zadania rozpoznawania wzorców (klasyfikacji) w terminach statystycznej teorii uczenia. Pojęcia: maszyna ucząca się, zbiór funkcji aproksymujących, zbiór funkcji błędu, błąd prawdziwy (zdolność do uogólniania), błąd na próbie, zbieżność jednostajna reguły ERM. Model PAC.2
T-W-2Ograniczenia na błąd prawdziwy i zaawansowane pojęcia w ramach teorii uczenia: shattering, wymiar Vapnika-Chervonenkisa, nierówność Chernoffa (Hoeffdinga), złożoność próbkowa, pokrycia i liczby pokryciowe, złożoność Rademachera.2
T-W-3Algorytm Support Vector Machines. Margines separacji. Różne warianty kryterium optymalizacyjnego SVM: z/bez mnożników Lagrange'a, 'soft-margin'. Przekształcenie jądrowe.3
T-W-4Rozpoznawanie wzorców przebiegających w czasie (temporal pattern recognition). Ukryte Modele Markowa (Hidden Markov Models). Pojęcia: proces stochastyczny, łańcuch stochastyczny, łańcuch stacjonarny, łańcuch markowowski. Przypadkowe błądzenie (problem przejść przez zero). Algorytmy: Forward-Backward, Viterbi'ego, Bauma-Welcha.3
10

Formy aktywności - laboratoria

KODForma aktywnościGodziny
A-L-1Uczestnictwo w zajęciach10
A-L-2Przygotowanie do zajęć8
A-L-3Samodzielna praca nad zadaniami programistycznymi i sprawozdaniami10
28
(*) 1 punkt ECTS, odpowiada około 30 godzinom aktywności studenta

Formy aktywności - wykłady

KODForma aktywnościGodziny
A-W-1Samodzielne studiowanie matematycznych aspektów teorii uczenia. Łączenie nierówności probabilistycznych. Analiza wyprowadzeń ograniczeń na błąd prawdziwy.4
A-W-2Analiza pojęcia shattering i przykładów wymiarów VC dla niektórych maszyn uczących się.2
A-W-3SVM - formułowanie i rozwiązywanie przy pomocy komputera (MATLAB, Mathematica) różnych wersji kryterium optymalizacyjnego dla algorytmu SVM. Wyliczanie marginesu separacji. Dobieranie parametru 'soft-margin'.4
A-W-4"Ręczne" (pisemne) śledzenie działania poszczególnych algorytmów w ramamach HMM na małych przykładach.4
A-W-5Przygotowanie się do kolokwium egzaminacyjnego.8
A-W-6Uczestnictwo w wykładach10
32
(*) 1 punkt ECTS, odpowiada około 30 godzinom aktywności studenta
PoleKODZnaczenie kodu
Zamierzone efekty kształceniaI_2A_D19/6_W01Rozumie zadania pattern recognition oraz temporal pattern recognition.
Odniesienie do efektów kształcenia dla kierunku studiówI_2A_W01Ma poszerzoną i pogłębioną wiedzę w zakresie wybranych działów matematyki teoretycznej oraz matematyki stosowanej
I_2A_W08Ma rozszerzoną wiedzę o podstawowych zadaniach eksploracji i analizy danych zarówno ilościowych jak i jakościowych
Cel przedmiotuC-1Ukształtowanie rozumienia matematycznych elementów teorii uczenia dla zadania rozpoznawania wzorców, ze szczególnym naciskiem na własność zdolności do uogólniania.
Treści programoweT-W-2Ograniczenia na błąd prawdziwy i zaawansowane pojęcia w ramach teorii uczenia: shattering, wymiar Vapnika-Chervonenkisa, nierówność Chernoffa (Hoeffdinga), złożoność próbkowa, pokrycia i liczby pokryciowe, złożoność Rademachera.
T-W-1Matematyczne postawienie zadania rozpoznawania wzorców (klasyfikacji) w terminach statystycznej teorii uczenia. Pojęcia: maszyna ucząca się, zbiór funkcji aproksymujących, zbiór funkcji błędu, błąd prawdziwy (zdolność do uogólniania), błąd na próbie, zbieżność jednostajna reguły ERM. Model PAC.
Metody nauczaniaM-1wykład informacyjny
M-2wykład problemowy
Sposób ocenyS-1Ocena podsumowująca: Pisemne kolokwium egzaminacyjne.
Kryteria ocenyOcenaKryterium oceny
2,0
3,0Umie sformułować zadanie rozpoznawania wzorców, zna podstawowe metody ekstrakcji cech
3,5
4,0
4,5
5,0
PoleKODZnaczenie kodu
Zamierzone efekty kształceniaI_2A_D19/6_W02Ma znajomość matematycznych aspektów i rezultatów z zakresu statystycznej teorii uczenia.
Odniesienie do efektów kształcenia dla kierunku studiówI_2A_W01Ma poszerzoną i pogłębioną wiedzę w zakresie wybranych działów matematyki teoretycznej oraz matematyki stosowanej
I_2A_W08Ma rozszerzoną wiedzę o podstawowych zadaniach eksploracji i analizy danych zarówno ilościowych jak i jakościowych
Cel przedmiotuC-1Ukształtowanie rozumienia matematycznych elementów teorii uczenia dla zadania rozpoznawania wzorców, ze szczególnym naciskiem na własność zdolności do uogólniania.
Treści programoweT-W-2Ograniczenia na błąd prawdziwy i zaawansowane pojęcia w ramach teorii uczenia: shattering, wymiar Vapnika-Chervonenkisa, nierówność Chernoffa (Hoeffdinga), złożoność próbkowa, pokrycia i liczby pokryciowe, złożoność Rademachera.
T-W-1Matematyczne postawienie zadania rozpoznawania wzorców (klasyfikacji) w terminach statystycznej teorii uczenia. Pojęcia: maszyna ucząca się, zbiór funkcji aproksymujących, zbiór funkcji błędu, błąd prawdziwy (zdolność do uogólniania), błąd na próbie, zbieżność jednostajna reguły ERM. Model PAC.
Metody nauczaniaM-1wykład informacyjny
M-2wykład problemowy
Sposób ocenyS-1Ocena podsumowująca: Pisemne kolokwium egzaminacyjne.
Kryteria ocenyOcenaKryterium oceny
2,0
3,0zna podstawowe definicje i rezultaty z zakresu statystycznej teorii uczenia, rozróżnia pojęcie ryzyka proawdziwego od błędu na próbie uczącej
3,5
4,0
4,5
5,0
PoleKODZnaczenie kodu
Zamierzone efekty kształceniaI_2A_D19/6_W03Zna algorytm SVM wraz z różnymi jego wariantami.
Odniesienie do efektów kształcenia dla kierunku studiówI_2A_W01Ma poszerzoną i pogłębioną wiedzę w zakresie wybranych działów matematyki teoretycznej oraz matematyki stosowanej
I_2A_W05Ma rozszerzoną i podbudowaną teoretycznie wiedzę z zakresu metod informatyki wykorzystywanych do rozwiązywania problemów w wybranych obszarach nauki i techniki
I_2A_W08Ma rozszerzoną wiedzę o podstawowych zadaniach eksploracji i analizy danych zarówno ilościowych jak i jakościowych
Cel przedmiotuC-2Przedstawienie różnych odmian algorytmu SVM i wyjaśnienie jego związków ze zdolnością do uogólaniania.
Treści programoweT-W-3Algorytm Support Vector Machines. Margines separacji. Różne warianty kryterium optymalizacyjnego SVM: z/bez mnożników Lagrange'a, 'soft-margin'. Przekształcenie jądrowe.
Metody nauczaniaM-1wykład informacyjny
M-3metody programowane z użyciem komputera
M-2wykład problemowy
Sposób ocenyS-1Ocena podsumowująca: Pisemne kolokwium egzaminacyjne.
S-2Ocena formująca: oceny czastkowe z zadan programistycznych oraz sprawozdan
Kryteria ocenyOcenaKryterium oceny
2,0Nie zna podstawowych własności algorytmu SVM.
3,0Zna podstawowe własności algorytmu SVM.
3,5Rozumie pojęcie marginesu separacji.
4,0Potrafi zapisać podstawowe kryterium optymalizacji dla algorytmu SVM (hard-margin).
4,5Potrafi zapisać podstawowe kryterium optymalizacji dla algorytmu SVM (hard-margin) w wariancie z mnożnikami Lagrange'a.
5,0Potrafi zapisać kryterium optymalizacji dla algorytmu SVM z miękkim marginesem (soft-margin) w wariancie z i bez mnożników Lagrange'a.
PoleKODZnaczenie kodu
Zamierzone efekty kształceniaI_2A_D19/6_W04Zna algorytmy z zakresu Ukrytych Modeli Markowa (HMM).
Odniesienie do efektów kształcenia dla kierunku studiówI_2A_W01Ma poszerzoną i pogłębioną wiedzę w zakresie wybranych działów matematyki teoretycznej oraz matematyki stosowanej
I_2A_W05Ma rozszerzoną i podbudowaną teoretycznie wiedzę z zakresu metod informatyki wykorzystywanych do rozwiązywania problemów w wybranych obszarach nauki i techniki
I_2A_W08Ma rozszerzoną wiedzę o podstawowych zadaniach eksploracji i analizy danych zarówno ilościowych jak i jakościowych
Cel przedmiotuC-3Przedstawienie problemu rozpoznawania wzorców zależnych od czasu oraz możliwych praktycznych zastosowań (rozpoznawanie dokumentów tekstowych, pisma, głosu, sekwencji video). Przedstawienie algorytmów z dziedziny HMM.
Treści programoweT-W-4Rozpoznawanie wzorców przebiegających w czasie (temporal pattern recognition). Ukryte Modele Markowa (Hidden Markov Models). Pojęcia: proces stochastyczny, łańcuch stochastyczny, łańcuch stacjonarny, łańcuch markowowski. Przypadkowe błądzenie (problem przejść przez zero). Algorytmy: Forward-Backward, Viterbi'ego, Bauma-Welcha.
Metody nauczaniaM-1wykład informacyjny
M-3metody programowane z użyciem komputera
M-2wykład problemowy
Sposób ocenyS-1Ocena podsumowująca: Pisemne kolokwium egzaminacyjne.
S-2Ocena formująca: oceny czastkowe z zadan programistycznych oraz sprawozdan
Kryteria ocenyOcenaKryterium oceny
2,0Nie zna podstawowych pojęć dotyczących procesów losowych.
3,0Zna podstawowe pojęcia dotyczące procesów losowych: proces, łańcuch, proces stacjonarny, łańcuch Markowa, ukryty łańcuch Markowa (HMM).
3,5Zna trzy podstawe problemy obliczeniowe stawiane w ramach HMM.
4,0Zna algorytm Forward-Backward.
4,5Zna algorytm Viterbi'ego wraz ze wstecznym śledzeniem ścieżki. Zna algorytm Bauma-Welcha.
5,0Zna algorytm skalowania gwarantujący precyzję numeryczną we wszytkich istotnych algorytmach.
PoleKODZnaczenie kodu
Zamierzone efekty kształceniaI_2A_D19/6_W05Rozumie sens zadania pattern recognition oraz temporal pattern recognition. Ma znajomość matematycznych aspektów i rezultatów z zakresu statystycznej teorii uczenia.
Odniesienie do efektów kształcenia dla kierunku studiówI_2A_W01Ma poszerzoną i pogłębioną wiedzę w zakresie wybranych działów matematyki teoretycznej oraz matematyki stosowanej
I_2A_W08Ma rozszerzoną wiedzę o podstawowych zadaniach eksploracji i analizy danych zarówno ilościowych jak i jakościowych
Cel przedmiotuC-1Ukształtowanie rozumienia matematycznych elementów teorii uczenia dla zadania rozpoznawania wzorców, ze szczególnym naciskiem na własność zdolności do uogólniania.
Treści programoweT-W-2Ograniczenia na błąd prawdziwy i zaawansowane pojęcia w ramach teorii uczenia: shattering, wymiar Vapnika-Chervonenkisa, nierówność Chernoffa (Hoeffdinga), złożoność próbkowa, pokrycia i liczby pokryciowe, złożoność Rademachera.
T-W-1Matematyczne postawienie zadania rozpoznawania wzorców (klasyfikacji) w terminach statystycznej teorii uczenia. Pojęcia: maszyna ucząca się, zbiór funkcji aproksymujących, zbiór funkcji błędu, błąd prawdziwy (zdolność do uogólniania), błąd na próbie, zbieżność jednostajna reguły ERM. Model PAC.
Metody nauczaniaM-1wykład informacyjny
M-2wykład problemowy
Sposób ocenyS-1Ocena podsumowująca: Pisemne kolokwium egzaminacyjne.
S-2Ocena formująca: oceny czastkowe z zadan programistycznych oraz sprawozdan
Kryteria ocenyOcenaKryterium oceny
2,0Nie potrafi wyjaśnić sensu zadań pattern recognition oraz temporal pattern recognition.
3,0Potrafi wyjaśnić sens zadań pattern recognition oraz temporal pattern recognition.
3,5Zna i rozumie pojęcia: łączny rozkład prawdopodobieństwa problemu (i.i.d.), maszyna ucząca się, zbiór funkcji aproksymujących, algorytm uczący.
4,0Zna i rozumie pojęcia: funkcjonał ryzyka, bład prawdziwy, reguła SAE (lub ERM).
4,5Rozumie matematyczne aspekty Statystycznej Teorii Uczenia: nierówność Chernoffa, ograniczenia na błąd prawdziwy dla skończonych zbiorów funkcji.
5,0Rozumie matematyczne aspekty Statystycznej Teorii Uczenia: wymiar Vapnika-Chervonenkisa, ograniczenia na błąd prawdziwy dla nieskończonych zbiorów funkcji.
PoleKODZnaczenie kodu
Zamierzone efekty kształceniaI_2A_D19/6_U01Potrafi stosować różne odmiany algorytmu SVM.
Odniesienie do efektów kształcenia dla kierunku studiówI_2A_U05Potrafi prawidłowo zaplanować, przeprowadzić eksperyment badawczy, dokonać analizy i prezentacji uzyskanych wyników
I_2A_U07Potrafi wykorzystywać poznane metody, techniki i modele do rozwiązywania złożonych problemów
I_2A_U09Potrafi wydobywać wiedzę zawartą w dużych zbiorach danych
I_2A_U10Potrafi wykorzystywać oprogramowanie wspomagające rozwiązywanie wybranych problemów
Cel przedmiotuC-2Przedstawienie różnych odmian algorytmu SVM i wyjaśnienie jego związków ze zdolnością do uogólaniania.
Treści programoweT-W-3Algorytm Support Vector Machines. Margines separacji. Różne warianty kryterium optymalizacyjnego SVM: z/bez mnożników Lagrange'a, 'soft-margin'. Przekształcenie jądrowe.
Metody nauczaniaM-1wykład informacyjny
M-3metody programowane z użyciem komputera
M-2wykład problemowy
Sposób ocenyS-1Ocena podsumowująca: Pisemne kolokwium egzaminacyjne.
S-2Ocena formująca: oceny czastkowe z zadan programistycznych oraz sprawozdan
Kryteria ocenyOcenaKryterium oceny
2,0Nie potrafi użyć podstawowej wersji algorytmu SVM (środowiska MATLAB lub Mathematica).
3,0Potrafi użyć podstawową wersję algorytmu SVM (środowiska MATLAB lub Mathematica).
3,5Potrafi użyć wersję podstawow algorytmu SVM z mnożnikami Lagrange'a (środowiska MATLAB lub Mathematica).
4,0Potrafi użyć wersję algorytmu SVM z miękkim marginesem (środowiska MATLAB lub Mathematica) z zadaną z góry stałą C.
4,5Potrafi użyć wersję algorytmu SVM z miękkim marginesem (środowiska MATLAB lub Mathematica) a także dobrać stałą C, wyznaczyć: margines separacji, obliczyć błąd.
5,0Dla danego problemu potrafi samodzielnie i skutecznie dobrać właściwą postać algorytmu SVM, a także porównać wyniki z prostszymi klasyfikatorami.
PoleKODZnaczenie kodu
Zamierzone efekty kształceniaI_2A_D19/6_U02Potrafi budować modele markowowskie (i stosować algorytmy z zakresu HMM) do rozpoznawania danych ze zmiennością w czasie.
Odniesienie do efektów kształcenia dla kierunku studiówI_2A_U05Potrafi prawidłowo zaplanować, przeprowadzić eksperyment badawczy, dokonać analizy i prezentacji uzyskanych wyników
I_2A_U07Potrafi wykorzystywać poznane metody, techniki i modele do rozwiązywania złożonych problemów
I_2A_U09Potrafi wydobywać wiedzę zawartą w dużych zbiorach danych
I_2A_U10Potrafi wykorzystywać oprogramowanie wspomagające rozwiązywanie wybranych problemów
Cel przedmiotuC-3Przedstawienie problemu rozpoznawania wzorców zależnych od czasu oraz możliwych praktycznych zastosowań (rozpoznawanie dokumentów tekstowych, pisma, głosu, sekwencji video). Przedstawienie algorytmów z dziedziny HMM.
Treści programoweT-W-4Rozpoznawanie wzorców przebiegających w czasie (temporal pattern recognition). Ukryte Modele Markowa (Hidden Markov Models). Pojęcia: proces stochastyczny, łańcuch stochastyczny, łańcuch stacjonarny, łańcuch markowowski. Przypadkowe błądzenie (problem przejść przez zero). Algorytmy: Forward-Backward, Viterbi'ego, Bauma-Welcha.
Metody nauczaniaM-1wykład informacyjny
M-3metody programowane z użyciem komputera
M-2wykład problemowy
Sposób ocenyS-1Ocena podsumowująca: Pisemne kolokwium egzaminacyjne.
S-2Ocena formująca: oceny czastkowe z zadan programistycznych oraz sprawozdan
Kryteria ocenyOcenaKryterium oceny
2,0Nie potrafi zbudować najprostszego (jawnego) modelu markowowskiego.
3,0Potrafi zbudować najprostszy (jawny) modelu markowowski.
3,5Potrafi zaprogramować algorytm Forward-Backward i zastosować do pewnego praktycznego problemu.
4,0Potrafi zaprogramować algorytm Vierbi'ego i zastosować do pewnego praktycznego problemu.
4,5Potrafi zaprogramować algorytm Bauma-Welcha i zastosować do pewnego praktycznego problemu.
5,0Potrafi zaprogramować algorytm skalowania obliczeń dla utrzymania precyzji numerycznej.
PoleKODZnaczenie kodu
Zamierzone efekty kształceniaI_2A_D19/6_K01Ma wysoką świadomość ważnych elementów teoretycznych i praktycznych dotyczących analizy danych i rozpoznawania wzorców.
Odniesienie do efektów kształcenia dla kierunku studiówI_2A_K02Świadomie rozumie potrzeby dokształcania i dzielenia się wiedzą
I_2A_K03Rozumie potrzebę przekazywania społeczeństwu informacji o rozwoju i osiągnięciach nauki w zakresie informatyki
Cel przedmiotuC-3Przedstawienie problemu rozpoznawania wzorców zależnych od czasu oraz możliwych praktycznych zastosowań (rozpoznawanie dokumentów tekstowych, pisma, głosu, sekwencji video). Przedstawienie algorytmów z dziedziny HMM.
C-1Ukształtowanie rozumienia matematycznych elementów teorii uczenia dla zadania rozpoznawania wzorców, ze szczególnym naciskiem na własność zdolności do uogólniania.
C-2Przedstawienie różnych odmian algorytmu SVM i wyjaśnienie jego związków ze zdolnością do uogólaniania.
Treści programoweT-W-2Ograniczenia na błąd prawdziwy i zaawansowane pojęcia w ramach teorii uczenia: shattering, wymiar Vapnika-Chervonenkisa, nierówność Chernoffa (Hoeffdinga), złożoność próbkowa, pokrycia i liczby pokryciowe, złożoność Rademachera.
T-W-4Rozpoznawanie wzorców przebiegających w czasie (temporal pattern recognition). Ukryte Modele Markowa (Hidden Markov Models). Pojęcia: proces stochastyczny, łańcuch stochastyczny, łańcuch stacjonarny, łańcuch markowowski. Przypadkowe błądzenie (problem przejść przez zero). Algorytmy: Forward-Backward, Viterbi'ego, Bauma-Welcha.
T-W-3Algorytm Support Vector Machines. Margines separacji. Różne warianty kryterium optymalizacyjnego SVM: z/bez mnożników Lagrange'a, 'soft-margin'. Przekształcenie jądrowe.
T-W-1Matematyczne postawienie zadania rozpoznawania wzorców (klasyfikacji) w terminach statystycznej teorii uczenia. Pojęcia: maszyna ucząca się, zbiór funkcji aproksymujących, zbiór funkcji błędu, błąd prawdziwy (zdolność do uogólniania), błąd na próbie, zbieżność jednostajna reguły ERM. Model PAC.
Metody nauczaniaM-1wykład informacyjny
M-3metody programowane z użyciem komputera
M-2wykład problemowy
Sposób ocenyS-1Ocena podsumowująca: Pisemne kolokwium egzaminacyjne.
S-2Ocena formująca: oceny czastkowe z zadan programistycznych oraz sprawozdan
S-3Ocena podsumowująca: Ocena koncowa z laboratorium - srednia z ocen czastkowych (wazona stopniem trudnosci i zlozonosci zadania)
Kryteria ocenyOcenaKryterium oceny
2,0Nie rozumie - nie zna podstawowego sensu i zastosowań - dla rozpoznawania wzorców w danych.
3,0Rozumie - zna podstawowy sensu i zastosowania - dla rozpoznawania wzorców w danych.
3,5Rozumie pojęcia: zdolność do uogólniania, ograniczenia na błąd prawdziwy, złożoność próbkowa.
4,0Potrafi w sposób podstawowy zastosować algorytmy SVM i HMM.
4,5Potrafi w sposób zaawansowany zastosować algorytm SVM - tj. dobrać dobrą postać kryterium optymalizacyjnego, dobrać przekształcenie jądrowe, dobrać stałą C.
5,0Potrafi w sposób zaawansowany zastosować algorytmy z rodziny HMM - dobrać liczbę stanówi obserwacji, zapewnić precyzję numeryczną.