Wydział Informatyki - Informatyka (S2)
specjalność: grafika komputerowa i systemy multimedialne
Sylabus przedmiotu Metody sztucznej inteligencji:
Informacje podstawowe
Kierunek studiów | Informatyka | ||
---|---|---|---|
Forma studiów | studia stacjonarne | Poziom | drugiego stopnia |
Tytuł zawodowy absolwenta | magister | ||
Obszary studiów | nauki techniczne | ||
Profil | ogólnoakademicki | ||
Moduł | — | ||
Przedmiot | Metody sztucznej inteligencji | ||
Specjalność | przedmiot wspólny | ||
Jednostka prowadząca | Katedra Metod Sztucznej Inteligencji i Matematyki Stosowanej | ||
Nauczyciel odpowiedzialny | Andrzej Piegat <Andrzej.Piegat@zut.edu.pl> | ||
Inni nauczyciele | Ewa Adamus <Ewa.Adamus@zut.edu.pl>, Marcin Korzeń <Marcin.Korzen@zut.edu.pl>, Joanna Kołodziejczyk <Joanna.Kolodziejczyk@zut.edu.pl>, Marcin Pluciński <Marcin.Plucinski@zut.edu.pl> | ||
ECTS (planowane) | 4,0 | ECTS (formy) | 4,0 |
Forma zaliczenia | egzamin | Język | polski |
Blok obieralny | — | Grupa obieralna | — |
Formy dydaktyczne
Wymagania wstępne
KOD | Wymaganie wstępne |
---|---|
W-1 | Podstawy algebry liniowej |
Cele przedmiotu
KOD | Cel modułu/przedmiotu |
---|---|
C-1 | Zapoznanie się z róznymi metodami sztucznej inteligencji jak: sieci neuronowe, algorytmy genetyczne czy logika rozmyta |
C-2 | Ukształtowanie umiejętności rozpoznawania wybranych typów zadań sztucznej inteligencji |
C-3 | Ukształtowanie umiejętności rozwiązywania wybranych problemów sztucznej inteligencji poprzez wybór odpowiednich technik |
Treści programowe z podziałem na formy zajęć
KOD | Treść programowa | Godziny |
---|---|---|
ćwiczenia audytoryjne | ||
T-A-1 | 1. Ćwiczenia w wykrywanie zmiennych warunkujących zmienną zależną w przykładowych problemach rzeczywistych. Ćwiczenia w eksperckim okreslaniu współczynników wagowych i progowych w jedno-neuronowej sieci perceptronowej z jednym wejściem dla podanych problemów. | 2 |
T-A-2 | 2. Ćwiczenia w eksperckim określaniu współczynników wagowych i progowych w perceptronowej sieci neuronowej z dwoma zmiennymi warunkujacymi i jedną zmienna zależną. Ćwiczenia w identyfikacji parametrów prostej separacyjnej dla przykładowych podanych problemów rzeczywistych z dwoma zmiennymi warunkującymi. | 2 |
T-A-3 | 3. Ćwiczenia w realizacji pierwszych kroków optymalizacji wartości współczynników wagowych metodą wstecznej propagacji błędu dla podanych przykładowych problemów i zbiorów próbek. | 2 |
T-A-4 | 4. Ćwiczenia w eksperckim określaniu współczynników wagowych sieci Kohonena dla prostych problemów klasyfikacyjnych. | 2 |
T-A-5 | 5. Cwiczenia deklaratywnej identyfikacji modeli kwantyfikatorów lingwistycznych dla podanych zmiennych lingwistycznych. Ćwiczenia w eksperymentalnej identyfikacji kwantyfikatorów lingwistycznych stosowanych przez ludzi do oceny wybranych zmiennych lingwistycznych. Opracowywanie przeciętnych, grupowych modeli kwantyfikatorów na podstawie indywidualnych modeli pojedyńczych osób. | 2 |
T-A-6 | 6. Opracowywanie lingwistycznch baz wiedzy i modeli kwantyfikatorów lingwistycznych dla problemów z jedną zmienną warunkująca i przeprowadznie obliczeń z użyciem takiej bazy wiedzy. | 2 |
T-A-7 | 7. Opracowywanie lingwistycznych baz wiedzy i modeli kwantyfikatorów lingwistycznych dla problemów z dwoma lub więcej zmiennymi warunkujacymi i przeprowadzanie obliczeń z użyciem takich baz wiedzy. | 3 |
15 | ||
laboratoria | ||
T-L-1 | Perceptron Rosenblata, implementacja algorytmu reguła perceptronu, zbieżność algorytmu, analiza działania | 2 |
T-L-2 | Jednokierunkowe, wielowarstwowe sieci neuronowe, implementacja algorytmu wstecznej propagacji błędu w wariantach: prosty, dodanie minimalizacji kierunkowej oraz gradientów sprzężonych badanie algorytmu uczenia. | 4 |
T-L-3 | Sieci neuronowe w pakiecie Matlab: Neural Network Toolbox oraz pakiet netlab | 2 |
T-L-4 | Sieci neuronowe typu RBF wykorzystanie pakieru Neural Network Toolbox, do problemów regresyjnych | 2 |
T-L-5 | Sieci neuronowe uczone konkurencyjnie, reguła Kohonena, wykorzystanie pakietu Neural Network Toolbox | 2 |
T-L-6 | Sieci neuronowe typu Hopfielda, wykorzystanie sieci jako pamięci asocjacyjnej do rozpoznawania znaków | 2 |
T-L-7 | Podstawowe pojęcia z logiki rozmytej, identyfikacja funkcji przynależności w systemie rozmytym. | 2 |
T-L-8 | Sterownik rozmyty Mamdaniego typu SISO i MISO - implementacja i badanie działania. | 2 |
T-L-9 | Wykorzystanie systemu rozmytego w sterowaniu wybranym obiektem | 2 |
T-L-10 | System typu neuro-fuzzy - implementacja, uczenie i badanie działania. | 4 |
T-L-11 | Zastosowanie algorytmu ewolucyjnego do poszukiwania optimum funkcji. | 2 |
T-L-12 | Zastosowanie algorytmu ewolucyjnego w zadaniach optymalizacji dyskretnej - rozwiązywanie problemu komiwojażera. | 2 |
T-L-13 | Zaliczenie zajęć | 2 |
30 | ||
wykłady | ||
T-W-1 | 1. Systemy samouczące nadzorowane i nienadzorowane. Sieci perceptronowe jako przykład systemów samouczących nadzorowanych. Sens współczynników wagowych i progowych w realnych zadaniach samouczenia. Możliwość eksperckiego określania współczynników wagowych i progowych w sieciach modelujących proste zależności w obiektach. Przykład zastosowania sieci perceptronowej do rozpoznawania liter drukowanych i twarzy ludzkich. | 2 |
T-W-2 | 2. Sieci perceptronowe jako przykład systemów uczących sie pod nadzorem. Zastosowanie sieci perceptronowych do identyfikacji wiarygodności kredytowej klientów bankowych. Problem dokładności wyników dostarczanych przez sieć i jej uwarunkowania. Automatyczne, nadzorowane uczenie sieci metodą wstecznej propagacji błędu. Zastosowanie sieci perceptronowej do prognozowania cen akcji giełdowych i predykcji cen sprzedaży budynków mieszkalnych. | 2 |
T-W-3 | 3. Sieci neuronowe nadzorowane typu perceptronowego. Praktyczne problemy występujące podczas uczenia sieci neuronowych. Zagadnienie dokładności wyników dostarczanych przez sieć od liczby i przestrzennego rozkładu próbek uczących. Problem właściwego testowania sieci neuronowych. | 1 |
T-W-4 | 4. Nienadzorowane systemy samouczące się na przykładzie neuronowych, samoorganizujących się sieci Kohonena. Pojęcie odwzorowania zbioru zmiennych warunkujących w zbiór zmiennych zależnych. Struktura sieci Kohonena. Kolektywność działania neuronów w sieci Kohonena. Przykłady problemów rozwiazywanych przez sieci Kohonena. | 2 |
T-W-5 | 5. Sieci samoorganizujące się Kohonena jako przykład samouczących się systemów nienadzorowanych. Uczenie sieci Kohonena rozpoznawania podobieństwa obiektów do wzorców klas. Przykład zastosowania sieci Kohonena do rozpoznawania figur geometrycznych. Możliwość automatycznego i eksperckiego strojenia wag neuronów. Problem sąsiedztwa neuronów i wymiarowości sieci. Przykład zastosowania sieci Kohonena do oceny i klasysyfikacji państw ze względu na poziom zamożności/ubóstwa. | 2 |
T-W-6 | 6. Systemy eksperckie i samouczące sie bazujace na logice rozmytej. Pojęcie systemu eksperckiego i przykłady jego zastosowań w technice, ekonomii, medycynie, etc. Baza wiedzy eksperckiej jako część główna systemu eksperckiego i sposoby jej uzyskiwania. Problem pojęć ilościowych występujących w bazie wiedzy i konieczność ich identyfikacja i matematycznego modelowania. Logika rozmyta jako główny sposób modelowania wiedzy ludzkiej. Identyfikacja i modelowanie lingwistycznch kwantyfikatorów używanych przez człowieka. Realizacja operacji AND, OR, i negacji w logice rozmytej. | 2 |
T-W-7 | 7. Logika rozmyta jako metoda praktycznego wykorzystania wiedzy ludzkiej w technice, ekonomii, medycynie, etc. Tworzenie lingwistycznych baz wiedzy o problemach z jedną zmienną warunkujacą i jedna zmienna zależną. Realizacja obliczeń z użyciem takiej bazy. Tworzenie lingwistycznych baz wiedzy eksperckiej z dwoma zmiennymi warunkującymi i jedną zmienną zalezną. Realizacja obliczeń z użyciem takiej bazy. | 2 |
T-W-8 | 8. Samouczące się sieci neurorozmyte jako systemy generujące wiedzę lingwistyczna na podstawie zbioru próbek pomiarowych. Budowa sieci nerorozmytej i zadania realizowane przez poszczególne jej elementy. Odczytywanie wiedzy lingwistycznej ze struktury i parametrów sieci neurorozmytej. | 2 |
15 |
Obciążenie pracą studenta - formy aktywności
KOD | Forma aktywności | Godziny |
---|---|---|
ćwiczenia audytoryjne | ||
A-A-1 | Udział w ćwiczeniach | 15 |
A-A-2 | Przygotowanie się studenta do zajęć | 10 |
25 | ||
laboratoria | ||
A-L-1 | Uczestnictwo w zajęciach | 30 |
A-L-2 | Konsultacje do laboratorium i zaliczenie | 2 |
A-L-3 | Przygotowanie do zaliczenia. | 14 |
A-L-4 | Opracowanie sprawozdań z zajęć. | 15 |
61 | ||
wykłady | ||
A-W-1 | Udział w wykładzie | 15 |
A-W-2 | Udział w konsultacjach i egzaminie | 3 |
A-W-3 | Przygotowanie egzaminu i studiowanie literatury zgodnej z tematyką wykładu | 10 |
28 |
Metody nauczania / narzędzia dydaktyczne
KOD | Metoda nauczania / narzędzie dydaktyczne |
---|---|
M-1 | Wykład informacyjny z prezentacja |
M-2 | Cwiczenia audytoryjne: prezentacja przez prowadzącego sposobów rozwiązania przykładowych problemów. |
M-3 | Ćwiczenia audytoryjne: Samodzielne rozwiązywanie przez studentów problemów podanych przez prowadzącego. |
M-4 | Ćwiczenia laboratoryjne: rozwiązywanie przez prowadzącego przykładowych problemów z użyciem oprogramowania z zakresu sztucznej inteligencji. |
M-5 | Ćwiczenia laboratoryjne: zapoznanie studentów z oprogramowaniem do wybranych metod sztucznej inteligencji. |
M-6 | Ćwiczenia laboratoryjne: samodzielne rozwiązywanie przez studentów problemów z uzyciem oprogramowania do wybranych metod sztucznej inteligencji. |
Sposoby oceny
KOD | Sposób oceny |
---|---|
S-1 | Ocena podsumowująca: Wykład: zaliczenie pisemne |
S-2 | Ocena formująca: Ćwiczenia audytoryjne: ocena aktywności studenta w dyskusjach nad rozwiązywanymi problemami i umiejętnością samodzielnego rozwiązywania postawionych problemów. |
S-3 | Ocena podsumowująca: Ćwiczenia audytoryjne: łączna ocena z pisemnego sprawdzianu z uwzględnieniem uzyskanych w trakcie ćwiczen ocen formujących. |
S-4 | Ocena podsumowująca: Laboratorium: łączna ocena podsumowującą aktywność studenta podczas zajęć oraz samodzielne wykonanie zadań zleconych przez prowadzącego |
Zamierzone efekty kształcenia - wiedza
Zamierzone efekty kształcenia | Odniesienie do efektów kształcenia dla kierunku studiów | Odniesienie do efektów zdefiniowanych dla obszaru kształcenia | Cel przedmiotu | Treści programowe | Metody nauczania | Sposób oceny |
---|---|---|---|---|---|---|
I_2A_C/04_W01 Student ma wiedzę o głównych działach sztucznej inteligencji oraz o rzeczywistych przykładach jej zastosowania pokazujących specyficzne problemy jakie mogą się pojawiąć w różnych dzidzinach praktycznych zastosowań. Student ma także wiedzę o podstawowych zadaniach oraz metodach sztucznej inteligencji, która w zależności od zadania pozwala wybrać mu odpowiednie metody umożliwiające rozwiązanie postawionego zadania. | I_2A_W05, I_2A_W06, I_2A_W08, I_2A_W10 | — | C-2, C-3 | T-W-3, T-W-4, T-W-5, T-W-6, T-W-1, T-W-2 | M-1, M-2, M-3, M-4, M-5, M-6 | S-4, S-1, S-2, S-3 |
Zamierzone efekty kształcenia - umiejętności
Zamierzone efekty kształcenia | Odniesienie do efektów kształcenia dla kierunku studiów | Odniesienie do efektów zdefiniowanych dla obszaru kształcenia | Cel przedmiotu | Treści programowe | Metody nauczania | Sposób oceny |
---|---|---|---|---|---|---|
I_2A_C/04_U01 Student posiada umiejętność sformułowania praktycznych problemów w sposób dogodny do zastosowania poznanych metod sztucznej inteligencji. Posiada także umiejętność posługiwania się podstawowym oprogramowaniem umożliwiającym rozwiązywanie problemów sformułowanych w języku poznanych działów sztucznej inteligencji. | I_2A_U11, I_2A_U10, I_2A_U09, I_2A_U04, I_2A_U06, I_2A_U07, I_2A_U08 | — | C-2 | T-W-3, T-W-4, T-W-5, T-W-6, T-W-7, T-W-1, T-W-2, T-W-8 | M-1, M-2, M-3, M-4, M-5, M-6 | S-4, S-1, S-2, S-3 |
Kryterium oceny - wiedza
Efekt kształcenia | Ocena | Kryterium oceny |
---|---|---|
I_2A_C/04_W01 Student ma wiedzę o głównych działach sztucznej inteligencji oraz o rzeczywistych przykładach jej zastosowania pokazujących specyficzne problemy jakie mogą się pojawiąć w różnych dzidzinach praktycznych zastosowań. Student ma także wiedzę o podstawowych zadaniach oraz metodach sztucznej inteligencji, która w zależności od zadania pozwala wybrać mu odpowiednie metody umożliwiające rozwiązanie postawionego zadania. | 2,0 | |
3,0 | Student posiada dostateczna wiedzę o głównych metodach sztucznej inteligencji, o problemach, które można z jej użyciem rozwiazać i o przykładach jej rzeczywistego zastosowania. | |
3,5 | ||
4,0 | ||
4,5 | ||
5,0 |
Kryterium oceny - umiejętności
Efekt kształcenia | Ocena | Kryterium oceny |
---|---|---|
I_2A_C/04_U01 Student posiada umiejętność sformułowania praktycznych problemów w sposób dogodny do zastosowania poznanych metod sztucznej inteligencji. Posiada także umiejętność posługiwania się podstawowym oprogramowaniem umożliwiającym rozwiązywanie problemów sformułowanych w języku poznanych działów sztucznej inteligencji. | 2,0 | |
3,0 | Student posiada w dostatecznym stopniu umiejętność rozpoznania czy dany problem można rozwiazać jedną z głównych metod sztucznej inteligencji i rozwiązania tego problemu z użyciem wybranej metody. | |
3,5 | ||
4,0 | ||
4,5 | ||
5,0 |
Literatura podstawowa
- Rutkowski Leszek, Metody i techniki sztucznej inteligencji, Wydawnictwo naukowe PWN, Warszawa, 2005, 1
- Tadeusiewicz Ryszard, Odkrywanie właściwości sieci neuronowych, Polska Akademia Umiejętności, Kraków, 2007, 1
- Andrzej Piegat, Modelowanie i sterowanie rozmyte, Oficyna Akademicka PLJ, Warszawa, 1999, 1
- Timothy Masters, Sieci neuronowe w praktyce, Wydawnictwo Naukowo-Techniczne, Warszawa, 1996, 1
- Stanisław Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT, Warszawa, 1998
Literatura dodatkowa
- R. Rojas, Neural networks, Springer- Verlag, Berlin, Heidelberg, New York, 1996, 1