Zachodniopomorski Uniwersytet Technologiczny w Szczecinie

Wydział Informatyki - Informatyka (S2)

Sylabus przedmiotu Sztuczna inteligencja i uczenie maszynowe w systemach interaktywnych:

Informacje podstawowe

Kierunek studiów Informatyka
Forma studiów studia stacjonarne Poziom drugiego stopnia
Tytuł zawodowy absolwenta magister inżynier
Obszary studiów charakterystyki PRK, kompetencje inżynierskie PRK
Profil ogólnoakademicki
Moduł
Przedmiot Sztuczna inteligencja i uczenie maszynowe w systemach interaktywnych
Specjalność Systemy komputerowe zorientowane na człowieka
Jednostka prowadząca Katedra Inżynierii Systemów Informacyjnych
Nauczyciel odpowiedzialny Jarosław Jankowski <Jaroslaw.Jankowski@zut.edu.pl>
Inni nauczyciele Joanna Kołodziejczyk <Joanna.Kolodziejczyk@zut.edu.pl>, Marcin Pluciński <Marcin.Plucinski@zut.edu.pl>
ECTS (planowane) 4,0 ECTS (formy) 4,0
Forma zaliczenia zaliczenie Język polski
Blok obieralny Grupa obieralna

Formy dydaktyczne

Forma dydaktycznaKODSemestrGodzinyECTSWagaZaliczenie
wykładyW2 30 2,00,50zaliczenie
laboratoriaL2 30 2,00,50zaliczenie

Wymagania wstępne

KODWymaganie wstępne
W-1Podstawowe wiadomości z rachunku prawdopodobieństwa i statystyki
W-2Podstawowe wiadomości z algebry liniowej

Cele przedmiotu

KODCel modułu/przedmiotu
C-1Zapoznanie studentów z podstawowymi technikami z dziedziny uczenia maszynowego.
C-2Prezentacja wybranych algorytmów sztucznej inteligencji wykorzystywanych w systemach interaktywnych.
C-3Nabycie umiejętności praktycznego zastosowania wybranych metod maszynowego uczenia się.

Treści programowe z podziałem na formy zajęć

KODTreść programowaGodziny
laboratoria
T-L-1Indukcja reguł: Przykłady wykorzystania oparte na wybranych aktualnych narzędziach i językach programowania. Wybranie zbiorów uczących.6
T-L-2Systemy regułowe: Opracowanie systemu ekspertowego decyzyjnego w oparciu o logikę boolowską a następnie rozwinięcie przez zastosowanie niepewności. Przykład systemu wybrany przez prowadzącego. Wybór języka implementacji wybrany przez prowadzącego.6
T-L-3Uczenie nadzorowane: Wykorzystanie sieci neuronowych do klasyfikacji i regresji. Przykłady dla sieci płytkich i głębokich. Implementacja w wybranych językach dla wybranych zbiorów uczących.6
T-L-4Uczenie nienadzorowane: Prezentacja i testowanie wybranych algorytmów klasteryzacji dla dostępnych zbiorów uczących. Przykłady powinny uczyć jakie problemy kryją się w danych i pozwalać na identyfikację słabych i mocnych stron badanych algorytmów.6
T-L-5Uczenie ze wzmocnieniem: Ćwiczenia w opisie grafów w formie procesów decyzyjnych Markowa. Ćwiczenia w wartościowaniu strategii dla prostych środowisk opisanych grafami.2
T-L-6Uczenie ze wzmocnieniem: Ćwiczenia w poszukiwaniu strategii dla prostych środowisk z wykorzystaniem programowania dynamicznego.2
T-L-7Uczenie ze wzmocnieniem: Poszukiwanie strategii poprzez uczenie się funkcji wartości – praktyczne wykorzystanie algorytmu TD do wybranych problemów.2
30
wykłady
T-W-1Indukcja reguł: Podstawy reprezentacji regułowej i algorytm AQ,2
T-W-2Indukcja reguł: Algorytmy LEM1 i LEM2, system LARS,2
T-W-3Indukcja reguł: Drzewa decyzyjne – reprezentacja zbioru reguł, ID3 i C4.5, CART, CTree,2
T-W-4Systemy regułowe: Logika boolowska, logika predykatów a systemy decyzyjne,2
T-W-5Systemy regułowe: Rozmyte systemy regułowe2
T-W-6Systemy regułowe: Probabilistyczne systemy regułowe2
T-W-7Uczenie nadzorowane: Sieci neuronowe płytkie (MLP)2
T-W-8Uczenie nadzorowane: Sieci neuronowe głębokie4
T-W-9Uczenie nienadzorowane: Grupowanie, algorytm k-średnich, hierarchiczne, t-SNE,2
T-W-10Probabilistyczne algorytmy grupowania; Deep Belief Networks4
T-W-11Uczenie ze wzmocnieniem: Cel i przebieg uczenia, Procesy decyzyjne Markowa, strategie i funkcje wartości, optymalność strategii.2
T-W-12Programowanie dynamiczne i jego związek z uczeniem ze wzmocnieniem. Równanie Bellmana, wartościowanie strategii i poszukiwanie strategii optymalnej. Uczenie się funkcji wartości – algorytm TD.2
T-W-13Metody uczenia się strategii: algorytm AHC, Q-learning, SARSA, Monte-Carlo. Wybór akcji w uczeniu. Sposoby reprezentacji funkcji wartości. Praktyczne przykłady zastosowań uczenia ze wzomocnieniem.2
30

Obciążenie pracą studenta - formy aktywności

KODForma aktywnościGodziny
laboratoria
A-L-1Uczestnictwo w zajęciach30
A-L-2Samodzielna praca nad programami i zadaniami domowymi.20
50
wykłady
A-W-1Uczestnictwo w zajęciach30
A-W-2Samodzielna praca nad wybranymii problemami i algorytmami.10
A-W-3Przygotowanie się do zaliczenia.10
50

Metody nauczania / narzędzia dydaktyczne

KODMetoda nauczania / narzędzie dydaktyczne
M-1Wykład informacyjny
M-2Ćwiczenia laboratoryjne

Sposoby oceny

KODSposób oceny
S-1Ocena formująca: Ocena prac wykonywanych w trakcie zajęć i zadań domowych.
S-2Ocena formująca: Sprawdziany
S-3Ocena podsumowująca: Pisemne zaliczenie końcowe

Zamierzone efekty uczenia się - wiedza

Zamierzone efekty uczenia sięOdniesienie do efektów kształcenia dla kierunku studiówOdniesienie do efektów zdefiniowanych dla obszaru kształceniaOdniesienie do efektów uczenia się prowadzących do uzyskania tytułu zawodowego inżynieraCel przedmiotuTreści programoweMetody nauczaniaSposób oceny
I_2A_D03.07_W01
Student powinien scharakteryzować wybrane metody maszynowego uczenia i sztucznej inteligencji
I_2A_W08, I_2A_W04C-1, C-2T-W-1, T-W-13, T-W-4, T-W-8, T-W-10, T-W-12, T-W-6, T-W-3, T-W-5, T-W-11, T-W-9, T-W-2, T-W-7M-1S-3

Zamierzone efekty uczenia się - umiejętności

Zamierzone efekty uczenia sięOdniesienie do efektów kształcenia dla kierunku studiówOdniesienie do efektów zdefiniowanych dla obszaru kształceniaOdniesienie do efektów uczenia się prowadzących do uzyskania tytułu zawodowego inżynieraCel przedmiotuTreści programoweMetody nauczaniaSposób oceny
I_2A_D03.07_U01
Student umie implementować wybrane algorytmy z zakresu uczenia maszynowego zarówno samodzielnie jak i z użyciem gotowych bibliotek
I_2A_U06, I_2A_U04, I_2A_U08, I_2A_U02C-3, C-2T-L-5, T-L-4, T-L-7, T-L-1, T-L-3, T-L-6, T-L-2M-2S-1, S-2

Zamierzone efekty uczenia się - inne kompetencje społeczne i personalne

Zamierzone efekty uczenia sięOdniesienie do efektów kształcenia dla kierunku studiówOdniesienie do efektów zdefiniowanych dla obszaru kształceniaOdniesienie do efektów uczenia się prowadzących do uzyskania tytułu zawodowego inżynieraCel przedmiotuTreści programoweMetody nauczaniaSposób oceny
I_2A_D03.07_K01
W wyniku przeprowadzonych zajęć student ukształtuje aktywną postawę poznawczą i chęć rozwoju zawodowego
I_2A_K03, I_2A_K01C-3, C-2, C-1T-W-2, T-W-9, T-L-4, T-W-7, T-W-8, T-W-13, T-W-5, T-W-11, T-L-7, T-L-3, T-W-10, T-W-6, T-W-4, T-W-12, T-L-2, T-L-5, T-W-1, T-L-1, T-L-6, T-W-3M-2, M-1S-3, S-1, S-2

Kryterium oceny - wiedza

Efekt uczenia sięOcenaKryterium oceny
I_2A_D03.07_W01
Student powinien scharakteryzować wybrane metody maszynowego uczenia i sztucznej inteligencji
2,0
3,0Potrafi opisać działanie wybranych metod maszynowego ucznia w stopniu podstawowym.
3,5
4,0
4,5
5,0

Kryterium oceny - umiejętności

Efekt uczenia sięOcenaKryterium oceny
I_2A_D03.07_U01
Student umie implementować wybrane algorytmy z zakresu uczenia maszynowego zarówno samodzielnie jak i z użyciem gotowych bibliotek
2,0
3,0Umie implementować wybrane algorytmy w stopniu dostatecznym.
3,5
4,0
4,5
5,0

Kryterium oceny - inne kompetencje społeczne i personalne

Efekt uczenia sięOcenaKryterium oceny
I_2A_D03.07_K01
W wyniku przeprowadzonych zajęć student ukształtuje aktywną postawę poznawczą i chęć rozwoju zawodowego
2,0
3,0Student aktywnie rozwiązuje postawione problemy wykazując samodzielność w doborze odpowiednich środków technicznych i metod inżynierskich
3,5
4,0
4,5
5,0

Literatura podstawowa

  1. Douglas McIlwraith, Haralambos Marmanis, Dmitry Babenko, Inteligentna sieć. Algorytmy przyszłości., Helion, Warszawa, 2017, II
  2. P. Cichosz, Systemy uczące się., WNT, Warszawa, 2000
  3. R.S. Sutton, A.G. Barto, Reinforcement learning: an introduction, MIT Press, 1998
  4. Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT press, 2016

Literatura dodatkowa

  1. 5. Dokumentacja online do wybranych bibliotek, narzędzi i języków wykorzystanych do implementacji ćwiczeń i zadań programistycznych

Treści programowe - laboratoria

KODTreść programowaGodziny
T-L-1Indukcja reguł: Przykłady wykorzystania oparte na wybranych aktualnych narzędziach i językach programowania. Wybranie zbiorów uczących.6
T-L-2Systemy regułowe: Opracowanie systemu ekspertowego decyzyjnego w oparciu o logikę boolowską a następnie rozwinięcie przez zastosowanie niepewności. Przykład systemu wybrany przez prowadzącego. Wybór języka implementacji wybrany przez prowadzącego.6
T-L-3Uczenie nadzorowane: Wykorzystanie sieci neuronowych do klasyfikacji i regresji. Przykłady dla sieci płytkich i głębokich. Implementacja w wybranych językach dla wybranych zbiorów uczących.6
T-L-4Uczenie nienadzorowane: Prezentacja i testowanie wybranych algorytmów klasteryzacji dla dostępnych zbiorów uczących. Przykłady powinny uczyć jakie problemy kryją się w danych i pozwalać na identyfikację słabych i mocnych stron badanych algorytmów.6
T-L-5Uczenie ze wzmocnieniem: Ćwiczenia w opisie grafów w formie procesów decyzyjnych Markowa. Ćwiczenia w wartościowaniu strategii dla prostych środowisk opisanych grafami.2
T-L-6Uczenie ze wzmocnieniem: Ćwiczenia w poszukiwaniu strategii dla prostych środowisk z wykorzystaniem programowania dynamicznego.2
T-L-7Uczenie ze wzmocnieniem: Poszukiwanie strategii poprzez uczenie się funkcji wartości – praktyczne wykorzystanie algorytmu TD do wybranych problemów.2
30

Treści programowe - wykłady

KODTreść programowaGodziny
T-W-1Indukcja reguł: Podstawy reprezentacji regułowej i algorytm AQ,2
T-W-2Indukcja reguł: Algorytmy LEM1 i LEM2, system LARS,2
T-W-3Indukcja reguł: Drzewa decyzyjne – reprezentacja zbioru reguł, ID3 i C4.5, CART, CTree,2
T-W-4Systemy regułowe: Logika boolowska, logika predykatów a systemy decyzyjne,2
T-W-5Systemy regułowe: Rozmyte systemy regułowe2
T-W-6Systemy regułowe: Probabilistyczne systemy regułowe2
T-W-7Uczenie nadzorowane: Sieci neuronowe płytkie (MLP)2
T-W-8Uczenie nadzorowane: Sieci neuronowe głębokie4
T-W-9Uczenie nienadzorowane: Grupowanie, algorytm k-średnich, hierarchiczne, t-SNE,2
T-W-10Probabilistyczne algorytmy grupowania; Deep Belief Networks4
T-W-11Uczenie ze wzmocnieniem: Cel i przebieg uczenia, Procesy decyzyjne Markowa, strategie i funkcje wartości, optymalność strategii.2
T-W-12Programowanie dynamiczne i jego związek z uczeniem ze wzmocnieniem. Równanie Bellmana, wartościowanie strategii i poszukiwanie strategii optymalnej. Uczenie się funkcji wartości – algorytm TD.2
T-W-13Metody uczenia się strategii: algorytm AHC, Q-learning, SARSA, Monte-Carlo. Wybór akcji w uczeniu. Sposoby reprezentacji funkcji wartości. Praktyczne przykłady zastosowań uczenia ze wzomocnieniem.2
30

Formy aktywności - laboratoria

KODForma aktywnościGodziny
A-L-1Uczestnictwo w zajęciach30
A-L-2Samodzielna praca nad programami i zadaniami domowymi.20
50
(*) 1 punkt ECTS, odpowiada około 30 godzinom aktywności studenta

Formy aktywności - wykłady

KODForma aktywnościGodziny
A-W-1Uczestnictwo w zajęciach30
A-W-2Samodzielna praca nad wybranymii problemami i algorytmami.10
A-W-3Przygotowanie się do zaliczenia.10
50
(*) 1 punkt ECTS, odpowiada około 30 godzinom aktywności studenta
PoleKODZnaczenie kodu
Zamierzone efekty uczenia sięI_2A_D03.07_W01Student powinien scharakteryzować wybrane metody maszynowego uczenia i sztucznej inteligencji
Odniesienie do efektów kształcenia dla kierunku studiówI_2A_W08Posiada wiedzę na temat zagadnień sztucznej inteligencji i ich wykorzystania w systemach informatycznych
I_2A_W04Ma rozszerzoną wiedzę o problemach, zadaniach i algorytmach analizy, przetwarzania oraz eksploracji danych
Cel przedmiotuC-1Zapoznanie studentów z podstawowymi technikami z dziedziny uczenia maszynowego.
C-2Prezentacja wybranych algorytmów sztucznej inteligencji wykorzystywanych w systemach interaktywnych.
Treści programoweT-W-1Indukcja reguł: Podstawy reprezentacji regułowej i algorytm AQ,
T-W-13Metody uczenia się strategii: algorytm AHC, Q-learning, SARSA, Monte-Carlo. Wybór akcji w uczeniu. Sposoby reprezentacji funkcji wartości. Praktyczne przykłady zastosowań uczenia ze wzomocnieniem.
T-W-4Systemy regułowe: Logika boolowska, logika predykatów a systemy decyzyjne,
T-W-8Uczenie nadzorowane: Sieci neuronowe głębokie
T-W-10Probabilistyczne algorytmy grupowania; Deep Belief Networks
T-W-12Programowanie dynamiczne i jego związek z uczeniem ze wzmocnieniem. Równanie Bellmana, wartościowanie strategii i poszukiwanie strategii optymalnej. Uczenie się funkcji wartości – algorytm TD.
T-W-6Systemy regułowe: Probabilistyczne systemy regułowe
T-W-3Indukcja reguł: Drzewa decyzyjne – reprezentacja zbioru reguł, ID3 i C4.5, CART, CTree,
T-W-5Systemy regułowe: Rozmyte systemy regułowe
T-W-11Uczenie ze wzmocnieniem: Cel i przebieg uczenia, Procesy decyzyjne Markowa, strategie i funkcje wartości, optymalność strategii.
T-W-9Uczenie nienadzorowane: Grupowanie, algorytm k-średnich, hierarchiczne, t-SNE,
T-W-2Indukcja reguł: Algorytmy LEM1 i LEM2, system LARS,
T-W-7Uczenie nadzorowane: Sieci neuronowe płytkie (MLP)
Metody nauczaniaM-1Wykład informacyjny
Sposób ocenyS-3Ocena podsumowująca: Pisemne zaliczenie końcowe
Kryteria ocenyOcenaKryterium oceny
2,0
3,0Potrafi opisać działanie wybranych metod maszynowego ucznia w stopniu podstawowym.
3,5
4,0
4,5
5,0
PoleKODZnaczenie kodu
Zamierzone efekty uczenia sięI_2A_D03.07_U01Student umie implementować wybrane algorytmy z zakresu uczenia maszynowego zarówno samodzielnie jak i z użyciem gotowych bibliotek
Odniesienie do efektów kształcenia dla kierunku studiówI_2A_U06Potrafi stosować metody analityczne i eksperymentalne do rozwiązywania złożonych problemów w tym obliczeniowych
I_2A_U04Potrafi wykorzystywać poznane metody, techniki i modele do rozwiązywania złożonych problemów
I_2A_U08Potrafi wykorzystywać narzędzia sprzętowo-programowe wspomagające rozwiązywanie wybranych problemów w różnych obszarach nauki i techniki
I_2A_U02Ma umiejętność wykrywania związków i zależności zachodzących w systemach rzeczywistych i potrafi prawidłowo zaplanować i przeprowadzić proces modelowania
Cel przedmiotuC-3Nabycie umiejętności praktycznego zastosowania wybranych metod maszynowego uczenia się.
C-2Prezentacja wybranych algorytmów sztucznej inteligencji wykorzystywanych w systemach interaktywnych.
Treści programoweT-L-5Uczenie ze wzmocnieniem: Ćwiczenia w opisie grafów w formie procesów decyzyjnych Markowa. Ćwiczenia w wartościowaniu strategii dla prostych środowisk opisanych grafami.
T-L-4Uczenie nienadzorowane: Prezentacja i testowanie wybranych algorytmów klasteryzacji dla dostępnych zbiorów uczących. Przykłady powinny uczyć jakie problemy kryją się w danych i pozwalać na identyfikację słabych i mocnych stron badanych algorytmów.
T-L-7Uczenie ze wzmocnieniem: Poszukiwanie strategii poprzez uczenie się funkcji wartości – praktyczne wykorzystanie algorytmu TD do wybranych problemów.
T-L-1Indukcja reguł: Przykłady wykorzystania oparte na wybranych aktualnych narzędziach i językach programowania. Wybranie zbiorów uczących.
T-L-3Uczenie nadzorowane: Wykorzystanie sieci neuronowych do klasyfikacji i regresji. Przykłady dla sieci płytkich i głębokich. Implementacja w wybranych językach dla wybranych zbiorów uczących.
T-L-6Uczenie ze wzmocnieniem: Ćwiczenia w poszukiwaniu strategii dla prostych środowisk z wykorzystaniem programowania dynamicznego.
T-L-2Systemy regułowe: Opracowanie systemu ekspertowego decyzyjnego w oparciu o logikę boolowską a następnie rozwinięcie przez zastosowanie niepewności. Przykład systemu wybrany przez prowadzącego. Wybór języka implementacji wybrany przez prowadzącego.
Metody nauczaniaM-2Ćwiczenia laboratoryjne
Sposób ocenyS-1Ocena formująca: Ocena prac wykonywanych w trakcie zajęć i zadań domowych.
S-2Ocena formująca: Sprawdziany
Kryteria ocenyOcenaKryterium oceny
2,0
3,0Umie implementować wybrane algorytmy w stopniu dostatecznym.
3,5
4,0
4,5
5,0
PoleKODZnaczenie kodu
Zamierzone efekty uczenia sięI_2A_D03.07_K01W wyniku przeprowadzonych zajęć student ukształtuje aktywną postawę poznawczą i chęć rozwoju zawodowego
Odniesienie do efektów kształcenia dla kierunku studiówI_2A_K03Jest gotów do aktywnego przekazywania społeczeństwu informacji na temat bieżącego stanu wiedzy w zakresie informatyki oraz podejmowania działań na rzecz rozwoju środowiska społecznego
I_2A_K01Jest gotów do krytycznej oceny odbieranych treści i wiedzy własnej
Cel przedmiotuC-3Nabycie umiejętności praktycznego zastosowania wybranych metod maszynowego uczenia się.
C-2Prezentacja wybranych algorytmów sztucznej inteligencji wykorzystywanych w systemach interaktywnych.
C-1Zapoznanie studentów z podstawowymi technikami z dziedziny uczenia maszynowego.
Treści programoweT-W-2Indukcja reguł: Algorytmy LEM1 i LEM2, system LARS,
T-W-9Uczenie nienadzorowane: Grupowanie, algorytm k-średnich, hierarchiczne, t-SNE,
T-L-4Uczenie nienadzorowane: Prezentacja i testowanie wybranych algorytmów klasteryzacji dla dostępnych zbiorów uczących. Przykłady powinny uczyć jakie problemy kryją się w danych i pozwalać na identyfikację słabych i mocnych stron badanych algorytmów.
T-W-7Uczenie nadzorowane: Sieci neuronowe płytkie (MLP)
T-W-8Uczenie nadzorowane: Sieci neuronowe głębokie
T-W-13Metody uczenia się strategii: algorytm AHC, Q-learning, SARSA, Monte-Carlo. Wybór akcji w uczeniu. Sposoby reprezentacji funkcji wartości. Praktyczne przykłady zastosowań uczenia ze wzomocnieniem.
T-W-5Systemy regułowe: Rozmyte systemy regułowe
T-W-11Uczenie ze wzmocnieniem: Cel i przebieg uczenia, Procesy decyzyjne Markowa, strategie i funkcje wartości, optymalność strategii.
T-L-7Uczenie ze wzmocnieniem: Poszukiwanie strategii poprzez uczenie się funkcji wartości – praktyczne wykorzystanie algorytmu TD do wybranych problemów.
T-L-3Uczenie nadzorowane: Wykorzystanie sieci neuronowych do klasyfikacji i regresji. Przykłady dla sieci płytkich i głębokich. Implementacja w wybranych językach dla wybranych zbiorów uczących.
T-W-10Probabilistyczne algorytmy grupowania; Deep Belief Networks
T-W-6Systemy regułowe: Probabilistyczne systemy regułowe
T-W-4Systemy regułowe: Logika boolowska, logika predykatów a systemy decyzyjne,
T-W-12Programowanie dynamiczne i jego związek z uczeniem ze wzmocnieniem. Równanie Bellmana, wartościowanie strategii i poszukiwanie strategii optymalnej. Uczenie się funkcji wartości – algorytm TD.
T-L-2Systemy regułowe: Opracowanie systemu ekspertowego decyzyjnego w oparciu o logikę boolowską a następnie rozwinięcie przez zastosowanie niepewności. Przykład systemu wybrany przez prowadzącego. Wybór języka implementacji wybrany przez prowadzącego.
T-L-5Uczenie ze wzmocnieniem: Ćwiczenia w opisie grafów w formie procesów decyzyjnych Markowa. Ćwiczenia w wartościowaniu strategii dla prostych środowisk opisanych grafami.
T-W-1Indukcja reguł: Podstawy reprezentacji regułowej i algorytm AQ,
T-L-1Indukcja reguł: Przykłady wykorzystania oparte na wybranych aktualnych narzędziach i językach programowania. Wybranie zbiorów uczących.
T-L-6Uczenie ze wzmocnieniem: Ćwiczenia w poszukiwaniu strategii dla prostych środowisk z wykorzystaniem programowania dynamicznego.
T-W-3Indukcja reguł: Drzewa decyzyjne – reprezentacja zbioru reguł, ID3 i C4.5, CART, CTree,
Metody nauczaniaM-2Ćwiczenia laboratoryjne
M-1Wykład informacyjny
Sposób ocenyS-3Ocena podsumowująca: Pisemne zaliczenie końcowe
S-1Ocena formująca: Ocena prac wykonywanych w trakcie zajęć i zadań domowych.
S-2Ocena formująca: Sprawdziany
Kryteria ocenyOcenaKryterium oceny
2,0
3,0Student aktywnie rozwiązuje postawione problemy wykazując samodzielność w doborze odpowiednich środków technicznych i metod inżynierskich
3,5
4,0
4,5
5,0