Zachodniopomorski Uniwersytet Technologiczny w Szczecinie

Szkoła Doktorska - Szkoła Doktorska
specjalność: technologia żywności i żywienia

Sylabus przedmiotu Uczenie maszynowe, ekstrakcja cech i zastosowania:

Informacje podstawowe

Kierunek studiów Szkoła Doktorska
Forma studiów studia stacjonarne Poziom
Stopnień naukowy absolwenta doktor
Obszary studiów charakterystyki PRK
Profil
Moduł
Przedmiot Uczenie maszynowe, ekstrakcja cech i zastosowania
Specjalność informatyka techniczna i telekomunikacja
Jednostka prowadząca Katedra Metod Sztucznej Inteligencji i Matematyki Stosowanej
Nauczyciel odpowiedzialny Przemysław Klęsk <pklesk@wi.zut.edu.pl>
Inni nauczyciele
ECTS (planowane) 3,0 ECTS (formy) 3,0
Forma zaliczenia zaliczenie Język polski
Blok obieralny Grupa obieralna

Formy dydaktyczne

Forma dydaktycznaKODSemestrGodzinyECTSWagaZaliczenie
wykładyW5 15 2,00,50zaliczenie
projektyP5 10 1,00,50zaliczenie

Wymagania wstępne

KODWymaganie wstępne
W-1Matematyka
W-2Wprowadzenie do informatyki

Cele przedmiotu

KODCel modułu/przedmiotu
C-1Przedstawienie szybkich technik ekstrakcji cech i algorytmów uczenia maszynowego w zadaniach detekcji.

Treści programowe z podziałem na formy zajęć

KODTreść programowaGodziny
projekty
T-P-1Implementacja w wybranym języku programowania prostego detektora (np. twarzy) na bazie cech Haara lub deskryptora HOG oraz wybranego algorytmu boostingu.10
10
wykłady
T-W-1Ekstrakcja cech poprzez obrazy całkowe w zadaniach szybkiej detekcji. Falki Haara, ortogonalność, przybliżanie w normie kwadratowej w bazach ortogonalnych. Cechy Haara i ich parametryzacja. Deskryptor HOG.8
T-W-2Klasyfikatory zespołowe. Algorytmy AdaBoost i RealBoost i ich własności matematyczne. Niektóre "słabe" klasyfikatory w ramach zespołu: decision stumps, płytkie drzewa, rozkłady normalne. Związki RealBoost z regresją logistyczną.5
T-W-3Kaskady klasyfikatorów. Miary: czułość i FAR w kaskadzie i jej etapach. Krzywa ROC i miara AUC. Algorytm uczenia kaskady.2
15

Obciążenie pracą studenta - formy aktywności

KODForma aktywnościGodziny
projekty
A-P-1Praca własna nad implementacją detektora.30
30
wykłady
A-W-1Udział w wykładach.15
A-W-2Konsultacje5
A-W-3Samodzielne prześledzenie wyprowadzeń matematycznych i algorytmicznych z wykładów.16
A-W-4Kolokwium zaliczeniowe.2
A-W-5Przygotowanie się do kolokwium egzaminacyjnego.22
60

Metody nauczania / narzędzia dydaktyczne

KODMetoda nauczania / narzędzie dydaktyczne
M-1Wykład informacyjny
M-2Wykład problemowy
M-3Metody programowane z użyciem komputera

Sposoby oceny

KODSposób oceny
S-1Ocena formująca: Dwie wejściówki (10 minutowe) na zakończenie każdego bloku tematycznego laboratoriów.
S-2Ocena formująca: Dwie oceny zaliczeniowe z napisanych programów.
S-3Ocena podsumowująca: Ocena końcowa za laboratoria jako średnia z ocen formujących.
S-4Ocena podsumowująca: Ocena końcowa za wykłady z kolokwium egzaminacyjnego.

Zamierzone efekty uczenia się - wiedza

Zamierzone efekty uczenia sięOdniesienie do efektów kształcenia dla dyscyplinyOdniesienie do efektów zdefiniowanych dla obszaru kształceniaCel przedmiotuTreści programoweMetody nauczaniaSposób oceny
SD_3-_SzDE04ITT_W01
Ma znajomość ważnych algorytmów i technik stosowanych do ekstrakcji cech/wiedzy z danych oraz detekcji ze szczególnym naciskiem na szybkość obliczeń.
SD_3_W01C-1T-W-2, T-W-1, T-W-3M-1, M-2S-4

Zamierzone efekty uczenia się - umiejętności

Zamierzone efekty uczenia sięOdniesienie do efektów kształcenia dla dyscyplinyOdniesienie do efektów zdefiniowanych dla obszaru kształceniaCel przedmiotuTreści programoweMetody nauczaniaSposób oceny
SD_3-_SzDE04ITT_U01
Potrafi samodzielnie zaprogramować wybrane algorytmy ekstrakcji cech i uczenia, i zastosować je do praktycznego problemu (na przykładzie detektora twarzy).
SD_3_U01C-1T-P-1M-3S-1, S-2, S-3

Kryterium oceny - wiedza

Efekt uczenia sięOcenaKryterium oceny
SD_3-_SzDE04ITT_W01
Ma znajomość ważnych algorytmów i technik stosowanych do ekstrakcji cech/wiedzy z danych oraz detekcji ze szczególnym naciskiem na szybkość obliczeń.
2,0Nie potrafi wyjaśnić podstawowego sensu zadań klasyfikacji i indukcji reguł.
3,0Potrafi wyjaśnić podstawowy sens zadań klasyfikacji i indukcji reguł.
3,5Potrafi wyjaśnić sposób działania naiwnego klasyfikatora Bayesa.
4,0Potrafi wyjaśnić sposób działania naiwnego klasyfikatora CART.
4,5Zna sens i własności technik regularyzacji L1 i L2.
5,0Zna techniki dla meta-klasyfikatorów: bagging i boosting.

Kryterium oceny - umiejętności

Efekt uczenia sięOcenaKryterium oceny
SD_3-_SzDE04ITT_U01
Potrafi samodzielnie zaprogramować wybrane algorytmy ekstrakcji cech i uczenia, i zastosować je do praktycznego problemu (na przykładzie detektora twarzy).
2,0Nie potrafi wykonać podstawowej implementacji w dowolnie wybranym języku/środowisku prostego klasyfikatora (naiwny Bayes lub CART)
3,0Potrafi wykonać podstawową implementację w dowolnie wybranym języku/środowisku prostego klasyfikatora (naiwny Bayes lub CART)
3,5Potrafi przygotować zbiór danych do analizy.
4,0Potrafi przetestować klasyfikator.
4,5Potrafi zmierzyć czułość i specyficzność opracowanego klasyfikatora, a także podać przedziały ufności na te parametry.
5,0Potrafi wykonać zaawansowaną implementację w dowolnie wybranym języku/środowisku klasyfikatora (regularzyacje L1, L2 lub AdaBoost)

Literatura podstawowa

  1. J. Koronacki, J. Ćwik, Statystyczne systemy uczące się, WNT, Warszawa, 2005
  2. P. Cichosz, Systemy uczące się, WNT, Warszawa, 2000

Literatura dodatkowa

  1. D. Hand, H. Manilla, P. Smyth, Eksploracja danych, WNT, Warszawa, 2005
  2. V. Cherkassky, F. Mulier, Learning from data, Wiley & Sons, 2007

Treści programowe - projekty

KODTreść programowaGodziny
T-P-1Implementacja w wybranym języku programowania prostego detektora (np. twarzy) na bazie cech Haara lub deskryptora HOG oraz wybranego algorytmu boostingu.10
10

Treści programowe - wykłady

KODTreść programowaGodziny
T-W-1Ekstrakcja cech poprzez obrazy całkowe w zadaniach szybkiej detekcji. Falki Haara, ortogonalność, przybliżanie w normie kwadratowej w bazach ortogonalnych. Cechy Haara i ich parametryzacja. Deskryptor HOG.8
T-W-2Klasyfikatory zespołowe. Algorytmy AdaBoost i RealBoost i ich własności matematyczne. Niektóre "słabe" klasyfikatory w ramach zespołu: decision stumps, płytkie drzewa, rozkłady normalne. Związki RealBoost z regresją logistyczną.5
T-W-3Kaskady klasyfikatorów. Miary: czułość i FAR w kaskadzie i jej etapach. Krzywa ROC i miara AUC. Algorytm uczenia kaskady.2
15

Formy aktywności - projekty

KODForma aktywnościGodziny
A-P-1Praca własna nad implementacją detektora.30
30
(*) 1 punkt ECTS, odpowiada około 30 godzinom aktywności studenta

Formy aktywności - wykłady

KODForma aktywnościGodziny
A-W-1Udział w wykładach.15
A-W-2Konsultacje5
A-W-3Samodzielne prześledzenie wyprowadzeń matematycznych i algorytmicznych z wykładów.16
A-W-4Kolokwium zaliczeniowe.2
A-W-5Przygotowanie się do kolokwium egzaminacyjnego.22
60
(*) 1 punkt ECTS, odpowiada około 30 godzinom aktywności studenta
PoleKODZnaczenie kodu
Zamierzone efekty uczenia sięSD_3-_SzDE04ITT_W01Ma znajomość ważnych algorytmów i technik stosowanych do ekstrakcji cech/wiedzy z danych oraz detekcji ze szczególnym naciskiem na szybkość obliczeń.
Odniesienie do efektów kształcenia dla dyscyplinySD_3_W01Posiada poszerzoną, podbudowaną teoretycznie wiedzę ogólną, związaną z reprezentowaną dziedziną i dyscypliną naukową oraz wiedzę szczegółową na bardziej zaawansowanym poziomie w zakresie prowadzonych badań naukowych.
Cel przedmiotuC-1Przedstawienie szybkich technik ekstrakcji cech i algorytmów uczenia maszynowego w zadaniach detekcji.
Treści programoweT-W-2Klasyfikatory zespołowe. Algorytmy AdaBoost i RealBoost i ich własności matematyczne. Niektóre "słabe" klasyfikatory w ramach zespołu: decision stumps, płytkie drzewa, rozkłady normalne. Związki RealBoost z regresją logistyczną.
T-W-1Ekstrakcja cech poprzez obrazy całkowe w zadaniach szybkiej detekcji. Falki Haara, ortogonalność, przybliżanie w normie kwadratowej w bazach ortogonalnych. Cechy Haara i ich parametryzacja. Deskryptor HOG.
T-W-3Kaskady klasyfikatorów. Miary: czułość i FAR w kaskadzie i jej etapach. Krzywa ROC i miara AUC. Algorytm uczenia kaskady.
Metody nauczaniaM-1Wykład informacyjny
M-2Wykład problemowy
Sposób ocenyS-4Ocena podsumowująca: Ocena końcowa za wykłady z kolokwium egzaminacyjnego.
Kryteria ocenyOcenaKryterium oceny
2,0Nie potrafi wyjaśnić podstawowego sensu zadań klasyfikacji i indukcji reguł.
3,0Potrafi wyjaśnić podstawowy sens zadań klasyfikacji i indukcji reguł.
3,5Potrafi wyjaśnić sposób działania naiwnego klasyfikatora Bayesa.
4,0Potrafi wyjaśnić sposób działania naiwnego klasyfikatora CART.
4,5Zna sens i własności technik regularyzacji L1 i L2.
5,0Zna techniki dla meta-klasyfikatorów: bagging i boosting.
PoleKODZnaczenie kodu
Zamierzone efekty uczenia sięSD_3-_SzDE04ITT_U01Potrafi samodzielnie zaprogramować wybrane algorytmy ekstrakcji cech i uczenia, i zastosować je do praktycznego problemu (na przykładzie detektora twarzy).
Odniesienie do efektów kształcenia dla dyscyplinySD_3_U01Potrafi określać problemy naukowe w zakresie reprezentowanej dziedziny i dyscypliny poprzez: definiowanie celu i przedmiotu badań, formułowanie hipotez badawczych, sądów analitycznych, syntetycznych i oceniających na temat proponowanych rozwiązań w odniesieniu do istniejącego stanu wiedzy, proponowanie metod, technik i narzędzi badawczych, służących do rozwiązania problemu badawczego.
Cel przedmiotuC-1Przedstawienie szybkich technik ekstrakcji cech i algorytmów uczenia maszynowego w zadaniach detekcji.
Treści programoweT-P-1Implementacja w wybranym języku programowania prostego detektora (np. twarzy) na bazie cech Haara lub deskryptora HOG oraz wybranego algorytmu boostingu.
Metody nauczaniaM-3Metody programowane z użyciem komputera
Sposób ocenyS-1Ocena formująca: Dwie wejściówki (10 minutowe) na zakończenie każdego bloku tematycznego laboratoriów.
S-2Ocena formująca: Dwie oceny zaliczeniowe z napisanych programów.
S-3Ocena podsumowująca: Ocena końcowa za laboratoria jako średnia z ocen formujących.
Kryteria ocenyOcenaKryterium oceny
2,0Nie potrafi wykonać podstawowej implementacji w dowolnie wybranym języku/środowisku prostego klasyfikatora (naiwny Bayes lub CART)
3,0Potrafi wykonać podstawową implementację w dowolnie wybranym języku/środowisku prostego klasyfikatora (naiwny Bayes lub CART)
3,5Potrafi przygotować zbiór danych do analizy.
4,0Potrafi przetestować klasyfikator.
4,5Potrafi zmierzyć czułość i specyficzność opracowanego klasyfikatora, a także podać przedziały ufności na te parametry.
5,0Potrafi wykonać zaawansowaną implementację w dowolnie wybranym języku/środowisku klasyfikatora (regularzyacje L1, L2 lub AdaBoost)