Wydział Informatyki - Informatyka (S3)
Sylabus przedmiotu Metody ekstrakcji wiedzy z danych - Przedmiot obieralny III:
Informacje podstawowe
Kierunek studiów | Informatyka | ||
---|---|---|---|
Forma studiów | studia stacjonarne | Poziom | trzeciego stopnia |
Stopnień naukowy absolwenta | doktor | ||
Obszary studiów | — | ||
Profil | |||
Moduł | — | ||
Przedmiot | Metody ekstrakcji wiedzy z danych - Przedmiot obieralny III | ||
Specjalność | przedmiot wspólny | ||
Jednostka prowadząca | Katedra Metod Sztucznej Inteligencji i Matematyki Stosowanej | ||
Nauczyciel odpowiedzialny | Przemysław Klęsk <pklesk@wi.zut.edu.pl> | ||
Inni nauczyciele | |||
ECTS (planowane) | 2,0 | ECTS (formy) | 2,0 |
Forma zaliczenia | zaliczenie | Język | polski |
Blok obieralny | 3 | Grupa obieralna | 1 |
Formy dydaktyczne
Wymagania wstępne
KOD | Wymaganie wstępne |
---|---|
W-1 | matematyka |
W-2 | rachunek prawdopodobieństwa i statystyka |
W-3 | metody optymalizacji |
W-4 | podstawy programowania |
Cele przedmiotu
KOD | Cel modułu/przedmiotu |
---|---|
C-1 | Przedstawienie wybranych znanych algorytmów klasyfikacji i indukcji reguł do celów ektrakcji wiedzy. |
C-2 | Nauczenie technik testowania i badania dokładności algorytmów. |
C-3 | Ukształtowanie świadomości możliwych praktycznych zastosowań przedstawionych algorytmów. |
Treści programowe z podziałem na formy zajęć
KOD | Treść programowa | Godziny |
---|---|---|
laboratoria | ||
T-L-1 | Opracowanie w formie zespołowego zadania programu realizującego detektor twarzy w oparciu o cechy Haara lub deskryptor HOG. | 5 |
5 | ||
wykłady | ||
T-W-1 | Ekstrakcja cech poprzez obrazy całkowe w zadaniach szybkiej detekcji. Falki Haara, ortogonalność, przybliżanie w normie kwadratowej w bazach ortogonalnych. Cechy Haara i ich parametryzacja. Deskryptor HOG. | 8 |
T-W-2 | Klasyfikatory zespołowe. Algorytmy AdaBoost i RealBoost i ich własności matematyczne. Niektóre "słabe" klasyfikatory w ramach zespołu: decision stumps, płytkie drzewa, rozkłady normalne. Związki RealBoost z regresją logistyczną. | 5 |
T-W-3 | Kaskady klasyfikatorów. Miary: czułość i FAR w kaskadzie i jej etapach. Krzywa ROC i miara AUC. Algorytm uczenia kaskady. | 2 |
15 |
Obciążenie pracą studenta - formy aktywności
KOD | Forma aktywności | Godziny |
---|---|---|
laboratoria | ||
A-L-1 | Uczestnictwo w zajęciach. | 5 |
A-L-2 | Samodzielna i zespołowa praca nad detektorem twarzy. | 25 |
30 | ||
wykłady | ||
A-W-1 | Udział w wykładach. | 15 |
A-W-2 | Samodzielne prześledzenie wyprowadzeń matematycznych i algorytmicznych z wykładów. | 2 |
A-W-3 | Kolokwium zaliczeniowe. | 2 |
A-W-4 | Przygotowanie się do kolokwium egzaminacyjnego. | 12 |
31 |
Metody nauczania / narzędzia dydaktyczne
KOD | Metoda nauczania / narzędzie dydaktyczne |
---|---|
M-1 | Wykład informacyjny |
M-2 | Wykład problemowy |
M-3 | Metody programowane z użyciem komputera |
Sposoby oceny
KOD | Sposób oceny |
---|---|
S-1 | Ocena formująca: Dwie wejściówki (10 minutowe) na zakończenie każdego bloku tematycznego laboratoriów. |
S-2 | Ocena formująca: Dwie oceny zaliczeniowe z napisanych programów. |
S-3 | Ocena podsumowująca: Ocena końcowa za laboratoria jako średnia z ocen formujących. |
S-4 | Ocena podsumowująca: Ocena końcowa za wykłady z kolokwium egzaminacyjnego. |
Zamierzone efekty kształcenia - wiedza
Zamierzone efekty kształcenia | Odniesienie do efektów kształcenia dla dyscypliny | Odniesienie do efektów zdefiniowanych dla obszaru kształcenia | Cel przedmiotu | Treści programowe | Metody nauczania | Sposób oceny |
---|---|---|---|---|---|---|
I_3A_B/03/02_W01 Ma znajomość ważnych algorytmów i technik stosowanych do ekstrakcji cech/wiedzy z danych oraz detekcji ze szczególnym naciskiem na szybkość obliczeń. | I_3A_W02 | — | C-3, C-1, C-2 | — | M-1, M-2 | S-4 |
Zamierzone efekty kształcenia - umiejętności
Zamierzone efekty kształcenia | Odniesienie do efektów kształcenia dla dyscypliny | Odniesienie do efektów zdefiniowanych dla obszaru kształcenia | Cel przedmiotu | Treści programowe | Metody nauczania | Sposób oceny |
---|---|---|---|---|---|---|
I_3A_B/03/02_U01 Potrafi samodzielnie zaprogramować wybrane algorytmy ekstrakcji cech i uczenia, i zastosować je do praktycznego problemu (na przykładzie detektora twarzy). | I_3A_U01, I_3A_U04 | — | C-3, C-1, C-2 | — | M-3 | S-1, S-2, S-3 |
Kryterium oceny - wiedza
Efekt kształcenia | Ocena | Kryterium oceny |
---|---|---|
I_3A_B/03/02_W01 Ma znajomość ważnych algorytmów i technik stosowanych do ekstrakcji cech/wiedzy z danych oraz detekcji ze szczególnym naciskiem na szybkość obliczeń. | 2,0 | Nie potrafi wyjaśnić podstawowego sensu zadań klasyfikacji i indukcji reguł. |
3,0 | Potrafi wyjaśnić podstawowy sens zadań klasyfikacji i indukcji reguł. | |
3,5 | Potrafi wyjaśnić sposób działania naiwnego klasyfikatora Bayesa. | |
4,0 | Potrafi wyjaśnić sposób działania naiwnego klasyfikatora CART. | |
4,5 | Zna sens i własności technik regularyzacji L1 i L2. | |
5,0 | Zna techniki dla meta-klasyfikatorów: bagging i boosting. |
Kryterium oceny - umiejętności
Efekt kształcenia | Ocena | Kryterium oceny |
---|---|---|
I_3A_B/03/02_U01 Potrafi samodzielnie zaprogramować wybrane algorytmy ekstrakcji cech i uczenia, i zastosować je do praktycznego problemu (na przykładzie detektora twarzy). | 2,0 | Nie potrafi wykonać podstawowej implementacji w dowolnie wybranym języku/środowisku prostego klasyfikatora (naiwny Bayes lub CART) |
3,0 | Potrafi wykonać podstawową implementację w dowolnie wybranym języku/środowisku prostego klasyfikatora (naiwny Bayes lub CART) | |
3,5 | Potrafi przygotować zbiór danych do analizy. | |
4,0 | Potrafi przetestować klasyfikator. | |
4,5 | Potrafi zmierzyć czułość i specyficzność opracowanego klasyfikatora, a także podać przedziały ufności na te parametry. | |
5,0 | Potrafi wykonać zaawansowaną implementację w dowolnie wybranym języku/środowisku klasyfikatora (regularzyacje L1, L2 lub AdaBoost) |
Literatura podstawowa
- J. Koronacki, J. Ćwik, Statystyczne systemy uczące się, WNT, Warszawa, 2005
- P. Cichosz, Systemy uczące się, WNT, Warszawa, 2000
Literatura dodatkowa
- D. Hand, H. Manilla, P. Smyth, Eksploracja danych, WNT, Warszawa, 2005
- V. Cherkassky, F. Mulier, Learning from data, Wiley & Sons, 2007