Pole | KOD | Znaczenie kodu |
---|
Zamierzone efekty uczenia się | I_2A_D01.03_W01 | Student zna podstawy teoretyczne uczenia maszynowego oraz zaawansowane algorytmy z tego zakresu. |
---|
Odniesienie do efektów kształcenia dla kierunku studiów | I_2A_W04 | Ma rozszerzoną wiedzę o problemach, zadaniach i algorytmach analizy, przetwarzania oraz eksploracji danych |
---|
I_2A_W06 | Posiada wiedzę o narzędziach sprzętowo-programowych wspomagających rozwiązywanie wybranych i złożonych problemów w różnych obszarach nauki i techniki |
I_2A_W08 | Posiada wiedzę na temat zagadnień sztucznej inteligencji i ich wykorzystania w systemach informatycznych |
Cel przedmiotu | C-1 | Poznanie zaawansowanych algorytmów z zakresu uczenia maszynowego. |
---|
C-2 | Poznanie podstaw teoretycznych uczenia maszynowego (SLT). |
Treści programowe | T-W-1 | Meta-klasyfikatory i zespoły klasyfikatorów (ogólnie): bagging, boosting, stacking, głosujący perceptron, Random Forest. Algorytm AdaBoost, różne słabe klasyfikatory, własności.
Algorytm RealBoost, różne słabe klasyfikatory, własności, błąd wykładniczy, przekształcenie logit i związki z regresją logistyczną, weight trimming. |
---|
T-W-2 | Zadania rozpoznawania i detekcji na obrazach. Generowanie i ekstrakcja cech (cechy Haara, deskryptor HOG, deskryptor LBP, obrazy całkowe), kaskady klasyfikatorów. |
T-W-3 | SLT - Statystyczna Teoria Uczenia - wprwadzenie: zbiory funkcji (hipotez), funkcja straty, błąd na próbie, błąd prawdziwy (klasyfikacja i regresja), zasada i.i.d.
SLT dla skończonych zbiorów funkcji: nierówność Chernoffa, jednostajna zbieżność błędów na próbie do prawdziwych, ograniczenia na błąd prawdziwy dla skończonego zbioru funkcji zerojedynkowych, złożoność próbkowa.
SLT dla nieskończonych zbiory funkcji zerojedynkowych: rozstrzaskiwanie (shattering), wymiar Vapnika-Chervonenkisa (VC-dim), entropia VC, funkcja wzrostu, lemat Saurea, ograniczenia na błąd prawdziwy dla zbiorów funkcji o skończonym VC-dim.
SLT dla nieskończonych zbiory funkcji rzeczywistoliczbowych: klasyfikacja z marginesem, margines a najmniejsze kwadraty, pokrycia i liczby pokryciowe (metryki d1, d2, d∞ ), zwartość, pseudowymiar, tłusty wymiar, wahanie funkcji, upakowania a pokrycia, regularyzacja a liczby pokryciowe (twierdzenie Zhanga i lemat Maureya), złożoność Rademachera, ograniczenia na błąd prawdziwy. |
T-W-4 | Uczenie ze wzmocnieniem (RL): cel i przebieg uczenia, rola środowiska i wzmocnienia, zadania epizodyczne i tryby uczenia. Procesy decyzyjne Markowa, strategie i funkcje wartości, optymalność strategii, Programowanie dynamiczne i jego związek z uczeniem ze wzmocnieniem. Równanie Bellmana, wartościowanie strategii i poszukiwanie strategii optymalnej. Uczenie się funkcji wartości – algorytm TD.
Metody uczenia się strategii - algorytm AHC, Q-learning, SARSA, Monte-Carlo.
Wybór akcji w uczeniu. Sposoby reprezentacji funkcji wartości. Przyspieszanie uczenia – ślad aktywności. Praktyczne przykłady zastosowań uczenia ze wzmocnieniem. |
T-W-5 | Głębokie uczenie (Deep Learning): głębokie sieci skierowane (feed-forward): uczenie, ocena funkcji kosztu, sieci konwolucyjne (CNN): rodzaje warstw, sieci rekurencyjne (RNN), model long short-term memory (LSTM), autoenkodery, algorytm wstecznej propagacji błędu, regularyzacja i augumentacja danych w sieciach głębokich, metody inicjalizacji sieci, algorytmy optymalizacji procesu uczenia. |
T-L-1 | Implementacja ekstraktora cech Haara oraz przygotowanie zbiorów danych do dalszych zadań laboratoryjnych. |
T-L-2 | Implementacja algorytmów: głosujący perceptron i/lub Random Forest. |
T-L-3 | Implementacja algorytmów AdaBoost oraz RealBoost + decision stumps/bins/drzewa (jako słabe klasyfikatory). |
T-L-4 | Uczenie ze wzmocnieniem: opis grafów w formie procesów decyzyjnych Markowa, wartościowanie strategii dla prostych środowisk opisanych grafami i poszukiwaniu strategii wykorzystaniem programowania dynamicznego.
Implementacja i wykorzystanie algorytmów TD i Q-learning. |
T-L-5 | Implementacje wybranych algorytmów z zakresu głębokiego uczenia: sieć konwolucyjna (CNN), sieć rekurencyjna (RNN), sieć LSTM, autoenkoder. Metoda wstecznej propagacji błędu w sieciach głębokich i optymalizacja procesu uczenia. |
Metody nauczania | M-1 | Wykłady tablicowe i prezentacje. |
---|
Sposób oceny | S-1 | Ocena podsumowująca: Zajęcia laboratoryjne: ocena ważona z zadań programistycznych i krótkich sprawdzianów. |
---|
S-2 | Ocena podsumowująca: Wykłady: pisemny egzamin końcowy. |
Kryteria oceny | Ocena | Kryterium oceny |
---|
2,0 | |
3,0 | Student opanował w stopniu podstawowym podstawy teoretyczne i algorytmy uczenia maszynowego. |
3,5 | |
4,0 | |
4,5 | |
5,0 | |