
Basic information
- Field of study
- Computer Science
- Major
- -
- Organisational unit
- Faculty of Computer Science
- Study level
- First-cycle (engineer) programme
- Form of study
- Full-time studies
- Profile
- General academic
- Didactic cycle
- 2022/2023
- Course code
- WIINFS.Ii20.08770.22
- Lecture languages
- Polish
- Mandatoriness
- Elective
- Block
- General Modules
- Course related to scientific research
- Yes
|
Period
Semester 6
|
Method of verification of the learning outcomes
Completing the classes
Activities and hours
Lectures:
14
Laboratory classes: 14 |
Number of ECTS credits
3
|
Goals
| C1 | Celem jest zapoznanie studentów z głównymi algorytmami uczenia maszynowego i inżynierii cech. |
Course's learning outcomes
| Code | Outcomes in terms of | Learning outcomes prescribed to a field of study | Methods of verification |
| Knowledge – Student knows and understands: | |||
| W1 | Student zna i rozumie zasady nadzorowanej i nienadzorowanej analizy danych. | INF1A_W02, INF1A_W03, INF1A_W04 | Activity during classes, Test |
| W2 | Student ma wiedzę o metodach generowania, selekcji i ekstrakcji cech. | INF1A_W02, INF1A_W03 | Activity during classes, Test |
| W3 | Zna i rozumie podstawowy formalizm matematyczny związany z metodami uczenia maszynowego | INF1A_W01, INF1A_W02 | Activity during classes, Test |
| Skills – Student can: | |||
| U1 | Student potrafi opracować system samouczący się, wykorzystujący dostarczone dane. | INF1A_U01, INF1A_U03, INF1A_U05, INF1A_U09 | Execution of laboratory classes, Completion of laboratory classes |
| U2 | Student potrafi opracować system, który można wykorzystać do klasyfikacji obiektów oraz zastosowania metod regresji do danych wielowymiarowych. | INF1A_U01, INF1A_U05, INF1A_U09 | Execution of laboratory classes, Completion of laboratory classes |
| Social competences – Student is ready to: | |||
| K1 | Posiada kompetencje pracy w zespole i umie zorganizować sobie pracę nad złożonym zagadnieniem informatycznym | INF1A_K02, INF1A_K03, INF1A_K04 | Execution of a project |
Program content ensuring the achievement of the learning outcomes prescribed to the module
Student workload
| Activity form | Average amount of hours* needed to complete each activity form | |
| Lectures | 14 | |
| Laboratory classes | 14 | |
| Preparation for classes | 10 | |
| Realization of independently performed tasks | 15 | |
| Examination or final test/colloquium | 2 | |
| Contact hours | 5 | |
| Preparation of project, presentation, essay, report | 25 | |
| Student workload |
Hours
85
|
|
| Workload involving teacher |
Hours
28
|
|
* hour means 45 minutes
Program content
| No. | Program content | Course's learning outcomes | Activities |
| 1. |
Ćwiczenie 1: Wizualizacja danych z repozytorium UCI przy pomocy metody PCA oraz LDA |
U1, U2, K1 | Laboratory classes |
| 2. |
Podstawowe pojęcia i problemy teorii uczenia maszynowego: Metody uczenia maszynowego, a metody inteligencji obliczeniowej. Podstawowe elementy statystyki wykorzystywane w uczeniu maszynowym. Entropia, cross-entropia. Podstawowe terminy: przestrzeń cech, wektor cech, obraz, klasyfikator, regresja. Podstawy teorii PAC. Fundamentalne twierdzenie PAC. Teoria Vapnika-Chervonienkis. Wymiar V-C. Podstawowe ograniczenia w teorii V-C. Moc klasyfikatora a wymiarowość przestrzeni cech. |
W1, W2, W3 | Lectures |
| 3. |
Ćwiczenie 2: Zastosowanie klasyfikatora najbliższego sąsiada do danych testowych. Problem przekleństwa wymiaru. Metody weryfikacji wyników: cross-validation, ROC, Precision-Recall. F-index etc. |
U1, U2, K1 | Laboratory classes |
| 4. |
Miary podobieństwa i niepodobieństwa: Pojęcie miary podobieństwa i niepodobieństwa. Przestrzenie Minkowskiego. Inne miary Chudhuri, Mahalanobisa. Różne aspekty wykorzystania miary Tanimoto. Miary zbiór-zbiór. Miara Hausdorfa. Miary oparte na macierzach odległości. Miary podobieństwa wykorzystujące najbliższych sąsiadów. Dywergencja. Miara Kullbacka-Leibrera i inne. Miara "koparkowa" Wassersteina. |
W1, W2, W3 | Lectures |
| 5. |
Ćwiczenie 4: Zastosowanie klasyfikatora boostującego i prorównanie do klasyfikatora SVM. |
U1, U2, K1 | Laboratory classes |
| 6. |
Cechy w metodach uczenia maszynowego, Metody ekstrakcji cech: Przekleństwo wymiaru. Dychotomie a wymiar przestrzeni cech. Filtry i wrapery. Proste algorytmy redukcji cech: FFS, FBS i pochodne. Metody selekcji cech oparte o heurystyki. Transformata Karhunena-Loeve. Metody PCA, LDA oraz SVD. Przykłady zastosowań. Nieliniowe metody ekstrakcji cech skalowanie wielowymiarowe i pochodne. Sieci złożone i deskryptory w metodach rozpoznawania obrazów. Reprezentacje i cechy w sieciach neuronowych. Embedding. |
W1, W2, W3 | Lectures |
| 7. |
Klasyfikatory proste: Klasyfikator 1-NN. Klasyfikator K-NN. Algorytmy poszukiwania najbliższego obrazu. Metoda Friedmana. Kd-drzewa. Przybliżone metody znajdowania grafu k-NN. Interesujące zastosowania klasyfikatora NN , kernel k-NN.. Klasyfikatory liniowe. Perceptron. Metody uczenia. Klasyfikator Fischera. Liniowy klasyfikator SVM. Klasyfikatory kawałkami liniowe. |
W1, W2, W3 | Lectures |
| 8. |
Ćwiczenie 6: Zastosowanie algorytmów klasteryzacji k-means oraz algorytmów hierarchicznych do analizy dużych zbiorów danych. |
U1, U2, K1 | Laboratory classes |
| 9. |
Ćwiczenie 7 (projekt): Stworzenie własnego systemu klasyfikacji danych wielowymiarowych obejmującego wszystkie etapy uczenia maszynowego: generacja cech, selekcja cech, ekstrakcja i wizualizacja, klasteryzacja i klasyfikacja. Jako klasyfikator zastosować (w zależności od danych) głęboka sieć neuronową MLP lub CNN. Zadania są indywidualne i bazują na artykułach naukowych z dziedziny Uczenia Maszynowego. |
U1, U2, K1 | Laboratory classes |
| 10. |
Klasyfikatory Bayesowskie: Wielowymiarowe rozkładów gęstości prawdopodobieństwa. Zasada Bayesa. Klasyfikatory Bayesa. Drzewa Bayesa. Estymacja rozkładów losowych. |
W1, W2, W3 | Lectures |
| 11. |
Klasyfikatory nieliniowe SVM: Aproksymacja, interpolacja a problemy uczenia maszynowego. Nieliniowa interpretacja klasyfikatora SVM. Trik „kernelowy”. Przykłady zastosowań. |
W1, W2, W3 | Lectures |
| 12. |
Klasyfikatory zespołowe: Klasyczne klasyfikatory zespołowe. Klasyfikatory boostujące. Ada boost. Metody tworzenia klasyfikatorów zespołowych opartych o współdziałanie klasyfikatorów prostych. Dane niezbalansowane. Klasyfikatory one-class. |
W1, W2, W3 | Lectures |
| 13. |
Metody uczenia nienadzorowanego: Klasteryzacja, Aglomeratywne i całościowe algorytmy klasteryzacji. Metoda k-means, Współczesne algorytmy klasteryzacji (DBSCAN, CHAMELEON, SNN, Afinity propagation). |
W1, W2, W3 | Lectures |
| 14. |
Nowoczesne kierunki rozwoju metod uczenia maszynowego: Sieci neuronowe wielowarstwowe. MLP oraz CNNs. Sieci neuronowe głębokie, sieci rekurencyjne LSTM, GANs. Metody osadzania w generacji cech dla niestrukturalnych danych. Podstawowe pojęcia problemu optymalnego transportu. |
W1, W2, W3 | Lectures |
| 15. |
Problemy uczenia maszynowego w analizie danych niestrukturalnych (tekst, grafy).: Metody generacji reprezentacji tekstu (BOW, tf-idf, metody osadzania Word2Vec, Doc2Vwec). Inne metody typu Paragraph Vector. Metody proste i generatywne analizy tekstu przy pomocy sieci głębokich. Metody osadzania grafów. Metody DeepWalk, Graph2Vec. |
W1, W2, W3 | Lectures |
Extended information/Additional elements
Teaching methods and techniques :
Lectures, Discussion
| Activities | Methods of verification | Credit conditions |
|---|---|---|
| Lectures | Activity during classes, Test | Prezentacja wyników projektów na kolokwium ustnym |
| Lab. classes | Execution of a project, Execution of laboratory classes, Completion of laboratory classes | Wykonanie wszytkich projektów w zadanym czasie. Ocena z prezentacji i tutoriala. |
Method of determining the final grade
1. In order to obtain a positive final grade, it is necessary to obtain a positive assessment from the laboratory and the oral test (colloquium) during the submission of an individual project. The assessment is obtained for the quality of the project, which is assessed by the teacher. 2. We calculate the weighted average of laboratory assessments (75%) and lectures (25%) obtained on all dates. 3. Set a final grade based on the relationship: if sr> 4.75 then OK: = 5.0 else if sr> 4.25 then OK: = 4.5 else if sr> 3.75 then OK: = 4.0 else if sr> 3.25 then OK: = 3.5 else OK: = 3 4. If a positive grade from the laboratory and passing the lecture was obtained on the first date and the final grade is lower than 5.0, the final grade is raised by 0.5 Absence in laboratory classes requires the exercise at home with a set (short) deadline for implementation. A larger number of absences than 3 requires also passing a verbal colloquium covering the exercise material before the teacher.
Prerequisites and additional requirements
1. Knowledge of the basic problems of mathematical analysis and algebra.
2. Knowledge of algorithms of numerical methods.
3. Good knowledge of algorithms.
Rules of participation in given classes, indicating whether student presence at the lecture is obligatory
Lectures: Studenci uczestniczą w zajęciach poznając kolejne treści nauczania zgodnie z syllabusem przedmiotu. Studenci winni na bieżąco zadawać pytania i wyjaśniać wątpliwości. Rejestracja audiowizualna wykładu wymaga zgody prowadzącego. Laboratory classes: Studenci wykonują ćwiczenia laboratoryjne zgodnie z materiałami udostępnionymi przez prowadzącego. Student jest zobowiązany do przygotowania się w przedmiocie wykonywanego ćwiczenia, co może zostać zweryfikowane kolokwium w formie ustnej lub pisemnej. Zaliczenie zajęć odbywa się na podstawie zaprezentowania rozwiązania postawionego problemu.
Literature
Obligatory- Literatura
- 1. Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT press.
- 2. Bishop Ch.K. Pattern Recognition and Machine Learning, Springer, New York, 2007.
- 3. Theodoris S and Koutroumbas K, Pattern Recognition, Academic Press, San Diego, London, Boston, 1998
- Literatura uzupełniająca:
- Artykuły naukowe z czasopism: Pattern Recognition, Pattern Recognition Letters, Elsevier.
Scientific research and publications
Publications- 1. Czech, W., Mielczarek, W., Dzwinel, W., Distance-based graph invariants for analysis and visualization of complex networks, Concurrency and Computation: Practice and Experience, 29(9):e4054, 2017 IF =1.133
- 2. Dzwinel, W., Wcisło, R., Czech,W., ivga: A fast force-directed method for interactive visualization of complex networks, Journal of Computational Science, 21C (2017) pp. 448-459 IF=1.748
- 3. Wójcik P., Quellet T., Balcerzak M., Dzwinel, W., Identification of biomarker genes for resistance to a pathogen by a novel method for meta-analysis of single-channel microarray datasets. Journal of Bioinformatics and Computational Biology, 13(4), 1550013 (19 pages) 2015. IF=0.785
- 4. Pawliczek P, Dzwinel W, Yuen DA, Visual exploration of data by using multidimensional scaling on multi-core CPU, GPU and MPI cluster, Concurrency and Computation: Practice and Experience, 26(3): 662-682, 2014. IF =0.997
- 5. Kurdziel M, Boryczko K, Dzwinel W, Procrustes analysis of truncated least squares multidimensional scaling, Computing and Informatics, 31 (6), 1417-1440, 2012, IF =0.254
- 6. Dzwinel, W., Wcisło, R., ivhd: A robust linear-time and memory efficient method for visual exploratory data analysis, 13thConference on Machine Learning and Data Mining, MLDM, New York, July 15-20, 2017, Lecture Notes of Artificial Intelligence, LNAI, 10358, 345-360, 2017
- 7. Dzwinel, W., Wcisło, R., Very fast interactive visualization of large sets of high-dimensional data, 2015 International Conference of Computational Science, ICCS 2015, Reykjavik, 1-3.06.2015. Procedia of Computer Science, 51, 572-581, 2015.
- 8. Pawliczek, P., Dzwinel, W., Yuen, DA, Visual Exploration of Data with Multi-thread MIC Computer Architectures, in Rutkowski et al. (Eds.): ICAISC 2015, Part II, Lecture Notes of Artificial Intelligence, LNAI 9120, 25–35, 2015.