Uczenie maszynowe i sztuczne sieci neuronowe: Różnice pomiędzy wersjami
Z Brain-wiki
m |
m (→Wykłady) |
||
Linia 24: | Linia 24: | ||
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 11|Uczenie ze wzmocnieniem]] [https://drive.google.com/open?id=15n9lM2OdT9TZVS_pfn7x_xswPeuy_r0Q (wersja w notebooku)] | #[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 11|Uczenie ze wzmocnieniem]] [https://drive.google.com/open?id=15n9lM2OdT9TZVS_pfn7x_xswPeuy_r0Q (wersja w notebooku)] | ||
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 12|Uczenie ze wzmocnieniem cz.2]] [https://drive.google.com/open?id=17YVwJ479qn74B_n2v_IlCv9dyCSQt5Wa (wersja w notebooku)] | #[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 12|Uczenie ze wzmocnieniem cz.2]] [https://drive.google.com/open?id=17YVwJ479qn74B_n2v_IlCv9dyCSQt5Wa (wersja w notebooku)] | ||
+ | |||
+ | |||
+ | {| class="wikitable" | ||
+ | ! | ||
+ | ! Wykłady | ||
+ | ! Ćwiczenia | ||
+ | |- | ||
+ | | 1 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 1|Wstęp, regresja liniowa i metoda najmniejszych kwadratów]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDUTFmVnJ1QXpuVGs (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [https://drive.google.com/open?id=0BzwQ_Lscn8yDWnZVeHU1MjluWFU Regresja liniowa]. Dla chętnych dodatkowo: [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Ćwiczenia 2|Regresja liniowa jako filtr i zastosowanie do modelowania szeregu czasowego]]. | ||
+ | |- | ||
+ | | 2 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 6|Klasyfikacja i regresja logistyczna]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDZ3lxUkFCeUxmUlE (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [https://drive.google.com/open?id=1QyygSjtzI9iNile4e8Qlcur7Qn0r_VRN Ćwiczenie regresji logistycznej] | ||
+ | |- | ||
+ | | 3 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład Ocena jakości klasyfikacji|Ocena jakości klasyfikacji]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDQ3Vpbnd2U2pOd0k (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [https://drive.google.com/open?id=16srziWO2XRWYY8AVY9Px_05RQQdYY5jA Ćwiczenie z miarami jakości] | ||
+ | |- | ||
+ | | 4 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 7|Algorytmy generatywne]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDNUpWYTdycWVLa0E (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [https://drive.google.com/open?id=18GZJRU1jLT766DuWKP8HaxfM0leRXJlH Ćwiczenie z wizualzacji zbioru danych i klasyfikacji,bayesowskiej][https://drive.google.com/open?id=1BY9TSukNLV3VgtNdHpcgWofeAtVF4yku Ćwiczenie z klasyfikacji tekstów za pomocą klasyfikacji bayesowskiej (notebook)] | ||
+ | |- | ||
+ | | 5 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 8|Maszyny wektorów wspierających I]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDQ3poLWdZOG90c2M (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [https://drive.google.com/open?id=13Q6pB7R8v-BkdMwCyMrJUJui5mU-k9wi Klasyfikacja z użyciem SVM] | ||
+ | |- | ||
+ | | 6 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 9|Maszyny wektorów wspierających II]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDQVplcGo3bmllODA (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/SVM2 | Klasyfikacja z użuciem SVM 2]] | ||
+ | |- | ||
+ | | 7 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/DrzewaDecyzyjne|Drzewa decyzyjne]][https://drive.google.com/open?id=0BzwQ_Lscn8yDLU1wUFBsRURzWEk (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wybor_cech |Wybor optymalnych cech]] | ||
+ | |||
+ | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/DrzewaDecyzyjne_cw|Drzewa decyzyjne]] | ||
+ | |- | ||
+ | | 8 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 10|Uczenie bez nadzoru]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDaC0wZWJuRUdIMk0 (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Ćwiczenia 11|Uczenie bez nadzoru i analiza skupień]] | ||
+ | |- | ||
+ | | 9 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 2|Wstęp o sieciach neuronowych, sieci neuronowe liniowe.]],/,[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 3|Perceptron Rosenblatta.]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDYWFkUTJxU1ZTcHc (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Ćwiczenia 4|Nieliniowe sieci neuronowe: problem XOR]] | ||
+ | |||
+ | [https://drive.google.com/open?id=1noLNIOO7C0nGvtqtkHSkkjZffqtBXJOw Funkcja logiczna - implementacja w Keras(notebook)] | ||
+ | |- | ||
+ | | 10 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 4|Nieliniowości różniczkowalne i metoda wstecznej propagacji błędu]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDWTR6TTVfTlJjNUU (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [https://drive.google.com/open?id=1hU0nVe6l9ubPbHFgRoMGn2PRGAhAnQCu Regresja nielinowa implementacja w keras(notebook)] | ||
+ | |- | ||
+ | | 11 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 5|Wsteczna propagacja błędu: jak poprawić zbieżność?]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDdDRJbmhVdFFLQWs (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | | ||
+ | |- | ||
+ | | 12 | ||
+ | | [https://drive.google.com/open?id=0BzwQ_Lscn8yDRHFhcmZIRTlHU2M Sieci konwolucyjne] [https://drive.google.com/open?id=0BzwQ_Lscn8yDNjgxZTkyNFppRGs (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [https://drive.google.com/open?id=13MNs6R9le49DfexN6rnIsgVQlixJMJ0Z Porównanie kalsyfikacji cyfr za pomoca sieci gęstej i głębokiej (notebook)] | ||
+ | |- | ||
+ | | 13 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 11|Uczenie ze wzmocnieniem]] [https://drive.google.com/open?id=15n9lM2OdT9TZVS_pfn7x_xswPeuy_r0Q (wersja w notebooku)] | ||
+ | |||
+ | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 12|Uczenie ze wzmocnieniem cz.2]] [https://drive.google.com/open?id=17YVwJ479qn74B_n2v_IlCv9dyCSQt5Wa,(wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [https://drive.google.com/open?id=18j357je8pSXi3SOYZgK1qp1KWrMsEc2Z Uczenie ze wzmocnieniem (notebook)] | ||
+ | |- | ||
+ | | 14 | ||
+ | | | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | | ||
+ | |} | ||
=Powtórka= | =Powtórka= | ||
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Pytania| Zagadnienia do powtórki]] | #[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Pytania| Zagadnienia do powtórki]] |
Wersja z 15:13, 10 wrz 2018
UWAGA: terminy egzaminów z części teoretycznej:
- 18 czerwca 2018, godz. 13:15-15:15, termin I, sala 1.01
- 12 września 2018, godz. 10:00-12:00, termin poprawkowy, sala 1.01
Zasady zaliczenia 2018/19
Przejście do: Ćwiczeń
Wykłady
- Wstęp, regresja liniowa i metoda najmniejszych kwadratów (wersja w notebooku)
- Klasyfikacja i regresja logistyczna (wersja w notebooku)
- Ocena jakości klasyfikacji (wersja w notebooku)
- Algorytmy generatywne (wersja w notebooku)
- Maszyny wektorów wspierających I (wersja w notebooku)
- Maszyny wektorów wspierających II (wersja w notebooku)
- Drzewa decyzyjne(wersja w notebooku)
- Uczenie bez nadzoru (wersja w notebooku)
- Wstęp o sieciach neuronowych, sieci neuronowe liniowe. / Perceptron Rosenblatta. (wersja w notebooku)
- Nieliniowości różniczkowalne i metoda wstecznej propagacji błędu (wersja w notebooku)
- Wsteczna propagacja błędu: jak poprawić zbieżność? (wersja w notebooku)
- Sieci konwolucyjne (wersja w notebooku)
- Uczenie ze wzmocnieniem (wersja w notebooku)
- Uczenie ze wzmocnieniem cz.2 (wersja w notebooku)