Uczenie maszynowe i sztuczne sieci neuronowe: Różnice pomiędzy wersjami
Z Brain-wiki
m (→Wykłady) |
m (→Wykłady) |
||
Linia 109: | Linia 109: | ||
| 10 | | 10 | ||
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 4|Nieliniowości różniczkowalne i metoda wstecznej propagacji błędu]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDWTR6TTVfTlJjNUU (wersja w notebooku)] | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 4|Nieliniowości różniczkowalne i metoda wstecznej propagacji błędu]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDWTR6TTVfTlJjNUU (wersja w notebooku)] | ||
+ | |||
+ | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 5|Wsteczna propagacja błędu: jak poprawić zbieżność?]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDdDRJbmhVdFFLQWs (wersja w notebooku)] | ||
| | | | ||
|- | |- | ||
Linia 116: | Linia 118: | ||
|- | |- | ||
| 11 | | 11 | ||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
| [https://drive.google.com/open?id=0BzwQ_Lscn8yDRHFhcmZIRTlHU2M Sieci konwolucyjne] [https://drive.google.com/open?id=0BzwQ_Lscn8yDNjgxZTkyNFppRGs (wersja w notebooku)] | | [https://drive.google.com/open?id=0BzwQ_Lscn8yDRHFhcmZIRTlHU2M Sieci konwolucyjne] [https://drive.google.com/open?id=0BzwQ_Lscn8yDNjgxZTkyNFppRGs (wersja w notebooku)] | ||
| | | | ||
Linia 131: | Linia 125: | ||
| [https://drive.google.com/open?id=13MNs6R9le49DfexN6rnIsgVQlixJMJ0Z Porównanie kalsyfikacji cyfr za pomoca sieci gęstej i głębokiej (notebook)] | | [https://drive.google.com/open?id=13MNs6R9le49DfexN6rnIsgVQlixJMJ0Z Porównanie kalsyfikacji cyfr za pomoca sieci gęstej i głębokiej (notebook)] | ||
|- | |- | ||
− | | | + | | 12 |
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 11|Uczenie ze wzmocnieniem]] [https://drive.google.com/open?id=15n9lM2OdT9TZVS_pfn7x_xswPeuy_r0Q (wersja w notebooku)] | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 11|Uczenie ze wzmocnieniem]] [https://drive.google.com/open?id=15n9lM2OdT9TZVS_pfn7x_xswPeuy_r0Q (wersja w notebooku)] | ||
Linia 141: | Linia 135: | ||
| [https://drive.google.com/open?id=18j357je8pSXi3SOYZgK1qp1KWrMsEc2Z Uczenie ze wzmocnieniem (notebook)] | | [https://drive.google.com/open?id=18j357je8pSXi3SOYZgK1qp1KWrMsEc2Z Uczenie ze wzmocnieniem (notebook)] | ||
|- | |- | ||
− | | | + | | 13 Przegląd nowości w literaturze |
| | | | ||
| | | |
Wersja z 15:17, 10 wrz 2018
UWAGA: terminy egzaminów z części teoretycznej:
- 18 czerwca 2018, godz. 13:15-15:15, termin I, sala 1.01
- 12 września 2018, godz. 10:00-12:00, termin poprawkowy, sala 1.01
Zasady zaliczenia 2018/19
Przejście do: Ćwiczeń
Wykłady
- Wstęp, regresja liniowa i metoda najmniejszych kwadratów (wersja w notebooku)
- Klasyfikacja i regresja logistyczna (wersja w notebooku)
- Ocena jakości klasyfikacji (wersja w notebooku)
- Algorytmy generatywne (wersja w notebooku)
- Maszyny wektorów wspierających I (wersja w notebooku)
- Maszyny wektorów wspierających II (wersja w notebooku)
- Drzewa decyzyjne(wersja w notebooku)
- Uczenie bez nadzoru (wersja w notebooku)
- Wstęp o sieciach neuronowych, sieci neuronowe liniowe. / Perceptron Rosenblatta. (wersja w notebooku)
- Nieliniowości różniczkowalne i metoda wstecznej propagacji błędu (wersja w notebooku)
- Wsteczna propagacja błędu: jak poprawić zbieżność? (wersja w notebooku)
- Sieci konwolucyjne (wersja w notebooku)
- Uczenie ze wzmocnieniem (wersja w notebooku)
- Uczenie ze wzmocnieniem cz.2 (wersja w notebooku)