Uczenie maszynowe i sztuczne sieci neuronowe: Różnice pomiędzy wersjami

Z Brain-wiki
Linia 109: Linia 109:
 
| 10
 
| 10
 
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 4|Nieliniowości różniczkowalne i metoda wstecznej propagacji błędu]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDWTR6TTVfTlJjNUU (wersja w notebooku)]
 
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 4|Nieliniowości różniczkowalne i metoda wstecznej propagacji błędu]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDWTR6TTVfTlJjNUU (wersja w notebooku)]
 +
 +
[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 5|Wsteczna propagacja błędu: jak poprawić zbieżność?]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDdDRJbmhVdFFLQWs (wersja w notebooku)]
 
|  
 
|  
 
|-
 
|-
Linia 116: Linia 118:
 
|-
 
|-
 
| 11
 
| 11
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 5|Wsteczna propagacja błędu: jak poprawić zbieżność?]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDdDRJbmhVdFFLQWs (wersja w notebooku)]
 
|
 
|-
 
|
 
|
 
|
 
|-
 
| 12
 
 
| [https://drive.google.com/open?id=0BzwQ_Lscn8yDRHFhcmZIRTlHU2M Sieci konwolucyjne] [https://drive.google.com/open?id=0BzwQ_Lscn8yDNjgxZTkyNFppRGs (wersja w notebooku)]
 
| [https://drive.google.com/open?id=0BzwQ_Lscn8yDRHFhcmZIRTlHU2M Sieci konwolucyjne] [https://drive.google.com/open?id=0BzwQ_Lscn8yDNjgxZTkyNFppRGs (wersja w notebooku)]
 
|  
 
|  
Linia 131: Linia 125:
 
| [https://drive.google.com/open?id=13MNs6R9le49DfexN6rnIsgVQlixJMJ0Z Porównanie kalsyfikacji cyfr za pomoca sieci gęstej i głębokiej (notebook)]
 
| [https://drive.google.com/open?id=13MNs6R9le49DfexN6rnIsgVQlixJMJ0Z Porównanie kalsyfikacji cyfr za pomoca sieci gęstej i głębokiej (notebook)]
 
|-
 
|-
| 13
+
| 12
 
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 11|Uczenie ze wzmocnieniem]] [https://drive.google.com/open?id=15n9lM2OdT9TZVS_pfn7x_xswPeuy_r0Q (wersja w notebooku)]
 
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 11|Uczenie ze wzmocnieniem]] [https://drive.google.com/open?id=15n9lM2OdT9TZVS_pfn7x_xswPeuy_r0Q (wersja w notebooku)]
  
Linia 141: Linia 135:
 
| [https://drive.google.com/open?id=18j357je8pSXi3SOYZgK1qp1KWrMsEc2Z Uczenie ze wzmocnieniem (notebook)]
 
| [https://drive.google.com/open?id=18j357je8pSXi3SOYZgK1qp1KWrMsEc2Z Uczenie ze wzmocnieniem (notebook)]
 
|-
 
|-
| 14
+
| 13 Przegląd nowości w literaturze
 
|  
 
|  
 
|  
 
|  

Wersja z 15:17, 10 wrz 2018


UWAGA: terminy egzaminów z części teoretycznej:

  • 18 czerwca 2018, godz. 13:15-15:15, termin I, sala 1.01
  • 12 września 2018, godz. 10:00-12:00, termin poprawkowy, sala 1.01


Zasady zaliczenia 2018/19 Przejście do: Ćwiczeń

Wykłady

  1. Wstęp, regresja liniowa i metoda najmniejszych kwadratów (wersja w notebooku)
  2. Klasyfikacja i regresja logistyczna (wersja w notebooku)
  3. Ocena jakości klasyfikacji (wersja w notebooku)
  4. Algorytmy generatywne (wersja w notebooku)
  5. Maszyny wektorów wspierających I (wersja w notebooku)
  6. Maszyny wektorów wspierających II (wersja w notebooku)
  7. Drzewa decyzyjne(wersja w notebooku)
  8. Uczenie bez nadzoru (wersja w notebooku)
  9. Wstęp o sieciach neuronowych, sieci neuronowe liniowe. / Perceptron Rosenblatta. (wersja w notebooku)
  10. Nieliniowości różniczkowalne i metoda wstecznej propagacji błędu (wersja w notebooku)
  11. Wsteczna propagacja błędu: jak poprawić zbieżność? (wersja w notebooku)
  12. Sieci konwolucyjne (wersja w notebooku)
  13. Uczenie ze wzmocnieniem (wersja w notebooku)
  14. Uczenie ze wzmocnieniem cz.2 (wersja w notebooku)


Wykłady Ćwiczenia
1 Wstęp, regresja liniowa i metoda najmniejszych kwadratów (wersja w notebooku)
Regresja liniowa. Dla chętnych dodatkowo: Regresja liniowa jako filtr i zastosowanie do modelowania szeregu czasowego.
2 Klasyfikacja i regresja logistyczna (wersja w notebooku)
Ćwiczenie regresji logistycznej
3 Ocena jakości klasyfikacji (wersja w notebooku)
Ćwiczenie z miarami jakości
4 Algorytmy generatywne (wersja w notebooku)
Ćwiczenie z wizualzacji zbioru danych i klasyfikacji,bayesowskiejĆwiczenie z klasyfikacji tekstów za pomocą klasyfikacji bayesowskiej (notebook)
5 Maszyny wektorów wspierających I (wersja w notebooku)
Klasyfikacja z użyciem SVM
6 Maszyny wektorów wspierających II (wersja w notebooku)
Klasyfikacja z użuciem SVM 2
7 Drzewa decyzyjne(wersja w notebooku)
Wybor optymalnych cech

Drzewa decyzyjne

8 Uczenie bez nadzoru (wersja w notebooku)
Uczenie bez nadzoru i analiza skupień
9 Wstęp o sieciach neuronowych, sieci neuronowe liniowe.,/,Perceptron Rosenblatta. (wersja w notebooku)
Nieliniowe sieci neuronowe: problem XOR

Funkcja logiczna - implementacja w Keras(notebook)

10 Nieliniowości różniczkowalne i metoda wstecznej propagacji błędu (wersja w notebooku)

Wsteczna propagacja błędu: jak poprawić zbieżność? (wersja w notebooku)

Regresja nielinowa implementacja w keras(notebook)
11 Sieci konwolucyjne (wersja w notebooku)
Porównanie kalsyfikacji cyfr za pomoca sieci gęstej i głębokiej (notebook)
12 Uczenie ze wzmocnieniem (wersja w notebooku)

Uczenie ze wzmocnieniem cz.2 w notebooku)

Uczenie ze wzmocnieniem (notebook)
13 Przegląd nowości w literaturze

Powtórka

  1. Zagadnienia do powtórki