Uczenie maszynowe i sztuczne sieci neuronowe: Różnice pomiędzy wersjami

Z Brain-wiki
m
Linia 24: Linia 24:
 
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 11|Uczenie ze wzmocnieniem]] [https://drive.google.com/open?id=15n9lM2OdT9TZVS_pfn7x_xswPeuy_r0Q (wersja w notebooku)]
 
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 11|Uczenie ze wzmocnieniem]] [https://drive.google.com/open?id=15n9lM2OdT9TZVS_pfn7x_xswPeuy_r0Q (wersja w notebooku)]
 
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 12|Uczenie ze wzmocnieniem cz.2]] [https://drive.google.com/open?id=17YVwJ479qn74B_n2v_IlCv9dyCSQt5Wa  (wersja w notebooku)]
 
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 12|Uczenie ze wzmocnieniem cz.2]] [https://drive.google.com/open?id=17YVwJ479qn74B_n2v_IlCv9dyCSQt5Wa  (wersja w notebooku)]
 +
 +
 +
{| class="wikitable"
 +
!
 +
! Wykłady
 +
! Ćwiczenia
 +
|-
 +
| 1
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 1|Wstęp, regresja liniowa i metoda najmniejszych kwadratów]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDUTFmVnJ1QXpuVGs (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [https://drive.google.com/open?id=0BzwQ_Lscn8yDWnZVeHU1MjluWFU Regresja liniowa]. Dla chętnych dodatkowo: [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Ćwiczenia 2|Regresja liniowa jako filtr i zastosowanie do modelowania szeregu czasowego]].
 +
|-
 +
| 2
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 6|Klasyfikacja i regresja logistyczna]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDZ3lxUkFCeUxmUlE (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [https://drive.google.com/open?id=1QyygSjtzI9iNile4e8Qlcur7Qn0r_VRN Ćwiczenie regresji logistycznej]
 +
|-
 +
| 3
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład Ocena jakości klasyfikacji|Ocena jakości klasyfikacji]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDQ3Vpbnd2U2pOd0k (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [https://drive.google.com/open?id=16srziWO2XRWYY8AVY9Px_05RQQdYY5jA Ćwiczenie z miarami jakości]
 +
|-
 +
| 4
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 7|Algorytmy generatywne]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDNUpWYTdycWVLa0E (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [https://drive.google.com/open?id=18GZJRU1jLT766DuWKP8HaxfM0leRXJlH Ćwiczenie z wizualzacji zbioru danych i klasyfikacji,bayesowskiej][https://drive.google.com/open?id=1BY9TSukNLV3VgtNdHpcgWofeAtVF4yku Ćwiczenie z klasyfikacji tekstów za pomocą klasyfikacji bayesowskiej (notebook)]
 +
|-
 +
| 5
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 8|Maszyny wektorów wspierających I]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDQ3poLWdZOG90c2M (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [https://drive.google.com/open?id=13Q6pB7R8v-BkdMwCyMrJUJui5mU-k9wi Klasyfikacja z użyciem SVM]
 +
|-
 +
| 6
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 9|Maszyny wektorów wspierających II]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDQVplcGo3bmllODA (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/SVM2 | Klasyfikacja z użuciem SVM 2]]
 +
|-
 +
| 7
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/DrzewaDecyzyjne|Drzewa decyzyjne]][https://drive.google.com/open?id=0BzwQ_Lscn8yDLU1wUFBsRURzWEk (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wybor_cech |Wybor optymalnych cech]]
 +
 +
[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/DrzewaDecyzyjne_cw|Drzewa decyzyjne]]
 +
|-
 +
| 8
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 10|Uczenie bez nadzoru]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDaC0wZWJuRUdIMk0 (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Ćwiczenia 11|Uczenie bez nadzoru i analiza skupień]]
 +
|-
 +
| 9
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 2|Wstęp o sieciach neuronowych, sieci neuronowe liniowe.]],/,[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 3|Perceptron Rosenblatta.]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDYWFkUTJxU1ZTcHc (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Ćwiczenia 4|Nieliniowe sieci neuronowe: problem XOR]]
 +
 +
[https://drive.google.com/open?id=1noLNIOO7C0nGvtqtkHSkkjZffqtBXJOw Funkcja logiczna - implementacja w Keras(notebook)]
 +
|-
 +
| 10
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 4|Nieliniowości różniczkowalne i metoda wstecznej propagacji błędu]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDWTR6TTVfTlJjNUU (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [https://drive.google.com/open?id=1hU0nVe6l9ubPbHFgRoMGn2PRGAhAnQCu Regresja nielinowa implementacja w keras(notebook)]
 +
|-
 +
| 11
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 5|Wsteczna propagacja błędu: jak poprawić zbieżność?]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDdDRJbmhVdFFLQWs (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
|
 +
|-
 +
| 12
 +
| [https://drive.google.com/open?id=0BzwQ_Lscn8yDRHFhcmZIRTlHU2M Sieci konwolucyjne] [https://drive.google.com/open?id=0BzwQ_Lscn8yDNjgxZTkyNFppRGs (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [https://drive.google.com/open?id=13MNs6R9le49DfexN6rnIsgVQlixJMJ0Z Porównanie kalsyfikacji cyfr za pomoca sieci gęstej i głębokiej (notebook)]
 +
|-
 +
| 13
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 11|Uczenie ze wzmocnieniem]] [https://drive.google.com/open?id=15n9lM2OdT9TZVS_pfn7x_xswPeuy_r0Q (wersja w notebooku)]
 +
 +
[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 12|Uczenie ze wzmocnieniem cz.2]] [https://drive.google.com/open?id=17YVwJ479qn74B_n2v_IlCv9dyCSQt5Wa,(wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [https://drive.google.com/open?id=18j357je8pSXi3SOYZgK1qp1KWrMsEc2Z Uczenie ze wzmocnieniem (notebook)]
 +
|-
 +
| 14
 +
|
 +
|
 +
|-
 +
|
 +
|
 +
|
 +
|}
  
 
=Powtórka=
 
=Powtórka=
 
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Pytania| Zagadnienia do powtórki]]
 
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Pytania| Zagadnienia do powtórki]]

Wersja z 15:13, 10 wrz 2018


UWAGA: terminy egzaminów z części teoretycznej:

  • 18 czerwca 2018, godz. 13:15-15:15, termin I, sala 1.01
  • 12 września 2018, godz. 10:00-12:00, termin poprawkowy, sala 1.01


Zasady zaliczenia 2018/19 Przejście do: Ćwiczeń

Wykłady

  1. Wstęp, regresja liniowa i metoda najmniejszych kwadratów (wersja w notebooku)
  2. Klasyfikacja i regresja logistyczna (wersja w notebooku)
  3. Ocena jakości klasyfikacji (wersja w notebooku)
  4. Algorytmy generatywne (wersja w notebooku)
  5. Maszyny wektorów wspierających I (wersja w notebooku)
  6. Maszyny wektorów wspierających II (wersja w notebooku)
  7. Drzewa decyzyjne(wersja w notebooku)
  8. Uczenie bez nadzoru (wersja w notebooku)
  9. Wstęp o sieciach neuronowych, sieci neuronowe liniowe. / Perceptron Rosenblatta. (wersja w notebooku)
  10. Nieliniowości różniczkowalne i metoda wstecznej propagacji błędu (wersja w notebooku)
  11. Wsteczna propagacja błędu: jak poprawić zbieżność? (wersja w notebooku)
  12. Sieci konwolucyjne (wersja w notebooku)
  13. Uczenie ze wzmocnieniem (wersja w notebooku)
  14. Uczenie ze wzmocnieniem cz.2 (wersja w notebooku)


Wykłady Ćwiczenia
1 Wstęp, regresja liniowa i metoda najmniejszych kwadratów (wersja w notebooku)
Regresja liniowa. Dla chętnych dodatkowo: Regresja liniowa jako filtr i zastosowanie do modelowania szeregu czasowego.
2 Klasyfikacja i regresja logistyczna (wersja w notebooku)
Ćwiczenie regresji logistycznej
3 Ocena jakości klasyfikacji (wersja w notebooku)
Ćwiczenie z miarami jakości
4 Algorytmy generatywne (wersja w notebooku)
Ćwiczenie z wizualzacji zbioru danych i klasyfikacji,bayesowskiejĆwiczenie z klasyfikacji tekstów za pomocą klasyfikacji bayesowskiej (notebook)
5 Maszyny wektorów wspierających I (wersja w notebooku)
Klasyfikacja z użyciem SVM
6 Maszyny wektorów wspierających II (wersja w notebooku)
Klasyfikacja z użuciem SVM 2
7 Drzewa decyzyjne(wersja w notebooku)
Wybor optymalnych cech

Drzewa decyzyjne

8 Uczenie bez nadzoru (wersja w notebooku)
Uczenie bez nadzoru i analiza skupień
9 Wstęp o sieciach neuronowych, sieci neuronowe liniowe.,/,Perceptron Rosenblatta. (wersja w notebooku)
Nieliniowe sieci neuronowe: problem XOR

Funkcja logiczna - implementacja w Keras(notebook)

10 Nieliniowości różniczkowalne i metoda wstecznej propagacji błędu (wersja w notebooku)
Regresja nielinowa implementacja w keras(notebook)
11 Wsteczna propagacja błędu: jak poprawić zbieżność? (wersja w notebooku)
12 Sieci konwolucyjne (wersja w notebooku)
Porównanie kalsyfikacji cyfr za pomoca sieci gęstej i głębokiej (notebook)
13 Uczenie ze wzmocnieniem (wersja w notebooku)

Uczenie ze wzmocnieniem cz.2 w notebooku)

Uczenie ze wzmocnieniem (notebook)
14

Powtórka

  1. Zagadnienia do powtórki