Uczenie maszynowe i sztuczne sieci neuronowe: Różnice pomiędzy wersjami

Z Brain-wiki
m
 
(Nie pokazano 16 pośrednich wersji utworzonych przez tego samego użytkownika)
Linia 1: Linia 1:
 
[[Category:Przedmioty specjalizacyjne]]
 
[[Category:Przedmioty specjalizacyjne]]
  
UWAGA: terminy egzaminów z części teoretycznej:
+
'''Uwaga: ta strona ma charakter historyczny. Aktualna wersja wykładu jest na stronie''' https://kampus-kursy.ckc.uw.edu.pl/course/section.php?id=10751
* 18 czerwca 2018, godz. 13:15-15:15, termin I, sala 1.01
 
  
* 12 września 2018, godz. 10:00-12:00, termin poprawkowy, sala 1.01
+
[[Zasady zaliczenia| Zasady zaliczenia ]]
  
 +
[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/konfiguracja|Konfiguracja środowiska]]
  
[[Zasady zaliczenia 2018/19]]
+
 
 +
 
 +
<!--
 
Przejście do: [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe_cw|Ćwiczeń]]
 
Przejście do: [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe_cw|Ćwiczeń]]
 +
 
=Wykłady=
 
=Wykłady=
 
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 1|Wstęp, regresja liniowa i metoda najmniejszych kwadratów]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDUTFmVnJ1QXpuVGs (wersja w notebooku)]
 
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 1|Wstęp, regresja liniowa i metoda najmniejszych kwadratów]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDUTFmVnJ1QXpuVGs (wersja w notebooku)]
Linia 25: Linia 28:
 
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 12|Uczenie ze wzmocnieniem cz.2]] [https://drive.google.com/open?id=17YVwJ479qn74B_n2v_IlCv9dyCSQt5Wa  (wersja w notebooku)]
 
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 12|Uczenie ze wzmocnieniem cz.2]] [https://drive.google.com/open?id=17YVwJ479qn74B_n2v_IlCv9dyCSQt5Wa  (wersja w notebooku)]
  
 
+
-->
 
{| class="wikitable"
 
{| class="wikitable"
 
!  
 
!  
Linia 32: Linia 35:
 
|-
 
|-
 
| 1
 
| 1
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 1|Wstęp, regresja liniowa i metoda najmniejszych kwadratów]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDUTFmVnJ1QXpuVGs (wersja w notebooku)]
+
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 1|Wstęp, regresja liniowa i metoda najmniejszych kwadratów]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDUTFmVnJ1QXpuVGs/view?usp=sharing&resourcekey=0-VTr-BMBrfkYGI0sGhTJ8Pg (wersja w notebooku)]
|  
+
| [https://drive.google.com/file/d/1E4W5j8Z5yxfe0n804I8zJIM1QyQs-oZK/view?usp=sharing Powtórka numpy]
 
|-
 
|-
 
|  
 
|  
|  
+
|
| [https://drive.google.com/open?id=0BzwQ_Lscn8yDWnZVeHU1MjluWFU Regresja liniowa]. Dla chętnych dodatkowo: [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Ćwiczenia 2|Regresja liniowa jako filtr i zastosowanie do modelowania szeregu czasowego]].
+
| [https://drive.google.com/file/d/1P86RKJfMFU54xYT9umP7fwCRF800iC0v/view?usp=sharing Regresja liniowa].
 
|-
 
|-
 
| 2
 
| 2
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 6|Klasyfikacja i regresja logistyczna]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDZ3lxUkFCeUxmUlE (wersja w notebooku)]
+
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 6|Klasyfikacja i regresja logistyczna]] [https://drive.google.com/file/d/11JKqVTSjeQNSUSkzhHZEML5hrggDJx8b/view?usp=sharing (wersja w notebooku)]
 
|  
 
|  
 
|-
 
|-
 
|  
 
|  
 
|  
 
|  
| [https://drive.google.com/open?id=1QyygSjtzI9iNile4e8Qlcur7Qn0r_VRN Ćwiczenie regresji logistycznej]
+
| [https://drive.google.com/file/d/11JKqVTSjeQNSUSkzhHZEML5hrggDJx8b/view?usp=sharing Ćwiczenie regresji logistycznej]
 
|-
 
|-
 
| 3
 
| 3
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład Ocena jakości klasyfikacji|Ocena jakości klasyfikacji]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDQ3Vpbnd2U2pOd0k (wersja w notebooku)]
+
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład Ocena jakości klasyfikacji|Ocena jakości klasyfikacji]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDQ3Vpbnd2U2pOd0k/view?usp=sharing&resourcekey=0-lba-gcj-vx584pcxqMzkuw (wersja w notebooku)]
 
|  
 
|  
 
|-
 
|-
 
|  
 
|  
 
|  
 
|  
| [https://drive.google.com/open?id=16srziWO2XRWYY8AVY9Px_05RQQdYY5jA Ćwiczenie z miarami jakości]
+
| [https://drive.google.com/file/d/1UYCo2wuC8BHnssZJRBZJfyvdQFsmwS1O/view?usp=sharing Ćwiczenie z miarami jakości]
 
|-
 
|-
 
| 4
 
| 4
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 7|Algorytmy generatywne]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDNUpWYTdycWVLa0E (wersja w notebooku)]
+
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 7|Algorytmy generatywne]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDNUpWYTdycWVLa0E/view?usp=sharing&resourcekey=0-Kd3aqboblVwFrkp5KXn4uQ (wersja w notebooku)]
 
|  
 
|  
 
|-
 
|-
 
|  
 
|  
 
|  
 
|  
| [https://drive.google.com/open?id=18GZJRU1jLT766DuWKP8HaxfM0leRXJlH Ćwiczenie z wizualzacji zbioru danych i klasyfikacji,bayesowskiej][https://drive.google.com/open?id=1BY9TSukNLV3VgtNdHpcgWofeAtVF4yku Ćwiczenie z klasyfikacji tekstów za pomocą klasyfikacji bayesowskiej (notebook)]
+
| [https://drive.google.com/file/d/17T3h2QUwCJA7QqnC-IHuIQeEBOZ8kJqW/view?usp=sharing Ćwiczenie z klasyfikacji bayesowskiej] <br> [https://drive.google.com/file/d/1mO64cJnEWJ98K8NTvGHfI1rA7fEb2DLi/view?usp=sharing Ćwiczenie z klasyfikacji tekstów za pomocą klasyfikacji bayesowskiej (notebook)]
 
|-
 
|-
 
| 5
 
| 5
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 8|Maszyny wektorów wspierających I]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDQ3poLWdZOG90c2M (wersja w notebooku)]
+
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 8|Maszyny wektorów wspierających I]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDQ3poLWdZOG90c2M/view?usp=sharing&resourcekey=0-uuk3FrTQiAentJixVjaeZA (wersja w notebooku)]
 
|  
 
|  
 
|-
 
|-
 
|  
 
|  
 
|  
 
|  
| [https://drive.google.com/open?id=13Q6pB7R8v-BkdMwCyMrJUJui5mU-k9wi Klasyfikacja z użyciem SVM]
+
| [https://drive.google.com/file/d/1QTOK6B8jPrP3J7NW2I93q3WZJ1CAWN_H/view?usp=sharing Klasyfikacja z użyciem SVM]
 
|-
 
|-
 
| 6
 
| 6
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 9|Maszyny wektorów wspierających II]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDQVplcGo3bmllODA (wersja w notebooku)]
+
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 9|Maszyny wektorów wspierających II]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDQVplcGo3bmllODA/view?usp=sharing&resourcekey=0-TE8SmXSjQHeZvMQX7qbSYA (wersja w notebooku)]
 
|  
 
|  
 
|-
 
|-
Linia 80: Linia 83:
 
|-
 
|-
 
| 7
 
| 7
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/DrzewaDecyzyjne|Drzewa decyzyjne]][https://drive.google.com/open?id=0BzwQ_Lscn8yDLU1wUFBsRURzWEk (wersja w notebooku)]
+
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/DrzewaDecyzyjne|Drzewa decyzyjne]][https://drive.google.com/file/d/0BzwQ_Lscn8yDLU1wUFBsRURzWEk/view?usp=sharing&resourcekey=0-1F1twtCbJV6UAfO537IbmA (wersja w notebooku)]
 
|  
 
|  
 
|-
 
|-
Linia 87: Linia 90:
 
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wybor_cech |Wybor optymalnych cech]]
 
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wybor_cech |Wybor optymalnych cech]]
  
[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/DrzewaDecyzyjne_cw|Drzewa decyzyjne]]
+
[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/DrzewaDecyzyjne_cw|Drzewa decyzyjne]] [https://drive.google.com/file/d/1hvGjF1fofv0tBNfZj5-eD2gYF94CqFTf/view?usp=sharing Drzewa decyzyjne (notebook)]
 
|-
 
|-
 
| 8
 
| 8
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 10|Uczenie bez nadzoru]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDaC0wZWJuRUdIMk0 (wersja w notebooku)]
+
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 10|Uczenie bez nadzoru]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDaC0wZWJuRUdIMk0/view?usp=sharing&resourcekey=0-n9MM42-AMfRRToEyBYpv3w (wersja w notebooku)]
 
|  
 
|  
 
|-
 
|-
 
|  
 
|  
 
|  
 
|  
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Ćwiczenia 11|Uczenie bez nadzoru i analiza skupień]]
+
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Ćwiczenia 11|Uczenie bez nadzoru i analiza skupień]]  [https://drive.google.com/file/d/1hNxYTzh541JhFoaYbo3Pc6LHnzsrsMX6/view?usp=sharing notebook]
 
|-
 
|-
 
| 9
 
| 9
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 2|Wstęp o sieciach neuronowych, sieci neuronowe liniowe.]],/,[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 3|Perceptron Rosenblatta.]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDYWFkUTJxU1ZTcHc (wersja w notebooku)]
+
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 2|Wstęp o sieciach neuronowych, sieci neuronowe liniowe.]],/,[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 3|Perceptron Rosenblatta.]] [https://drive.google.com/file/d/13CG5kuEKV1riA8vhBfMxGfCpECJCh-ql/view?usp=sharing (wersja w notebooku)]
 
|  
 
|  
 
|-
 
|-
Linia 105: Linia 108:
 
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Ćwiczenia 4|Nieliniowe sieci neuronowe: problem XOR]]
 
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Ćwiczenia 4|Nieliniowe sieci neuronowe: problem XOR]]
  
[https://drive.google.com/open?id=1noLNIOO7C0nGvtqtkHSkkjZffqtBXJOw Funkcja logiczna - implementacja w Keras(notebook)]
+
[https://drive.google.com/file/d/1B7nS1zs2begRPK6ye2IH4p__sZDccLs_/view?usp=sharing Sieci głębokie (notebook)]
 
|-
 
|-
 
| 10
 
| 10
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 4|Nieliniowości różniczkowalne i metoda wstecznej propagacji błędu]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDWTR6TTVfTlJjNUU (wersja w notebooku)]
+
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 4|Nieliniowości różniczkowalne i metoda wstecznej propagacji błędu]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDdDRJbmhVdFFLQWs/view?usp=sharing&resourcekey=0-LeOlls1dq7lJVs7Cw_h4Xw (wersja w notebooku)]
  
 
[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 5|Wsteczna propagacja błędu: jak poprawić zbieżność?]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDdDRJbmhVdFFLQWs (wersja w notebooku)]
 
[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 5|Wsteczna propagacja błędu: jak poprawić zbieżność?]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDdDRJbmhVdFFLQWs (wersja w notebooku)]
Linia 118: Linia 121:
 
|-
 
|-
 
| 11
 
| 11
| [https://drive.google.com/open?id=0BzwQ_Lscn8yDRHFhcmZIRTlHU2M Sieci konwolucyjne] [https://drive.google.com/open?id=0BzwQ_Lscn8yDNjgxZTkyNFppRGs (wersja w notebooku)]
+
| [https://drive.google.com/file/d/0BzwQ_Lscn8yDNjgxZTkyNFppRGs/view?usp=sharing&resourcekey=0-_KtF79jjjKe4Bw_tGcs-lw Sieci konwolucyjne (wersja w notebooku)]
 
|  
 
|  
 
|-
 
|-
 
|  
 
|  
 
|  
 
|  
| [https://drive.google.com/open?id=13MNs6R9le49DfexN6rnIsgVQlixJMJ0Z Porównanie kalsyfikacji cyfr za pomoca sieci gęstej i głębokiej (notebook)]
+
| [https://drive.google.com/file/d/1MX6CSJH7bQ6dcsulN3kyit4SgKtGUlTj/view?usp=sharing Augmentacja danych]<br>[https://drive.google.com/open?id=13MNs6R9le49DfexN6rnIsgVQlixJMJ0Z Porównanie kalsyfikacji cyfr za pomoca sieci gęstej i głębokiej (notebook)]
 
|-
 
|-
 
| 12
 
| 12
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 11|Uczenie ze wzmocnieniem]] [https://drive.google.com/open?id=15n9lM2OdT9TZVS_pfn7x_xswPeuy_r0Q (wersja w notebooku)]
+
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 11|Uczenie ze wzmocnieniem]] [https://drive.google.com/file/d/15n9lM2OdT9TZVS_pfn7x_xswPeuy_r0Q/view?usp=sharing (wersja w notebooku)]
  
[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 12|Uczenie ze wzmocnieniem cz.2]] [https://drive.google.com/open?id=17YVwJ479qn74B_n2v_IlCv9dyCSQt5Wa,(wersja w notebooku)]
+
[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 12|Uczenie ze wzmocnieniem cz.2]] [https://drive.google.com/file/d/17YVwJ479qn74B_n2v_IlCv9dyCSQt5Wa/view?usp=sharing,(wersja w notebooku)]
 
|  
 
|  
 
|-
 
|-
Linia 135: Linia 138:
 
| [https://drive.google.com/open?id=18j357je8pSXi3SOYZgK1qp1KWrMsEc2Z Uczenie ze wzmocnieniem (notebook)]
 
| [https://drive.google.com/open?id=18j357je8pSXi3SOYZgK1qp1KWrMsEc2Z Uczenie ze wzmocnieniem (notebook)]
 
|-
 
|-
| 13 Przegląd nowości w literaturze
+
| 13  
|  
+
|
|
+
[https://drive.google.com/file/d/1nO8QiHru6CE_txzUrBj4N9qhCLGlLvUE/view?usp=sharing Interpretacja i wyjaśnianie decyzji podejmowanych przez sieci ] <br>
 +
[https://brain.fuw.edu.pl/edu/images/2/2a/Zastosowania_DNN_do_analizy_EEG.pdf Zastosowanie sieci do analizy danych EEG]
 
|-
 
|-
 
|  
 
|  
 
|  
 
|  
|  
+
| [https://drive.google.com/file/d/1mAspITelZmAMZP3JkghETcB7UbIbEt5x/view?usp=sharing Interpretowalne ML]
 
|}
 
|}
  
 
=Powtórka=
 
=Powtórka=
 
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Pytania| Zagadnienia do powtórki]]
 
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Pytania| Zagadnienia do powtórki]]
 +
=Projekty=
 +
[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Projekty|Projekty]]

Aktualna wersja na dzień 08:38, 8 paź 2024


Uwaga: ta strona ma charakter historyczny. Aktualna wersja wykładu jest na stronie https://kampus-kursy.ckc.uw.edu.pl/course/section.php?id=10751

Zasady zaliczenia

Konfiguracja środowiska


Wykłady Ćwiczenia
1 Wstęp, regresja liniowa i metoda najmniejszych kwadratów (wersja w notebooku) Powtórka numpy
Regresja liniowa.
2 Klasyfikacja i regresja logistyczna (wersja w notebooku)
Ćwiczenie regresji logistycznej
3 Ocena jakości klasyfikacji (wersja w notebooku)
Ćwiczenie z miarami jakości
4 Algorytmy generatywne (wersja w notebooku)
Ćwiczenie z klasyfikacji bayesowskiej
Ćwiczenie z klasyfikacji tekstów za pomocą klasyfikacji bayesowskiej (notebook)
5 Maszyny wektorów wspierających I (wersja w notebooku)
Klasyfikacja z użyciem SVM
6 Maszyny wektorów wspierających II (wersja w notebooku)
Klasyfikacja z użuciem SVM 2
7 Drzewa decyzyjne(wersja w notebooku)
Wybor optymalnych cech

Drzewa decyzyjne Drzewa decyzyjne (notebook)

8 Uczenie bez nadzoru (wersja w notebooku)
Uczenie bez nadzoru i analiza skupień notebook
9 Wstęp o sieciach neuronowych, sieci neuronowe liniowe.,/,Perceptron Rosenblatta. (wersja w notebooku)
Nieliniowe sieci neuronowe: problem XOR

Sieci głębokie (notebook)

10 Nieliniowości różniczkowalne i metoda wstecznej propagacji błędu (wersja w notebooku)

Wsteczna propagacja błędu: jak poprawić zbieżność? (wersja w notebooku)

Regresja nielinowa implementacja w keras(notebook)
11 Sieci konwolucyjne (wersja w notebooku)
Augmentacja danych
Porównanie kalsyfikacji cyfr za pomoca sieci gęstej i głębokiej (notebook)
12 Uczenie ze wzmocnieniem (wersja w notebooku)

Uczenie ze wzmocnieniem cz.2 w notebooku)

Uczenie ze wzmocnieniem (notebook)
13

Interpretacja i wyjaśnianie decyzji podejmowanych przez sieci
Zastosowanie sieci do analizy danych EEG

Interpretowalne ML

Powtórka

  1. Zagadnienia do powtórki

Projekty

Projekty