TI/Sztuczne sieci neuronowe: Różnice pomiędzy wersjami

Z Brain-wiki
 
(Nie pokazano 5 pośrednich wersji utworzonych przez tego samego użytkownika)
Linia 1: Linia 1:
 
__NOTOC__
 
__NOTOC__
==[["Technologia_informacyjna"|⬆]] Neurony i wagi połączeń==
+
<!-- ==[["Technologia_informacyjna"|⬆]] Neurony i wagi połączeń== -->
 
[[Plik:Neuron.png|bezramki|150px|right|Sztuczny neuron czyli prosty sumator]]
 
[[Plik:Neuron.png|bezramki|150px|right|Sztuczny neuron czyli prosty sumator]]
  
Sztuczne sieci neuronowe konstruowane są z jednostek zwanych ''sztucznymi neuronami''. Możemy o nich myśleć jako o komórkach pamięci komputera, przechowujących konkretne liczby (zmienne). Wartość zapisana w jednej takiej komórce (<math>\textsf{D}</math>) jest w każdym kroku obliczana według stałego schematu:  
+
Sztuczne sieci neuronowe (ang. ''artificial neural networks'', ANN) konstruowane są z jednostek zwanych ''sztucznymi neuronami'', ale nazw tych nie powinniśmy traktować zbyt dosłownie. Choć inspiracją było działanie biologicznych neuronów, należy pamiętać, że nie służą one modelowaniu, poznawaniu czy próbom zrozumienia działania układu nerwowego istot żywych — takie badania są przedmiotem [https://en.wikipedia.org/wiki/Computational_neuroscience computational neuroscience], dziedziny nauki  [https://usosweb.fuw.edu.pl/kontroler.php?_action=katalog2/przedmioty/pokazPrzedmiot&prz_kod=1100-5NI11 wykładanej również na UW].
 +
 
 +
O sztucznych neuronach najlepiej myśleć jako o komórkach pamięci komputera, przechowujących konkretne liczby (zmienne). Wartość zapisana w jednej takiej komórce (<math>\textsf{D}</math>) jest w każdym kroku obliczana według stałego schematu:  
 
*liczby z komórek (sztucznych neuronów) poprzedniej warstwy <math>\textsf{A B C}</math> są mnożone przed odpowiednie wagi  i dodawane do siebie: <math>\textsf{A} \textsf{w}_\textsf{AD} + \textsf{B} \textsf{w}_\textsf{BD} + \textsf{C} \textsf{w}_\textsf{CD}</math>
 
*liczby z komórek (sztucznych neuronów) poprzedniej warstwy <math>\textsf{A B C}</math> są mnożone przed odpowiednie wagi  i dodawane do siebie: <math>\textsf{A} \textsf{w}_\textsf{AD} + \textsf{B} \textsf{w}_\textsf{BD} + \textsf{C} \textsf{w}_\textsf{CD}</math>
 
*wyliczona powyżej suma ważona jest poddawana działaniu funkcji aktywacji <math>f</math>: <math>\textsf{D} = f\left(\textsf{A} \textsf{w}_\textsf{AD} + \textsf{B} \textsf{w}_\textsf{BD} + \textsf{C} \textsf{w}_\textsf{CD}\right)</math>
 
*wyliczona powyżej suma ważona jest poddawana działaniu funkcji aktywacji <math>f</math>: <math>\textsf{D} = f\left(\textsf{A} \textsf{w}_\textsf{AD} + \textsf{B} \textsf{w}_\textsf{BD} + \textsf{C} \textsf{w}_\textsf{CD}\right)</math>
Linia 20: Linia 22:
  
 
Sztuczna sieć neuronowa sieć jest jednoznacznie określona przez strukturę połączeń oraz konkretne wartości wag <math>\textsf{w}_\textsf{XY}</math>, zwanych też parametrami sieci lub modelu; w roku 2024 liczby parametrów dużych modeli sięgają setek miliardów.
 
Sztuczna sieć neuronowa sieć jest jednoznacznie określona przez strukturę połączeń oraz konkretne wartości wag <math>\textsf{w}_\textsf{XY}</math>, zwanych też parametrami sieci lub modelu; w roku 2024 liczby parametrów dużych modeli sięgają setek miliardów.
 +
 +
Sieci uczymy metodą [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład_4|propagacji wstecznej]].
  
 
==Przykład: rozpoznawanie cyfr za pomocą prostej sieci==
 
==Przykład: rozpoznawanie cyfr za pomocą prostej sieci==
Linia 41: Linia 45:
  
 
Powyższy rysunek ilustruje przykładową, prostą sieć z jedną warstwą ukrytą, w której poziomy szarości podawane są do kolejnych neuronów wartwy wejściowej.
 
Powyższy rysunek ilustruje przykładową, prostą sieć z jedną warstwą ukrytą, w której poziomy szarości podawane są do kolejnych neuronów wartwy wejściowej.
* Według aktualnej wiedzy znacznie efektywniejszą architekturą są sieci splotowe (ang. [https://en.wikipedia.org/wiki/Convolutional_neural_network convolutional neural networks]), w których struktura wejścia odpowiada topologicznemu sąsiedztwu pikseli w dwóch wymiarach.
+
* Według aktualnej wiedzy znacznie efektywniejszą architekturą do rozpoznawania obrazów są sieci splotowe (ang. [https://en.wikipedia.org/wiki/Convolutional_neural_network convolutional neural networks]), w których struktura wejścia odpowiada topologicznemu sąsiedztwu pikseli w dwóch wymiarach.
 
* Współczene sieci mają zwykle znacznie więcej warstw ukrytych — wtedy mówimy o [https://pl.wikipedia.org/wiki/Uczenie_g%C5%82%C4%99bokie głębokich sieciach neuronowych] (ang. ''deep neural networks'').
 
* Współczene sieci mają zwykle znacznie więcej warstw ukrytych — wtedy mówimy o [https://pl.wikipedia.org/wiki/Uczenie_g%C5%82%C4%99bokie głębokich sieciach neuronowych] (ang. ''deep neural networks'').
  
Linia 47: Linia 51:
  
 
<div align="right">
 
<div align="right">
  [[TI/Formaty_danych:_obraz,_dźwięk,_wideo|⬅]]  [["Technologia_informacyjna"|⬆]]  [[TI/Kilka_dat_z_historii_Internetu|⮕]]
+
  [[TI/Formaty_danych:_obraz,_dźwięk,_wideo|⬅]]  [["Technologia_informacyjna"|⬆]]  [[TI/Od_operatora_do_systemu_operacyjnego|⮕]]
 
</div>
 
</div>

Aktualna wersja na dzień 15:48, 18 paź 2024

Sztuczny neuron czyli prosty sumator

Sztuczne sieci neuronowe (ang. artificial neural networks, ANN) konstruowane są z jednostek zwanych sztucznymi neuronami, ale nazw tych nie powinniśmy traktować zbyt dosłownie. Choć inspiracją było działanie biologicznych neuronów, należy pamiętać, że nie służą one modelowaniu, poznawaniu czy próbom zrozumienia działania układu nerwowego istot żywych — takie badania są przedmiotem computational neuroscience, dziedziny nauki wykładanej również na UW.

O sztucznych neuronach najlepiej myśleć jako o komórkach pamięci komputera, przechowujących konkretne liczby (zmienne). Wartość zapisana w jednej takiej komórce ([math]\textsf{D}[/math]) jest w każdym kroku obliczana według stałego schematu:

  • liczby z komórek (sztucznych neuronów) poprzedniej warstwy [math]\textsf{A B C}[/math] są mnożone przed odpowiednie wagi i dodawane do siebie: [math]\textsf{A} \textsf{w}_\textsf{AD} + \textsf{B} \textsf{w}_\textsf{BD} + \textsf{C} \textsf{w}_\textsf{CD}[/math]
  • wyliczona powyżej suma ważona jest poddawana działaniu funkcji aktywacji [math]f[/math]: [math]\textsf{D} = f\left(\textsf{A} \textsf{w}_\textsf{AD} + \textsf{B} \textsf{w}_\textsf{BD} + \textsf{C} \textsf{w}_\textsf{CD}\right)[/math]


Obliczenia wykonywane przez przykładową sieć:
Ann 6neurons weights.png
  1. W jednostkach po lewej ([math]\textsf{A B C}[/math]) znajdują się wartości (liczby), które dla uproszczenia oznaczymy również literami [math]\textsf{A B C}[/math]. Mogą one reprezentować wejście sieci (wtedy będzie to warstwa wejściowa) lub być wynikiem obliczeń poprzednich warstw sieci (wtedy będzie to warstwa ukryta).
  2. Wartości w neuronach [math]\textsf{D}[/math] i [math]\textsf{E}[/math] wyliczamy według podanego powyżej wzoru:
    • [math]\textsf{D} = f\left(\textsf{A} \textsf{w}_\textsf{AD} + \textsf{B} \textsf{w}_\textsf{BD} + \textsf{C} \textsf{w}_\textsf{CD}\right)[/math]
    • [math]\textsf{E} = f\left(\textsf{A} \textsf{w}_\textsf{AE} + \textsf{B} \textsf{w}_\textsf{BE} + \textsf{C} \textsf{w}_\textsf{CE}\right)[/math]
  3. W następnym kroku wyliczamy wartość dla neuronu ostatniej warstwy F:
    • [math]\textsf{F} = f\left(\textsf{D} \textsf{w}_\textsf{DF} + \textsf{E} \textsf{w}_\textsf{EF}\right)[/math]

Wyliczoną w ten sposób wartość [math]\textsf{F}[/math] możemy uznać za "odpowiedź" tej sieci na podane na wejściu liczby [math]\textsf{A}[/math], [math]\textsf{B}[/math] i [math]\textsf{C}[/math].

Sztuczna sieć neuronowa sieć jest jednoznacznie określona przez strukturę połączeń oraz konkretne wartości wag [math]\textsf{w}_\textsf{XY}[/math], zwanych też parametrami sieci lub modelu; w roku 2024 liczby parametrów dużych modeli sięgają setek miliardów.

Sieci uczymy metodą propagacji wstecznej.

Przykład: rozpoznawanie cyfr za pomocą prostej sieci

Przykłady z bazy MNIST, źródło: Wikipedia

Strukturę sieci dopasowujemy do wymiarów problemu.

Warstwa wejściowa

przyjmuje dane; jeśli sieć ma rozpoznawać obrazy w odcieniach szarości, na wejściu podamy liczby odpowiadające zaczernieniu kolejnych pikseli — dla obrazów o wymiarach 28*28 pikseli będzie ich 784.

Warstwa wyjściowa

— jej rozmiar zależy od formy oczekiwanych "odpowiedzi". Jeśli mają to być odpowiedzi tak/nie (np. na obrazku znajduje się szukany obiekt lub nie), wystarczyć może nawet jeden sztuczny neuron wyjściowy: jeśli zwracana wartość będzie mniejsza od jakiegoś progu, przyjmiemy "tak", w przeciwnym przypadku — "nie".


Jeśli sieć ma rozpoznawać znajdujące się na obrazach liczby, najwygodniej przypisać każdej liczbie jeden neuron wartwy wyjściowej. Wtedy idealną odpowiedzią sieci na liczbę 9 będzie wartość 1 w ostatnim neuronie, i zera w pozostałych. Takie wzorcowe odpowiedzi pojawiają się tylko w procesie uczenia sieci (jako oznaczenia zbioru uczącego), w praktycznym działaniu takiej sieci jako odpowiedź wybieramy neuron, w którym występuje najwyższa wartość.


Tikz.png


Powyższy rysunek ilustruje przykładową, prostą sieć z jedną warstwą ukrytą, w której poziomy szarości podawane są do kolejnych neuronów wartwy wejściowej.

  • Według aktualnej wiedzy znacznie efektywniejszą architekturą do rozpoznawania obrazów są sieci splotowe (ang. convolutional neural networks), w których struktura wejścia odpowiada topologicznemu sąsiedztwu pikseli w dwóch wymiarach.
  • Współczene sieci mają zwykle znacznie więcej warstw ukrytych — wtedy mówimy o głębokich sieciach neuronowych (ang. deep neural networks).