TI/LLM: Różnice pomiędzy wersjami

Z Brain-wiki
Linia 2: Linia 2:
 
Na wykładzie o [[TI/Sztuczne_sieci_neuronowe|sztucznych sieciach neuronowych]] zapoznaliśmy się z procesem uczenia sieci. Uczenie i używanie dużych modeli językowych opiera się na tych samych podstawach, wprowadzając jednocześnie wiele nowości.
 
Na wykładzie o [[TI/Sztuczne_sieci_neuronowe|sztucznych sieciach neuronowych]] zapoznaliśmy się z procesem uczenia sieci. Uczenie i używanie dużych modeli językowych opiera się na tych samych podstawach, wprowadzając jednocześnie wiele nowości.
  
==Trenowanie wstępne==
+
==Dane==
 
 
===Dane===
 
 
[[Plik:Fineweb.png|noborder|800px]]
 
[[Plik:Fineweb.png|noborder|800px]]
  
Linia 10: Linia 8:
  
  
===Tokenizacja===
+
==Tokenizacja==
 
[[Plik:Tiktokenizer.png|noborder|800px]]
 
[[Plik:Tiktokenizer.png|noborder|800px]]
  
 
https://tiktokenizer.vercel.app/
 
https://tiktokenizer.vercel.app/

Wersja z 11:08, 27 paź 2025

Duże modele językowe — Large language models, LLM

Na wykładzie o sztucznych sieciach neuronowych zapoznaliśmy się z procesem uczenia sieci. Uczenie i używanie dużych modeli językowych opiera się na tych samych podstawach, wprowadzając jednocześnie wiele nowości.

Dane

noborder

https://huggingface.co/spaces/HuggingFaceFW/blogpost-fineweb-v1


Tokenizacja

noborder

https://tiktokenizer.vercel.app/