TI/LLM: Różnice pomiędzy wersjami

Z Brain-wiki
Linia 4: Linia 4:
 
==Korpus==
 
==Korpus==
 
https://huggingface.co/spaces/HuggingFaceFW/blogpost-fineweb-v1
 
https://huggingface.co/spaces/HuggingFaceFW/blogpost-fineweb-v1
[[Plik:Fineweb.png|noborder|800px]]
+
 
 +
[[Plik:Fineweb.png|noborder|600px]]
  
  
Linia 12: Linia 13:
  
 
[[Plik:Tiktokenizer.png|noborder|600px]]
 
[[Plik:Tiktokenizer.png|noborder|600px]]
 +
 +
  
 
==Działanie==
 
==Działanie==
 
https://poloclub.github.io/transformer-explainer/
 
https://poloclub.github.io/transformer-explainer/

Wersja z 11:23, 27 paź 2025

Duże modele językowe — Large language models, LLM

Na wykładzie o sztucznych sieciach neuronowych zapoznaliśmy się z procesem uczenia sieci. Uczenie i używanie dużych modeli językowych opiera się na tych samych podstawach, wprowadzając jednocześnie wiele nowości.

Korpus

https://huggingface.co/spaces/HuggingFaceFW/blogpost-fineweb-v1

noborder


Tokenizacja

https://tiktokenizer.vercel.app/

noborder


Działanie

https://poloclub.github.io/transformer-explainer/