
TI/LLM: Różnice pomiędzy wersjami
Z Brain-wiki
(→Dane) |
(→Dane) |
||
| Linia 8: | Linia 8: | ||
https://huggingface.co/spaces/HuggingFaceFW/blogpost-fineweb-v1 | https://huggingface.co/spaces/HuggingFaceFW/blogpost-fineweb-v1 | ||
| + | |||
| + | |||
| + | ===Tokenizacja=== | ||
| + | [[Plik:Tiktokenizer.png|noborder|800px]] | ||
| + | |||
| + | https://tiktokenizer.vercel.app/ | ||
Wersja z 11:08, 27 paź 2025
Spis treści
Duże modele językowe — Large language models, LLM
Na wykładzie o sztucznych sieciach neuronowych zapoznaliśmy się z procesem uczenia sieci. Uczenie i używanie dużych modeli językowych opiera się na tych samych podstawach, wprowadzając jednocześnie wiele nowości.
Trenowanie wstępne
Dane
https://huggingface.co/spaces/HuggingFaceFW/blogpost-fineweb-v1