
TI/LLM: Różnice pomiędzy wersjami
Z Brain-wiki
| Linia 4: | Linia 4: | ||
==Korpus== | ==Korpus== | ||
https://huggingface.co/spaces/HuggingFaceFW/blogpost-fineweb-v1 | https://huggingface.co/spaces/HuggingFaceFW/blogpost-fineweb-v1 | ||
| − | [[Plik:Fineweb.png|noborder| | + | |
| + | [[Plik:Fineweb.png|noborder|600px]] | ||
| Linia 12: | Linia 13: | ||
[[Plik:Tiktokenizer.png|noborder|600px]] | [[Plik:Tiktokenizer.png|noborder|600px]] | ||
| + | |||
| + | |||
==Działanie== | ==Działanie== | ||
https://poloclub.github.io/transformer-explainer/ | https://poloclub.github.io/transformer-explainer/ | ||
Wersja z 11:23, 27 paź 2025
Spis treści
Duże modele językowe — Large language models, LLM
Na wykładzie o sztucznych sieciach neuronowych zapoznaliśmy się z procesem uczenia sieci. Uczenie i używanie dużych modeli językowych opiera się na tych samych podstawach, wprowadzając jednocześnie wiele nowości.
Korpus
https://huggingface.co/spaces/HuggingFaceFW/blogpost-fineweb-v1
Tokenizacja
https://tiktokenizer.vercel.app/