
TI/LLM: Różnice pomiędzy wersjami
Z Brain-wiki
| (Nie pokazano 2 pośrednich wersji utworzonych przez tego samego użytkownika) | |||
| Linia 1: | Linia 1: | ||
=Duże modele językowe — ''Large language models, LLM''= | =Duże modele językowe — ''Large language models, LLM''= | ||
| − | Na wykładzie o [[TI/Sztuczne_sieci_neuronowe|sztucznych sieciach neuronowych]] zapoznaliśmy się z procesem uczenia sieci. Uczenie i | + | Na wykładzie o [[TI/Sztuczne_sieci_neuronowe|sztucznych sieciach neuronowych]] zapoznaliśmy się z procesem uczenia sieci. Uczenie i użytkowanie dużych modeli językowych opiera się na tych samych podstawach, wprowadzając jednocześnie wiele nowości. |
==Korpus== | ==Korpus== | ||
| Linia 19: | Linia 19: | ||
https://poloclub.github.io/transformer-explainer/ | https://poloclub.github.io/transformer-explainer/ | ||
| − | https://bbycroft.net/llm | + | [[Plik:Transformer_explainer.png|noborder|600px]] |
| + | |||
| + | <!-- https://bbycroft.net/llm --> | ||
Aktualna wersja na dzień 12:00, 27 paź 2025
Spis treści
Duże modele językowe — Large language models, LLM
Na wykładzie o sztucznych sieciach neuronowych zapoznaliśmy się z procesem uczenia sieci. Uczenie i użytkowanie dużych modeli językowych opiera się na tych samych podstawach, wprowadzając jednocześnie wiele nowości.
Korpus
https://huggingface.co/spaces/HuggingFaceFW/blogpost-fineweb-v1
Tokenizacja
https://tiktokenizer.vercel.app/
Działanie
https://poloclub.github.io/transformer-explainer/