TI/LLM: Różnice pomiędzy wersjami

Z Brain-wiki
 
(Nie pokazano 5 pośrednich wersji utworzonych przez tego samego użytkownika)
Linia 1: Linia 1:
 
=Duże modele językowe — ''Large language models, LLM''=
 
=Duże modele językowe — ''Large language models, LLM''=
Na wykładzie o [[TI/Sztuczne_sieci_neuronowe|sztucznych sieciach neuronowych]] zapoznaliśmy się z procesem uczenia sieci. Uczenie i używanie dużych modeli językowych opiera się na tych samych podstawach, wprowadzając jednocześnie wiele nowości.
+
Na wykładzie o [[TI/Sztuczne_sieci_neuronowe|sztucznych sieciach neuronowych]] zapoznaliśmy się z procesem uczenia sieci. Uczenie i użytkowanie dużych modeli językowych opiera się na tych samych podstawach, wprowadzając jednocześnie wiele nowości.
  
 
==Korpus==
 
==Korpus==
 
https://huggingface.co/spaces/HuggingFaceFW/blogpost-fineweb-v1
 
https://huggingface.co/spaces/HuggingFaceFW/blogpost-fineweb-v1
[[Plik:Fineweb.png|noborder|800px]]
+
 
 +
[[Plik:Fineweb.png|noborder|600px]]
  
  
Linia 10: Linia 11:
 
==Tokenizacja==
 
==Tokenizacja==
 
https://tiktokenizer.vercel.app/
 
https://tiktokenizer.vercel.app/
[[Plik:Tiktokenizer.png|noborder|800px]]
+
 
 +
[[Plik:Tiktokenizer.png|noborder|600px]]
  
  
Linia 16: Linia 18:
 
==Działanie==
 
==Działanie==
 
https://poloclub.github.io/transformer-explainer/
 
https://poloclub.github.io/transformer-explainer/
 +
 +
[[Plik:Transformer_explainer.png|noborder|600px]]
 +
 +
<!-- https://bbycroft.net/llm -->

Aktualna wersja na dzień 12:00, 27 paź 2025

Duże modele językowe — Large language models, LLM

Na wykładzie o sztucznych sieciach neuronowych zapoznaliśmy się z procesem uczenia sieci. Uczenie i użytkowanie dużych modeli językowych opiera się na tych samych podstawach, wprowadzając jednocześnie wiele nowości.

Korpus

https://huggingface.co/spaces/HuggingFaceFW/blogpost-fineweb-v1

noborder


Tokenizacja

https://tiktokenizer.vercel.app/

noborder


Działanie

https://poloclub.github.io/transformer-explainer/

noborder