Nihayet geldik ChatGPT'nin temelindeki modele. Hafıza sahibi ağlardan (LSTM) bugün her yerde kullanılan transformer mimarisine geçişi anlayacağız. Kilit kavramlar: Word embedding ve attention mekanizması.
.
Konular:
- (00:04) Kartopu Dünya Hipotezi
- (00:55) Tekrar: Geri besleme
- (02:15) Kısa dönem hafıza
- (04:30) LSTM
- (05:57) Token
- (07:40) Matrix
- (08:50) Word Embeddings
- (14:20) Fularsız Entellik çok bozdu
- (16:50) Encoder Decoder
- (18:30) Attention Mekanizması
- (19:50) Transformer Mimarisi
- (23:45) Parallellik
- (26:20) ChatGPT vs GPT
- (28:12) Patreon Teşekkürleri
Kaynaklar:
- Video Ders: MIT 6.S191 (2023): Recurrent Neural Networks, Transformers, and Attention
- Video: Let's build GPT: from scratch, in code, spelled out
.
------- Podbee Sunar -------
Bu podcast,
Hiwell hakkında reklam içerir .
Pod50 kodumuzla Hiwell'de ilk seansınızda geçerli %50 indirimi kullanmak için Hiwell'i
şimdi indirin. .
1500'ü aşkın uzman klinik psikolog arasından size en uygun olanlarla terapi yolculuğunuza kolaylıkla başlayın.
See Privacy Policy at https://art19.com/privacy and California Privacy Notice at https://art19.com/privacy#do-not-sell-my-info.
Información
- Programa
- FrecuenciaCada dos semanas
- Publicado24 de julio de 2024, 14:31 UTC
- Duración29 min
- Episodio223
- ClasificaciónApto