AI 111: GPT Nasıl Çalışıyor

Fularsız Entellik

Nihayet geldik ChatGPT'nin temelindeki modele. Hafıza sahibi ağlardan (LSTM) bugün her yerde kullanılan transformer mimarisine geçişi anlayacağız. Kilit kavramlar: Word embedding ve attention mekanizması.

.

Konular:

  • (00:04) Kartopu Dünya Hipotezi
  • (00:55) Tekrar: Geri besleme
  • (02:15) Kısa dönem hafıza
  • (04:30) LSTM
  • (05:57) Token
  • (07:40) Matrix
  • (08:50) Word Embeddings
  • (14:20) Fularsız Entellik çok bozdu
  • (16:50) Encoder Decoder
  • (18:30) Attention Mekanizması
  • (19:50) Transformer Mimarisi
  • (23:45) Parallellik
  • (26:20) ChatGPT vs GPT
  • (28:12) Patreon Teşekkürleri

Kaynaklar:

  • Video Ders: MIT 6.S191 (2023): Recurrent Neural Networks, Transformers, and Attention
  • Video: Let's build GPT: from scratch, in code, spelled out

.

------- Podbee Sunar -------

Bu podcast, Hiwell hakkında reklam içerir .
Pod50 kodumuzla Hiwell'de ilk seansınızda geçerli %50 indirimi kullanmak için Hiwell'i şimdi indirin. .
1500'ü aşkın uzman klinik psikolog arasından size en uygun olanlarla terapi yolculuğunuza kolaylıkla başlayın.

See Privacy Policy at https://art19.com/privacy and California Privacy Notice at https://art19.com/privacy#do-not-sell-my-info.

Para escuchar episodios explícitos, inicia sesión.

Mantente al día con este programa

Inicia sesión o regístrate para seguir programas, guardar episodios y enterarte de las últimas novedades.

Elige un país o región

Africa, Oriente Medio e India

Asia-Pacífico

Europa

Latinoamérica y el Caribe

Estados Unidos y Canadá