39分

第15回:論文紹介 The Power of Scale for Parameter-Efficient Prompt Tuning hikifune.fm

    • テクノロジー

pre-trained T5 で downstream タスクを解く時にタスクを記述する prompt token のみを学習して高い精度(巨大モデルではモデル全体を再学習するのとほぼ同等)を達成する prompt tuning の論文を紹介する回です。
Show notes は https://github.com/yoheikikuta/hikifune.fm/blob/master/ep/015.md です。
発表者:@yohei_kikuta

pre-trained T5 で downstream タスクを解く時にタスクを記述する prompt token のみを学習して高い精度(巨大モデルではモデル全体を再学習するのとほぼ同等)を達成する prompt tuning の論文を紹介する回です。
Show notes は https://github.com/yoheikikuta/hikifune.fm/blob/master/ep/015.md です。
発表者:@yohei_kikuta

39分

テクノロジーのトップPodcast

ゆるコンピュータ科学ラジオ
ゆるコンピュータ科学ラジオ
デデデータ!!〜“あきない”データの話〜
DATAFLUCT
Rebuild
Tatsuhiko Miyagawa
Off Topic // オフトピック
Off Topic
Lex Fridman Podcast
Lex Fridman
backspace.fm
backspace.fm