pre-trained T5 で downstream タスクを解く時にタスクを記述する prompt token のみを学習して高い精度(巨大モデルではモデル全体を再学習するのとほぼ同等)を達成する prompt tuning の論文を紹介する回です。
Show notes は https://github.com/yoheikikuta/hikifune.fm/blob/master/ep/015.md です。
発表者:@yohei_kikuta
資訊
- 節目
- 發佈時間2021年4月25日 上午9:08 [UTC]
- 長度39 分鐘
- 年齡分級兒少適宜