48エピソード

Leading NLP Ninjaでは最近のNLP (Natural Language Processing)に関連する論文をjojonkiが短く紹介します.気になったこと・質問・間違い等,フィードバック頂けると嬉しいです.
紹介する論文は,基本的に下記の論文まとめから取り上げる予定です.
https://github.com/jojonki/arXivNotes/issues Support this podcast: https://anchor.fm/lnlp-ninja/support

Leading NLP Ninja jojonki

    • テクノロジー

Leading NLP Ninjaでは最近のNLP (Natural Language Processing)に関連する論文をjojonkiが短く紹介します.気になったこと・質問・間違い等,フィードバック頂けると嬉しいです.
紹介する論文は,基本的に下記の論文まとめから取り上げる予定です.
https://github.com/jojonki/arXivNotes/issues Support this podcast: https://anchor.fm/lnlp-ninja/support

    ep48 (AAAI): Emu: Enhancing Multilingual Sentence Embeddings with Semantic Specialization

    ep48 (AAAI): Emu: Enhancing Multilingual Sentence Embeddings with Semantic Specialization

    AAAI 2020より,多言語文埋め込みフレームワークEMUを解説しました.

    今回紹介した記事はこちらのissueで解説しています. https://github.com/jojonki/arXivNotes/issues/371

    サポーターも募集中です. https://www.patreon.com/jojonki


    ---

    Support this podcast: https://anchor.fm/lnlp-ninja/support

    • 38分
    ep47 (ICLR): ALBERT: A Lite BERT for Self-supervised Learning of Language Representations

    ep47 (ICLR): ALBERT: A Lite BERT for Self-supervised Learning of Language Representations

    ICLR 2020より,factorized embeddingとパラメタ共有によるパラメタ削減及び文順序予測タスクを採用したALBERTを解説しました.

    今回紹介した記事はこちらのissueで解説しています. https://github.com/jojonki/arXivNotes/issues/348

    サポーターも募集中です. https://www.patreon.com/jojonki


    ---

    Support this podcast: https://anchor.fm/lnlp-ninja/support

    • 25分
    ep46: FreeLB: Enhanced Adversarial Training for Language Understanding

    ep46: FreeLB: Enhanced Adversarial Training for Language Understanding

    ICLR 2020より,BERT/RoBERTaの埋め込み空間に,敵対摂動を入れるVirtual Adversarial Trainingによって,モデル性能を改善するFreeLBという手法を解説しました.

    今回紹介した記事はこちらのissueで解説しています. https://github.com/jojonki/arXivNotes/issues/347

    サポーターも募集中です. https://www.patreon.com/jojonki


    ---

    Support this podcast: https://anchor.fm/lnlp-ninja/support

    • 24分
    ep45: Episodic Memory in Lifelong Language Learning

    ep45: Episodic Memory in Lifelong Language Learning

    NeurIPS 2019よりDeepMindが発表した,様々な異なるタスク(テキスト分類とQA)のデータセットをepisodic memoryを利用して1モデルで学習できる手法を解説しました.

    今回紹介した記事はこちらのissueで解説しています. https://github.com/jojonki/arXivNotes/issues/326

    サポーターも募集中です. https://www.patreon.com/jojonki


    ---

    Support this podcast: https://anchor.fm/lnlp-ninja/support

    • 36分
    ep44: 75 Languages, 1 Model: Parsing Universal Dependencies Universally

    ep44: 75 Languages, 1 Model: Parsing Universal Dependencies Universally

    第44回では,多言語で事前学習されたBERTを用いて,多言語でUniversal Dependenciesのタスクを解くモデルを解説しました.

    今回紹介した記事はこちらのissueで解説しています. https://github.com/jojonki/arXivNotes/issues/322

    サポーターも募集中です. https://www.patreon.com/jojonki


    ---

    Support this podcast: https://anchor.fm/lnlp-ninja/support

    • 36分
    ep43: BPE-Dropout: Simple and Effective Subword Regularization

    ep43: BPE-Dropout: Simple and Effective Subword Regularization

    第43回では,Byte Pair Encodingを用いたサブワード正則化手法,BPE-dropoutを解説しました.

    今回紹介した記事はこちらのissueで解説しています. https://github.com/jojonki/arXivNotes/issues/302

    サポーターも募集中です. https://www.patreon.com/jojonki


    ---

    Support this podcast: https://anchor.fm/lnlp-ninja/support

    • 36分

カスタマーレビュー

hakuohh

仕事上で有用です

自然言語処理について知ったかぶりするのに重宝しております。お世話になっております。

iBotamon

素晴らしいです!

医療データへの自然言語処理の応用を目指している大学院生です!
医療畑で育ってきて工学のバックグラウンドを持たない私が,独学に苦労しているとき,このPodcastに出会いました。

「論文を読む」ではなく「論文を聞く」はとても新鮮な体験です!NLPの幅広いジャンルの論文をわかりやすく噛み砕いてくれていて,とても助かっています🤗

テクノロジーのトップPodcast

他のリスナーはこちらのサブスクリプションにも登録しています