株式会社ずんだもん技術室AI放送局

株式会社ずんだもん技術室AI放送局 podcast 20250916

関連リンク

  • Build a Report Generator AI Agent with NVIDIA Nemotron on OpenRouter

このブログ記事は、NVIDIA NemotronとOpenRouterを活用し、自律的にレポートを生成するAIエージェントを構築するワークショップについて解説しています。従来のシステムと異なり、AIエージェントはLLM(大規模言語モデル)を「脳」として使い、状況に応じて自ら判断し、複雑なタスクをこなすことができます。新人エンジニアの皆さんも、最先端のAI開発に触れる良い機会となるでしょう。

ワークショップでは、AIエージェントの核心である以下の4つの要素を実践的に学びます。

  1. モデル: 意思決定の要となるLLM(NVIDIA Nemotronなど)。
  2. ツール: LLMがWeb検索などの外部機能を利用するための手段。
  3. メモリと状態: エージェントが過去の情報や現在の状況を記憶し、行動に活かす仕組み。
  4. ルーティング: エージェントが次に何をすべきかを動的に決定するロジック。

学習環境はNVIDIA Brev Launchableというクラウドベースで提供され、OpenRouterおよびTavilyのAPIキーを設定するだけで、JupyterLab環境でハンズオン形式で学習を進められます。

構築するレポート生成エージェントは、LangGraphとNVIDIA NIM(OpenRouter経由)を基盤とした多段階のアーキテクチャを持ちます。このエージェントは以下のプロセスでレポートを自動作成します。

  1. 初期調査: テーマに関する情報を広範囲に収集。
  2. アウトライン計画: 調査結果からレポートの構成を設計。
  3. セクション執筆: 各セクションの詳細な内容を執筆。必要に応じて追加調査も実施。
  4. 最終コンパイル: 完成したセクションを統合し、プロフェッショナルなレポートを完成。

エージェントの中核には、NVIDIA NIMが提供する高性能なNemotron Nano 9B V2モデルが使われます。情報収集には、AIエージェント向けに最適化されたTavily検索APIを活用します。

ワークショップでは、特に重要な「リサーチャー」と「オーサー」というコンポーネントの実装を詳細に学びます。

  • リサーチャー: 「ReAct(Reasoning and Action)」パターンに基づき、思考と行動を繰り返して効率的に情報を収集します。
  • オーサー: リサーチャーが収集した情報と必要に応じた追加調査を元に、レポートの各セクションを執筆します。

これらのコンポーネントは、LangGraphフレームワークによって統合されます。LangGraphの持つ「条件付きルーティング」機能により、エージェントは複雑なワークフローの中で柔軟かつインテリジェントな意思決定を行い、各ステップを制御します。

このワークショップを通して、皆さんはAIエージェントの基礎から、LangGraphやNVIDIA NIMといった最新のツールを使った実践的な構築スキルまでを習得し、自律的なAIシステムの開発能力を高めることができるでしょう。

引用元: https://developer.nvidia.com/blog/build-a-report-generator-ai-agent-with-nvidia-nemotron-on-openrouter/

  • New Open Source Qwen3-Next Models Preview Hybrid MoE Architecture Delivering Improved Accuracy and

皆さん、こんにちは!今回は、AIの世界で大きな注目を集めるLLM(大規模言語モデル)に関する新しい発表をご紹介します。中国のAlibabaとNVIDIAが共同で、新しいオープンソースのLLM「Qwen3-Next」モデルを発表しました。このモデルは、AIの性能と効率を大きく向上させる「ハイブリッドMoE(Mixture of Experts)アーキテクチャ」という画期的な技術を取り入れているのが特徴です。

MoEとは、「専門家を組み合わせたモデル」という意味で、簡単に言えば、たくさんのAIの「専門家」の中から、処理する内容に合った「専門家」だけを選んで使う仕組みです。Qwen3-Nextモデルは全体で800億ものパラメータ(AIの知識量を示す数値)を持っていますが、実際に一つの処理に使われるのはわずか30億パラメータだけ。これは、たくさんの知識を持った大規模モデルの「賢さ」と、少ないリソースで動く小規模モデルの「効率性」を両立できるという、とても賢い方法なんです。例えるなら、一つの質問に対して、その分野のプロフェッショナルだけがサッと答えてくれるようなイメージですね。

このモデルは、26万トークンという非常に長いテキストもスムーズに処理できる能力も持っています。これはNVIDIAが開発した「Gated Delta Networks」という技術によって実現されており、長文を読む際に重要な情報を見落とすことなく、効率的に内容を理解することができます。まるで、分厚い専門書でも途中で飽きずに、必要な情報をピンポイントで見つけられるAIのようなものです。

また、NVIDIAの最新GPU(BlackwellやHopper世代)でQwen3-Nextモデルを動かすと、その性能を最大限に引き出すことができます。特にGPU間でデータを高速にやり取りする「NVLink」という技術は、MoEモデルが複数の専門家に処理を振り分ける際の速度を大幅に向上させ、より速い推論を可能にします。NVIDIAのCUDAという開発プラットフォームも、このような新しい複雑なモデルアーキテクチャに柔軟に対応し、最適化された動作をサポートしています。

このQwen3-Nextモデルは、NVIDIAのウェブサイト(build.nvidia.com)でその推論能力を試せるほか、オープンソースのモデルが多数公開されているHugging Faceからもダウンロードできます。さらに、SGLangやvLLMといった推論用のオープンソースフレームワーク、そしてNVIDIAが提供するエンタープライズ向けのサービス「NVIDIA NIM」を使っても、簡単にモデルを展開して利用できます。

この新しいオープンソースLLMの登場は、AI開発の未来にとって大きな前進です。効率的で高性能なAIモデルがより多くのエンジニアに利用されることで、様々な新しいAIアプリケーションが生まれ、技術革新が加速することが期待されます。新人エンジニアの皆さんも、ぜひこの新しい技術に触れて、AIの最前線を体験してみてください。

引用元: https://developer.nvidia.com/blog/new-open-source-qwen3-next-models-preview-hybrid-moe-architecture-delivering-improved-accuracy-and-accelerated-parallel-processing-across-nvidia-platform/

  • Visual Studio Code、AGENTS.md対応、言語モデルの自動選択機能の追加、拡張機能から言語モデルを提供するAPIを実装 ——Hugging Faceなどの拡張機能からも最新のオープンモデルが使えるように gihyo.jp

Visual Studio Code(VS Code)の2025年8月アップデート(バージョン1.104)で、AI活用の機能が大幅に強化されました。特に、LLM(大規模言語モデル)との連携が深まり、日々の開発作業が大きく進化する注目ポイントが満載です。

まず大きな進化は、VS Codeのチャット機能で使える言語モデルの選択肢が大きく広がったことです。「Language Model Chat Provider API」の完成により、Hugging Faceなどの外部サービスが提供する多様なオープンモデルを、VS Codeの拡張機能を通じて利用可能になりました。これにより、皆さんのプロジェクトや用途に合わせ、最新かつ最適なAIモデルを柔軟に選び、活用できるようになります。現時点ではGitHub Copilotの個人プランユーザーが主な対象ですが、AI活用の幅が広がるのは間違いありません。

次に注目すべきは、AIモデルの「自動選択機能(Autoモード)」の導入です。チャットで「Auto」を選ぶと、VS Codeがその時々に最適なモデルを自動で選び、処理してくれます。これにより、どのモデルを使えばいいか迷う必要がなくなり、利用制限(レート制限)を気にせず効率的にAIを活用できるようになります。有料プランのユーザーにはリクエスト割引も適用される予定です。

チームでのAIエージェント活用を助ける「AGENTS.md」への対応も始まりました。これは、プロジェクト特有のルールや文脈をAIエージェントに教えるためのファイルです。これをワークスペースに置いておけば、AIエージェントが