10月27日、MiniMaxがエージェントとコーディングに照準を合わせた新モデル「M2」を発表し、同時にオープンソース化しました。公式発表では、M2はClaude Sonnet比で価格が約8%、推論速度は約2倍をうたい、APIは入力100万トークンあたり0.30ドル、出力100万トークンあたり1.20ドルの設定。オンライン推論は毎秒およそ100トークンのスループットを示し、無料トライアルを日本時間11月7日午前9時(UTC 11月7日0時)まで延長するとしています。重みはHugging Faceで公開され、vLLMやSGLangでの配備手順も併せて案内されました。価格・速度・配備容易性をワンセットで押し出す、開発者ファーストの打ち出しです。
M2の訴求点は“エージェント実務の即戦力”にあるといえます。ブラウザ、シェル、Pythonコードインタープリタ、各種MCPツールの呼び出しを安定的に連鎖させ、長い手順のタスクを計画・実行できると説明。製品側でもM2搭載の「MiniMax Agent」を国内外で開放し、軽量な高速応答に振った「Lightning」と、調査・フルスタック開発・資料作成のような長時間処理向け「Pro」の二段構えを用意しています。対話型アシスタントから“自律して用を足すエージェント”へ、現場感のあるユースケースが明確になってきました。
性能面の裏づけとしては、ツール利用と“深い検索”で海外トップ層に肉薄し、プログラミングでは最上位に一歩届かないものの国内勢では強い──という自己評価が示されました。独立系のArtificial Analysisも、M2の価格0.30/1.20ドル設定や推論効率を根拠に“コスト対効果が際立つ”としつつ、出力が冗長になりやすい点など実務での注意点も付記しています。要するに、絶対性能で最上位を狙うというより、“現場のコストと体感速度を下げ、エージェントを回しやすくする”方向に最適化されている、という見立てです。
今回のオープンウェイト公開は、エコシステムづくりの速度を上げる狙いも感じます。Hugging Faceでの配布に加えて、vLLMやSGLangのデプロイガイドまでセット提供。社内外の開発者が“まず動かして、エージェントの道具箱に入れる”までの距離を一気に縮めています。MiniMax自身も社内エージェントの運用例を挙げ、調査・不具合解析・日次のプログラミングやユーザー対応までAIが並走し、組織の仕事そのものを変えていくという手応えを語っています。
一方で、事業の背景には大型の資金調達と上場準備、そして著作権を巡る係争という現実もあります。MiniMaxは7月に香港でのIPOを目指す機密申請が報じられ、9月にはハリウッド大手が米国で著作権侵害を提訴。M2のような“開いて速いモデル”を武器に開発者の支持を得つつ、データの取り扱いと安全設計をどこまで透明化できるかが、今後の海外展開の要になりそうです。
総じてM2は、最上位モデルの“点の強さ”ではなく、価格・速度・配備性の“面の強さ”でエージェント実装を押し出す一手です。コストが重くなりがちな長鎖ツール呼び出しやコード生成を“現実的な値段と体感速度”に落とし込めるか──この実務的な問いに、オープンウェイトと安価なAPIで真正面から応える姿勢が見て取れます。国内外の現場で“まず使ってみる”動きが広がれば、エージェントの内製・運用は来月からでも始められる段取りに入った、と言えるでしょう。
Informations
- Émission
- FréquenceChaque semaine
- Publiée29 octobre 2025 à 22:00 UTC
- Durée5 min
- Saison1
- Épisode670
- ClassificationTous publics
