名古屋ではたらく社長のITニュースポッドキャスト

ikuo suzuki

システムサーバーの社長である鈴木生雄が気になるITニュースをピックアップして数分のコンテンツとしてお届けする番組です。主に取り上げるニュースはAI、半導体、ビッグテック企業です。

  1. 3D AGO

    Ep.671 Microsoft×OpenAI、新章へ──PBC化と“独立AGI検証”で結び直す巨大同盟(2025年10月30日配信)

    2025年10月28日、MicrosoftはOpenAIとの「次章」を告げる最終契約を発表しました。大枠は、2019年以来の協業を“長期持続型”へ組み替える内容です。目玉はOpenAIのPBC化と再資本化の正式化、そしてMicrosoftがOpenAI Group PBCに評価額約1,350億ドル、持分約27%(希薄化後・全オーナー込み)で参画する点。従来ラウンドの影響を除くと、Microsoftはこれまで約32.5%相当の持分を保有していたと補足されています。市場は好感し、報道各社も“構造の再定義”として伝えました。 提携の“核”は維持されます。OpenAIはMicrosoftの「フロンティアモデル・パートナー」を継続し、APIについてはAGI到達までAzure独占。一方で今回の契約は、到達の判定をOpenAIの自己宣言ではなく“独立専門家パネル”が検証する新ルールを導入し、Microsoftのモデル・製品に関するIP権は2032年まで延長、AGI到達後のモデルにも一定の安全策の下で適用可能としました。研究に関わる「機密の方法」に関するIPは、AGI検証完了か2030年までの早い方で終了するという“線引き”も明示されています。 権利と自由度のバランスも再設計されました。OpenAIは第三者と共同開発する余地が広がり、第三者と作るAPI製品は引き続きAzure独占ですが、非API製品は他クラウドでも提供可能に。また、OpenAIは能力基準を満たす範囲で“オープンウェイト”の公開が許容され、米国の国家安全保障分野の顧客に対しては、クラウドに依らずAPI提供ができるようになります。Microsoft側も“独自または他社とAGI追求”が可能となり、もしOpenAIのIPを使ってAGIを構築する場合は、宣言前でも大規模な計算閾値の下で進められるという枠組みに変わりました。 クラウド面の“縛り”にも変化があります。OpenAIはAzureの追加利用で2,500億ドルを契約する一方、Microsoftは“計算リソースの第一拒否権(ROFR)”を放棄。結果として、OpenAIのマルチクラウド化が制度的にも可能になりました。9月に示された覚書から続く“関係の再定義”が、正式契約として結実した格好です。 この再編の裏側では、OpenAIの支配権を握る非営利団体がPBCに巨額の持分を持つという独自構造が進んでいます。非営利側の持分は1,000億ドル超との説明がこれまでにあり、公益性と資本調達を両立させる狙いがうかがえます。今回の最終契約は、公益目的・安全性検証・知財の保全と、事業の拡張性・柔軟な提携の両立を、条文レベルで具体化したものです。 足元の産業文脈で見れば、OpenAIの“計算の買い方”にも注目が集まります。Azureへの大型コミットに加えて、同社は他社クラウドや自社主導の半導体調達も模索してきました。ROFRの廃止は、需給逼迫が続くAI計算を“複線化”する選択肢を現実にし、Microsoftは“IP・製品の線引き”を強めつつ、Azureの長期需要を確保するという、攻守両面の着地に見えます。 総じて今回の“新章”は、両社が互いの自由度と安全弁を拡げながら、関係の解像度を上げたという出来事です。AGIの判定を第三者が検証し、知財の適用期限を明快にし、クラウドのしがらみを調整したことで、開発・提供・規制対応の三つ巴を長期運用できる設計に寄せました。企業の皆さんにとっては、Azure前提のエコシステムは維持されつつ、OpenAI由来の製品やモデルが“より広い接続性”を持ち始めることが、来年以降の実装・調達の選択肢を確実に増やすはずです。

    6 min
  2. 3D AGO

    Ep.670 MiniMax、エージェント特化「M2」を公開──“価格8%・倍速”で重みも開放(2025年10月30日配信)

    10月27日、MiniMaxがエージェントとコーディングに照準を合わせた新モデル「M2」を発表し、同時にオープンソース化しました。公式発表では、M2はClaude Sonnet比で価格が約8%、推論速度は約2倍をうたい、APIは入力100万トークンあたり0.30ドル、出力100万トークンあたり1.20ドルの設定。オンライン推論は毎秒およそ100トークンのスループットを示し、無料トライアルを日本時間11月7日午前9時(UTC 11月7日0時)まで延長するとしています。重みはHugging Faceで公開され、vLLMやSGLangでの配備手順も併せて案内されました。価格・速度・配備容易性をワンセットで押し出す、開発者ファーストの打ち出しです。 M2の訴求点は“エージェント実務の即戦力”にあるといえます。ブラウザ、シェル、Pythonコードインタープリタ、各種MCPツールの呼び出しを安定的に連鎖させ、長い手順のタスクを計画・実行できると説明。製品側でもM2搭載の「MiniMax Agent」を国内外で開放し、軽量な高速応答に振った「Lightning」と、調査・フルスタック開発・資料作成のような長時間処理向け「Pro」の二段構えを用意しています。対話型アシスタントから“自律して用を足すエージェント”へ、現場感のあるユースケースが明確になってきました。 性能面の裏づけとしては、ツール利用と“深い検索”で海外トップ層に肉薄し、プログラミングでは最上位に一歩届かないものの国内勢では強い──という自己評価が示されました。独立系のArtificial Analysisも、M2の価格0.30/1.20ドル設定や推論効率を根拠に“コスト対効果が際立つ”としつつ、出力が冗長になりやすい点など実務での注意点も付記しています。要するに、絶対性能で最上位を狙うというより、“現場のコストと体感速度を下げ、エージェントを回しやすくする”方向に最適化されている、という見立てです。 今回のオープンウェイト公開は、エコシステムづくりの速度を上げる狙いも感じます。Hugging Faceでの配布に加えて、vLLMやSGLangのデプロイガイドまでセット提供。社内外の開発者が“まず動かして、エージェントの道具箱に入れる”までの距離を一気に縮めています。MiniMax自身も社内エージェントの運用例を挙げ、調査・不具合解析・日次のプログラミングやユーザー対応までAIが並走し、組織の仕事そのものを変えていくという手応えを語っています。 一方で、事業の背景には大型の資金調達と上場準備、そして著作権を巡る係争という現実もあります。MiniMaxは7月に香港でのIPOを目指す機密申請が報じられ、9月にはハリウッド大手が米国で著作権侵害を提訴。M2のような“開いて速いモデル”を武器に開発者の支持を得つつ、データの取り扱いと安全設計をどこまで透明化できるかが、今後の海外展開の要になりそうです。 総じてM2は、最上位モデルの“点の強さ”ではなく、価格・速度・配備性の“面の強さ”でエージェント実装を押し出す一手です。コストが重くなりがちな長鎖ツール呼び出しやコード生成を“現実的な値段と体感速度”に落とし込めるか──この実務的な問いに、オープンウェイトと安価なAPIで真正面から応える姿勢が見て取れます。国内外の現場で“まず使ってみる”動きが広がれば、エージェントの内製・運用は来月からでも始められる段取りに入った、と言えるでしょう。

    5 min
  3. 3D AGO

    Ep.669 xAI「Grokipedia」v0.1始動──“AIが事実確認する百科事典”はWikipediaの対抗軸になり得るか(2025年10月30日配信)

    10月28日、xAIがAI生成の百科事典「Grokipedia」v0.1を公開しました。マスク氏はX上で「v1.0は10倍良くなるが、0.1でもWikipediaより優れている」と発言し、ローンチを強調。英語圏メディアも一斉に取り上げ、AIが書いた項目をGrokが“事実確認”し、その実施時刻を各ページに表示する点を主要な特徴として伝えています。公開直後の収録項目は約88万5千件と報じられ、対抗軸としての位置づけが鮮明になりました。 日本語の詳細レポートでは、現在のv0.1は英語項目のみで画像は未掲載、脚注をクリックするとリンク先へ直接遷移する実装、本文選択から「Ask Grok」「It’s wrong(誤り報告)」へつなぐUIなど、“読む・確かめる・直す”の導線が整理されていると解説されています。また、一部ページにはWikipedia由来の記述が含まれ、その旨とCC BY-SA 4.0に基づくクレジットが明記されていること、マスク氏が“オープンソース”と称した点は主にページ内容の利用ライセンスを指す文脈と見られることも補足されています。 他方で、公開初日から論争も噴出しました。The Vergeは「AIで複製されたページが混在し、“Grokが事実確認済み”と表示されるが、その妥当性自体が議論の的」と指摘。WiredやGuardianは“Wikipediaのリベラル偏向に対抗する”という政治的文脈を色濃く伝え、初期版の記述に右派的な言い回しが目立つとの批評も紹介しています。つまり、Grokipediaは“何を真実とみなすか”という価値観の衝突まで引き受ける設計で走り出した、ということです。 タイムラインを振り返ると、v0.1は当初“プロパガンダの除去が必要”として数日の延期が示唆されましたが、結局その週内に公開へ。APやForbesは、マスク氏の「真実、全真実、そして真実のみ」という標榜とともに、Wikipediaの“公開・分散編集”に対してGrokipediaは“AI主導+ユーザーは訂正提案”という運用の差を整理しています。体験としては百科事典でありつつ、裏側は検索・要約・検証までを一気通貫で回す“QAエンジン寄り”の思想がにじみます。 実務への含意は二つあります。第一に、企業や公的機関の広報・IR・研究部署が、固有名詞の説明にGrokipediaを“補助線”として使い始める可能性。Grokの時刻つき検証表示は、初期段階ながら“いつ時点の確認か”を示すメタデータとして有用です。第二に、出典再利用とライセンスの遵守が試されること。Wikipedia由来の記述が混在する以上、クレジットや継承の扱いを誤ると摩擦を生みます。AIが“編集する百科事典”は、性能だけでなく手続きの透明性が信頼の土台になる──この当たり前を、Grokipediaは世界規模の実運用で証明していくことになります。

    4 min
  4. 3D AGO

    Ep.668 CODA、OpenAI「Sora 2」に要望書──“オプトアウト任せ”へ日本から突きつけられた一石(2025年10月30日配信)

    10月28日、CODAはOpenAIが9月30日に提供開始した「Sora 2」の運用に関し、要望書を提出したと発表しました。CODAは、Sora 2上で日本の既存コンテンツに酷似する映像が多数生成されている事実を確認したとし、こうした状況では「学習過程での複製行為そのものが著作権侵害に該当し得る」と指摘。①会員社のコンテンツを無許諾で学習対象としないこと、②生成物に関する侵害申立てに真摯に対応すること――の二点を要望しています。 Sora 2は“アプリ+モデル”として9月30日に公開され、OpenAIは責任ある展開や安全策を併せて説明しました。アプリはまず北米での提供から始まり、順次拡大する計画が案内されています。 一方、提供ポリシーでは“権利者のオプトアウト”を前提とする報道や説明が相次ぎ、ハリウッド側の懸念やスタジオの対応も伝えられてきました。Soraの公開直後から「著作権コンテンツの扱い」を巡る論点が噴出し、OpenAIの方針は競合プラットフォームやSNS大手の利害とも交錯しています。 日本側の動きも速い。政府はSora 2の拡散に伴う“アニメ等の模倣”への懸念を表明し、知財権者への事前許諾を求めるよう要請したと報じられました。法制度面では、著作権法第30条の4がデータ解析目的の利用を一定範囲で許容する一方、“創作的表現の再現を狙った学習”に同条がどこまで適用されるのかは実務・学説で整理が進む最中です。 要するに、Sora 2は“創作の民主化”を掲げながら、運用の仕方次第で権利者との摩擦を招く二面性を抱えています。CODAの要望は、オプトアウト前提ではなく“原則・事前許諾”を求める日本の立場を明確化し、学習データと生成物の双方で対話のテーブルを引き寄せる一手と言えます。OpenAI側も安全策や権利者コントロールの拡充を打ち出しており、Sora 2の急拡大と共に“著作権×生成AI”の落としどころを探る実務が、いよいよ正面から試される段階に入りました。

    3 min
  5. 3D AGO

    Ep.667 Amazon、最大3万人のコーポレート削減へ──AI効率化と“5日出社”の帰結(2025年10月30日配信)

    10月27日(米国時間)、Amazonが最⼤3万⼈のコーポレート従業員の削減を今週から段階的に始める計画が報じられました。対象は人事(PXT)、オペレーション、デバイス&サービス、そしてAWSまで及ぶ見通しで、350,000人規模のコーポレートの約1割に当たります。通知は火曜朝から送付され、規模は財務の優先順位に応じて変動の可能性があるとされます。 人事部門については、今月中旬に「最大15%削減」の観測をFortuneが先行報道しており、今回の全社的整理の“中核”になる構図が浮かびます。 背景には、ジャシーCEOが6月に示した方針──生成AIやAIエージェントの活用で反復的な事務は減り、数年かけてコーポレート人員は縮小する──があります。今回の動きはその延長線上に位置づけられます。 同社は管理レイヤーの圧縮や週5日のRTO徹底で自然減を促してきましたが、想定ほど進まず、大規模な再編に踏み切る背景と伝えられています。出社打刻を満たさない一部には“自主退職扱い”の通告がなされ、退職金コストの抑制にもつながっている、という報道もあります。 一方で、年末商戦に向けた季節雇用25万人の募集は維持。フルフィルメント現場での需要は引き続き高く、現場とコーポレートで“人の使い方”を切り分ける姿勢がにじみます。 AWSの足元では、直近四半期の増収は保っているものの、AzureやGoogle Cloudに比べ伸び率で見劣りする場面があり、加えて10月20日には長時間の広域障害も経験しました。“AI投資の前倒し”と“運用の信頼性確保”という二正面作戦の難しさが、今回のコスト最適化の圧力を強めた側面も否めません。 市場の視線は、10月30日(米国時間)発表予定の第3四半期決算に集まります。AIインフラ投資と人件費削減のバランス、そしてAI導入による“管理・間接部門の生産性”の実測が、今後の採用計画と組織設計を左右するでしょう。テック各社が同様の再編を進めるなか、Amazonの一手は“AI時代のホワイトカラーのかたち”を占う重要なベンチマークになりそうです。

    3 min
  6. 3D AGO

    Ep.666 PyTorch「TorchForge」登場──RL後学習とエージェント開発を“疑似コードのまま”大規模化(2025年10月30日配信)

    2025年10月22日、PyTorchチーム(Meta)は新ライブラリ「TorchForge」を発表しました。狙いは明快で、RLのアルゴリズム部分は“疑似コード”のまま書き、分散・非同期・リトライ・資源配分といった面倒はライブラリ側が面倒を見る、という設計です。発表では、同一のロールアウト関数を組み替えるだけで、PPOのような厳密なオンポリシー運用から、最大スループットを狙う完全非同期オフポリシー運用まで滑らかに切り替えられる点が強調されました。 下回りはPyTorch製の分散フレームワーク「Monarch」が要です。単一コントローラとアクター間メッセージングで、生成(推論)・学習・報酬評価・リプレイバッファなどを“論理部品”として束ね、既存のSPMD実装(vLLMのテンソル並列やTorchTitanのFSDP等)を保ったままオーケストレーションします。研究者は“どのランクが誰と通信するか”ではなく“どの部品に何を頼むか”を記述すればよく、規模のストレスから解放されます。 大規模RLでボトルネックになりやすいのが“重み同期”です。70B級モデルを複製運用すると、学習で更新された重みを推論側へ配るだけで数百GBの移動になり、従来ネットワークでは1回の更新に“分単位”を要し得ます。TorchForgeは分散インメモリKVS「TorchStore」を組み込み、DTensorベースのAPIで必要なテンソル断片を即時取得できるようにして、学習と生成の足並みを切り離す構成を示しました。結果として非同期RLの実運用に必要な“訓練と生成のデカップリング”を加速します。 “検証可能な報酬”に向けた環境統合も最初から押さえています。コード実行のサンドボックスをサービスとして立ち上げ、生成したプログラムを安全に走らせて成否で報酬を与える、といったRLVRの基本形をそのまま書けるようにしました。報酬計算の遅延ばらつきが大きいユースケースでも、非同期構成で全体スループットを落とさないよう配慮された設計です。 外部検証の文脈では、スタンフォードのScaling Intelligence Labが“弱い検証器のアンサンブル”で正解度を高める「Weaver」を統合し、数学やGPQAの難問系ベンチでのヒルクライムを確認。実験リソースはCoreWeaveのH100×512構成が提供され、実運用規模の挙動を伴う実証が行われました。 実務への含意は大きいでしょう。プロダクト側は、推論エンジンにvLLM、学習にTorchTitanと“実績ある部品”を選べるため、既存の配備や監視の流儀を崩さずにRL後学習やエージェント化を前倒しできます。一方でTorchForgeとMonarchは“実験的(experimental)”と明記されていますから、APIの変更やドキュメントの粗さを飲み込みつつ、検証環境から段階的に本番系へ寄せる──この慎重な導入が現実解になりそうです。 まとめると、TorchForgeは「アルゴリズムに集中するための分散RL作法」をPyTorch流に定義し、重み同期やツール連携など“現場の泥臭い論点”を標準部品化した取り組みです。モデルの推論・学習・検証をひと続きの仕事に変えるこの流れは、企業のエージェント実装や運用自動化を後押しし、来年のLLM改修計画の現実味をぐっと高めるはずです。

    4 min
  7. 3D AGO

    Ep.665 Google、Arm全面移行の裏側──Axionとエージェント「CogniPort」で“10万アプリ”を動かす(2025年10月30日配信)

    10月22日、Googleが社内アプリケーション群をx86だけでなくArmでも動かす“マルチアーキ”体制へ大移行中であることを正式に明かしました。公開された技術ブログとプレプリントによれば、YouTube、Gmail、BigQueryを含む主要サービスはすでにx86とAxionの両方で本番運用され、これまでに3万以上のアプリをArm対応へ移行。対象は10万本超に及び、社内クラスターはx86とArmを併用する状態へと進化しています。 なぜここまでArmなのか。その理由は“効率”に尽きます。Axion搭載インスタンスは、同等の現行x86と比べて最大65%の価格性能、最大60%のエネルギー効率をうたいます。GoogleはBorgでワークロードを両アーキテクチャに跨って配車できるようにし、サーバー利用率と電力効率の底上げを狙います。AxionはArm Neoverse V2を基盤とする設計で、Google CloudやArmの発表がこうした効率指標を裏づけています。 移行作業の“人手の壁”を越える切り札がエージェント「CogniPort」です。ビルドやテストがArmで失敗したら、その場で原因を推論し修正パッチまで自動生成する仕組み。Googleは社内の移行コミット約3.8万件をLLMで分類したうえで、245件を巻き戻して検証し、CogniPortがテスト失敗の修復に約30%成功したと報告しています。移行の大半は“低レベル命令の書き換え”ではなく、テスト・ビルド・設定の地味で反復的な修正だという実態も示されました。 業界文脈で見ると、Googleの動きはAWSのGraviton、MicrosoftのCobaltと同じ潮流にあります。Axionは2024年のCloud Nextで初公開され、x86世代機比で50%の性能向上と60%の効率向上、汎用Arm比で30%高性能という触れ込みで登場しました。同年の報道ではAxionの製造ノードをTSMCの3nmとする観測も流れましたが、これは“報道ベース”でありGoogleからの公式確証は出していません。 日本の技術系メディアでも“全面移行”の背景と影響が整理されました。価格性能と電力効率の改善はデータセンターのTCOを直撃し、Borgのアロケーション自由度が高まるほど、x86購入比率の見直しが現実味を帯びるという見立てです。The Registerも、まだ7万本規模の“ロングテール”移行が残ると指摘しており、CogniPortをはじめとする自動化の磨き込みが成否を分けると伝えています。

    5 min
  8. 3D AGO

    Ep.664 Google「Earth AI」アップデート──Geminiの地理空間“推論”で、地球観測が仕事に直結する日(2025年10月30日配信)

    10月23日、Googleは「Earth AI」の大幅アップデートを発表しました。核となるのは“Geospatial Reasoning”。気象・人口・環境・衛星画像といった複数の基盤モデルをGeminiが段取り良く呼び分け、脆弱な地域や被害リスク、対策優先度まで一続きに導き出します。洪水・山火事・サイクロン・大気質の予測モデル群と組み合わせ、SearchやMapsの危機情報にも既に活用されていると説明。洪水予測は「20億人超」をカバーし、2025年のカリフォルニア山火事ではロサンゼルスの1,500万人に避難所情報などを配信したと振り返りました。 実務での“入口”も拡がります。Google Earthの有料プラン(Professional/Professional Advanced)に、衛星画像からの物体検出やパターン発見を対話で実行できる新機能が数週間以内に米国で提供開始。加えて、米国内のGoogle AI Pro/Ultra契約者は本日からEarth内のGemini機能を高リミットで使えるようになります。都市計画や水資源管理では、干上がった河川の自動検出や有害藻類ブルームの早期把握など、現場の判断を前倒しする具体例が示されました。 クラウド側では、画像(Imagery)、人口(Population)、環境(Environment)の各モデルをTrusted Testerに直接開放。企業はBigQueryやVertex AIと連携し、自社データと地球観測モデルを突き合わせた“目的別パイプライン”を構築できます。Maps Platformの「Imagery Insights」とも併用でき、インフラ管理や災害モニタリングの運用に落とし込みやすくなりました。 研究アップデートも濃い内容です。リモートセンシング向けの新ビジョンモデル群(Remote Sensing Foundations)は、オープン語彙の物体検出とテキスト検索で複数ベンチマークのSOTAを報告。人口モデル(Population Dynamics Foundations)は17カ国で統一埋め込みと“毎月の動態更新”に対応し、外部研究でも疫学予測の精度改善が示されたといいます。さらに、FEMAの自然災害リスク指標に対して、人口埋め込みとAlphaEarthの地形・被覆特徴を“融合”することでR²が平均11%向上したという評価も公開されました。 では“推論エージェント”はどう動くのか。Geospatial Reasoningの技術解説では、ユーザーの自然言語の問いをGeminiが分解し、Earth EngineやBigQuery、Maps Platform、Vertex AI Agent Engineを呼び出して段階的に解析する流れが明かされています。たとえばハリケーン対応なら、進路予測→人口・境界データの重ね合わせ→脆弱地区の抽出→衛星画像でのインフラ把握、といった多段処理を自動で連携させます。 “現場での使われ方”も具体的です。WHOアフリカ地域事務所はコンゴ民主共和国のコレラ多発地域の予測・対策にEarth AIの人口・環境モデルを利用。PlanetやAirbusは、日々の衛星画像をEarth AIで処理し、森林の違法伐採や送電線の植生侵入を検知。AlphabetのXのムーンショット「Bellwether」は、保険ブローカー向けにハリケーン予測の洞察提供を始めています。 総じて、今回の拡張は“地球を問えば、答えが返る”体験の実装段階入りを意味します。これまでは専門家が数週間かけてやっていたデータ収集・整備・GIS演算・モデル適用の工程を、Geminiが前段で束ねることで、意思決定の初動が分単位に圧縮されます。まず米国からの段階展開ではあるものの、Trusted TesterやCloud連携が広がれば、企業のサステナビリティ投資や自治体のレジリエンス施策が、“ダッシュボードから現場へ”と速やかに橋渡しされていくはずです。

    5 min

About

システムサーバーの社長である鈴木生雄が気になるITニュースをピックアップして数分のコンテンツとしてお届けする番組です。主に取り上げるニュースはAI、半導体、ビッグテック企業です。

You Might Also Like