発表は米国時間で2025年11月7日。Google Cloudは第7世代TPU「Ironwood」の一般提供(GA)と、独自Arm CPU「Axion」による新VMをまとめて打ち出し、トレーニング偏重から“低遅延・高スループットな推論とエージェント運用”へ主戦場が移るいまに合わせて、シリコンからソフトまでの同時最適を前面に出しました。Ironwoodは大型学習から強化学習、そして大規模推論まで単一スタックで回す思想が特徴です。公称ではTPU v5p比でピーク10倍、Trillium(v6e)比でチップ当たり4倍超の性能を提示。9,216チップを直結するスーパーPodでは9.6Tb/sのICIで結ばれ、総1.77PBのHBMを共有しながらOCSが障害をバイパスして稼働を保ち、必要に応じてPod間もJupiterネットワークで拡張します。電力効率もTrillium比で2倍を謳い、推論の費用対効果を押し上げます。
足元の需要感も具体的です。Anthropicは2026年に向けて最大100万個のTPUにアクセスする計画を明らかにし、画像・動画生成系のLightricksやフロンティア系のEssential AIもIronwoodの価格性能に手応えを示しています。Googleはソフト面でもvLLMによるTPU推論の最適化やMaxTextの強化、GKEのCluster Directorでの保守・トポロジー認識などを公開し、“学習→微調整→提供”の一連を同じ土台で運用できるよう磨き込みを続けています。
一方、アプリ側の土台を担うのがAxionです。新しいN4Aはプレビュー提供を開始し、最新世代のx86系VMに対して最大2倍の価格性能を掲げます。最大64 vCPU・512GBメモリ・50Gbpsネットワークに加え、カスタムマシンタイプとHyperdisk群で“無駄のないサイズ決め”をしやすくしました。あわせて初のArmベアメタル「C4A metal」も予告。既存のC4Aと組み合わせれば、データ前処理やAPIサーバ、バッチ、ミドル規模DBなど“推論を支える日常計算”をAxionに寄せ、重い前処理や長いデコードをTPUに渡す分業が現実解になります。初期ユーザーからは動画トランスコードでの性能向上やデータ処理パイプラインの価格性能改善といった報告も示されました。
仕上げは提供面の工夫です。GKE Inference Gatewayはプレフィル/デコードの性質に応じた分散サービングとプレフィックス指向LBで、TTFT最大96%短縮・提供コスト最大30%削減をうたい、“待ち時間を感じさせない体験”をTPUサービングで狙います。IronwoodのvLLM対応と合わせ、GPU/TPUの切り替えや混在運用のハードルも下がりました。推論を事業の中核に据える企業にとって、「Axionで土台を効率化し、IronwoodでAIを走らせる」構成は、費用対効果と拡張性の両立策としてわかりやすい一手になります。
المعلومات
- البرنامج
- معدل البثيتم التحديث أسبوعيًا
- تاريخ النشر١٢ نوفمبر ٢٠٢٥ في ١٠:٠٠ م UTC
- مدة الحلقة٥ من الدقائق
- الموسم١
- الحلقة٦٩٠
- التقييمملائم
