名古屋ではたらく社長のITニュースポッドキャスト

ikuo suzuki

システムサーバーの社長である鈴木生雄が気になるITニュースをピックアップして数分のコンテンツとしてお届けする番組です。主に取り上げるニュースはAI、半導体、ビッグテック企業です。

  1. -23 Ч

    Ep.686 Googleが宇宙に“AIデータセンター”を作る日──Project Suncatcherの設計図(2025年11月6日配信)

    Google Researchが「宇宙でAI計算を拡張する」設計案を公開しました。名前はProject Suncatcher。太陽光パネルとTPUを積んだ小型衛星を群れで飛ばし、衛星間を自由空間光通信でつなぐことで、将来的に“データセンター並み”のAI計算を軌道上で回す構想です。地上に比べて日照効率が最大8倍になる太陽同期軌道を前提に、地上資源(用地・水・系統電力)への負荷を抑えつつ、AIの計算需要を長期的に満たす狙いが語られました。 鍵は“衛星をどれだけ太く速くつなげるか”。Suncatcherは衛星同士を数百メートル〜数キロの至近距離で編隊飛行させ、DWDMと空間多重を組み合わせたレーザーリンクで「リンク1本あたり10Tbps級」を目標に置きます。実験室のベンチでは市販部品で片方向800Gbps(双方向1.6Tbps)を確認。リンク予算を満たすため、距離を極端に縮めるという発想が肝です。 もちろん、宇宙で“密集運用”するには力学の裏付けが欠かせません。GoogleはHill–Clohessy–Wiltshire方程式に基づく解析とJAXの微分可能モデルで、例えば高度約650kmに半径1kmの81機クラスターを想定し、隣り合う衛星が約100〜200mの距離で周回する挙動を評価。太陽同期軌道でも比較的控えめな軌道維持で安定性を保てる見通しを示しました。 ハード側ではTPUの“宇宙耐久テスト”が進みます。Trillium(v6e)を67MeVの陽子ビームに晒した地上試験では、最も敏感なHBMメモリでも累積2krad(Si)を越えるまで顕著な異常は出ず、5年ミッション想定の遮蔽下線量(約0.75krad)を十分に上回る耐性を確認。致命的故障は15kradでも認められなかったと報告されました。 経済面の仮説も示されています。打上げ費用が学習曲線で下がり、2030年代半ばにLEO到達が1kgあたり200ドル未満になれば、衛星の寿命で平準化した“打上げ由来の電力コスト”が、米データセンターの電力単価(kW当たり年額)と概ね並ぶ水準になりうる――という試算です。もちろん熱設計や地上との大容量光通信、オン軌道での信頼性確保など、越えるべき難題は残ります。 ロードマップとしては、まず“学習ミッション”。Planetと組み、2027年初頭までに試験衛星2基を打ち上げ、TPUハードの宇宙動作と分散ML向けの光リンクを実地で検証します。ここを足がかりに、将来は発電・計算・放熱を一体化した“宇宙ネイティブ”設計でのギガワット級クラスターも視野に入るとしています。 地上のAI需要が右肩上がりの中で、「電力は太陽から、計算は宇宙で」という発想は突飛に見えて、実は“物理と経済の線形”に乗せようとする真面目な試みです。地上の制約を逃がしつつ、光で結んだ“空のデータセンター”を組めるか――2027年の小さな実証が、10年先のインフラ像を左右するかもしれません。

    4 мин.
  2. -23 Ч

    Ep.685 Azure ND GB300 v6が“100万トークン/秒”を突破──Blackwell世代で推論の実用限界が動いた(2025年11月6日配信)

    11月3日、Microsoftは「Azure ND GB300 v6」で“100万トークン/秒”の壁を越えたと公表しました。Llama 2 70Bのオフライン推論(MLPerf Inference v5.1、未検証提出)で、1ラック=NVL72構成あたり合計1,100,948トークン/秒を計測。直前世代のND GB200 v6による865,000トークン/秒を27%更新し、1GPUあたりでは約15,200トークン/秒という水準です。実行はTensorRT-LLMのFP4で、ベンチ一式の手順とログも合わせて公開されました。なお“100万トークンの壁”は文脈長ではなく“毎秒の生成トークン数”のことです。 この“速さ”を支えるのがラック一体のNVL72です。72基のBlackwell Ultra GPUとGrace CPUを液冷で密結合し、推論や“推論時スケーリング(test-time scaling)”に最適化。AzureはこのNVL72を18台のND GB300 v6 VMで占有する前提で構成し、HBM帯域・NVLink・NCCLの効率を高めることで、H100世代のND v5比でGEMM性能2.5倍、GPU単体スループット5倍を示したと説明しています。 技術条件も具体的です。1VMあたりGB300×4の合計72GPU、GPUメモリは1基あたり約279GB、HBM帯域は7.37TB/s(効率92%)を計測。CPU-GPU間はNVLink C2Cで従来比4倍の転送速度を得たとしています。測定は18並列ジョブの集計で、第三者のSignal65が“110万トークン/秒”を観測したと添えられました。 業界文脈で見ると、“ラック=1つの巨大アクセラレータ”というNVL72設計が、生成AIの主戦場を“学習中心”から“大規模推論・エージェント実行”へ広げる合図になりつつあります。NVL72は72GPUとGrace CPUを一体運用する前提で、企業はモデルを細かく分割せずに高速HBM領域に収めやすく、長鎖ツール呼び出しやテスト時アンサンブルのような“重い推論”でも待ち時間を抑えやすくなります。 注意点も正直に付記されました。今回の数値はMLPerfの“未検証(unverified)”提出であり、公式検証を経た記録ではありません。それでもAzureがワークロード・レシピ・ログまで公開し、再現手順を示した意義は大きい。トップティアGPUの“実務スループット”が桁を一段上げ、エンタープライズの生成AIを“秒で返す”体験に近づけつつあることが、今回のメッセージです。

    5 мин.
  3. -23 Ч

    Ep.684 AWS、米メリーランド〜アイルランド直結の新海底ケーブル「Fastnet」──AI時代の“大西洋動脈”を自前で(2025年11月6日配信)

    11月4日、AWSは米メリーランド州とアイルランド・コーク県を直結する新たな大西洋横断ケーブル「Fastnet」を発表しました。稼働は2028年の見込みで、既存の通信用海底ケーブルとは異なる陸揚げ点を採る“経路多様性”を重視。大規模障害や断線が起きても、クラウドとAIの重要トラフィックを別経路へ逃がす“第二の動脈”を用意する狙いです。設計容量は320Tbps超で、HD映画約1,250万本を同時配信できる規模だと説明しています。 Fastnetは将来の増設も見据えています。海底区間の途中に“光学スイッチ搭載”のブランチングユニットを配置し、トラフィックを新しい陸揚げ点へ振り向けられる可変トポロジを採用。沿岸部では装甲ケーブルと追加の鋼線で物理リスクを抑え、AWSの中央集約型のトラフィック監視と組み合わせて、混雑や異常を“影響が出る前に”避ける運用をうたいます。 発表には両政府の首長もコメントを寄せました。アイルランドのミホル・マーティン首相は、「Fastnetはアイルランドのデジタル未来への信任投票であり、コークを欧州の海底通信“真のゲートウェイ”に押し上げる」と歓迎。メリーランド州のウェス・ムーア知事も、州初の海底光ケーブルがもたらす雇用・投資効果に期待を示しています。 産業文脈では、“クラウド×AIの帯域とレイテンシ”がニュースの核心です。生成AIやエージェント的なアプリは、リージョン間・大陸間のモデル配備やデータ同期に太い回線を要します。FastnetはAmazon CloudFrontやAWS Global Acceleratorの経路多様化とも連動し、米欧間のミッションクリティカルなワークロードに高い冗長性を与える設計です。海底ケーブルが国際データの95%超を担う現実を踏まえれば、自前ルートの追加はクラウド信頼性の“直球の投資”と言えます。 足元のインフラ規模も示されました。AWSの広域ネットワークは地上・海底合わせて900万km超の光ファイバーを敷設し、地球と月の往復11回分に相当。38のリージョンと120のアベイラビリティゾーンを結ぶこの網に、Fastnetが“太い横串”として加わる形です。データセンターの建設・電力・半導体に目が行きがちなAI投資ですが、実は“海の下の道づくり”こそがクラウドの安定運行を支える、とAWSは強調しています。 現地コミュニティとの関係も織り込み済みです。メリーランド東岸とコーク双方にコミュニティ基金を創設し、環境・福祉・STEM教育など地域ニーズに沿った支援を行うと表明。巨大インフラを地域の支持とセットで実現する、最近のハイパースケーラー流の進め方を踏襲しています。 最後に、タイムラインのポイントです。Fastnetは“アマゾン初の単独主導ケーブル”として報じられ、2028年の就役を目標に詳細設計と海底ルートの確定作業が進みます。欧州側の報道は、アイルランドのデータセンター集積と相まって“対米幹線の新設”を歓迎する論調で、通信・データセンター双方のレジリエンス強化という経済的効果が強調されました。

    5 мин.
  4. -23 Ч

    Ep.683 「Bullying is Not Innovation」──PerplexityとAmazon、エージェントAIをめぐる正面衝突(2025年11月6日配信)

    11月4日、Perplexityは公式ブログで「Bullying is Not Innovation(いじめはイノベーションではない)」と題した声明を公表し、Amazonから“CometがAmazon上で買い物を代行する行為を止めよ”という攻撃的な法的通告を受け取ったと主張しました。Perplexityは、Cometは利用者の端末内に保存された認証情報で本人の代理として操作する“ユーザーエージェント”であり、プラットフォームがそれを一律に排除するのはユーザーの選択権を奪うものだと反論しています。声明内では、Jassy氏の発言を引用しつつ“広告やアップセルを優先している”とAmazonを批判しました。 報道各社もこの応酬を追いました。ロイターは、PerplexityがAmazonからの法的要請を受けたとする事実関係を伝えつつ、Amazon側は第三者ツールが顧客体験を損なう懸念や、サイトの利用規約順守を求めていると反論していると報じています。ブルームバーグも“差止め要求(cease-and-desist)”の送付を確認する関係者情報を掲載し、CometがAmazon上での自動購入を可能にしている点が争点だと整理しました。 テック系メディアは、今回の火種を“AIブラウザ×EC”の主導権争いとして位置づけています。The Vergeは、Amazonが繰り返し停止要請を出し、直近で法的通告に踏み切った経緯を指摘。ヤフー系の配信も、Perplexity側が“いじめ(bullying)”とまで表現した強い物言いを紹介しつつ、Amazonは原則として外部アプリに対し透明性とプラットフォームのルール順守を求めている、と両論併記で伝えました。 技術と法務の境界も論点です。Perplexityは“ユーザーエージェント=本人と同等の権限で動く代理人”でありボットやスクレイパーとは違う、と定義。対してAmazonは、データマイニングや自動化ツールの利用を禁じる規約に照らして不適切だと主張していると報じられています。どこまでが“正当な本人代理”で、どこからが“無断自動化”なのか──AIが“労働”を担い始めた今、線引きが実務上の課題として露わになりました。 産業的な意味合いは重いでしょう。ECは広告と検索の最適化で成長してきましたが、エージェント型AIは“広告を経由せず、最短で買う”行動を増やし得ます。プラットフォーム側のマネタイズと、ユーザーの“任せる体験”のどちらを優先するのか。Perplexityは“ユーザーのためのエージェント”を掲げ、Amazonは“顧客体験の統制と規約順守”を前面に出す。今回の衝突は、その価値観のぶつかり合いを象徴しています。 実務の観点では、企業の皆さんに二点の含意があります。第一に、サイト側は“良質な代理アクセス”と“無断自動化”をどう区別し、APIやパートナー制度にどう収めるかの設計が避けられません。第二に、ユーザー企業は“誰のために動くエージェントか”を見極め、広告・検索経由以外の購買動線が本格化する前提で、商品情報や在庫・価格の提供面を整える必要があります。今回の件は、エージェント時代の“流通OS”を誰が握るかという、次のゲームの開幕宣言でもあるのです。

    5 мин.
  5. -23 Ч

    Ep.682 Alphabet、欧米で総額250億ドル規模の大型起債──AI・クラウド投資の“燃料補給”(2025年11月6日配信)

    11月3日、Alphabetが欧州でのマルチトランシェ起債を最低30億ユーロ規模でアナウンスしたのを皮切りに、同日中に米欧あわせて“総額ほぼ250億ドル”の大型ディールへ拡大しました。内訳は米国が175億ドルの8本立て(満期3〜50年)、欧州が当初想定を超える65億ユーロの6本立て(満期3〜39年)。米ドル50年債は米国債+1.07%、ユーロは3年がミッドスワップ+25bp、39年が+158bpで条件が固まり、米ドル建てのオーダーブックは900億ドルに達したと伝えられます。幹事はゴールドマン・サックス、HSBC、JPモルガンなど。調達資金は一般目的に充当され、AIおよびクラウド基盤の大型投資を下支えする構図です。 今回のユーロ建てディールは“最低30億ユーロ”でのマーケ開始が先行報道され、その後の需給を映して最終65億ユーロまで積み上がりました。ユーロ市場へのアクセスは今年4月の初回6.75億ユーロ起債に続く2回目で、年内に米欧の両市場を活用する“資金調達の複線化”が鮮明です。 背景の文脈も押さえておきましょう。Moody’sは「ビッグテックはAI計算とクラウド需要の急伸で容量不足に直面」とコメント。同日のリポートでは、今回の社債は一般目的(借換え含む)に充てられると整理しています。実際、同時期にOracleは180億ドル、Metaは3,000億ドルの社債発行に踏み切っており、ハイグレード格の大規模クレジットを“AIインフラの燃料”として使う動きが続きます。 業界的な意味合いは二つ。第一に、米欧の両市場を同時に使うことで投資家層を広げ、調達コストを最適化しつつ満期分散を確保できること。今回も短期はキャッシュ・ファンド、超長期は保険・年金と、厚みのある需要に丁寧に当てています。第二に、AI向けデータセンターの建設・電力・半導体の調達が“数年がかりの固定費”である以上、運転キャッシュフローだけに頼らず、負債で前倒しに資金を厚くする──この資本政策が業界標準になりつつある点です。Alphabet自身も第3四半期の増収を背景にAI・クラウドの伸びを強調しており、今回の調達はその成長路線を長期で支える“燃料補給”と言えるでしょう。

    4 мин.
  6. -23 Ч

    Ep.681 OpenAIがAWSと複数年提携──「UltraServers」「GB200/GB300」で“エージェント時代”の計算を積み増し(2025年11月6日配信)

    11月3日、AWSとOpenAIが複数年の戦略的パートナーシップを発表しました。契約規模は総額380億ドル相当で、即日、OpenAIの主要AIワークロードがAWS上で稼働を開始。AWSはAmazon EC2 UltraServersで“数十万枚規模”のNVIDIA GPU(GB200/GB300)を束ね、必要に応じて“数千万CPU”までスケールさせる構成を提供します。両社は2026年末までに計算能力の主要配備を完了し、27年以降の増強も視野に入れるとしています。 AWS側の設計は、同一ネットワーク上に密結合したUltraServersを重ね、学習からChatGPTの推論、次世代モデルの訓練まで低遅延で回すことを狙います。サム・アルトマン氏は「フロンティアAIをスケールさせる鍵は巨大で信頼できる計算」と述べ、AWSのマット・ガーマンCEOも“高度なAI需要の背骨になる”と強調しました。 この提携は、10月末に結ばれたMicrosoft×OpenAIの「新章」契約とも地続きです。そこで“サードパーティと共同開発するAPI製品はAzure独占、非API製品は他クラウドでも提供可能”という整理が示され、OpenAIが用途に応じてクラウドを使い分ける余地が広がりました。今回のAWS契約は、その枠組みの上で“計算の複線化”を実際に前へ進める一手と言えます。 市場面では、“AWS×OpenAIで380億ドル”という規模感と、GB200/GB300を束ねる新クラスタの具体像が報じられ、株式市場でもポジティブな反応が相次ぎました。大手通信社も、Azure中心だったOpenAIの計算調達が再編後に広がった文脈を伝えています。 実務の延長線では、Bedrock経由でOpenAIのオープンウェイト(gpt-oss系)を使う動きも進んでおり、企業は“モデルの使い分け”と“計算の選び方”を同時に設計する段階に入っています。エージェント実装や長鎖のツール実行のような重い推論にも、クラスタ規模の余裕が効いてくるでしょう。 総じて、今回の発表は“APIの接続性はAzureを軸に維持しつつ、計算の底座標はAWSでも厚くする”という、OpenAIの新しい調達スタイルを象徴します。供給逼迫が続くなかで、UltraServers×GB200/GB300の大規模クラスタをもう一筋確保することは、来年以降のモデル更新やエージェント運用の安定度を高める現実的な打ち手です。

    4 мин.
  7. -23 Ч

    Ep.680 NVIDIA×Palantirが手を組む──「オントロジー×GPU」で現場AIを動かす(2025年11月6日配信)

    発表は2025年10月28日、会場はワシントンD.C.のGTC。NVIDIAとPalantirは、企業や官公庁の“動く現場”にAIを根づかせるための統合スタックを打ち出しました。PalantirのOntologyとAIPに、NVIDIAのCUDA-Xデータ処理やAI Enterprise、cuOptの最適化、さらにNemotronやNeMo Retrieverといったオープンモデルを組み合わせ、業種別のワークフローとカスタムAIエージェントを標準装備にする構想です。両社のトップは「企業データを意思決定インテリジェンスへ変える」という共通ビジョンを強調しました。 絵に描いた理想ではありません。具体事例として、Lowe’sが世界規模の供給網を“常時最適化”するデジタル双子を稼働。従来は週次で個別ノードを調整していたオペレーションを、需要の揺らぎに合わせて連続的に見直す設計へと移行し、コストと顧客体験の双方を狙います。複数拠点の在庫・配送・人員の再配置まで、cuOptとGPU加速の計算をオントロジーで結線することで、意思決定が実運用の速度に追いつく——これが“運用AI”の肝だと示しました。 技術面では、Palantirの開発者体験にNVIDIAの部品が溶け込みます。Foundry/AIPのモデルカタログからNemotron Super(49B)などのオープンウェイトを呼び出し、Pipeline BuilderやOntology ToolchainにNeMo Retrieverを組み合わせてRAGやOAGを構築。経路最適化や混合整数計画をcuOptで回し、結果をオントロジー上の“業務オブジェクト”に流し込む。さらに次世代のBlackwell世代GPUと“AIファクトリー”設計で、データ前処理からファインチューニング、推論運用までを一気通貫で加速する青写真も描かれました。 経営の視点では、これは“AIのPoC止まり”を脱するための地ならしです。現場のデータと業務手順をオントロジーとして固め、その上にNVIDIAの計算資源と最適化を差し込む。目の前の判断——たとえば在庫の引き回し、ルートの組み替え、重要顧客のアラート——が、AIエージェントの提案として安全に現場へ降りてくる。製造、医療、金融、公共まで広く狙う布陣で、まずは供給網や現場スケジューリングの“動的化”から成果を積み上げる展開が想像できます。 最後に、日本のリスナー向けの着眼点を一つ。国内企業でもサプライチェーンや拠点運営は“人手の経験値”に寄りがちです。今回の統合は、その経験をオントロジーに写し取り、GPU最適化と生成AIの推論で“業務の再現可能性”を高める道具立てと言えます。まずは一つの製品ラインや一つの地域在庫から、オントロジーを作ってcuOptで動かす小さな実装を始める——この一歩が、AI導入の歩留まりを大きく変えてくれるはずです。

    4 мин.
  8. -23 Ч

    Ep.679 サムスン、テスラ「AI5」を2nmで量産へ──テイラー新工場を前倒し稼働、TSMCは3nmで並走(2025年11月6日配信)

    韓国メディアthebellは10月30日、サムスン電子がテスラの次世代AIチップ「AI5」を2nmで量産し、あわせて「AI6」も2nmで手がける計画だと報道しました。量産拠点は米テキサス州のテイラー新工場で、装置の前倒し搬入により当初の2026年末予定から来年第3四半期の稼働開始を狙うとしています。これに対し、TSMCはAI5を3nm系で製造する見通しで、同一世代の案件ながら“サムスンは2nm、TSMCは3nm”という対照的な布陣になります。 この“二社体制”は、イーロン・マスク氏が直近の決算説明会で明言しています。AI5はサムスンのテイラー工場とTSMCのアリゾナ工場の双方で生産し、初期は供給過多を意図的に作って需要に備える方針。マスク氏は「サムスンの米工場はTSMCアリゾナよりわずかに先端装置が進んでいる」とも述べ、米国内での分散製造に実務的な合理性があると強調しました。 背景には、今夏に報じられたテスラとサムスンの大型契約があります。報道各社によれば、総額約165億ドル規模でAI6を中核に据えた長期供給を締結。サムスンのテイラー工場はこの契約で“アンカーテナント”を得て、2nmの量産立ち上げに弾みがついた格好です。 今回のポイントは二つ。第一に、サムスンがAI5を2nmで請け負うことで、最先端世代の“実績”をテスラという看板顧客で積み上げにいくこと。AI4では既に製造実績があるものの、自社APとは異なり外部大口で2nmを通すことの意味は大きい。第二に、TSMCの3nmとサムスンの2nmが同一プログラムで併走するため、歩留まり・性能・コストの“実戦比較”が業界の注目を集めます。もしテイラーの立ち上げが順調なら、AI6や他ビッグテックの2nm案件獲得に波及する可能性が高い。一方で歩留まりやコストが伸び悩めば、“3nm優位”の見立てが強まるリスクも残ります。 さらにAI5は車載だけでなく、ヒューマノイドやデータセンター用途にも拡張される見通しが語られており、米国内製造の冗長化はサプライチェーン耐性の観点でも妥当です。テスラのDojo戦略見直しや外部GPU活用の流れとも合わせて、カスタムASICを“車・ロボ・DC”に跨って回す設計が、今後のテスラ×サムスン/TSMCの協業ピースを決めていくでしょう。

    4 мин.

Об этом подкасте

システムサーバーの社長である鈴木生雄が気になるITニュースをピックアップして数分のコンテンツとしてお届けする番組です。主に取り上げるニュースはAI、半導体、ビッグテック企業です。

Вам может также понравиться