名古屋ではたらく社長のITニュースポッドキャスト

ikuo suzuki

システムサーバーの社長である鈴木生雄が気になるITニュースをピックアップして数分のコンテンツとしてお届けする番組です。主に取り上げるニュースはAI、半導体、ビッグテック企業です。

  1. -53 МИН

    Ep.657 ChatGPT Atlas登場──“ブラウザそのものが相棒”になる日(2025年10月23日配信)

    発表は2025年10月21日、OpenAIの公式ブログでした。ChatGPT Atlasは“ChatGPTを中核に据えたブラウザ”。検索やQ&Aをタブの外に出すのではなく、ページの脇に常駐させ、見ている内容をその場で理解して段取りまで手伝うという考え方です。新規タブでは検索リンク・画像・動画・ニュースのタブ切り替えで結果を素早く絞り込み、フォーム入力欄ではインラインの書き直し支援が立ち上がるなど、日々の操作をChatGPTが面倒見よく支える構成になりました。 柱の一つが「Browser memories」。オンにすると、閲覧したサイトの“要点”を自分のアカウントだけに紐づくメモとして保持し、後から「先週見ていた求人をまとめて」「あの調査の続きを」と頼むと、記憶を呼び出して会話に混ぜてくれます。メモは設定画面で一覧・アーカイブ・削除ができ、アドレスバーのトグルでページ単位に“見せない”指定も可能。履歴を消せば関連メモも消える、という“自分で握れる”設計が明示されています。 もう一つの肝が「Agent mode」。Atlasでは、閲覧中の文脈を握ったままエージェントがタブを開き、リンクをたどり、作業を進めます。買い物のカート詰めや予定の調整、チーム資料の横断読みと要点整理など、ページを跨ぐ反復作業を肩代わりできるようにしつつ、安全面では“コード実行・ファイルダウンロード・拡張インストールは不可”“金融など特定サイトでは操作前に一時停止”“ログアウト状態での実行も選べる”といった制限を併設。隠れた命令(プロンプトインジェクション)への対策やレッドチームの結果もSystem Cardで整理されています。 提供は本日からmacOSで開始。FreePlusProGoは即日、Businessはベータ、EnterpriseEduは管理者が有効化した場合に利用できます。Windows・iOS・Android版は“coming soon”。初回起動時にサインインし、他ブラウザからブックマークやパスワード、履歴をインポートして乗り換えられる導線です。 開発者・サイト管理者向けの配慮も用意されています。Atlasの検索・要約に自サイトを確実に載せるにはOAI-SearchBotをブロックしない、トレーニング除外はGPTBotの拒否で示す、といった運用指針がFAQに明記。さらに、ボタンやフォームにWAI-ARIAのロール・ラベルを適切に付けることで、Atlasのエージェントがページ構造を理解して精度高く操作できる、とされています。Apps SDKのアプリもAtlasのサイドバーで動作し、今後は発見性の向上が計画されています。 要するに、Atlasは“検索するブラウザ”から“一緒に作業するブラウザ”への転換点です。記憶で文脈をつなぎ、エージェントで手を動かし、安全策で“やりすぎ”を抑える。業務では調査から資料作成までの往復が短くなり、個人利用でも買い物や予約の“こまごま”を任せやすくなる。ブラウザが日常のハブである以上、ここにAIを住まわせる意味は大きい──そんな実感を伴うアップデートです。

    5 мин.
  2. -53 МИН

    Ep.656 DeepSeek-OCR──“画像で圧縮するLLM”が長文処理の常識を変える(2025年10月23日配信)

    発表は2025年10月21日、サウスチャイナ・モーニング・ポストが第一報を掲載しました。DeepSeekは長大な文書を“直接テキストで食わせる”のではなく、まず画像表現に置き換えてから処理する新手法を公開。これにより、LLMが扱うトークン数を7〜20分の1に削減できたと述べ、長文対応の計算コストを劇的に抑える方向性を示しました。モデルは「DeepSeek-OCR」としてHugging FaceとGitHubでオープン提供されています。 仕組みはシンプルかつ大胆です。エンコーダ側の「DeepEncoder」が長文テキストを視覚表現へマッピングして“ビジョントークン”に圧縮し、デコーダ側の「DeepSeek3B-MoE-A570M」がそこから言語を復元します。DeepSeekは公式ブログでこの二段構成を明示し、“LLM視点からビジョンエンコーダの役割を再定義した”と説明。圧縮率を高めても意味保持をできる限り維持する“視覚圧縮”は、長文の取り回しに新しい設計余地を与えます。 実装はすでに開発者向けに整っており、Hugging FaceのモデルカードとGitHubのリポジトリには、TransformersやvLLMで動かす手順が公開済み。必要ライブラリ、推奨CUDA、そして簡単な推論コードまで揃っており、試すハードルは低めです。コミュニティのSpaceでもデモが立ち上がり、実際に画像→Markdown抽出や超長文の圧縮復号を試せる環境が出回っています。 効果の中身について、報道・技術解説は“トークン節約のインパクト”を強調します。SCMPは7〜20倍の削減幅をそのまま伝え、The Decoderは「10倍圧縮でも情報の約97%を維持」と紹介。要は、1,000トークン級の段落を100前後のビジョントークンで“持ち運べる”イメージで、長期文脈を扱う際のメモリと速度のボトルネックが大きく緩む、という見立てです。 文脈として、DeepSeekはこの一年、性能とコストの“比”で攻めてきました。ReutersはV3やR1、そして9月末の実験版モデルまで、効率と価格を武器に競合を追い上げる動きを継続報道。今回のDeepSeek-OCRも、長文処理の実費を削ることで、検索連携RAGや社内文書アシスタント、ログ分析のような業務AIに“現実的なスケール”を持ち込む意図が透けて見えます。 開発現場の手触りも早速出ています。個人ブログやコミュニティでは6.6GB級モデルをローカルGPUで動かした記録が共有され、Hacker NewsやRedditでも「テキストを画像にするなんて逆説的だが理にかなう」という議論が活発です。長文の“忘却”を意図的に進めるため、圧縮率を時間経過で上げる運用案など、プロダクト側の工夫に直結するアイデアも出ています。 総じて、DeepSeek-OCRは“長文=高コスト”という常識を崩すための実験であり、すでに実用フェーズへ片足を踏み出しています。研究・社内ナレッジ・法務や顧客サポートのログなど、“長いが価値のある”情報を安く運べるなら、エンタープライズAIの設計は一段とシンプルになります。圧縮で起こる微細な情報損失と、その対価として得られるスループット――そのトレードオフをアプリ側でどう最適化するか。ここからが、プロダクト作りの腕の見せどころですね。

    5 мин.
  3. -53 МИН

    Ep.655 Claude Code、WebとiOSに登場──“並列エージェント”を安全サンドボックスで走らせる新ワークフロー(2025年10月23日配信)

    発表は2025年10月20日、Anthropicの公式ニュースです。Claude Codeを“ブラウザからそのまま使える”新機能「Claude Code on the web」が公開され、研究目的のベータとしてPro/Maxユーザーに開放されました。GitHubレポジトリを接続して要望を記述すると、クラウド上の隔離環境で実装・テスト・自動PR作成まで走り、進捗はリアルタイムに追えます。しかも複数レポジトリ・複数タスクを並列に回せるのが目玉です。モバイルではiOSアプリからの利用も“早期体験”の扱いで始まりました。 裏側の要がサンドボックスです。Anthropicはエンジニアリングブログで、許可プロンプト多発による“承認疲れ”を避けつつ安全性を上げる狙いから、ファイルシステム隔離とネットワーク隔離の“二重の壁”を実装したと説明。社内検証では許可プロンプトを84%削減できたとし、OSレベル機能(Linuxのbubblewrap、macOSのseatbelt)とプロキシを組み合わせ、外部通信は許可ドメインのみに制限、ファイル操作も指定ディレクトリ外は遮断する構成を示しました。 とくにGitの扱いは慎重です。Claude Code on the webはサンドボックス内に機密資格情報を置かず、カスタムのGitプロキシが中継して認証・操作内容・プッシュ先ブランチを検査したうえで、必要最小のトークンを付与して実行します。これにより、もし実行環境が攻撃を受けても“機密鍵の持ち出し”や“想定外のプッシュ”を防ぐ設計です。 利用の始め方はシンプルで、claude.com/codeからレポジトリを接続するだけ。クラウド実行のレート制限は他のClaude Code利用と共有されます。ドキュメントには、サンドボックスの有効化手順、許可ドメインの指定、企業のIAM/ポリシーとの併用などが詳細にまとまっており、現場のセキュリティ基準に合わせた運用が可能です。 今回のサンドボックス実装はオープン化も特徴です。Anthropicは軽量ランタイムを研究プレビューとして公開し、CLIのbashツールやローカルのMCPサーバー、任意プロセスを同様の境界内で動かせるようにしました。開発者コミュニティからは「安全に自律度を上げる設計」として関心が寄せられています。 外部メディアも、Web/iOSでの“どこでも並列コーディング”を評価しつつ、競合ひしめくコーディングエージェント市場での差別化要因として「安全な自律運転」と「ブラウザ完結の運用性」を挙げています。TechCrunchや9to5Macは、研究プレビューとしての提供形態や並列実行・自動PRなどの実務的な効用を整理しました。 実務の目線で言えば、開発チームの“積ん読バグ”や定型修正を、ブラウザから一気に“投げて回して、出てきたPRをレビュー”へと置き換えられる可能性が出てきます。安全側に倒したサンドボックスを前提に自律度を上げる思想は、承認クリックの連打とヒヤリ・ハットを同時に減らし、スループットを底上げする処方箋になりそうです。まずは小さめのバックログから、レポジトリ横断の並列処理で効果を体感するのが良さそうですね。

    5 мин.
  4. -53 МИН

    Ep.654 IBM×Groq提携──watsonx Orchestrateに“超速推論”を直結、エージェント実装の現実解(2025年10月23日配信)

    発表は2025年10月20日。IBMとGroqは戦略的なゴー・トゥ・マーケットおよび技術提携を公表し、IBMのエージェント基盤「watsonx Orchestrate」からGroqの推論基盤「GroqCloud」へ直結できる体制を整えました。ねらいは、試行段階で止まりがちなエージェントを本番運用へ押し上げる“速度と規模”の確保です。発表文では、GroqCloudが従来GPU比で「5倍超の高速・高コスト効率」を実現し、世界規模で負荷が増しても低遅延を安定維持できると説明されています。 技術面では、Red HatのオープンソースvLLMをGroqのLPUアーキテクチャに統合・強化し、推論のオーケストレーションやロードバランシング、ハードウェア加速を“馴染みのツール”のまま使えるようにする計画が示されました。さらに、IBMの基盤モデル「Granite」をGroqCloudでサポートするロードマップも明記。watsonx Orchestrate上のエージェントが、要件に応じて高速推論とモデル選択を柔軟に切り替えられる構図です。 用途のイメージも具体的です。医療分野では患者や保険者からの複雑な問い合わせが同時多発する状況で、Groqの推論を背に“即答”を実現。小売・消費財ではHRエージェントが定型業務をさばき、従業員の生産性を底上げするシナリオが紹介されました。いずれも“人間の判断待ち”を減らし、エージェントが現場で機敏に動くための土台として速度・コスト・信頼性の三点を前に出しています。 外部報道も、今回の組み合わせを「エージェント時代の“速度×統合”パッケージ」と整理しています。SiliconANGLEは、Groqの“決定論的でコンパイラ駆動の速度”とIBMのガバナンス/ワークフロー統合が噛み合うことで、規制産業でも“人の体感に近い応答性”を目指せる点を指摘。The Decoderも、GroqCloudへの即時アクセス、Granite対応予定、vLLM統合という三点を要点として伝えました。 実務的な意味合いをひと言でいえば、「エージェント実装のボトルネックは推論の遅さ」という前提を崩しにいく動きです。watsonx Orchestrateが“業務の段取り”を司り、GroqCloudが“返答の瞬発力”を支える。OSSのvLLMを要に据えることで、開発者は既存の運用資産を保ったまま推論基盤を切り替えやすくなり、パイロットから全社展開への“最後の壁”——速度・コスト・信頼性——をまとめて乗り越える道筋が見えてきます。

    4 мин.
  5. -53 МИН

    Ep.653 Claude for Life Sciences──研究の“段取り”まで面倒を見るAIへ(2025年10月23日配信)

    発表は2025年10月20日、Anthropicの公式ブログでした。研究者や治験コーディネーター、薬事担当までを対象に、Claudeを“発見から実装・商業化まで”の流れで支える改良を一挙に展開。基盤のSonnet 4.5は、ラボ手順理解を測るProtocol QAで0.83と、人間ベースライン0.79や従来版の0.74を上回ったと説明されています。ライフサイエンス領域での“読み・書き・段取り”の足腰を固めた格好です。 実務連携の核はコネクタ群です。Benchlingに結び、実験ノートや記録へ根拠リンク付きで回答。BioRenderで図版素材を呼び出し、PubMedやWileyのScholar Gatewayで査読文献を横断。Synapse.orgで共同プロジェクトのデータを扱い、10x Genomicsの拡張で単一細胞や空間解析を自然言語から回せるようにしました。既存のGoogle WorkspaceやMicrosoft 365、DatabricksやSnowflakeとの連携も前提に、研究現場の主要ツールをひとつの会話に束ねます。 加えて、先週発表のAgent Skillsを科学用途に最適化。フォルダ一式で渡す手順やスクリプトをClaudeが必要なときだけ読み込み、品質管理まで“やり方”を守らせる設計です。初期スキルとして単一細胞RNA-seqのQC用single-cell-rna-qcが提示され、研究者自身が自前のSkillを作るための手引きも用意されました。 用途は文献レビューや仮説生成、Benchling連携でのプロトコル起案、Claude Codeによるバイオインフォ解析、薬事・コンプライアンス文書の下書きまで幅広く、最適なプロンプト群のライブラリも提供されます。導入の“つまずき”を減らすためのガイドがヘルプセンターにまとまっているのも実務的です。 パートナーと導入先の顔ぶれも明快です。Caylent、Deloitte、Accenture、KPMG、PwCなどSI勢と、AWS・Google Cloudのクラウド連携を並走させつつ、SanofiやAbbVie、Genmab、10x Genomics、Broad Institute、Stanfordなどが実務での活用コメントを寄せています。研究ノートや単一細胞解析の“現場の作法”にAIをなじませていく狙いが読み取れます。 提供形態は、Claude.comとAWS Marketplaceで即日利用可能、Google Cloud Marketplaceは「coming soon」。企業調達の導線にきちんと乗せ、ライフサイエンス向けの専任サポートも付けるとしています。 外部報道では、Novo Nordiskが臨床文書の準備時間を“10週間から10分へ”短縮した事例や、Anthropicが“創薬そのもの”よりも研究者のワークフロー支援に軸足を置くスタンスが紹介されました。誇大な夢を語るより、足元の生産性と監査可能性を積み上げる──そんな現実路線がうかがえます。 総じてこれは、汎用AIを“ラボの相棒”に作り替えるためのインフラ整備です。コネクタでデータの出入りを整え、Agent Skillsで“やり方”を固定し、Sonnet 4.5の読み解き力で判断ミスを減らす。AI for ScienceのAPIクレジット支援も続いており、産学の裾野を広げる呼び水になりそうです。

    6 мин.
  6. -53 МИН

    Ep.652 Veo 3.1、Flowで“音と編集”が本格化──AI動画のコントロールが一段上に(2025年10月23日配信)

    発表は10月15日、Googleの公式ブログからでした。Flowは公開から約5カ月で累計2.75億本超の動画生成を記録。ユーザーからの「もっと細かく演出したい」「機能ごとに音も付けたい」という声に応え、GoogleはVeo 3.1を投入し、Flowに“音と編集”の大幅強化を施しました。より強くプロンプトに従い、質感や素材感の再現度も一段と向上したとしています。 まず“音”。Veo 3.1は生成オーディオを既存機能にも拡大し、Ingredients to Video、Frames to Video、Extendで映像と音が一体になったシーンを作れます。Extendは直前1秒の動きを手がかりにショットを継ぎ足し、設定次第で1分超まで自然につなげられるのが特徴です。 “編集”も強化されました。Insertで被写体や小物を後から足しても、影や照明が自然に溶け込むよう最適化。さらにFlowでは不要物を消すRemove Objectの実装が進行中で、シーンを破綻なく再構成できると伝えています。報道各社も「削除機能は順次展開」「まずは追加機能から実装」と整理しており、APIやVertex側では先行プレビューの動きも見えます。 提供形態は、開発者はGemini API(有料プレビュー)、企業はVertex AI、一般はGeminiアプリやFlowから利用する構図。新機能のうち、Ingredients/Frames/ExtendはGemini APIにも順次到来、ExtendはVertex AI APIでも“coming soon”と明記されています。APIの技術資料では、基本の生成クリップは720p/1080pで約8秒から積み上げて扱う前提が示され、Flow側のExtendで長回しを組み立てる、という使い分けが現実的です。 まとめると、Veo 3.1+Flowは“思い描いた画づくりを後から整える”段取りがぐっとやりやすくなりました。素材の統一感はIngredientsで、画のつながりはFramesで、長回しはExtendで、ディテールの手直しはInsert/Removeで──という全体設計。クリエイターにとっては「コントロールと連続性」が手に入り、企業現場にとっては“ブランドの一貫性”を保った動画量産の現実味が増すアップデートと言えそうです。

    4 мин.
  7. -53 МИН

    Ep.651 NTT「tsuzumi 2」正式提供──“30Bを1GPUで”が国産AIの現実解に(2025年10月23日配信)

    発表は10月20日、NTTが「tsuzumi 2」の提供開始を正式に告げるニュースリリースを公開しました。軽量ながら日本語の理解・指示遂行・安全性で“同サイズ帯トップクラス”をうたい、企業のAI導入で課題となる電力・コスト・セキュリティを同時に抑える“国産の現実解”を掲げます。なお、このリリース文自体もtsuzumi 2で生成した、と明記されています。 特徴は三つ。第一に日本語性能の底上げです。公開資料では、知識・解析・指示遂行・安全性の各指標で、同サイズ帯のモデル(例:Gemma-3 27Bなど)に匹敵し、より大きなフラッグシップ群と比べてもコストパフォーマンスに優れると整理。社内のニュース稿の推敲や契約書チェックなど、実務寄りの例で“効きどころ”を示しました。 第二に特化開発の効率化です。個社特化にはRAG、業界特化にはFine Tuningを軸に、財務ヘルプデスクのRAG評価や金融タスクのFT評価で高いスコアを確認。少ないチューニングデータでも性能が伸びやすい、と読み取れるグラフが並びます。 第三が“低コスト・高セキュア・国産”の維持です。モデル規模は30B。設計意図として「Only 1 GPU → On-premise」を掲げ、A100 40GB×1台(約500万円想定)で推論可能と説明。対照として、400B級や700B級の推論に必要なH100構成の概算を並べ、10〜20分の1程度のハードウェアコストで回せる目安を可視化しています。機微情報を手元で扱いたい日本企業の“オンプレ志向”と相性がよい訴求です。 導入の動きも同時に示されました。東京通信大学は学内データを学内に留める要件のもと、授業Q&Aや教材・試験作成支援、履修・進路相談のパーソナライズなどでtsuzumi 2を採用。さらにNTTドコモビジネスは富士フイルムビジネスイノベーションと連携し、契約書・提案書・画像などの“非構造化データ”を構造化してtsuzumi 2で活用する企業向けソリューション検討を開始するとしました。 安全性への配慮も強調されています。日本語の安全性比較では、バイアス・悪用・情報漏洩・誤情報・擬人化依存といった観点で主要モデルと比肩以上のスコアを示したとし、運用現場での“安心の作法”を押さえていることを示しました。 今後については、NTTグループ各社からのソリューション実装を順次推進し、サイバーセキュリティ応用や“AIコンステレーション(複数AIの連携)”の開発も進める方針。11月19日開幕の「NTT R&Dフォーラム2025(IOWN Quantum Leap)」では、tsuzumi 2を使った最新ソリューションを体験展示するとしています。 総じて、tsuzumi 2は“過度な巨大化に寄らず、現場の要件に合わせて強くする”という日本企業向けの実装哲学を明快にしたアップデートです。RAGとFTで現場文脈を素早く取り込み、30B×1GPUの運用前提でオンプレにも素直に置ける。国産かつ高セキュアという“調達要件”にも応えつつ、コストの目盛りが読みやすい。日本のDXで“まず動かすAI”の有力な選択肢が、また一つ整ってきました。

    4 мин.
  8. -53 МИН

    Ep.650 AWS大規模障害──“US-EAST-1”から広がった波紋と復旧までの約15時間(2025年10月23日配信)

    まず、復旧時間を訂正します。障害は米東部時間10月20日3時11分(日本時間10月20日16時11分)ごろにUS-EAST-1で顕在化し、AWSは同日6時35分(日本時間19時35分)に「影響の主要部分を軽減」と公表。その後も断続的な不具合が残り、完全復旧は米東部時間10月20日18時01分(日本時間10月21日7時01分)に到達したと複数の一次・二次情報が一致して伝えています。発生から完全復旧まで約15時間というのが正確なタイムラインです。 原因はDNSまわりの不具合でした。AWSは「US-EAST-1内のDynamoDBサービスエンドポイントのDNS解決に起因する問題」を特定し、段階的に緩和したと説明。早いところで発生後3〜4時間で主要サービスが持ち直し始めたものの、昼以降も一部SaaSや自社サービスで接続遅延やバックログが尾を引き、夕方に“全体として平常化”のアナウンス、夜にかけて完全復旧という流れでした。 影響は広範でした。ゲーム(Fortnite、Roblox)、コミュニケーション(Snapchat、Signal)、フィンテック(Coinbase、Robinhood)、教育基盤や配信サービス、そしてAmazon自身のAlexa/Prime Video/EC等まで、多数の依存サービスが障害・遅延を報告。メディアは「2024年のCrowdStrike事故以来で最大級」と位置付け、依存集中のリスクが露わになったと総括しています。 実務の示唆は三点です。第一に時間軸——“初動3〜4時間で一部回復、完全復旧は約15時間”という現実を前提に、RTO/RPOの設計を更新すること。第二に地理と依存の分散——少なくともクロスAZ、望ましくはクロスリージョンでフェイルオーバーを設け、DNSやキーバリューストア等の基盤系の単一点障害に備えること。第三に復旧後運転——バックログ解消のプレイブック(再試行戦略、キューのドレイン順、時間窓の段階開放など)を平時に文書化し、訓練することです。 まとめると、今回のAWS障害は“数時間で峠越え→約15時間で全面回復”という二段構えの復旧曲線でした。利用企業は「数時間の耐障害」と「半日超の尾引き」に同時対応できる設計・運用へ、一段ギアを上げるタイミングです。

    4 мин.

Об этом подкасте

システムサーバーの社長である鈴木生雄が気になるITニュースをピックアップして数分のコンテンツとしてお届けする番組です。主に取り上げるニュースはAI、半導体、ビッグテック企業です。

Вам может также понравиться