youtube版(スライド付き)
※youtube版は9/19まで試験配信中
関連リンク
- グーグル「Gemini」が「ChatGPT」を抜いた–米App Storeで無料アプリ1位に
最近、AIの世界でとても注目すべきニュースがありました。Googleが開発したAIアシスタント「Gemini」のiPhoneアプリが、アメリカのApp Storeで、これまでトップだったOpenAIの「ChatGPT」を抜いて、無料アプリランキングの1位を獲得したんです。これは、AIの開発競争が激しくなる中で、Googleが大きな存在感を示した出来事と言えます。
このランキング上昇の大きな理由は、Geminiに新たに導入された画像生成AIモデル、「Gemini 2.5 Flash Image」通称「Nano Banana」の貢献です。このモデルは、画像編集の能力が非常に優れていて、たとえば写真に新しい要素を違和感なく追加したり、既存の画像を驚くほど自然に加工したりできます。この革新的な機能がユーザーに大好評で、リリースからわずか数週間で2億枚以上ものAI画像が生成され、Geminiアプリの新規ユーザーも1000万人以上増加しました。
もちろん、App Storeのアプリランキングは常に変動するものなので、Geminiがこの先もずっと1位を維持するとは限りません。しかし、今回の出来事が示しているのは、単にGoogleのAIがGoogle検索やGmailといった既存のサービスに「おまけ」のように組み込まれているだけでなく、Geminiアプリのように「単独のAI製品」としても多くのユーザーが「自分から進んで使いたい!」とダウンロードし、支持しているということです。
これまでのGoogleのAI戦略は、既存の主力製品にAI機能を統合することが中心でしたが、Geminiアプリの成功は、ユーザーがAIを独立したツールとしても強く求めている明確な証拠と言えるでしょう。この傾向が続けば、現在のAI業界のリーダーであるChatGPTの地位を脅かし、AI開発競争はさらにヒートアップすることが予想されます。私たち新人エンジニアにとっても、AIの進化がますます加速し、次々と新しいサービスや技術が生まれてくる、まさに「面白い時代」にいることを実感させるニュースですね。AIの動向はこれからも要チェックです!
引用元: https://japan.cnet.com/article/35238014/
- Reducing Cold Start Latency for LLM Inference with NVIDIA Run:ai Model Streamer
大規模言語モデル(LLM)は、ChatGPTのように非常に賢いAIですが、その分、モデルのサイズも数十GB~数百GBと非常に巨大です。これを実際に動かす(推論する)とき、GPUという高速な計算装置にモデルのデータを読み込む必要があります。この読み込みが、まるでパソコンの起動に時間がかかるように、推論開始まで待たされる「コールドスタート遅延」として、ユーザー体験やサービスの安定性(スケーラビリティ)を悪くする大きな課題となっています。
今回NVIDIAから発表された「NVIDIA Run:ai Model Streamer」は、このコールドスタート遅延を大幅に減らすための画期的なオープンソースツールです。これはPythonのSDK(開発キット)として提供され、モデルの重み(データ)をストレージからGPUメモリへ、複数の処理を同時に行いながら(並行して)直接ストリーミングするという仕組みで、高速なロードを実現します。
従来のモデルロードは、まずストレージからCPU(パソコンの頭脳)へデータを読み込み、次にCPUからGPU(高速計算装置)へ転送するという順番で行われていました。この逐次処理がボトルネックでしたが、Model StreamerはCPUとGPUがそれぞれ独立した処理を行える特性を活かし、データを読み込みながら同時にGPUへ転送することで、待ち時間を劇的に短縮します。さらに、Safetensorsのような一般的なモデル形式をそのまま使えるため、余計な変換の手間もかかりません。
このツールの性能を測るため、複数のストレージ環境(ローカルSSDやAmazon S3などのクラウドストレージ)で、既存のモデルローダーと比較するベンチマークが行われました。その結果、NVIDIA Run:ai Model Streamerは、いずれの環境においても、特に並行処理数を増やすことでモデルロード時間を大幅に短縮し、他のツールを上回るパフォーマンスを発揮することが実証されました。特に、クラウド環境からのロードでは顕著な改善が見られました。
LLMを開発・運用する新人エンジニアの皆さんにとって、このNVIDIA Run:ai Model Streamerは、AIサービスの応答性を高め、ユーザーに快適な体験を提供する上で非常に役立つツールです。難しい設定なしに、コールドスタートの遅延を減らし、推論準備までの時間を早めることができるため、ぜひ注目してみてください。
引用元: https://developer.nvidia.com/blog/reducing-cold-start-latency-for-llm-inference-with-nvidia-runai-model-streamer/
- Addendum to GPT-5 system card: GPT-5-Codex
OpenAIが、最新の大規模言語モデル「GPT-5」をプログラミングに特化させた新モデル「GPT-5-Codex」の追加情報を発表しました。これは、日本の新人エンジニアの皆さんにとって、これからの開発に大きな影響を与える非常に重要なニュースです。
GPT-5-Codexは、GPT-5の高度な言語理解能力をベースに、特にコードの生成や修正、テストといった開発作業に最適化されています。このモデルのすごいところは、単にコードを出力するだけでなく、人間が書くような自然で読みやすいコードや、プルリクエスト(PR)でチームに受け入れられやすいスタイルのコードを生成できる点です。
さらに、「エージェント的なコーディング」という特徴も持っています。これは、皆さんが書いた指示を正確に理解し、それに基づいてコードを生成するだけでなく、生成したコードに対して自分でテストを実行し、もしテストに失敗したら、その原因を考えて自分で修正を試みる、という一連のプロセスを自動でこなしてくれる賢さを持っているということです。まるで、隣に座って一緒に開発してくれるベテランエンジニアのような存在だと考えると分かりやすいでしょう。この能力は、AIが試行錯誤しながら最適な行動を学ぶ「強化学習」という技術を使って、実際のコーディングタスクを大量に学習することで実現されています。
この強力なAIアシスタントは、皆さんの開発環境に簡単に組み込むことができます。普段使っているターミナルや統合開発環境(IDE)の拡張機能として手元で利用できるほか、Web版のCodex、人気のバージョン管理サービスであるGitHub、そして日頃から使っているかもしれないChatGPTのモバイルアプリからもアクセス可能です。これにより、場所を選ばずに、いつでもどこでもAIのサポートを受けながら開発を進められるようになります。
最新のAI技術を利用する上で特に気になるのが「安全性」ですが、OpenAIはこの点にも徹底的に配慮しています。GPT-5-Codexには、有害なコードの生成や、悪意のある入力(「プロンプトインジェクション」と呼ばれる、AIに意図しない動作をさせる攻撃など)を防ぐための特別な安全トレーニングが施されています。また、AIエージェントが予期せぬ、あるいは不適切な動作をしないように、安全な隔離された環境(「サンドボックス」)で動作させたり、ネットワークへのアクセス範囲を細かく設定できるようにしたりと、様々なプロダクトレベルの安全対策も講じられています。これにより、開発者の皆さんが安心してAIを日々の業務に活用できるような設計になっています。
GPT-5-Codexは、新人エンジニアの皆さんがプログラミングスキルを向上させたり、日々の開発の効率を大幅に高めたりするための強力なツールとなるでしょう。これからのエンジニアにとって、AIを上手に使いこなすスキルは必須となってきます。ぜひ、この新しいテクノロジーに触れて、その可能性を最大限に引き出してみてください。
引用元: https://openai.com/index/gpt-5-system-card-addendum-gpt-5-codex
- お便り投稿フォーム
(株式会社ずんだもんは架空の登場組織です)
Thông Tin
- Chương trình
- Tần suấtHằng ngày
- Đã xuất bảnlúc 20:00 UTC 16 tháng 9, 2025
- Xếp hạngSạch