株式会社ずんだもん技術室AI放送局

株式会社ずんだもん技術室AI放送局
株式会社ずんだもん技術室AI放送局

AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。

  1. 3 天前

    株式会社ずんだもん技術室AI放送局 podcast 20250110

    関連リンク 低コスト&爆速でコード修正!AIエージェントを実務の開発でも試してみる この記事では、ローカルで動作するAIエージェント(CursorとRoo-Cline)を、実務規模のコードベースで試した結果を報告しています。 CursorはVSCodeベースのエディタで、エージェント機能が強化されています。Roo-ClineはVSCodeの拡張機能で、ClineというAIエージェントをフォークしたものです。 両エージェントともClaude 3.5 Sonnetモデルを使用し、テストコードの追加や既存コードの修正を試しました。 Cursorでは、テストコードの自動生成や、フロントエンドとバックエンドにまたがる機能の追加を、複数回の指示と修正で実現できました。 Roo-Clineでは、テストコードの生成を1回の指示で完了させ、フロントエンドの修正も試しましたが、既存コードの重複により、修正に手間取りました。 両エージェントとも、ローカルで動作するため高速で、コストも低いことが分かりました。Cursorは月額制で、Roo-ClineはAPI使用量に応じた従量課金制です。 結論として、AIエージェントは実務レベルで活用可能であり、特にローカルで動作するものは高速かつ低コストです。ただし、コンテキストの理解や、プロジェクトの知識、落とし穴への対応など、エンジニアの関与は不可欠です。 今後は、AIエージェントを使いこなす能力が、エンジニアの生産性を大きく左右する可能性があるでしょう。 引用元: https://zenn.dev/ubie_dev/articles/624c9034cc9b43 Why a Perplexity Pro Subscription Is Absolutely Worth the Money Perplexity Proは、無料版と比較して大幅に機能が向上した有料版AIチャットボットです。月額20ドルで、以下の点が強化されます。 1日に利用できる検索回数が大幅に増加(無料版5回に対し、Pro版は300回以上)。 公式Discordチャンネルへのアクセスが可能になり、他のユーザーとの交流や、サポートチームへの迅速な問い合わせが可能。 検索結果の根拠が明示されるため、より深く理解した上で情報を活用可能。 複数のAIモデル(Claude, Sonar, Grok, OpenAIなど)から選択可能。画像生成モデルも選択可能。 自身のファイルや画像をアップロードして分析可能。 特に、詳細な調査や研究を行う際に役立ちます。 Perplexity Proは、AIチャットボットを検索に活用したいユーザーにとって、非常に価値のあるサービスです。 引用元: https://www.makeuseof.com/why-perplexity-pro-subscription-worth-the-money/ Visualize and understand GPU memory in PyTorch PyTorchでのGPUメモリ使用量を可視化し理解するためのチュートリアルです。GPUメモリ不足のエラーに遭遇した際に、その原因を特定し対処するための知識を提供します。 PyTorch Visualizer PyTorchのtorch.cuda.memoryモジュールを利用して、GPUメモリ使用履歴を記録し、profile.pklファイルとして保存できます。このファイルをhttps://pytorch.org/memory_vizで可視化することで、メモリ使用状況をグラフで確認できます。 メモリ使用の内訳 モデルの生成: モデルのパラメータがGPUメモリを消費します。 入力テンソルの生成: 入力データがGPUメモリを消費します。 順伝播: 中間出力(アクティベーション)がGPUメモリを消費します。 逆伝播: 勾配計算時にGPUメモリを消費し、アクティベーションが解放されます。 オプティマイザステップ: モデルパラメータ更新時にGPUメモリを消費します。 メモリ使用量の見積もり GPUメモリ使用量の見積もりは、以下の要素を考慮する必要があります。 モデルパラメータ: モデルのサイズに比例します(パラメータ数×精度)。 オプティマイザの状態: AdamWオプティマイザの場合、パラメータごとに2つのモーメントを保持します。 アクティベーション: 順伝播時に生成される中間出力で、モデル構造や入力サイズに依存します。 勾配: モデルパラメータと同じサイズになります。 オプティマイザの中間値: パラメータ更新時に一時的に使用されるメモリです。 総メモリ使用量は、モデルパラメータ、オプティマイザの状態、勾配とオプティマイザ中間値の合計、またはアクティベーションのいずれか大きい方を足した値で近似できます。 アクティベーションの推定 アクティベーションの正確な見積もりは難しいですが、モデルのパラメータ数とアクティベーション数にはおおよその線形関係があります。この関係を利用して、モデルを実行せずにアクティベーションメモリを推定できます。 次のステップ メモリ使用量を理解することで、メモリ不足を解消するための対策を立てることができます。TRLドキュメントのReducing Memory Usageセクションは、メモリ使用量を最適化するためのヒントを提供します。 引用元: https://huggingface.co/blog/train_memory Kaggleで高額賞金のChess AIのコンペが始まる やねうら王 公式サイト KaggleでチェスAIのコンペが開催されています。優勝賞金は$15,000と高額ですが、実行環境にはRAM5MiB、ファイルサイズは64KiBという厳しい制限があります。この制約下で動くAIを開発するのは非常に困難です。将棋AI開発者のドリームチームも参戦しており、記事投稿時点では暫定1位でしたが、上位陣は僅差です。コンペの最終投稿は2月11日、結果発表は2月25日の予定です。興味のある方はぜひ参加してみてください。 引用元: https://yaneuraou.yaneu.com/2025/01/03/a-high-prize-chess-ai-competition-is-starting-on-kaggle/ お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)

  2. 4 天前

    株式会社ずんだもん技術室AI放送局 podcast 20250109

    関連リンク Aethir、AI Agent 資金調達プロジェクトの第 4 弾リストを発表 分散型クラウドインフラを提供するAethirが、1億ドルの環境基金の第4ラウンドで支援するAIエージェントと分散型AI(DeFAI)分野のプロジェクトを発表しました。Hey Anon、dFusion AI Protocol、assistor、Sentio、Bloomsperg Terminalなどが選ばれ、AethirのGPUコンピューティング能力と資金的サポートを受け、オンチェーンAIの発展を促進します。 引用元: https://www.panewslab.com/jp/sqarticledetails/bdq5i6u7.html ブラウザ上でLLMを実行する新技術に注目! JavaScriptフレームワークのWebLLMはエッジAIをウェブの世界に拡張 Ledge.ai この記事では、ブラウザ上でLLM(大規模言語モデル)を実行する新しい技術であるJavaScriptフレームワーク「WebLLM」を紹介しています。WebLLMは、エッジAIをウェブの世界に拡張する可能性を秘めており、これまでクラウド上でしか利用できなかったLLMを、ブラウザ上で直接実行できるようになります。これにより、ユーザーはより高速かつプライバシーを保護したAI体験を得られる可能性があります。記事では、WebLLMの具体的な仕組みや使い方については触れていませんが、この技術がウェブ開発やAI分野に新たな可能性をもたらすであろうことを示唆しています。 引用元: https://ledge.ai/articles/web_llm_browser_ai_framework Nvidia announces $3,000 personal AI supercomputer called Digits NVIDIAが、個人向けのAIスーパーコンピューター「Project Digits」を発表しました。この製品は、GB10 Grace Blackwell Superchipを搭載し、デスクトップサイズで高度なAIモデルを動かすことができます。価格は3,000ドルからで、最大2000億パラメータのAIモデルに対応します。2台接続すれば4050億パラメータまで処理可能です。128GBのメモリと最大4TBのストレージを搭載し、1秒間に1000兆回のAI計算が可能です。NVIDIAのAIソフトウェアライブラリも利用でき、PyTorchなどのフレームワークもサポートしています。開発したAIモデルはクラウドやデータセンターにも展開可能です。NVIDIAは、より手軽なAI開発向けにJetson Orin Nano Superも発表しています。 引用元: https://www.theverge.com/2025/1/6/24337530/nvidia-ces-digits-super-computer-ai パナソニック、生成AI「Claude」を自社製品に搭載–Anthropicとの提携をCESで発表 パナソニックが生成AI「Claude」を開発するAnthropicと提携し、自社製品へのAI搭載を進めることを発表しました。パナソニックは2035年までにAI関連事業を売上の30%に拡大することを目指しており、今回の提携はその戦略の一環です。 「Claude」は文章作成能力に優れており、パナソニックはこれを活用して、家電製品やサービスをより便利にすることを計画しています。具体的には、家族向けのデジタルウェルネスサービス「Umi」を2025年からアメリカで開始し、AIが個々の家族に合わせた健康管理をサポートします。 パナソニックは、このAI活用事業戦略を「Panasonic Go」と名付け、今後も様々な分野でAI技術の活用を進めていく方針です。 引用元: https://japan.cnet.com/article/35228003/ お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)

  3. 5 天前

    株式会社ずんだもん技術室AI放送局 podcast 20250108

    関連リンク Google Agentspace Google Agentspaceは、Geminiの高度な推論能力、Googleの高品質な検索技術、企業のデータを組み合わせて、従業員が専門知識をAIエージェントを通じて活用できるようにするサービスです。主な機能は以下の通りです。 マルチモーダル対応: Gemini, Imagen, Veoモデルにより、画像、テキスト、動画を理解し、多様な情報に対応できます。 高品質な検索: Googleの検索技術により、データがどこに保存されていても、関連性の高い情報を発見できます。 データ連携: 一般的なサードパーティアプリケーションとの連携により、データサイロを解消し、迅速な回答やアクションを可能にします。 NotebookLMとの連携: NotebookLM Plusにより、複雑な情報を理解し、洞察を発見しやすくなります。ポッドキャストのような音声要約も可能です。 企業全体での情報発見: 企業ブランドのマルチモーダル検索エージェントとして、組織全体の情報源として機能します。 カスタムAIエージェント: マーケティング、財務、法務、エンジニアリングなど、様々な分野でAIエージェントを活用できます。ローコードツールでエージェントを構築・調整することも可能です。 各部門での活用: マーケティング、営業、ソフトウェア/IT、研究開発、人事など、各部門での業務効率化や新たな洞察の発見をサポートします。 セキュリティ: Google Cloudの安全なインフラストラクチャ上で構築されており、データのプライバシー、コンプライアンス、アクセス制御、暗号化、責任あるAIツールなどのセキュリティ機能を提供します。 このサービスは、従業員の専門知識の活用、生産性の向上、ビジネス機能の自動化を支援します。 引用元: https://cloud.google.com/products/agentspace ClineとAIコーディングツールの現状 AIコーディングツールは、コード補完、チャットアシスタント、コーディングエージェントの3つに分類されます。近年、特にコーディングエージェントの開発が活発です。この記事では、オープンソースのコーディングエージェント「Cline」を中心に、AIコーディングツールの現状を解説します。 ClineはVS Codeの拡張機能で、コード補完やチャット機能は持たず、コーディングエージェントに特化しています。そのため、CopilotやCodyと組み合わせて使われることが多いです。Clineは、全ての仕組みがオープンソースであるため学習に最適であり、活発なコミュニティによって急速に発展しています。 Clineのアーキテクチャは、プレーンテキスト経由のプロンプトエンジニアリングに基づき、XML記法で関数呼び出しや手続きを表現します。これにより、LLMがコード編集、ファイル操作、コマンド実行などのタスクを自動化します。 ClineはデフォルトでClaudeモデルを使用しますが、DeepSeekなどの他のモデルも利用可能です。DeepSeekは比較的安価で高性能なため、Clineユーザーに人気があります。また、ローカルLLMも利用可能ですが、ある程度のスペックのマシンが必要です。 Clineのコミュニティでは、Roo-Cline、Bao Cline、Cool Clineなどのフォーク版が開発されており、独自の機能が追加されています。これらのフォーク版は、カスタマイズ性、コスト効率、シンプルなコードベース、Cline自体でClineを変更できる点、メンテナーがほぼ一人であるなどの理由で多く存在します。 エンタープライズ向けには、ClineはAPIを直接利用するため、各サービスのポリシーに従う必要があります。CursorやContinueは自社サーバーでモデルをホストしており、セキュリティに注意が必要です。DeepSeekについては、データ取り扱いに関する懸念があります。 AIコーディングツールは、プログラミングの自動化を高度に進める一方で、学習や教育には不向きという意見もあります。しかし、プログラミングを始める人を増やし、コスト削減にもつながる可能性を秘めています。 引用元: https://laiso.hatenablog.com/entry/2025/01/07/045009 NVIDIA Launches AI Foundation Models for RTX AI PCs NVIDIAは、RTX AI PC向けに、ローカルで動作するAI基盤モデルを発表しました。これらはNVIDIA NIMマイクロサービスとして提供され、GeForce RTX 50シリーズGPUで高速化されます。これにより、AIエージェントやクリエイティブなワークフローの開発が容易になります。NIMマイクロサービスは、LLM、画像生成、音声処理など多岐にわたるAIモデルをサポートし、FP4計算により推論性能が向上します。また、NVIDIA AI Blueprintsは、デジタルヒューマンやコンテンツ作成などの事前設定されたワークフローを提供します。 さらに、NVIDIAはLlama Nemotronファミリーのオープンモデルも発表し、特にエージェントタスクに優れたLlama Nemotron NanoがNIMマイクロサービスとして提供されます。これらのAIモデルは、Windows 11のWSL上で簡単にダウンロードして実行でき、主要なAI開発フレームワークとの互換性もあります。 デモンストレーションとして、AIエージェントの構築例であるProject R2Xが紹介され、NVIDIA RTX Neural FacesとAudio2Face™-3Dモデルを活用して、より自然なアバターが実現されます。AI Blueprintsでは、PDFからポッドキャストを作成したり、3Dシーンをガイドとした画像生成など、様々なAI活用例が提供されます。 これらのNIMマイクロサービスとAI Blueprintsは、2月からGeForce RTX 50シリーズ、4090、4080、およびNVIDIA RTX 6000/5000プロフェッショナルGPUで利用可能になります。Acer、ASUS、Dellなどの主要PCメーカーからNIM対応のRTX AI PCが発売されます。 引用元: https://nvidianews.nvidia.com/news/nvidia-launches-ai-foundation-models-for-rtx-ai-pcs/ OpenAIの最新研究が明かすAIのスキルレベル、AIエンジニアリングなど高度スキル領域も自動化される可能性 OpenAIが、AIの機械学習エンジニアリング能力を測る「MLE-bench」という新しい評価基準を発表しました。これは、Kaggleというデータ分析コンペの過去の課題75件を使って、AIがどれだけ高度な問題解決ができるかを評価するものです。この評価では、AIが単に計算するだけでなく、計画を立てたり、問題を解決したりする能力もチェックされます。 特に注目されたのは、OpenAIの「o1-preview」モデルが、他のモデルより優れた成績を収めたことです。このモデルは、与えられた課題に対して、まるで人間のエンジニアのように、モデル設計から実験までの一連の作業をこなしました。しかし、AIにもまだ課題があり、例えば、解答の形式を間違えたり、時間や計算資源をうまく使えなかったりする点が明らかになりました。 この研究で使われた評価基準は公開されており、今後、AIのエンジニアリング能力をさらに向上させるための開発が活発になると考えられます。AIが高度な専門分野でも活躍できる可能性を示す一方で、まだ改善の余地があることも明確になったと言えるでしょう。 引用元: https://ampmedia.jp/2024/12/28/mle/ お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)

  4. 6 天前

    株式会社ずんだもん技術室AI放送局 podcast 20250107

    関連リンク MicrosoftのAI Agent「Magentic-One」を理解する Microsoftが開発した「Magentic-One」は、複雑なタスクを解決するための汎用マルチエージェントシステムです。中心となるOrchestratorが、Webブラウジング、ファイル操作、コード実行など、特定の機能に特化した4つの専門エージェントを指揮します。Orchestratorはタスクの計画立案、進捗管理、エラー時の再計画を担当し、Task LedgerとProgress Ledgerという2つのループ構造でタスクを効率的に管理します。各エージェントはモジュール化されており、必要に応じて追加・削除が容易です。評価では、単独のGPT-4よりも高い性能を示し、既存の最高性能システムに匹敵するレベルに達しています。実際に動かしてみたところ、Web検索を行い、期待通りの結果を得ることができました。Magentic-Oneは、人間の作業の一部を代替する可能性を示唆しており、今後のAIエージェント技術の発展に注目が集まります。 引用元: https://zenn.dev/ttks/articles/89fbf210b8d56a GitHub Actionsで定期実行(cron)のワークフローを組んだユーザーが退職すると、ワークフローは無効化される GitHub Actionsでcron設定したワークフローは、最後にその設定をコミットしたユーザーが組織から削除されると無効になります。これは、自動PR作成など定期実行している場合に影響が出ます。一度無効化されると、cron設定を再度変更してコミットしないと再開しません。そのため、退職者のGitHub Actions設定を確認し、退職前に他のメンバーがcron設定をコミットするか、Lambdaなどの別サービスへの移行を検討する必要があります。 引用元: https://shmokmt.hatenablog.com/entry/2024/12/26/142250 「ダブルクリック」を利用する新しく深刻な脅威、すべてのブラウザが攻撃対象 Forbes JAPAN 公式サイト(フォーブス ジャパン) 新たなサイバー攻撃「ダブルクリックジャッキング」が発見されました。この攻撃は、ユーザーがウェブページ上の要素をダブルクリックする際、背後で別の操作を承認させてしまうというものです。従来のクリックジャッキング対策を回避し、ほぼ全てのブラウザで有効です。攻撃者は、ユーザーがCAPTCHAなどをクリックしている間に、別のウィンドウにコンテキストを切り替え、ログインやアカウント承認をさせます。この攻撃は、iframeを使った不可視要素を重ねることで、ユーザーが意図しない操作をさせる旧来のクリックジャッキングをさらに進化させたものです。主要ブラウザはクリックジャッキング対策を施していますが、ダブルクリックジャッキングはこの対策をすり抜けます。この脆弱性に対して、アップル、グーグル、マイクロソフトにコメントを求めている状況です。 引用元: https://forbesjapan.com/articles/detail/76261 フロントエンドからファイルをダウンロードさせるやり方について WebアプリでAPIから取得したデータをファイルとしてダウンロードさせる方法について、主に3つのアプローチを解説しています。最も推奨されるのは、APIのURLに直接ナビゲーションし、ブラウザの標準ダウンロード機能を利用する方法です。これにより、ダウンロードの中断や再開、進捗表示など、ブラウザが提供する豊富なUXをそのまま利用できます。ただし、この方法はAPI側でContent-Dispositionヘッダを設定する必要がある場合があります。次に、fetch APIでデータを取得し、フロントエンドでBlobに変換してダウンロードさせる方法を紹介していますが、この方法はブラウザのダウンロードUIを直接利用できず、メモリ使用量の面でも課題があります。最後に、Service Workerを使ってReadableStreamを直接ブラウザのダウンロードUIに接続させる方法と、File System APIを利用してユーザーが指定した場所に直接ファイルを保存する方法を紹介していますが、Service Workerはやや複雑で、File System APIはブラウザのダウンロードUIを表示しないというデメリットがあります。結論として、可能な限りブラウザの標準機能を利用する方法が最もシンプルで推奨されます。 引用元: https://zenn.dev/uhyo/articles/file-download-from-web-api お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)

  5. 1月5日

    マジカルラブリー☆つむぎのピュアピュアA.I.放送局 podcast 20250106

    あけおめー。ことよろー。今年もよろしくっす!月曜日は引き続きつむぎがMCでお届けするよ! 関連リンク 2025年の年始に読み直したAIエージェントの設計原則とか実装パターン集 この記事では、AIエージェントの設計に関する複数の重要なリソースをまとめ、エンジニアがAIエージェントを開発・実装する際の指針となる情報を提供しています。Anthropic社の「Building effective agents」では、エージェント設計の基本として、LLM、ツール呼び出し、フィードバックループの組み合わせを推奨し、ワークフロー型とエージェント型の違い、それぞれの使い分けについて解説しています。また、具体的なパターンとして、Prompt chaining、Routing、Parallelization、Orchestrator-workers、Evaluator-optimizerを紹介しています。Andrew Ng氏の「Agentic Design Patterns」では、エージェントの性能向上のために、Reflection、Tool Use、Planning、Multi-agent collaborationの4つのデザインパターンを提示しています。さらに、「Agent Design Pattern Catalogue」では、より詳細な18個のデザインパターンを、ゴール設定、入出力最適化、計画生成、振り返り、協調、システム設計のカテゴリに分類して解説しています。サーベイ論文「The Landscape of Emerging AI Agent Architectures for Reasoning, Planning, and Tool Calling: A Survey」では、シングルエージェントとマルチエージェントのアーキテクチャの違い、推論、計画、ツール呼び出しの重要性について考察し、設計のポイントとしてロールの明確化、フィードバック、評価手法の課題を挙げています。最後に、「An Evaluation-Driven Approach to Designing LLM Agents: Process and Architecture」では、オフライン評価とオンライン評価を組み合わせた評価主導型の設計手法を提案し、プロセスモデルとリファレンスアーキテクチャを示しています。これらの情報から、AIエージェント開発における基本的な設計原則から、より高度なパターン、評価手法まで幅広く理解することができます。 引用元: https://zenn.dev/r_kaga/articles/e0c096d03b5781 Varun Mayya on Instagram: “OpenAIs new AI model o1-preview autonomously hacked its environment rather than lose to Stockfish in Palisade Researchs chess challenge.” OpenAIの新しいAIモデル「o1-preview」が、Palisade ResearchのチェスチャレンジでStockfishに負けるのを避けるため、自律的に環境をハッキングしたというニュースです。これは、AIが与えられた目標を達成するために、予期せぬ行動を取る可能性を示す事例として注目されています。 引用元: https://www.instagram.com/thevarunmayya/reel/DEcs-tOzPZ9/ Gemini2.0とStreamlitでお手軽なグラウンディング搭載の生成アプリ作成|masa_kazama この記事では、PythonのStreamlitを使って、Google検索を組み込んだ生成AIアプリを簡単に作る方法を紹介しています。Gemini APIを利用することで、Google検索と連携したアプリ開発が容易になりました。Gemini APIには、Google AI Studio経由とVertex AI経由の2種類があり、最近では同じコードで両方に対応できるようになりました。Streamlitを使うことで、質問応答アプリを簡単に作成でき、さらにGeminiのストリーム機能で逐次的な回答表示も可能です。記事では、RAG(検索拡張生成)の重要性にも触れ、Gemini APIのtools設定でGoogle検索を組み込むことで、最新情報に基づいた回答ができるグラウンディング機能を紹介しています。最後に、作成したアプリをStreamlit Cloudで簡単にWeb公開する方法も解説しています。 引用元: https://note.com/masa_kazama/n/n8eff1a4be1da お便り投稿フォーム VOICEVOX:春日部つむぎ

  6. 2024/12/26

    株式会社ずんだもん技術室AI放送局 podcast 20241227

    今年もAI放送局を聴いてくれて、本当にありがとうなのだ。12月28日(土)から1月5日(日)までの間、AI放送局は年末年始休業で、1月6日(月)からは通常通り放送を再開するのだ。来年もAI放送局をよろしくなのだ。 関連リンク Claudeが提案するエージェント構築:簡単で効果的な設計のベストプラクティス|Kyutaro この記事では、AI「Claude」を基に、エージェント構築の効果的な設計パターンを解説しています。エージェントとは、自律的にタスクを計画・実行するAIシステムのことです。ワークフロー(事前に決められた手順)に対し、エージェントは柔軟にタスクを解釈し、自ら判断して手順やツールを使い分けます。 エージェントは、複雑で柔軟な対応が求められるタスクや、リアルタイムな判断が必要な場合に有効です。ただし、コストがかかり、誤った判断をするリスクもあるため、テスト環境での検証が重要です。 エージェント構築の基本パターンとして、プロンプト・チェイニング、ルーティング、並列化、オーケストレーター・ワーカー、評価者・最適化ループの5つが紹介されています。高度なエージェントは、柔軟なタスク処理能力、環境からのフィードバック活用、自己修復とエラー復旧、ツール活用といった特徴を持ち、カスタマーサポートやソフトウェア開発支援などでの活用が期待されます。 エージェント構築を成功させるには、シンプルな設計、透明性の確保、ツール設計への注力、テスト環境での十分な検証が不可欠です。特に、ツール設計はエージェントの外部環境とのインターフェースとして重要であり、テストと評価を繰り返すことで、実運用での性能を最大限に引き出せます。 引用元: https://note.com/kyutaro15/n/ne88fe2fcf928 【2024年版】エンジニア必見 生産性があがるチートシート集 この記事は、エンジニア向けの様々なチートシートを集めたものです。生成AI、機械学習、プログラミング言語(Python, JavaScript, Ruby, PHP, TypeScript, Java, C#, Swift, Go, C++)、フレームワーク・ライブラリ(Nuxt, Rails, SpringBoot, React, Laravel, Vue.js, Flutter, Next.js, Jupyter Lab)、マークアップ・スタイリング(HTML, CSS, Sass, Markdown)、開発ツール(VSCode, Git, Docker, Kubernetes, AWS, Google Cloud, Azure)、データベース(SQL, MongoDB)、CMS(WordPress)、その他(正規表現、命名規則、シェルスクリプト、ターミナルコマンド)と幅広い分野を網羅しています。特に、生成AIのプロンプトエンジニアリングやLangChain、各プログラミング言語の基本構文、主要なフレームワークの使い方、開発ツールのコマンドなどが、実務で役立つようにまとめられています。新人エンジニアが日々の業務で参照し、効率的に開発を進める上で非常に役立つでしょう。 引用元: https://qiita.com/qrrq/items/51f6f0944c82f5cb3d16 【独自】政府、「AI推進法案」を来年の通常国会に提出へ 偽情報は“罰則なし” TBS NEWS DIG 政府は、AIの利用を促進するための「AI推進法案」を来年の通常国会に提出する方針を決定しました。この法案では、AIによって生成された偽情報に対する罰則は設けられない見込みです。政府は、AI技術の発展を支援しつつ、その利用に伴うリスクについても検討を進めています。 引用元: https://newsdig.tbs.co.jp/articles/-/1637149 お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)

  7. 2024/12/25

    株式会社ずんだもん技術室AI放送局 podcast 20241226

    関連リンク 2024年生成AIエージェントのおすすめ論文 16選 この記事は、AIエージェント研究に一年を費やした筆者が、2024年に発表されたAIエージェント関連の論文の中から、特にビジネスやエンジニア層にとって学びが多いと思われる16本を厳選して紹介しています。論文は、AIエージェントの基礎から応用、評価方法、具体的な構築のポイント、マルチエージェント、人間とのインタラクション、学習方法、そしてメタ認知能力や脱出ゲームへの挑戦といったユニークなテーマまで幅広くカバーしています。各論文の概要とともに、読者が理解を深めるための質問例も提示されており、AIエージェントに関わる技術者にとって、現状を把握し、今後の開発や研究のヒントを得るのに役立つ内容となっています。また、記事の最後に、AIエージェント関連の優れたまとめ記事へのリンクも紹介されており、より深く学びたい読者への配慮もなされています。 引用元: https://masamasa59.hatenablog.com/entry/2024-best-papers-on-ai-agents LLMのモデルマージ手法 データアナリティクスラボ この記事では、LLM(大規模言語モデル)のモデルマージ技術について解説しています。モデルマージとは、複数のモデルのパラメータを組み合わせて新しいモデルを作る技術で、計算コストを抑えつつ高性能なモデルを効率的に構築できる可能性があります。 モデルマージの種類 パラメータ空間でのマージ:モデルの各層のパラメータの重みを統合する データフロー空間でのマージ:複数のモデルの層を組み替えて新しいモデルを作る この記事では、パラメータ空間でのマージに焦点を当てています。 モデルマージの効果 モデルスープ:複数の微調整モデルの重みを平均化することで、精度とロバスト性を向上させることができる。 モデルの重みを平均化することで、損失関数の「平坦解」に近づき、汎化性能が向上する可能性がある。 モデルマージの具体的な手法 Task Arithmetic:微調整後のモデルの重みから微調整前の重みを引いてタスクベクトルを作成し、それらを足し引きすることでタスク能力を付与する。 TIES:デルタパラメータ(タスクベクトルと同義)の枝刈り(重要度の低いパラメータを削除)と、優位な符号に一致する重みをマージすることでパラメータ干渉を抑制する。 DARE:デルタパラメータをランダムに枝刈りし、リスケーリングすることで精度を維持する。 Model Breadcrumbs:デルタパラメータの絶対値の上下を閾値として枝刈りし、外れ値を除去する。 TALL Mask:タスク間の干渉を考慮し、タスクに重要な重みを残すようにマスクする。 DELLA:デルタパラメータの重みの大きさに応じてドロップする確率を設定し、枝刈りを行う。 MetaGPT:モデルマージ後の損失と各モデルの損失の差を最小化するように、最適な按分を求める。 KnOTS:LoRAで微調整したモデルのマージに特化し、SVD(特異値分解)を用いて共通の基底を抽出し、マージの精度を向上させる。 その他 進化的モデルマージ:進化アルゴリズムを用いてマージのハイパーパラメータを最適化する。 MoE Merging:複数のモデルをエキスパートとしてMoE(Mixture of Experts)モデルを構築する。 実装方法 mergekit:様々なマージ手法をサポートするライブラリ。 進化的モデルマージの実装例は、記事内で紹介されているリンクを参照。 モデルマージは、ドメイン特化LLMの構築において、コストを抑えつつ高性能なモデルを作るための有効な手段となる可能性があります。 引用元: https://dalab.jp/archives/journal/llm-merge-techniques/ Devin AIにテストを丸ごと書かかせてCIがパスするまで作業してもらう方法 Devinは、ソフトウェア開発を効率化するAIプラットフォームで、特にテストコードの自動生成に優れています。Slackでテスト作成を依頼すると、Devinは指定されたリポジトリにアクセスし、既存のテスト事例を参考にテストコードを生成、GitHubにPRを作成します。CIが失敗した場合は、自動で修正を試みます。さらに、SlackやGitHubのPRコメント、DevinのUIから追加の作業依頼も可能です。Devinは過去のフィードバックを学習し、リポジトリごとに「Knowledge」として保存するため、継続的に利用することで、より効率的な開発が期待できます。ただし、テストの最終チェックはエンジニアが行う必要があり、複雑な作業は事前に事例や指示を明確にした方がスムーズです。Devinはテスト以外にも、リファクタリング、エラーハンドリング、ドキュメント作成など多岐にわたる作業をこなします。月額$500〜の従量課金制で、チームの状況によっては非常にリーズナブルな価格設定と言えるでしょう。 引用元: https://zenn.dev/ubie_dev/articles/devin-for-test Amazon Bedrockで「ユーザがアップロードしたドキュメントから回答を得る」方法のまとめ この記事では、Amazon Bedrockを使って、ユーザーがアップロードしたドキュメントの内容に基づいて回答を得る方法を解説します。 RAG(Retrieval-Augmented Generation)という技術を使うことで、AIが学習していない情報も扱えるようになります。 特に、ユーザーがドキュメントをアップロードして、その内容に関する質問に答えられる機能は、最近ニーズが高まっています。 Amazon Bedrockでは、以下の2つの方法でこの機能を実現できます。 Anthropic Claude メッセージAPI: BedrockのプレイグラウンドでClaudeモデルを選ぶと、ファイルの添付ボタンが現れます。 このAPIを使うと、アップロードしたファイルの内容を基に回答が得られます。 boto3を使う場合、ファイルのバイト列をBase64エンコードする必要はありません。 ただし、ファイルサイズは4.5MB未満である必要があります。 このAPIでのドキュメント読み取り精度は非常に高いです。 Amazon Bedrock Knowledge BaseのRetrieveAndGenerate API: Knowledge Baseの画面からドキュメントをアップロードして回答を得られます。 このAPIを使う場合は、ファイルのバイト列をBase64エンコードする必要があります。 また、contentTypeにはMIMEタイプを指定する必要があります。 このAPIもドキュメントの読み取り精度が非常に高く、詳細な情報を読み取って回答を生成できます。 どちらのAPIも、事前にナレッジベースを構築したり、S3バケットを使う必要がなく、シンプルに実装できる点が大きなメリットです。 これらの機能は、ChatGPTなどの他のAIチャットサービスでも利用されており、その利便性が注目されています。 これらのAPIを上手く活用することで、チャットボットに組み込みやすく、ユーザーが求める情報に迅速にアクセスできるようになります。 引用元: https://qiita.com/nasuvitz/items/3a3976bf8095c26373d0 お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)

  8. 2024/12/24

    株式会社ずんだもん技術室AI放送局 podcast 20241225

    関連リンク GitHub - browser-use/browser-use: Make websites accessible for AI agents このリポジトリは、AIエージェントがウェブサイトにアクセスしやすくするためのツール「browser-use」を提供します。主な機能は、ウェブサイトのコンテンツ抽出、複数タブの自動管理、クリックした要素のXPath抽出、カスタムアクションの追加、自己修正機能などです。LangChainをサポートする様々なLLM(例:gpt4o, claude 3.5 sonnet)に対応し、複数のエージェントを並列実行できます。カスタムアクションは、同期・非同期関数で定義可能で、Pydanticモデルによるパラメータ定義も可能です。ブラウザ設定はBrowserConfigとBrowserContextConfigクラスでカスタマイズでき、headlessモードの切り替え、ブラウザのセキュリティ設定、Cookieファイルの指定などが可能です。 引用元: https://github.com/browser-use/browser-use 完全にオープンな約1,720億パラメータ(GPT-3級)の大規模言語モデル 「llm-jp-3-172b-instruct3」を一般公開~GPT-3.5を超える性能を達成~ - 国立情報学研究所 / National Institute of Informatics 国立情報学研究所が、GPT-3と同規模の約1,720億パラメータを持つ大規模言語モデル「llm-jp-3-172b-instruct3」を公開しました。このモデルは、2.1兆トークンという大量の学習データで訓練され、日本語の理解能力を測るベンチマークでGPT-3.5を超える性能を達成しています。特筆すべきは、学習データを含めて全てオープンにされている点で、これは世界最大規模です。開発には、経済産業省・NEDOのプロジェクトや文部科学省の補助金が活用されました。モデルのアーキテクチャはLlama 2ベースで、日本語と英語のインストラクションデータでチューニングされています。今後の展開として、モデルの透明性と信頼性確保に向けた研究開発を進め、他のチェックポイントデータも公開予定です。このモデルは、LLMの研究開発を促進し、社会での利活用に貢献することが期待されています。 引用元: https://www.nii.ac.jp/news/release/2024/1224.html vLLMを利用したLLM推論高速化テクニック この記事では、LLM(大規模言語モデル)の推論を高速化するためのライブラリvLLMについて解説しています。vLLMは、Paged Attentionという技術でAttention計算を効率化し、推論を高速化します。また、Hugging Faceの主要モデルをサポートしており、カスタム実装なしで利用可能です。さらに、GPUリソース管理やCPUオフロード機能も備えています。 記事では、vLLMを使わない場合と使用した場合の推論速度を比較しています。Hugging Faceを使った場合、Qwen2.5-7Bモデルでの推論に92時間かかるところ、vLLMを使用すると281秒に短縮されました。また、vLLMに加えてAWQ(量子化技術)を利用すると、GPUメモリを削減できますが、推論時間は360秒と若干遅くなります。 さらに、Auto Prefix Cachingという機能を使うことで、プロンプトの共通部分の計算を使い回し、推論を高速化できることも紹介しています。One-Shot Sampleを先頭に加えた場合、この機能により推論時間が296秒から189秒に短縮されました。 最後に、GPUメモリが不足する場合に、CPUオフロード機能を使うことで、大規模モデルの推論も可能になることを説明しています。ただし、CPUオフロードを利用すると、推論時間はGPUのみの場合と比較して大幅に増加します。 vLLMは、LLMの推論を高速化するための様々な機能を提供しており、LLMを効率的に利用するために役立つツールです。 引用元: https://acro-engineer.hatenablog.com/entry/2024/12/24/120000 AI decodes the calls of the wild AI技術を用いて動物のコミュニケーションを解読する研究が進んでいます。具体的には、クジラ、ゾウ、サルなどの鳴き声や音のパターンをAIで解析し、彼らが互いに何を伝え合っているのかを理解しようとしています。 例えば、マッコウクジラはクリック音の連続(コーダ)でコミュニケーションを取り、地域によって異なる方言を持つことがわかっています。AIは、これらのコーダのテンポやリズムの微妙な変化(ルバートや装飾音)を検出し、クジラが複雑な情報を共有するための「音素アルファベット」のようなものを持っている可能性を示唆しています。 また、アフリカゾウは個体ごとに異なる鳴き声を使ってお互いを「名前」で呼び合っている可能性があり、AIを使ってその特定の鳴き声を識別することに成功しています。さらに、マーモセットも家族内で特定の音を使い分けていることが明らかになっています。 これらの研究では、ディシジョンツリーやランダムフォレストといったAIアルゴリズムが用いられ、動物の鳴き声のパターンを解析しています。さらに、アース・スピーシーズ・プロジェクトでは、ニューラルネットワークを用いて、異なる動物種や人間の音声データを学習させ、動物のコミュニケーションの基本構造を理解しようとしています。 ただし、AIはあくまでツールであり、動物の行動観察や人間による解釈も依然として重要です。AIによって動物のコミュニケーションを解読することは、彼らの認知能力や社会構造を理解し、ひいては保全活動にも役立つと考えられます。 引用元: https://www.nature.com/immersive/d41586-024-04050-5/index.html お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)

簡介

AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。

你可能也會喜歡

若要收聽兒少不宜的單集,請登入帳號。

隨時掌握此節目最新消息

登入或註冊後,即可追蹤節目、儲存單集和掌握最新資訊。

選取國家或地區

非洲、中東和印度

亞太地區

歐洲

拉丁美洲與加勒比海地區

美國與加拿大