とにかくヨシ!-Tonikaku Yoshi! | Japanese Meme Society

Tonikaku Yoshi!

ポッドキャストとにかくヨシ!-Tonikaku Yoshi!では九州に住むの研究者とベンチャー企業のエンジニアが主に気になったニュースに関して話し合う中時間ポッドキャストです. お便りはこちらから マシュマロ

  1. 144B.TurboQuantの中身/GEMMA 4/Ray-ban meta

    4月5日

    144B.TurboQuantの中身/GEMMA 4/Ray-ban meta

    今回のポッドキャストの概要:Googleのローカル向け新モデル「Gemma 4」、KVキャッシュを6分の1に圧縮するGoogleの新アルゴリズム「TurboQuant」、日本でも展開予定のメガネ型XRデバイス「Ray-Ban Meta」などについて話しました。 Gemma 4:Googleのローカル向けオープンウェイトモデル E2B / E4B / E26B / A4B / E31B の5サイズ構成 E2B/E4B はエッジ・スマホ/ノートPC向けの軽量モデル A4B は Mixture of Experts(26B中アクティブ4B)で、精度と速度のバランスを追求 マルチモーダル対応(画像・音声入力)、140以上の言語対応、コンテキスト長は25万6千トークン 4bit量子化であれば16〜18GB程度のメモリでローカル実行可能という目安や、Qwen 3.5 とのベンチマーク比較、日本語での“触り心地”の話など TurboQuant:KVキャッシュを6分の1に削減する新量子化手法 トランスフォーマーの Q/K/V と KVキャッシュの役割を整理しつつ、「モデルの重み」ではなく「推論時のKVメモリ」を削る仕組みであることを解説 VキャッシュはMSE(平均二乗誤差)を最小化する通常の量子化でOKだが、KキャッシュはQとの内積精度が重要というポイント PolarQuant: ランダム直交回転でベクトルの分布を“均す” デカルト座標→極座標に変換して長さと方向を分離し、方向を -1〜1 に正規化 そのうえで2bit程度まで量子化しても精度を保ちやすくする手法 QJL: PolarQuant後のKと元のKの内積差(残差)を、Johnson–Lindenstraussの補題を使ったランダム写像で圧縮 残差は符号(±)のみ1bit保持し、PolarQuantの2bitと合わせて実質3bitで内積精度を確保 計算時には逆変換して内積を計算するため計算量はほぼ変わらないが、KVメモリを大幅に削減でき、より長いコンテキストを扱えるようになるという話、圧縮研究の観点から見ても新しいアイデアである点など https://speakerdeck.com/tohikakuyoshi/turboquantRay-Ban Meta:メガネ型XRデバイス日本展開へ レイバンとMetaのコラボによるスマートグラス「Ray-Ban Meta」シリーズ 499ドル(約8万円)前後で、度付きレンズ対応モデルが登場予定 メガネとして常用しつつ、Instagramリール撮影、Spotify操作、リマインダー・天気・カレンダー表示、ハンドトラッキングや手首バンドによるゲーム操作(2048やテトリス)、ニューラル手書き機能、リアルタイム音声翻訳などが利用可能に 数ヶ月以内に日本・韓国・シンガポールなどで展開予定とされていること、スマホアプリ連携やSDKによる自作アプリへの期待、8万円という価格や最近のハードウェア値上がり(PS5やPC価格)の話を交えながら、「感覚をアップデートしつつ、稼ぐ力も上げていこう」という締めのトーク次回もお楽しみに。

    47分
  2. 3月29日

    143B.文字起こしにもとめられる要件/AI/漫画アニメゲーム/ふるさと納税/nice to have

    今回のポッドキャストの概要:AI文字起こしモデルの比較・選定、OpenAIによるAstral買収と開発者ツールの話、Metaの脳活動予測モデルTribe v2、映画『閃光のハサウェイ』第2部やマンガ・小説の感想、ふるさと納税×コンビニ受け取りの新サービス、そして「Nice to have」な仕事観について話しました。 文字起こしAIに求める要件とfaster-whisper採用の話 faster-whisper Cohere Transcribe Qwen3 ASR / Forced Aligner OpenAIによるAstral買収と開発者ツールのこれから OpenAI to acquire Astral MetaのTribe v2:脳活動を予測するAIモデル Tribe v2 デモ 映画『機動戦士ガンダム 閃光のハサウェイ』第2部「キルケーの魔女」感想 公式サイト 紳士向け同人RPG風マンガ『さほこクエスト』の話 さほこクエスト(ヤングチャンピオン) 小説『エピクロスの処方箋』と前作『スピノザの神殺し』の読書感想 エピクロスの処方箋(Amazon) ふるさと納税×コンビニ受け取り:いいちこをセブンで引き換え プレスリリース(PR TIMES) 「Nice to have」な仕事はやるか・やらないか問題(GPIF退職エントリ) ナイストゥーハブはやらない – 退職エントリ (触れきれなかった参考メモ)TurboQuant: Googleの超圧縮AIモデル TurboQuant: Redefining AI Efficiency arXiv: TurboQuant 論文次回もお楽しみに。

    47分
  3. 3月22日

    142B.Claude 1M Context/Qwen 3.5 as Claude Code/Codex はいかが?

    今回のポッドキャストの概要:Claude 1Mコンテキスト正式リリースの話から、Qwen 3.5を使った「なんちゃってClaude Code」ローカル環境、そしてCodexとClaude Codeの使い分けについて話しました。 Claude 1M Context 一般提供開始 OPUS 4.6 / SONNET 4.6で1ミリオントークンのコンテキストが正式リリース 256Kを超える長コンテキスト利用時の「割増レート」が撤廃され、1Mコンテキストでも通常レートに PDF/画像入力が従来の約100ページから600ページへ拡張 MRCRv2ベンチマークで、長いコンテキストでもClaude OPUS / SONNETがGPT系・Gemini系より高スコアという話 コンテキストあふれ時のコンパクティングで指示が失われがち、というこれまでの不満と、その改善期待 大規模コードベースを読むコードエージェント用途での有利さについて雑談 Qwen 3.5で「Claude Code 風」ローカル環境 中国発オープンLLM「Qwen 3.5」を量子化してローカル実行する試み 35Bモデルを量子化し、24GBメモリのMacでもClaude Code風環境が動く、という話題 Claude Codeのセッション先頭に入るハッシュ値(アトリビューションヘッダ)がKVキャッシュを無効化してしまい、 そのまま真似すると推論速度が90%以上低下するので削った方がいい、というTips 本家仕様変更に依存するため「継続的に使えるかはかなり怪しい」一時的ハックであること バックエンドにはllama.cpp系(RAM CPPと呼んでいた)を使っている模様、サーバ分離構成の話 MシリーズMac(24GB以上)でローカルLLMをガッツリ動かす未来と、Mac Studio / Mac mini / 新しい安価なMac NEOの話題 Codex はいかが?(ChatGPT Codex と Claude Code の使い分け) ChatGPTのコーディングエージェント「Codex」をProプランで試用中 CLI版とアプリ版(codex app)の両方を利用、基本はCLI中心 新規プロジェクトではCodexで始めてみて、cloud.mdが無い状態からどう構成するかを確認する使い方 Claude Codeを実装のメイン、Codexをレビュー・比較・追加アドバイス役として併用 Claude Code:出力がコンパクトで実務寄り、対話の雰囲気が好み Codex:説明が長くてディテール豊富、理論説明や専門的な話をさせるときに強い印象 「喋り方がちょっとキモい」と感じるので、直接ベラベラ話させるより裏方の専門家として使う、というスタイル 研究用途ではGeminiも併用しており、ネット検索込みの情報探索には便利 Codexサブスクは「そこそこ良い」ので来月も継続予定だが、将来的にはローカルLLMへの移行も視野に次回もお楽しみに。

    19分
  4. 2月23日

    141B.Chinese Open Weights LLM/LLM as as search tool/Agent team/攻殻機動隊 - サイエンス サル

    今回のポッドキャストの概要: 中国発オープンウェイトLLMの最新動向と価格感、LLMを検索インターフェースとして使う潮流、エージェントチーム機能の話、そして新作アニメ版『攻殻機動隊』への期待について話しました。 Chinese Open Weights LLM 中国系企業が公開しているオープンウェイトLLMについて、Qwen 3(アリババ)、MiniMax M2.5、DeepSeek V3.2、GLM-5、Kimi K2.5 などを紹介。 Artificial Analysis のベンチマークで、Claude Opus や GPT-5.2 に肉薄するスコアを出しているモデルがあり、性能面で「遜色ない」レベルになりつつある、という話。 ただし本気の精度でローカル運用するには H200 複数台レベルのハードが必要で現実的ではなく、実務上は AWS Bedrock などクラウド経由API利用が中心になりそう、という整理。 Bedrock の料金を例に、Claude Opus 4.6 と Kimi K2.5 を比較し、100万トークンあたりの単価が 10倍近く違うなど、中国モデルの価格破壊ぶりについて議論。 ベンチマークの妥当性、日本語性能、自分のユースケースに合うかどうかは個別に検証が必要だよね、という締め。 Artificial Analysis 参照しているベンチマークサイトとして軽く紹介。 OpenAI が DeepSeek を非難しているという報道 AIの出力を別のAIの学習データに使う「上流学習」を DeepSeek が行っていると OpenAI が非難しているという記事を紹介。 OpenAI モデルをサードパーティールーター経由で叩き、出力を大量収集している疑惑や、DeepSeek が無料でモデル提供して OpenAI のビジネスを「ただ乗り+価格破壊」で脅かしている構図について話した。 デジタルコピーの容易さゆえの「いたちごっこ」、オープンモデルの安全性(バックドア・特定プロンプトなど)への不安と、サンドボックス化/ネットワーク遮断でどこまで安心できるか、といったセキュリティ面も議論。 実際に触ってみた各種モデルの印象 AWS Bedrock 上で DeepSeek, GLM, NVIDIA Nemotron などを試した話。 DeepSeek は処理に時間がかかる一方、GLM は比較的レスポンスが速い印象。 Nemotron はとにかく速いが、出力フォーマット指定などの指示遵守が弱く、用途を選びそう、という感想。 本物のGPUインフラ(DGXクラス)を自前で買うのは現実的でなく、やはりAPI利用が主流になりそうという結論に。 LLM as a search tool(Gemini / Grok など) LLMサービス自体が検索機能を内蔵し始めている流れを紹介。 Gemini ではツールとして Google 検索が組み込まれており、公式ドキュメント にもなっていること、Grok では X(旧Twitter)のAPIと連携してタイムライン検索などができることを説明。 XのAPIを素で叩くと高価だが、LLM経由だと比較的安く・自然言語でアクセスできる可能性がある、という利用アイデア。 ただし検索結果にはGoogleやXのフィルターが掛かった状態でしかアクセスできないので、「プラットフォームのアルゴリズムを前提としてよしとするか」が重要な前提条件になるという話も。 Agent team / スワーム的なエージェント機能 Claude が最近出している「Agent Teams」機能を取り上げ、中央のエージェントがサブエージェントを立ち上げてタスクを分割し、並列作業させて統合する仕組みを紹介。 コードレビューなら「セキュリティ」「パフォーマンス」「テストカバレッジ」など観点別にエージェントを分けた方が、一体型LLM1つに全部やらせるより偏りが減る、というユースケース。 エージェントが必要なのは「現状のLLMにコンテキスト・計算資源などの制約があるから」なのか、「知性一般が本質的に分業構造を取るべきなのか」という、少し哲学寄りの問いも雑談。 将来、超高性能な1モデルが実現したらエージェントはいらなくなるのか、それでも多数決や三権分立みたいに複数モデル構成に意味が残るのか、という妄想トーク。 攻殻機動隊 × サイエンスSARU新作アニメ 『攻殻機動隊 GHOST IN THE SHELL』の新作アニメが、7月からフジテレビ火曜23時枠+Prime Videoなどで放送予定であることを紹介。 制作はサイエンスSARU(『ダンダダン』『映像研には手を出すな!』など)。映像表現に期待している、という話。 士郎正宗の原作漫画(ヤンマガ海賊版連載)の絵柄・トーンを再現しにいっているらしく、これまでの押井守版映画やSACシリーズ、Netflix 3D版、実写版とはまた別の「原作寄り」攻殻になるのではないか、という期待。 原作漫画は欄外解説が異常に細かく、特に『攻殻機動隊2』はストーリーも概念もかなり難解で「何度読んでもよくわからない」レベルなので、アニメ化したらどう見せるのか楽しみ、という話。 読む順番としては「1 → 2 → 1.5」を推奨。紙本が古くて手に入りにくくても、Kindle版なら入手しやすいので、アニメ前に読んでおくと良さそうだね、という締め。次回もお楽しみに。

    35分
  5. 140B.Open Models/ H200 = アルファード

    2月9日

    140B.Open Models/ H200 = アルファード

    今回のポッドキャストの概要:中国発のオープン・ローカルモデルを中心に、Qwen3の音声まわり(TTS/ASR)と、Kimi 2.5 Thinkingモデル、さらにそれらを動かすためのハードウェア規模感(H200=アルファード比喩)について話しました。 Qwen3 Text-to-Speechで音声クローニング – 自分の声を3〜4秒程度でクローンして別テキストを読ませる実験 – 音声のみ/音声+文字起こしの2パターンで学習させたときの違い – 感情表現や話し方のクセをどこまで再現できるか、悪用リスクも含めた所感 Qwen3の「音声設計(ボイスデザイン)」機能 – カスタムボイスとの違い – テキストプロンプトで性別・ピッチ・話速・感情(怒り・明るさなど)、残響(ホールで喋っている感じ)まで指定できる話 – これまで「感情の乗った音声データで学習」していた手間が、プロンプト指定でどこまで代替できるかという期待 Qwen ASR:多言語対応の新しい音声認識モデル – 約1.7BパラメータのASRモデルが登場した話 – 対応言語が約30言語+中国語方言22種と、Whisper以降久々の大型多言語ASR – モデル側から直接タイムスタンプが出せるので、無音検出(VAD)と組み合わせて「どこで誰がしゃべっているか」まで取れるのでは、という構想 – Whisperからの乗り換え候補として、日本語精度にも期待している点 Qwen VLM(Vision-Language Model)を触ってみた話 – 画像×テキストのQwen VLMも試してみて、かなり良い印象だったこと – Qwen(クエイン)の読み方談義や、Alibabaがなぜここまで強力なオープンモデルを出してくるのか(技術力アピール/エコシステム狙いなど)について雑談 Kimi 2.5 Thinkingモデル:1Tパラメータ級の巨大LLM – Moonshot AIのKimi 2.5 Thinkingモデルが約1Tパラメータ、Hugging Face上のサイズ約595GBという規模感 – Kimi公式チャットサイトで試せること、DeepSeek的な位置づけ – OpenAI GPT-4.2系・Claude Opus・Gemini 3 Pro等の“Thinking積み”と比較してもベンチマークは拮抗、一部タスクでは上回るスコアもあるという話 – ローカルで動かせる前提なら、API課金モデルに対抗しうるポテンシャルと、バックエンドに資源を持つプレイヤーが有利になる構図 Kimi 2.5をローカルで動かすためのハードウェア規模 – M3 Ultra Mac Studio × メモリ512GBマシンを2台、Thunderbolt 5接続で非量子化モデルを動かした事例:24トークン/秒ほど出たという報告 – この構成で1台あたり約150万円級、それを2台=約300万円という「車が買える」コスト感 – 1ビット量子化モデルなら、ストレージ+RAM+VRAM合計240GB&24GB GPU 1枚程度でも10トークン/秒で動くというガイドライン – フルモデルをGPUで回そうとするとH200 GPU×4枚クラス(1枚約500万→合計約2,000万円)という試算と、  「H200 1枚=アルファード1台」「アルファード4台が机の上に乗っている」的な比喩トーク H200=アルファード比喩とインフラ時代の感覚 – 高級ミニバン級の価格のGPUが4枚必要、というスケールの話から、  「APIを使うか自前でインフラを持つか」の判断軸 – そんな規模で仕事を回す面白さと、景気のよいハード投資談義 Apple SiliconマシンとローカルLLMのこれから – M4/M5世代Macのメモリ上限や構成の違い – Apple Intelligenceの有無に関わらず、開発用ハードとしてMacが強く求められている感覚 – Claude Codeなどによる開発自動化と、ローカル巨大モデルの登場で、今後の開発スタイルがさらに変わっていくのでは、という展望 次回もお楽しみに。

    21分
  6. 2月3日

    139B.Parquet + Polars/最近試したコマンド群

    概要:巨大データ処理で活躍したParquet+Polarsの話から、開発環境を快適にするzoxideやStarship、そして数学の証明もできるプログラミング言語Leanまで、2026年のはじめに試した技術・ツールについて話しました。 Apache Parquet(パルケ/パークエット)とは CSVとの違い(行指向 vs 列指向) カラムごとにデータをまとめることで、必要な列だけを高速に読み出せる構造 Row Group/Column Chunkという単位で保存され、並列処理と相性が良い フッターにスキーマ(型情報)を埋め込むことで、型推定不要&圧縮効率アップ ランレングス圧縮・辞書圧縮などにより、CSVよりも小さいサイズ&高速読み込みを実現 Parquet+Polarsで1000万〜1400万行をさばいた話 1000万行のCSV処理でI/O待ちがボトルネックになり、CPUコア(32コア)が遊んでいた問題 データをParquetに変換+Polarsを利用することで、読み込みが約30倍高速化 Polarsのストリーミングモード:ファイルと接続しつつ少しずつ処理 レイジーモード(遅延実行):フィルタやマップをチェインして、最後に一括最適化実行 それでも1400万行ではI/Oが張り付き、CSVでもParquetでも厳しい状況に 解決策:メモリを大量に積んだインスタンスを借り、ストリーミングせず全データをメモリ上でイーガー(即時)実行 「金で殴る」戦略で処理が一瞬で終わるように データベースや分散処理(DuckDBなど)が本来向いている領域だが、制約の中でのベストプラクティスとしての選択 CSVとParquetの使い分け(ヒューマンリーダブル vs 型付き・高速・大規模向き)、手札を増やすことの大事さ zoxide:次世代CDコマンド cdコマンドの「賢い」代替として使えるツール 一度訪れたディレクトリを学習し、曖昧な入力からジャンプできる 例:cd doc で、どこにいても「documents」的なディレクトリに飛べる 深い階層や長いパスを毎回フルで打たなくてよくなる コマンド自体は z だが、ホストは cd にエイリアスして完全な置き換えとして使用中 Starship:リッチなシェルプロンプト ターミナルのプロンプトをカラフルかつ高機能にするツール Gitリポジトリの状態、使用中の言語ランタイムやバージョン(例:UV管理下のPython 3.x)などを自動表示 見た目がきれいになるだけでなく、「今このディレクトリはどんな環境か」を一目で把握できる そこまで意識して凝視はしていないが、入れておくと地味に便利な存在 Lean:数学の証明もできる関数型言語 マイクロソフト発の定理証明支援・関数型プログラミング言語 数学の証明(定理・公理系の形式化)にも使われる一方、普通のプログラミング言語としても利用可能 現在ホストがやっていること:四則演算をする簡単な電卓プログラムをLeanで実装(パーサ付き) いずれは本格的な研究にも組み込みたい構想 「証明」とは何か: 例:ペアノの公理系で自然数を定義 0があり、その「次の数(サクセッサ)」として1, 2, 3…を定義する 足し算のルールなどを公理として書き、そのルールから「1+1=2」が導けることを機械的に証明 Leanでは、ループや再帰が「必ず停止する」と証明されないと実行できない構造もあり、無限ループを防ぐ ソート関数がどんな入力でも必ず終了し、正しく並び替えることなども数学的に保証できる 数学・論理・型システムを通じて、「AI時代でも残る問題解決力」を鍛える道具としての側面 かなり難易度は高めなので、未経験の人はまずHaskellから入るのが良さそう、という話

    30分
  7. 138B.Replicube/AIに頼りすぎ/Gemini は検索がキモ/今年の振り返り 2025年ポッドキャスト年間レポート/来年の展望

    2025/12/30

    138B.Replicube/AIに頼りすぎ/Gemini は検索がキモ/今年の振り返り 2025年ポッドキャスト年間レポート/来年の展望

    今回のポッドキャストの概要:Replicube の話から、AIと学校教育の関係、そしてSpotify APIで集計した2025年のポッドキャスト年間レポートを振り返りつつ、来年の展望(「1200%成長」宣言)について話しました。 Replicube と「プログラミング×パズル」教材の可能性 Replicube ファミ通記事シェーダープログラミング的な3Dパズルとしての仕組みGitHubクローンをベースにPython版を作る話プログラミング教育用ゲームとしてのお題拡張のしやすさAIに頼りすぎる12歳?探偵ナイトスクープの回から考えるAIと学校教育 AIに頼りすぎる12歳の娘…これは学校教育の崩壊なのか!?人権標語をAIで生成して賞を取った事例「AIで作っても受賞は嬉しい」という価値観ギャップ「AIばかり使うとバカになる」というステレオタイプ批判選考側(審査員)の基準・「お気持ち」に最適化するゲーム性の話学校教育がAIとどう付き合うべきか、崩壊なのか進化なのかという視点2025年ポッドキャスト年間レポート振り返り(Spotify API集計) 今年のエピソード数・配信ペースエピソード数:28本(テスト含む)平均37分/本、最長50分・最短25分投稿間隔:平均2週間に1回前後最長の空白期間:7/13〜8/26(マット氏の北海道一周旅行期間)前半と後半の更新頻度の差1〜4月はほぼ毎週更新7〜8月は各1本、後半は仕事多忙でペースダウン今年よく話したテーマAI/LLM(Claude Code, DeepSeek, OpenAI, Gemini, MCP, エージェントなど)開発ツール(uv, ruff, pyproject.toml, Codex CLI, Ghosttyターミナルほか)ハードウェア(M4 Mac、Xreal One、Apple Watch Series 10 など)3Dプリンタ(Bambu Lab)、Tauri など旅行・生活系ハイライト北海道一周+利尻山登山(約6200km・16日間)別府・二日市温泉、有田陶器市、宮崎シーガイア など社会・経済&交通ネタチームみらい、残クレアルファード、米価高騰JR九州運賃改定、八木山バイパス有料化、西鉄バス減便、二重決済問題 などクロードによるメタまとめの所感「技術だけでなく、趣味・生活・社会問題まで幅広くカバー」「DLsiteやトレンドニュースなど独自ネタ」がこの番組らしさとの指摘番組ナンバリング(Side-B形式/重複ナンバー問題)への軽いツッコミリスナー統計と“尖った”リスナー像 Spotify for Podcasters の2024ラップ的な振り返りリスナー増加率:オーディエンス数 622%、フォロワー数 600%、再生時間2倍24カ国から再生(日本、アメリカ、エクアドル、スペイン、ニュージーランドなど)リスナーがよく聴いている音楽・ポッドキャストのラインナップがかなり尖っている話「少数精鋭ゆえ、統計がほぼ個人の嗜好に引きずられている説」来年の番組方針と展望 番組として:継続して配信は続けたい技術だけでなく、しょうもない話・雑談も意識的に入れていく構想コンテンツ確保の難しさと、どうリスナーを増やすかの課題noteやQiita等の外部記事からの流入も検討「九州のエンジニアがやっている技術系ポッドキャスト」としてのポジション個人として:仕事・研究でバズる → そこから番組へ流入してもらう線もアリ、という話開発スタイルがLLMで激変した一年を踏まえ、来年はさらにAI×研究・ロボティクス方面へマインド面:「怒り・貧困・嫉妬」など負の感情で尖っていた昔と違い、丸くなってきた自覚今年ややなまくら気味だった“尖り”を、来年は意識的に取り戻していく宣言数値目標:今年600%成長 → 来年は「1200%成長」でいきましょう宣言次回もお楽しみに。

    36分

番組について

ポッドキャストとにかくヨシ!-Tonikaku Yoshi!では九州に住むの研究者とベンチャー企業のエンジニアが主に気になったニュースに関して話し合う中時間ポッドキャストです. お便りはこちらから マシュマロ

その他のおすすめ