AI SPECTRUM

Dalibor Mráz a Michael Bočvarov

AI mění svět rychleji, než stíháme scrollovat. AI SPECTRUM je nový pořad, který filtruje šum a přináší ti jen to podstatné. Každá epizoda je krátká, úderná a postavená na sumarizaci těch nejzajímavějších zdrojů, trendů a myšlenek z umělé inteligence - od výzkumu přes byznys až po reálné dopady. AI podcast, který stojí na spolupráci Dalibora Mráze a Michaela Bočvarova, kteří kombinují zajímavé zdroje, technologický přehled a AI trendy. Pokud chceš být v obraze a nechceš studovat stovky článků denně, AI SPECTRUM ti ušetří čas i nervy.

  1. 3 DAYS AGO

    34# 5 pilířů kódovacích agentů: Co musíte vědět, než je začnete používat

    Tato epizoda se podrobně zabývá fungováním kódovacích agentů a konceptem agentického inženýrství. Dozvíte se, že kódovací agent není jen samotný model, ale software, který slouží jako „postroj“ (harness) pro velký jazykový model (LLM) a rozšiřuje jeho schopnosti pomocí neviditelných promptů a implementovaných nástrojů. Mezi hlavní body obsahu patří: Základy LLM a tokenizace: Vysvětlení, že modely pracují s tokeny (číselnými reprezentacemi) namísto slov, což ovlivňuje cenu i limity zpracování. Dozvíte se také o multimodalitě, která agentům umožňuje „vidět“ screenshoty nebo náčrty.Volání nástrojů (Tool calling): Tato definující vlastnost agentů jim umožňuje žádat o spuštění funkcí, jako je Bash pro příkazy v terminálu nebo Python pro exekuci kódu. Software (postroj) tyto požadavky vykoná a vrátí výsledek zpět modelu k dalšímu zpracování.Systémový prompt a simulace chatu: Jak modely, které jsou přirozeně bezstavové, udržují konverzaci rekapitulací historie. Klíčovou roli hraje systémový prompt, což jsou skryté instrukce určující pravidla chování agenta, které mohou mít stovky řádků.Uvažování (Reasoning/Thinking): Revoluční pokrok z roku 2025, kdy modely věnují dodatečný čas a tokeny k „přemýšlení nahlas“ předtím, než odpoví. Tento proces je zásadní pro ladění složitých kódových cest a navigaci v problémech.Optimalizace a ekonomika: Význam cachování tokenů, které výrazně zlevňuje dlouhé konverzace s agenty, a širší dopad faktu, že díky těmto technologiím se psaní kódu stává „levným“.Cílem epizody je demystifikovat to, co se děje „pod kapotou“ agentů, a ukázat, jak AI pomáhá produkovat lepší a efektivnější software.

    16 min
  2. 3 DAYS AGO

    33# Od CLI po subagenty: Hloubkový ponor do architektury Hermes

    Zde je návrh popisu epizody podcastu, který shrnuje to nejdůležitější o projektu hermes-agent na základě poskytnutých technických podkladů: V této epizodě se ponoříme do světa autonomních agentů s projektem hermes-agent od výzkumné skupiny Nous Research. Na rozdíl od běžných chatbotů je Hermes navržen jako asistent, který se s postupem času učí a přizpůsobuje vašim potřebám. Hlavním tématem je jeho unikátní uzavřená učební smyčka, která agentovi umožňuje autonomně vytvářet nové dovednosti (skills) a ty následně během používání sám vylepšovat. V podcastu probereme: Konec omezení na jednu platformu: Hermes není zavřený v prohlížeči. Podíváme se na to, jak ho integrovat přímo do vašich oblíbených aplikací jako Telegram, WhatsApp, Signal, Discord nebo Slack, a přitom si zachovat kontinuitu konverzace napříč všemi kanály.Technická svoboda a agnosticita: Probereme, proč je Hermes ideální pro ty, kteří se nechtějí vázat na jednoho dodavatele. Podporuje širokou škálu modelů od OpenAI a Anthropic až po lokální běh přes Ollama.Efektivní infrastruktura: Vysvětlíme, jak lze agenta provozovat extrémně levně na 5$ VPS nebo využít serverless řešení (Modal, Daytona), kde agent v nečinnosti "hibernuje" a šetří vaše náklady.Automatizace a delegování: Ukážeme si praktické využití vestavěného cron plánovače pro automatické denní reporty nebo zálohy a schopnost agenta vytvářet izolované podagenty pro paralelní řešení složitých úkolů.Snadný start a migrace: Probereme jednoduchou instalaci, která automaticky nakonfiguruje vše potřebné, a možnost hladkého přechodu pro uživatele staršího systému OpenClaw.Tato epizoda je určena pro IT profesionály, vývojáře i nadšence do AI, kteří hledají cestu, jak přeměnit jazykové modely na skutečně autonomní a užitečné nástroje pro každodenní práci i život.

    14 min
  3. 3 DAYS AGO

    32# Mistrovství v orchestraci: Jak efektivně využívat subagenty v Codexu

    Tato epizoda se detailně zaměřuje na revoluční způsob práce s AI v rámci systému Codex, kde jeden model už nestačí a ke slovu přichází orchestrace celých týmů specializovaných subagentů. Zde je podrobný popis obsahu epizody: Od jednoho agenta k expertnímu týmu: Probereme, jak Codex dokáže spouštět specializované subagenty paralelně, aby vyřešil komplexní úkoly, jako je hloubkový průzkum kódové báze nebo implementace víceúrovňových plánů. Dozvíte se, jak Codex celý tento proces řídí – od vytvoření agenta přes směrování instrukcí až po finální sjednocení výsledků do jediné odpovědi.Vytváření vlastních agentů na míru: Podíváme se na to, jak si můžete pomocí TOML souborů definovat své vlastní agenty s unikátními instrukcemi a konfiguracemi. Představíme si vestavěné agenty jako worker pro implementaci nebo explorer pro čtení kódu a vysvětlíme si, proč jsou úzce zaměření a „názoroví“ agenti v praxi nejefektivnější.Praktické scénáře a automatizace: Ukážeme si konkrétní příklady nasazení, například rozdělení revize Pull Requestu mezi tři agenty (průzkumník, reviewer a dokumentarista) nebo komplexní ladění frontendových integrací. Neopomeneme ani experimentální funkci pro dávkové zpracování CSV souborů, kde Codex přidělí každému řádku vlastního pracovníka.Bezpečnost, limity a správa: Probereme důležité aspekty provozu, jako je sandboxování, které subagenti dědí od rodiče, a schvalovací procesy v CLI. Vysvětlíme si také rizika spojená s hloubkou vnoření agentů (max_depth) a dopad na spotřebu tokenů, protože každý subagent pracuje se svými vlastními nástroji a modelem.Zlepšení přehlednosti: Nakonec si ukážeme, jak používat přezdívky (nicknames) pro agenty, aby byl výstup v CLI a aplikaci přehledný i v momentě, kdy jich vedle sebe běží desítky.Tato epizoda je určena pro vývojáře a architekty, kteří chtějí posunout své využití AI od jednoduchého chatování k plně autonomním a paralelizovaným workflow.

    26 min
  4. 3 DAYS AGO

    31# Inženýrské praktiky pro éru AI: Red-Green TDD a automatizované testování

    ato epizoda představuje rozhovor s Simonem Willisonem, spolutvůrcem frameworku Django a vlivným blogerem v oblasti AI, o tom, jak kódovací agenti (jako Claude či GPT) od základů mění softwarové inženýrství. Simon sdílí své zkušenosti s workflow, kde agenti píší většinu kódu, zatímco on se soustředí na jejich řízení a ověřování výsledků.Hlavní body diskuse: Nové vývojářské workflow: Simon popisuje, jak dnes běžně programuje i na mobilu a jak se jeho role posunula od psaní kódu k jeho směrování a revidování. Zmiňuje i extrémní přístup, kdy vývojáři kód nejen nepíší, ale v některých případech už ani nečtou, pokud mají spolehlivé mechanismy na ověření jeho funkčnosti.Inženýrské praktiky pro éru AI: Klíčem k důvěře v agenty je Red-Green Test-Driven Development (TDD). Agenti nejprve napíší test, který selže, a následně kód, který jej splní, což zvyšuje spolehlivost výsledného softwaru. Simon také představuje koncepty jako „conformance driven development“ a svůj nový nástroj Showboat pro dokumentaci manuálních testů.Bezpečnost a rizika: Jako autor termínu prompt injection Simon vysvětluje rizika spojená s tím, když LLM modely slepě plní instrukce z nedůvěryhodných zdrojů. Varuje před „smrtící trojicí“ (lethal trifecta), kdy má model přístup k soukromým datům, škodlivým instrukcím a zároveň možnost data odeslat ven. Jako hlavní obranu doporučuje sandboxing (spouštění kódu v izolovaném prostředí).Kvalita kódu a „Vibe Coding“: Diskuse rozlišuje mezi rychlým vytvářením malých nástrojů, kde na kvalitě kódu tolik nezáleží (vibe coding), a dlouhodobě udržovanými projekty, kde je refaktorování pomocí AI klíčové pro vysokou kvalitu.Budoucnost profese: Simon uvažuje o tom, jak se změní kariéra programátorů, kteří se musí stát ambicióznějšími a učit se nové jazyky za pochodu. Zároveň ale varuje, že řízení více AI agentů najednou je mentálně vyčerpávající. Epizoda se dotýká i hrozeb pro open source, který může být zaplaven nekvalitními automatizovanými příspěvky.

    26 min
  5. 3 DAYS AGO

    30# Konec ruční optimalizace? Nechte AI agenty, ať se postarají o vaše benchmarky.

    V dnešním díle se podíváme na fascinující projekt pi-autoresearch, který posouvá hranice toho, co pro nás může AI v procesu vývoje udělat. Představte si nástroj, který funguje podle jednoduchého, ale mocného hesla: „Zkus nápad, změř ho, ponech, co funguje, zahahoď, co ne, a opakuj navždy“.Tato epizoda vás provede konceptem autonomní experimentální smyčky, která dokáže samostatně optimalizovat kód v nekonečném cyklu: editace → commit → měření → rozhodnutí → opakování. Probereme, jak tento nástroj, inspirovaný prací Andreje Karpathyho, pomáhá vývojářům v nejrůznějších doménách – od zrychlování testů a sestavovacích procesů až po zmenšování velikosti bundle balíčků nebo optimalizaci tréninku LLM modelů.V této epizodě se dozvíte: Jak funguje mozek autonomního agenta: Odhalíme mechanismus, jakým agent generuje hypotézy a následně je testuje pomocí benchmarkovacích skriptů.Statistika vs. Šum: Jak pi-autoresearch využívá Confidence score (založené na mediánu absolutní odchylky) k tomu, aby odlišilo skutečné zlepšení výkonu od náhodného statistického šumu.Bezpečnost na prvním místě: Co jsou to Backpressure checks a jak zajišťují, že autonomní agent při snaze o zrychlení kódu omylem nerozbije funkčnost aplikace nebo neprojde přes linter.Pracovní workflow budoucnosti: Ukážeme si, jak vypadá dashboard a widgety, které v reálném čase zobrazují pokrok AI agenta, zatímco vy se můžete věnovat kreativnější práci.Tento díl je povinností pro každého, koho zajímá budoucnost DevOps a AI agentů, kteří nebudou kód jen psát, ale i samostatně a vědecky vylepšovat

    25 min
  6. 11 MAR

    29# Od špinavých účtenek k neprůstřelné AI: Proč design systému poráží čistý kód

    Tento zdroj je záznamem podcastu o multimodálních evalacích (hodnocení modelů pracujících s textem i obrazem), kde Kevin Gregory (ML inženýr) popisuje proces budování spolehlivé AI pipeline pro extrakci dat z účtenek. Zde jsou hlavní body, o čem diskuse je: Hlavním tématem je, jak vytvořit systém, který spolehlivě přečte data z reálných účtenek, které jsou často rozmazané, zmačkané, mají mastné skvrny nebo obsahují specifické regionální prvky (např. indonéské daně a zaokrouhlování). Ukazuje se, že model Gemini Flash v těchto úlohách (OCR a extrakce) výrazně překonal modely jako GPT-4o nebo Claude Sonnet. Diskuse zdůrazňuje, že v reálném světě často nemáme k dispozici perfektně olabelovaná data (tzv. golden datasets). Namísto toho Kevin navrhl systém založený na matematické konzistenci (runtime guardrails): Validace součtů: Součet položek musí odpovídat mezisoučtu.Konzistence celkové částky: Mezisoučet + daně + zaokrouhlení musí odpovídat celkové sumě.Logické kontroly: Například zda jsou extrahované hodnoty kladná čísla.Jedním z nejsilnějších sdělení je, že schopnost navrhnout systém je důležitější než samotné programování. Kód se stává komoditou, ale klíčem k úspěchu je: Hluboké pochopení dat (Kevin začal tím, že si prostě prohlížel stovky obrázků účtenek).Návrh iterativního procesu, kde chyba v evaluaci okamžitě vede k vylepšení promptu nebo datového modelu.Vytvoření nástrojů pro vizualizaci chyb, které člověku umožní rychle pochopit, kde model selhává.BAML: Nástroj pro definici datových modelů a promptování, který umožnil rychlé iterace.Gemini Flash: Identifikován jako nejefektivnější model pro multimodální OCR úlohy.Streamlit: Použit pro rychlou tvorbu dashboardu pro vizualizaci výsledků a chyb.Místo snahy o 100% dokonalý prompt autoři doporučují stavět systémy, které chybu rozpoznají a buď se pokusí o samoopravu (retry), nebo ji předají člověku ke kontrole. Tím se drasticky snižuje manuální zátěž uživatele, i když systém není bezchybný. Celkově jde o návod, jak k AI přistupovat jako k inženýrskému problému, kde design zpětné vazby a pochopení reality (špinavých dat) vítězí nad teoretickou optimalizací.

    13 min
  7. 11 MAR

    28# Agent Engineering: Nová disciplína, která krotí chaos v LLM

    Tato epizoda podcastu se detailně zaměřuje na Agent Engineering – novou disciplínu, která vzniká jako nezbytná reakce na specifické výzvy při budování AI agentů. Hlavním tématem je překlenutí propasti mezi tím, když agent „funguje na mém počítači“, a jeho spolehlivým fungováním v reálné produkci. V epizodě probereme následující klíčové oblasti: Konec tradičního vývojářského manuálu: Vysvětlíme si, proč u agentů nefungují klasické postupy. Na rozdíl od běžného softwaru jsou agenti nedeterminističtí – uživatelé mohou zadat v přirozeném jazyce v podstatě cokoli, což znamená, že každý vstup je v podstatě „edge case“.Tři pilíře Agent Engineeringu: Jak se pro úspěšné nasazení musí propojit produktové myšlení (psaní promptů a definování úkolů), inženýrství (stavba infrastruktury a odolných runtime systémů) a datová věda (měření spolehlivosti a analýza chyb).Nový pohled na testování a chyby: Probereme, proč u agentů „fungování“ není binární věc. Agent může mít 99,9% dostupnost, a přesto může dělat chybná rozhodnutí nebo nesprávně používat nástroje. Debugování v tomto světě vyžaduje hloubkovou inspekci každého rozhodnutí modelu.Produkce jako nejlepší učitel: Epizoda zdůrazňuje, že u agentů je vydání (shipping) začátkem učení, nikoliv koncem. Rozebereme iterativní cyklus: postavit základ, otestovat na známých scénářích, nasadit do reálného provozu, pozorovat trasování dat a následně systém vyladit.Inspirace od lídrů trhu: Ukážeme si, jak k této disciplíně přistupují firmy jako LinkedIn, Cloudflare nebo Clay, které již úspěšně využívají agenty pro komplexní úkoly, od náboru talentů po automatizaci CRM.Závěrem epizody zazní myšlenka, že neexistuje žádná zkratka k dokonalosti – pouze systematická práce a neustálé opakování cyklu zlepšování, což je jediná cesta, jak vybudovat systémy, kterým lze v produkci skutečně věřit.

    21 min
  8. 11 MAR

    27# NotebookLM v terminálu: Plná kontrola přes CLI a integrace pro AI agenty.

    Tato epizoda se zaměřuje na revoluční nástroj notebooklm-mcp-cli, který přenáší schopnosti Google NotebookLM z webového prohlížeče přímo do příkazové řádky (CLI) a do prostředí AI agentů prostřednictvím protokolu MCP. V epizodě se podrobně probírají následující témata: Programový přístup k NotebookLM: Jak využít příkaz nlm pro automatizaci úkolů, které byly dříve možné pouze manuálně v prohlížeči, jako je správa zápisníků a zdrojů.Integrace s AI agenty (MCP): Jak propojit NotebookLM s nástroji jako Claude Desktop, Cursor nebo Gemini CLI. Díky tomu můžete svému AI asistentovi zadávat úkoly přirozeným jazykem, například: „Vytvoř rešerši o kvantových počítačích a vygeneruj z ní podcast“.Pokročilý výzkum a správa zdrojů: Možnosti automatizovaného webového a Drive výzkumu, hromadné přidávání URL adres, YouTube videí nebo dokumentů z Google Drive a jejich následná synchronizace.Generování Studio obsahu: Epizoda rozebírá, jak pomocí jednoduchých příkazů vytvářet různé výstupy, jako jsou audio podcasty (Deep Dive), video vysvětlovače, prezentace, infografiky nebo studijní kartičky.Technické pozadí a autentizace: Vysvětlení, jak nástroj využívá interní API a jak probíhá proces extrakce cookies z prohlížeče pro zajištění přístupu k vašemu Google účtu.Fenomén „Vibe Coding“: Příběh vzniku projektu, který vytvořil „neprogramátor“ za pomoci AI asistentů, a výzva pro zkušené vývojáře k zapojení do open-source komunity.Epizoda slouží jako kompletní průvodce pro každého, kdo chce maximalizovat svou produktivitu při práci s informacemi a využít plný potenciál umělé inteligence pro analýzu a tvorbu obsahu.

    17 min

About

AI mění svět rychleji, než stíháme scrollovat. AI SPECTRUM je nový pořad, který filtruje šum a přináší ti jen to podstatné. Každá epizoda je krátká, úderná a postavená na sumarizaci těch nejzajímavějších zdrojů, trendů a myšlenek z umělé inteligence - od výzkumu přes byznys až po reálné dopady. AI podcast, který stojí na spolupráci Dalibora Mráze a Michaela Bočvarova, kteří kombinují zajímavé zdroje, technologický přehled a AI trendy. Pokud chceš být v obraze a nechceš studovat stovky článků denně, AI SPECTRUM ti ušetří čas i nervy.

You Might Also Like