In dieser Folge sprechen wir über die Embedded World, KI auf der Hardware-Messe und warum dort zwar viel „AI-ready“, aber überraschend wenig wirklich spannende KI-Software zu sehen war. Danach wird’s deutlich nerdiger: Es geht um OpenClaw, agentische Coding-Workflows, Claude Code, lokale Modelle auf dem MacBook, Telegram-Bots als KI-Assistenten und die Frage, warum diese Tools gleichzeitig extrem produktiv und potenziell gefährlich abhängig machen können. Außerdem: Warum Pascal testweise eine App komplett per AI gebaut hat, weshalb man dabei irgendwann den Bezug zur eigenen Codebase verliert, was gute User Experience bei KI-Agenten ausmacht und warum lokale Modelle für sensible Dokumenten-Workflows der eigentlich spannende nächste Schritt sind. Time Chapters 00:00 Intro 00:49 Alex über die Embedded World und warum Messen immer noch nützlich sind 02:49 KI auf der Messe: viel Hardware-Enabler, wenig echte AI-Software 05:16 SnapMagic, Schaltpläne und KI-gestützte Reviews 06:34 Claude Review Tools und Bezahlmodelle pro Review 08:34 AI-Code-Reviews auf Pull Requests und lokal im Workflow 09:04 Pascal über „Vibe Engineering“ und eine App mit fast 100k Zeilen AI-Code 10:36 Die Kehrseite: Abhängigkeit von Coding-Agents und Verlust des Code-Verständnisses 12:07 Das Experiment: eine App bauen, ohne den Code selbst anzufassen 13:06 Deep Modules, Architektur und warum das für AI gut funktionieren kann 13:57 Copy-Paste-Code, Deduplizierung und Refactoring mit AI 15:24 Eigene Skills, Review-Steps und bessere Code-Hygiene 15:52 Back to the roots: NeoVim, Terminal und wieder selbst schreiben 17:18 Dokumentenverarbeitung, Routing, Klassifikation und Extraktion 18:02 Python, Rust und Pyo3 in echten Dokumenten-Pipelines 18:32 Neues MacBook, lokale Modelle und Experimente mit Cloud Code 19:06 Kimi, Qwen Coder und die Frage, was Quantisierung eigentlich kostet 21:20 128 GB RAM, MacOS Memory Usage und lokale Modell-Setups 22:33 OpenClaw lokal betreiben und mit produktiven Tools verbinden 24:00 Wie sinnvoll ist ein Agent in einer synthetischen Testwelt? 24:58 Was OpenClaw so spannend macht und was man daraus für eigene Produkte lernen kann 27:25 Agenten via Telegram Aufgaben schicken und produktiv arbeiten lassen 28:46 OpenClaw-Architektur: Gateway, Sessions, Cronjobs und Medienverarbeitung 30:18 Persönlichkeit, Memory und Identität über Markdown-Dateien 31:51 Jarvis: Pascals eigener Telegram-Bot auf Basis von Claude Code 33:24 Warum gestreamte Antworten sich so viel besser anfühlen 36:17 Proaktive Bots, Erinnerungen und Produktideen für Dokumenten-Apps 39:22 Permissions, Grenzen von Markdown-Regeln und warum echte Guardrails fehlen 42:21 Lokale LLMs, Regulierung und weniger Restriktionen 44:44 Das Kundenprojekt: Finanzdokumente, Uploads und echte Nutzerprobleme 46:25 Warum der OpenClaw-Hype abgekühlt ist und was trotzdem bleiben wird 48:44 Langweilige PDF-Aufgaben, sensible Daten und warum lokal der richtige Weg sein kann 49:36 Fazit und Outro