programmier.bar – der Podcast für App- und Webentwicklung

programmier.bar

Die programmier.bar lädt regelmäßig spannende Gäste aus der Welt der App- und Webentwicklung zum Gespräch ein. Es geht um neue Technologien, unsere liebsten Tools und unsere Erfahrungen aus dem Entwickler-Alltag mit all seinen Problemen und Lösungswegen.Euer Input ist uns wichtig! Schreibt uns eure Themenwünsche und Feedback per Mail an podcast@programmier.bar oder auf Discord (https://discord.gg/SvkGpjxSMe), LinkedIn (@programmier.bar), Bluesky (@programmier.bar), Instagram (@programmier.bar) oder Mastodon (@podcast@programmier.bar).Wir sind Full-Stack-Spieleentwickler bekannter Apps wie 4 Bilder 1 Wort, Quiz Planet und Word Blitz. https://www.programmier.bar/impressum

  1. Spezialfolge : An outlook on development with Pierre Tempel

    VOR 1 TAG

    Spezialfolge : An outlook on development with Pierre Tempel

    Wie hat dir die Folge gefallen? Gut 👍 Schlecht 👎 (Keine Anmeldung erforderlich) Diese Folge haben wir als Live-Podcast auf der DecompileD Konferenz aufgenommen. Das Gespräch fand daher ausnahmsweise auf Englisch statt. Unser Gast, Pierre Tempel, ist Director of Product Management bei GitHub und verbindet in seiner Rolle zwei Welten, die oft getrennt gedacht werden: tiefes technisches Verständnis und strategische Produktarbeit. In dieser Folge sprechen wir mit Pierre über seinen Weg vom Entwickler und Startup-CTO hin zu einer Führungsrolle bei GitHub. Wie verändert sich der Blick auf Software, wenn man plötzlich nicht mehr nur Features baut, sondern ganze Produktbereiche verantwortet? Ein Schwerpunkt der Folge liegt auf seiner aktuellen Arbeit: statische Codeanalyse und AI-gestützte Security-Mechanismen. Wir klären, wie moderne Tools Schwachstellen im Code nicht nur erkennen, sondern direkt Lösungsvorschläge liefern – und was das für den Alltag von Entwicklungsteams bedeutet. Außerdem geht es um die Frage, wie sich Produktmanagement in hochkomplexen, technischen Domänen anfühlt: Wie nah muss man noch am Code sein? Wo hört Engineering auf, wo beginnt Produkt? Und natürlich schauen wir auch zurück: Von frühen Projekten in der Forschung (unter anderem im Bereich Brain-Computer Interfaces) bis zur Gründung eines eigenen Startups – welche Erfahrungen prägen Pierres Arbeit bis heute? Schreibt uns! Schickt uns eure Themenwünsche und euer Feedback: podcast@programmier.bar Folgt uns! Bleibt auf dem Laufenden über zukünftige Folgen und virtuelle Meetups und beteiligt euch an Community-Diskussionen. Bluesky Instagram LinkedIn Meetup YouTube

    53 Min.
  2. News 18/26: WordPress Plugin Übernahme // git Update // GitHub Skalierung // Apple Pay Lücke // Apple CEO

    VOR 6 TAGEN

    News 18/26: WordPress Plugin Übernahme // git Update // GitHub Skalierung // Apple Pay Lücke // Apple CEO

    Wie hat dir die Folge gefallen? Gut 👍 Schlecht 👎 (Keine Anmeldung erforderlich) Habt ihr unsere Videopodcasts schon gesehen? Unsere News-Folgen gibt es auf YouTube und Spotify als Video. Ihr möchtet auf der programmier.con 2026 (25.-26. November 2026) einen Talk halten? Dann meldet euch jetzt unter: cfp.programmier.bar Wir blicken auf eine ereignisreiche Woche zurück, in der von krimineller Energie im WordPress-Ökosystem bis hin zu tektonischen Verschiebungen in der Apple-Führungsetage alles dabei war. Außerdem erfahrt ihr, warum euer GitHub-Workflow gerade die globale Infrastruktur ins Schwitzen bringt. Passend zu unserer letzten Diskussion über potenzielle WordPress-Nachfolger hat uns die Realität eingeholt. Dave berichtet von einem massiven Vorfall, bei dem Plugins nach einer Übernahme durch die Firma „Essential Plugin“ mit Backdoors infiziert wurden. Dank eines Hinweises von unserem Sebi werfen wir einen Blick auf das aktuelle Git-Update. Die Version 2.54 bringt eine lang ersehnte Verbesserung für das Management von Git Hooks mit sich. Bisher waren diese lokal im .git-Ordner versteckt und ließen sich nur schwer im Team teilen oder versionieren. Mit dem Update könnt ihr Hooks nun direkt in der Git-Konfiguration definieren, sie global anwenden oder sogar mehrere Hooks für dasselbe Event (wie pre-commit) verketten. GitHub hat beeindruckende Zahlen zur Skalierung ihrer Infrastruktur veröffentlicht. Ursprünglich auf eine zehnfache Vergrößerung ausgelegt, korrigierte die Plattform ihre Prognose aufgrund des massiven Anstiegs von „Agentic Workflows“ auf das Dreißigfache. Seit Ende 2023 explodieren die Zahlen bei Pull Requests, Commits und neuen Repositories förmlich. Wir diskutieren, ob dieser Output an Code wirklich zu besserer Software führt oder ob wir lediglich die Rechenzentren mit KI-generiertem „Slop“ füllen. Jan bringt gleich zwei Updates aus der Apple-Ecke: Zuerst schauen wir uns eine besorgniserregende Lücke in Apple Pay an, die Visa-Karten im „Transit Mode“ betrifft. Durch eine Man-in-the-Middle-Attacke lassen sich biometrische Hürden umgehen, um unautorisierte Zahlungen auszulösen. Und zum Abschluss diskutieren wir die Nachfolge von Tim Cook. Mit John Ternus wird ein Hardware-fokussierter CEO das Ruder übernehmen. Schreibt uns! Schickt uns eure Themenwünsche und euer Feedback: podcast@programmier.bar Folgt uns!

    1 Std. 11 Min.
  3. Deep Dive 206 – Web Performance mit Christian Schaefer

    28. APR.

    Deep Dive 206 – Web Performance mit Christian Schaefer

    Wie hat dir die Folge gefallen? Gut 👍 Schlecht 👎 (Keine Anmeldung erforderlich) Web Performance ist kein Nice-to-have, sondern die Grundlage für gute User Experience. In dieser Folge sprechen Fabian und Garrelt mit Christian „Schepp“ Schaefer über die großen und kleinen Hebel für schnelle Webanwendungen. Der freiberufliche Web-UI-/UX-Engineer und Co-Host des Working Draft Podcasts bringt nicht nur tiefes technisches Wissen mit, sondern auch eine klare Haltung: Performance entsteht nicht nebenbei – sie ist eine bewusste Architekturentscheidung. Gemeinsam gehen wir zurück zu den Wurzeln der Web Performance und klären, warum die bekannte 80/20-Regel von Steve Souders auch heute noch gilt: Die meisten Bottlenecks entstehen im Frontend. Wir diskutieren, warum wir uns seit Jahren zwischen Server-Side Rendering und Client-Side-Logik hin- und herbewegen und was das für moderne Web-Architekturen bedeutet. Im Gespräch wird deutlich, dass Performance mehr ist als Ladezeit. Schepp erklärt die drei zentralen Dimensionen: Ladezeit, Runtime Performance und Layout-Stabilität – ein Faktor, der in der Praxis oft unterschätzt wird. Wir sprechen darüber, wie sich rechenintensive Aufgaben mithilfe von Web Workern und dem Actor Model aus dem Main Thread auslagern lassen, um Interaktionen flüssig zu halten. Dabei geht es auch um konkrete Tools wie Comlink und die Frage, wie man Rendering, Filter oder Übersetzungen sinnvoll parallelisiert. Ein weiterer Schwerpunkt liegt auf dem Einsatz moderner Browser-Features. Schepp zeigt, warum viele Probleme heute besser mit CSS als mit JavaScript gelöst werden können, etwa durch Scroll Snapping oder die neue Carousel API, die klassische Slider-Libraries überflüssig macht. Ergänzt wird das durch einen Blick auf Tooling und Messmethoden, von WebPageTest über die Chrome DevTools bis hin zu Real User Monitoring mit Sentry. Auch architektonische Entscheidungen werden kritisch beleuchtet. Anhand von Erfahrungen aus realen Projekten diskutieren wir, warum BEM in großen Codebases an Grenzen stoßen kann und weshalb ein Utility-First-Ansatz wie Tailwind CSS unter bestimmten Bedingungen Performance-Vorteile bringt. Schepp gibt außerdem Einblicke in seinen eigenen Stack rund um PHP und Twig und teilt Learnings aus der Praxis, inklusive der Frage, wie viel JavaScript wir Nutzer:innen heute eigentlich noch zumuten sollten. Wenn ihr verstehen wollt, wie ihr eure Webanwendung wirklich schneller macht – und nicht nur theoretisch darüber nachdenkt – ist diese Folge genau das Richtige für euch. Habt ihr Feedback zur Folge oder eigene Performance-Tricks? Schreibt uns auf Discord oder nutzt den Hashtag #GarreltMockRockt! Weitere Links aus der Folge:

    1 Std. 21 Min.
  4. News AI 17/26: Anthropic: Opus 4.7,  Claude Design, Mythos Preview // Codex Updates // Kimi 2.6 // Qwen 3.6

    23. APR.

    News AI 17/26: Anthropic: Opus 4.7, Claude Design, Mythos Preview // Codex Updates // Kimi 2.6 // Qwen 3.6

    Wie hat dir die Folge gefallen? Gut 👍 Schlecht 👎 (Keine Anmeldung erforderlich) In dieser Folge der AI News begrüßen euch Dennis und Philipp. Philipp meldet sich direkt aus den USA und steht gerade kurz vor der Google Cloud Next in Las Vegas. Gemeinsam tauchen die beiden tief in die neuesten Veröffentlichungen von Anthropic ein. Den Anfang macht ein Modell, das fast schon zu gut für die Öffentlichkeit ist: Claude Mythos. In einer Preview-Phase zeigt Anthropic hier Fähigkeiten im Bereich Security und Vulnerability Research, die so weit fortgeschritten sind, dass das Modell vorerst nur ausgewählten Partner:innen im Rahmen des „Project Glasswing“ zur Verfügung gestellt wird, um das Internet sicherer zu machen, bevor es in falsche Hände gerät. Erinnert ihr euch noch an die Anfänge von GPT-2? Wir diskutieren, ob dieser „Safety-First“-Ansatz Marketing oder Notwendigkeit ist. Ganz konkret für euch nutzbar ist dagegen das Update auf Claude Opus 4.7. Die Benchmarks, besonders im Coding-Bereich, machen einen ordentlichen Satz nach vorne. Aber Vorsicht beim Budget: Durch einen neuen Tokenizer verbraucht das Modell bis zu 35 % mehr Tokens für den gleichen Text. Wir besprechen, was das für eure API-Kosten bedeutet und warum das Modell trotzdem ein No-Brainer für komplexe Aufgaben bleibt. Passend dazu hat Anthropic Claude Design gelauncht – ein Tool, mit dem ihr ganze Design-Systeme und interaktive Prototypen direkt per Prompt erstellen könnt. Ob das wirklich der viel beschworene „Figma-Killer“ ist oder eher eine mächtige Brücke zwischen Idee und Code, erfahrt ihr in der Folge. Auch bei OpenAI gibt es Neuigkeiten, speziell für die Codex MacOS Anwendung. Mit der neuen „Computer Use“-Integration kann die KI nun direkt auf eurem System agieren, sei es in Slack, im Browser oder direkt in eurer Entwicklungsumgebung für Swift-Projekte. Wir schauen uns an, wie die neuen In-App-Browser-Editoren und die Integration von Image 1.5 euren Workflow beschleunigen können – auch wenn einige Features in der EU noch auf sich warten lassen oder nur über Feature-Flags erreichbar sind. Zum Abschluss werfen wir einen Blick nach China, wo sich das Karussell der Open-Weights-Modelle immer schneller dreht. Kimi 2.6 beeindruckt mit extremen Fähigkeiten für „Long-Horizon Agentic Use Cases“ und tausenden parallelen Tool-Calls. Gleichzeitig schickt Alibaba Qwen 3.6 ins Rennen, das in der MoE-Variante (Mixture of Experts) sogar Googles Gemma in einigen lokalen Szenarien den Rang abläuft. Schreibt uns! Schickt uns eure Themenwünsche und euer Feedback: podcast@programmier.bar Folgt uns! Bleibt auf dem Laufenden über zukünftige Folgen und virtuelle Meetups und beteiligt euch an Community-Diskussionen. Bluesky Instagram LinkedIn Meetup

    28 Min.
  5. CTO-Special #40: Marie Kilg von Deutsche Welle

    21. APR.

    CTO-Special #40: Marie Kilg von Deutsche Welle

    Wie hat dir die Folge gefallen? Gut 👍 Schlecht 👎 (Keine Anmeldung erforderlich) Fabi und Garrelt sprechen mit Marie Kilg, freie Journalistin und Chief AI Officer bei der Deutschen Welle, über ihren ungewöhnlichen Karriereweg zwischen Journalismus und Technologie. Marie gibt Einblicke in ihre Arbeit als Host von „Der KI-Podcast“ der ARD und erklärt, wie sie schon früh ein starkes Interesse an Technik entwickelte – von HTML-Büchern als Jugendliche bis hin zu neuronalen Netzwerken während ihrer Zeit bei Amazon. Marie erzählt, wie sie als Quereinsteigerin ihre Leidenschaft für KI entdeckte und erste technische Projekte umsetzte, darunter ein feministischer Twitter-Bot und ein Chatbot, der ihren Lebenslauf erzählt. Ihre Erfahrungen bei Amazon, zunächst als Content Editor für Alexa, später als Senior Product Manager, prägten ihr technisches Verständnis erheblich. Ein Schwerpunkt der Folge liegt auf Maries Experimenten mit KI-generierten Texten, insbesondere der automatisierten Kolumne für die taz. Sie beschreibt, wie sie frühzeitig mit GPT-3 experimentierte, Texte für eine nichtmenschliche Kolumnistin generierte und dabei die Herausforderungen von Prompting, Kontextfenstern und der Textqualität meisterte. Dabei zeigt sie, wie Kreativität und technisches Know-how kombiniert werden können, um journalistische Inhalte auf innovative Weise zu produzieren und welche Learnings daraus generiert wurden. Marie gibt zudem Einblicke in ihre Arbeitsweise als Chief AI Officer: Sie versucht, stets auf dem neuesten Stand der KI-Entwicklung zu bleiben, testet neue Tools praktisch und analysiert, welche Technologien realistisch sind und welche eher Marketingzwecken dienen. Dabei hilft ihr die Erfahrung aus der Tech-Branche, um PR-Botschaften kritisch zu hinterfragen und die Realität hinter den Schlagzeilen einzuschätzen. Abschließend diskutieren dir drei die Zukunft von KI, insbesondere in Text- und Knowledge-Work-Anwendungen, und stellen heraus, dass die größten Herausforderungen nicht nur technologisch, sondern auch organisatorisch und sicherheitsrelevant sind. Hier findet ihr die Lese-Empfehlungen von Marie: Buch: E. Glen Weyl, Audrey Tang and the Plurality Community: „Plurality. The Future of Collaborative Technology and Democracy“YouTube: Yannic Kilcher Generell zum Folgen & Lesen: Joanna Bryson, Arvind Narayanan & Sayash Kapoor, Andrej Karpathy Schreibt uns! Schickt uns eure Themenwünsche und

    1 Std. 31 Min.
  6. News 16/26: HTML in Canvas // EmDash // MDN Update // human.json // Google Ranking

    16. APR.

    News 16/26: HTML in Canvas // EmDash // MDN Update // human.json // Google Ranking

    Wie hat dir die Folge gefallen? Gut 👍 Schlecht 👎 (Keine Anmeldung erforderlich) Habt ihr unsere Videopodcasts schon gesehen? Unsere News-Folgen gibt es auf YouTube und Spotify als Video. Ihr möchtet auf der programmier.con 2026 (25.-26. November 2026) einen Talk halten? Dann meldet euch jetzt unter: cfp.programmier.bar Dave bringt uns ein Thema mit, das die Web-Entwicklung nachhaltig verändern könnte: HTML in Canvas. Aktuell müssen wir uns oft zwischen der Barrierefreiheit des DOMs und der Performance von Canvas entscheiden. Ein neues Proposal der WICG will das ändern. Jan hat sich den selbsternannten WordPress-Nachfolger von Cloudflare angeschaut: EmDash. Das CMS basiert auf Astro, bringt gute AI Integration mit und nutzt eine innovative Architektur, bei der Plugins in isolierten Cloudflare Workers ausgeführt werden. Das verspricht zwar ein enormes Plus an Sicherheit, wirft aber auch Fragen zum Vendor Lock-in auf. Garrelt wirft einen Blick auf das massive MDN Update. Das Mozilla Developer Network hat seine Front-end-Architektur grundlegend umgebaut und ist dabei von React zu Web Components gewechselt. Warum dieser Schritt für mehr Performance und bessere Maintainability sorgt und wie das Team dabei eigene Server-Components-Lösungen implementiert hat, könnt ihr im MDN Frontend Deep Dive nachlesen. In Zeiten von KI-generiertem „Slop“ stellt Dennis das Protokoll human.json vor. Die Idee dahinter: Ein Proxy-Trust-Netzwerk, mit dem ihr verifizieren könnt, dass eure Inhalte tatsächlich von Menschen stammen. Wir diskutieren kritisch, ob ein solches Label wirklich nötig ist oder ob am Ende nicht doch einfach nur die Qualität des Contents zählen sollte. Zum Abschluss gibt es noch ein wichtiges Update für euer SEO-Ranking. Google geht gegen Back-button Hijacking vor. Google stuft dieses Verhalten nun offiziell als Malware-ähnlich ein, was direkte Auswirkungen auf die Sichtbarkeit in den Suchergebnissen hat. Schreibt uns! Schickt uns eure Themenwünsche und euer Feedback: podcast@programmier.bar Folgt uns! Bleibt auf dem Laufenden über zukünftige Folgen und virtuelle Meetups und beteiligt euch an Community-Diskussionen. Bluesky Instagram LinkedIn Meetup YouTube

    46 Min.
  7. Deep Dive 205 – AI Evals mit Martin Seeler

    14. APR.

    Deep Dive 205 – AI Evals mit Martin Seeler

    Wie hat dir die Folge gefallen? Gut 👍 Schlecht 👎 (Keine Anmeldung erforderlich) Ein Modell-Update bei OpenAI oder Anthropic ist schnell gemacht. Aber wie stellt ihr sicher, dass eure Anwendung danach noch genau das tut, was sie soll? In dieser Folge, aufgenommen auf der DecompileD in Dresden, sprechen wir mit Martin Seeler, Senior Staff AI Engineer bei Blue Yonder, über die Welt der AI Evals und den Unterschied zwischen einem reinen „Vibe-Check“ und belastbarer Teststrategie für GenAI-Produkte. Im Fokus stehen die drei Säulen der Evaluation: Code-based Evals, LLM-as-a-Judge und Human-in-the-loop. Außerdem geht es um Error Analysis, Failure Modes und wie ihr aus Logs durch Clustering eine eigene Fehler-Taxonomie entwickelt. Wir besprechen, warum binäre Bewertungen (True/False) oft hilfreicher sind als Scores, wie ihr Kosten, Latenz und Qualität gegeneinander abwägt und wie Tools wie Langfuse, Phoenix, promptfoo oder Braintrust euch beim Monitoring und Testing unterstützen. Wenn ihr wissen möchtet, wie ihr eure KI-Anwendung vom Prototypen in einen stabilen Enterprise-Betrieb überführt und Evals gezielt für Fine-Tuning oder Reinforcement Learning nutzt, ist dieser Deep Dive genau richtig für euch. Vielen Dank an das Team der DecompileD für die Gastfreundschaft und an Vodafone für die Bereitstellung der Räumlichkeiten mit Blick auf die Trainingsfelder von Dynamo Dresden! Schreibt uns! Schickt uns eure Themenwünsche und euer Feedback: podcast@programmier.bar Folgt uns! Bleibt auf dem Laufenden über zukünftige Folgen und virtuelle Meetups und beteiligt euch an Community-Diskussionen. Bluesky Instagram LinkedIn Meetup YouTube Musik: Hanimo

    1 Std. 3 Min.
  8. News AI 15/26: Gemma 4 // Seadance 2.0 // Hermes Agent

    9. APR.

    News AI 15/26: Gemma 4 // Seadance 2.0 // Hermes Agent

    Wie hat dir die Folge gefallen? Gut 👍 Schlecht 👎 (Keine Anmeldung erforderlich) Habt ihr unsere Videopodcasts schon gesehen? Unsere News-Folgen gibt es auf YouTube und Spotify als Video. Ihr möchtet auf der programmier.con 2026 (25.-26. November 2026) einen Talk halten? Dann meldet euch jetzt unter: cfp.programmier.bar In der neuen Folge AI 15/26 begrüßen euch Dennis und Philipp, die die spannendsten Entwicklungen der Woche sortieren. Im Fokus steht das massive Release von Gemma 4, Googles neuestem Open-Source-Streich, der nicht nur multimodal überzeugt, sondern dank der Apache-2.0-Lizenz auch rechtlich für deutlich weniger Kopfzerbrechen in euren Projekten sorgt. Wir schauen uns an, was die verschiedenen Modellgrößen von 2B bis 31B leisten und warum ihr Gemma 4 ab sofort nativ auf eurem Smartphone über die Google AI Edge Gallery testen könnt. Außerdem werfen wir einen Blick auf Seadance 2.0 von ByteDance. Das Videomodell sorgt mit 15-sekündigen Clips inklusive Sound für Aufsehen, musste nach heftiger Kritik aus Hollywood aber in Sachen Copyright ordentlich nachbessern. Ihr könnt es jetzt direkt in CapCut ausprobieren. Für alle, die tiefer in die Welt der Agenten eintauchen wollen, stellt Philipp den Hermes-Agenten von Nous Research vor. Im Gegensatz zu eher Konsumierenden-orientierten Tools richtet sich dieser Python-basierte Agent-Harness primär an Unternehmen und die Forschung. Wir besprechen die Vorteile der engen Ollama-Integration und wie ihr damit hochwertige Traces für das Fine-Tuning eurer eigenen Modelle generiert. Zum Abschluss gibt es wichtige Insights zu den jüngsten Security-Vorfällen: Wir klären auf, warum der Leak von Claude Code doch brisanter war als gedacht und wie eine extrem perfide Social-Engineering-Masche mit gefaketen Slack-Workspaces zum Axios-Leak führte. Schreibt uns! Schickt uns eure Themenwünsche und euer Feedback: podcast@programmier.bar Folgt uns! Bleibt auf dem Laufenden über zukünftige Folgen und virtuelle Meetups und beteiligt euch an Community-Diskussionen. Bluesky Instagram LinkedIn Meetup YouTube

    29 Min.
4,8
von 5
202 Bewertungen

Info

Die programmier.bar lädt regelmäßig spannende Gäste aus der Welt der App- und Webentwicklung zum Gespräch ein. Es geht um neue Technologien, unsere liebsten Tools und unsere Erfahrungen aus dem Entwickler-Alltag mit all seinen Problemen und Lösungswegen.Euer Input ist uns wichtig! Schreibt uns eure Themenwünsche und Feedback per Mail an podcast@programmier.bar oder auf Discord (https://discord.gg/SvkGpjxSMe), LinkedIn (@programmier.bar), Bluesky (@programmier.bar), Instagram (@programmier.bar) oder Mastodon (@podcast@programmier.bar).Wir sind Full-Stack-Spieleentwickler bekannter Apps wie 4 Bilder 1 Wort, Quiz Planet und Word Blitz. https://www.programmier.bar/impressum

Das gefällt dir vielleicht auch