Merci de soutenir ce podcast en visitant nos sponsors: - Créez n'importe quel formulaire, sans code, avec Fillout. 50 % de crédits supplémentaires à l'inscription - https://try.fillout.com/the_automated_daily - Investissez comme les professionnels avec StockMVP - https://www.stock-mvp.com/?via=ron - Prezi: Créez rapidement des présentations avec l'IA - https://try.prezi.com/automated_daily Soutenez directement The Automated Daily: Offre-moi un café: https://buymeacoffee.com/theautomateddaily Sujets du jour: LLM et pièges de performance - Un clone de SQLite généré par LLM s’avère jusqu’à 20 000× plus lent, révélant des invariants de performance manqués malgré un code “propre” et des tests passés. Mots-clés: SQLite, Rust, LLM, profiling, B-tree, critères d’acceptation. Marché de l’image générative éthique - Kapwing revient sur Tess.Design, une place de marché d’images IA avec royalties artistes, fermée faute d’adoption, de traction économique et de clarté juridique. Mots-clés: licensing, royalties, artistes, marketplace, incertitude copyright. Pénurie de calcul et rationnement - Des signaux concrets montrent que la “compute crunch” est déjà là: accès restreints, latence, rationnement, et contraintes mémoire/énergie qui pourraient durer jusqu’en 2027. Mots-clés: inference, tokens, HBM, DRAM, capacité, quotas. Réorg Meta et course IA - Meta réorganise son effort IA avec une nouvelle équipe Applied AI au reporting direct, misant sur vitesse d’exécution, pipelines de données et évaluation. Mots-clés: Zuckerberg, Bosworth, data engine, org design, superintelligence. Agents de recherche sur GPU - Andrej Karpathy publie “autoresearch”, une boucle d’expérimentation où un agent modifie un fichier, entraîne 5 minutes sur un seul GPU, mesure, puis itère. Mots-clés: agentic, training loop, single GPU, métriques, automation. Mémoire persistante pour agents - Google open-source un agent à “mémoire toujours active” stockée en SQLite, qui consolide des souvenirs au fil du temps—avec des questions de gouvernance et de dérive. Mots-clés: persistent memory, SQLite, conformité, audit, drift. Sécurité: bugs trouvés par IA - Anthropic et Mozilla rapportent que Claude a aidé à identifier des vulnérabilités dans Firefox, accélérant corrections et tri—tout en rappelant que l’exploitation reste plus difficile que la découverte. Mots-clés: Firefox, vulnérabilités, triage, patch, exploit. OpenAI et controverse Défense - La responsable hardware/robotique d’OpenAI démissionne après l’accord avec le Pentagone, dénonçant des risques de surveillance et d’autonomie létale sans garde-fous clairs. Mots-clés: DoD, gouvernance, red lines, réputation, confiance. Effectifs en baisse, compute en hausse - De nouvelles données suggèrent que des entreprises remplacent une partie du travail humain par du compute: levées record, mais embauches en baisse et équipes plus petites, surtout côté AI-native. Mots-clés: layoffs, productivité, revenue/employee, VC, headcount. Open source: copyleft contourné - Une polémique éclate autour de chardet: une réécriture assistée par IA change la licence de LGPL vers MIT, relançant le débat sur le “clean-room” et la fragilité des communs face à la réimplémentation. Mots-clés: copyleft, MIT, LGPL, normes, réécriture. - Benchmarks Show LLM-Generated SQLite Rewrite Is Orders of Magnitude Slower Than SQLite - Kapwing Shuts Down Tess.Design After Testing Artist Royalties for AI Art - Miro-Commissioned Research Highlights Why AI Adoption Still Stalls in Product Development - Signs of an AI Compute Crunch Emerge as Providers Degrade Service to Meet Demand - serpapi.com - Zuckerberg Forms New Applied AI Engineering Unit as Meta Reorganizes Superintelligence Effort - advertise.tldr.tech - Karpathy releases “autoresearch,” a single-GPU framework for autonomous LLM training experiments - Claude Announces Limited-Preview ‘Claude Marketplace’ for Enterprise AI Procurement - Researchers urge AI safety focus on shaping motivation-space exploration during RL - Whitepaper Claims MCP Server Design Drives Large Gaps in AI Workflow Accuracy - Meta quietly launches standalone Vibes AI video editor with timeline workflow - Google open-sources Always On Memory Agent to enable persistent LLM memory without vector databases - OpenAI Robotics Lead Caitlin Kalinowski Resigns Over Pentagon Agreement - OpenAI launches Codex Security agent in research preview to cut vulnerability scan noise - AI Boom, Smaller Teams: Evidence Startups Are Substituting Compute for Labor - SRAM-Centric AI Chips Gain Ground as LLM Decode Hits the Memory Wall - LLM Essay Argues It Can’t Inspect the Prompt It’s Completing - softwaredoug.com - Chardet AI Rewrite Sparks Debate Over Copyleft, Legality, and Community Norms - Guardian probes UK AI boom claims, finding ‘phantom’ datacentre investments - Anthropic and Mozilla Use Claude to Find High-Severity Firefox Vulnerabilities Transcription de l'Episode LLM et pièges de performance On commence donc par ce cas d’école: une réimplémentation de SQLite générée par LLM, en Rust, présentée comme compatible et plutôt complète. Sur le papier, tout va bien: compilation, suite de tests, et une API qui “ressemble” à l’original. Sauf qu’au benchmark, les opérations de base s’écroulent, avec un record peu glorieux: des recherches par clé primaire sur une table minuscule qui deviennent environ 20 000 fois plus lentes. Le diagnostic est parlant: au lieu d’emprunter les chemins rapides de SQLite, le moteur planifie certaines requêtes comme des scans complets de table. Et au-delà d’un bug logique précis, l’auteur pointe des choix coûteux—recompilation trop fréquente, allocations et copies à répétition, rechargement de schémas, et synchronisations disque agressives. Pourquoi c’est intéressant? Parce que ça illustre une faille récurrente: un LLM peut produire un code “crédible” qui coche les cases visibles, tout en ratant des invariants de performance et de comportement qui viennent d’années de mesures et de retours terrain. La conclusion est pragmatique: sans critères d’acceptation mesurables et vérification personnelle, “ça build et ça passe les tests” ne suffit pas. Marché de l’image générative éthique Dans le même esprit—mais côté usage—un autre exemple cité dans l’analyse raconte un gros service de “nettoyage disque” développé comme un démon complexe, alors qu’un cron minimal aurait réglé le besoin. Message sous-jacent: l’IA répond souvent à l’intention formulée dans le prompt, pas à la nécessité pratique. Et ça, en entreprise, ça finit en dette technique, pas en productivité. Pénurie de calcul et rationnement On passe à l’économie des créateurs avec le retour d’expérience de Kapwing sur Tess.Design, une marketplace d’images génératives lancée en 2024 et arrêtée en janvier 2026. L’idée était d’être “éthique” par design: rémunérer des artistes à chaque génération réalisée dans leur style, avec une chaîne de droits traçable censée rassurer les éditeurs. Dans les faits, recruter des artistes a été ardu, pour des raisons très humaines: opposition de principe à l’IA, peur de dilution de marque, et risque d’être mal vu dans sa communauté. Financièrement, le projet n’a jamais décollé: recettes modestes, avances versées supérieures aux revenus, et quasiment pas de royalties au-delà des avances. Même un deal prometteur aurait capoté, la partie juridique jugeant le terrain du copyright encore trop instable. Intérêt de ce récit: il montre que le “bon modèle” n’est pas uniquement technique. Culture, confiance, et droit pèsent autant que la qualité des images. Réorg Meta et course IA Côté infrastructure, un analyste affirme que la “compute crunch” n’est plus une menace abstraite: elle se traduit déjà par des dégradations visibles. Il cite des soucis de disponibilité et, surtout, une rationnalisation explicite de l’inférence: baisse de qualité par défaut, restrictions d’accès, retrait de certaines options sur des outils de dev. L’argument clé, c’est l’effet des systèmes plus “agentiques”: dès qu’un assistant planifie, itère, et vérifie, la consommation de tokens explose, et la demande peut grimper très vite même si peu d’employés l’utilisent. En face, les limites ne sont pas seulement “des GPU”: mémoire rapide, énergie, cadence de déploiement, et capacité industrielle. Sa projection est assez claire: contraintes plus dures jusqu’en 2026–2027, avec des fournisseurs qui gèrent la rareté via quotas, incitations hors pointe, et limitations aux heures chargées. Agents de recherche sur GPU Cette tension sur le calcul rejoint un autre sujet: la diversification du hardware d’inférence. On voit monter des accélérateurs qui misent fortement sur de la mémoire rapide proche du calcul, pour servir les besoins de latence et de débit, notamment sur la phase de génération token par token. L’idée n’est pas “les GPU sont morts”—plutôt que l’inférence se fragmente, et que les architectures spécialisées trouvent leur place, surtout quand la bande passante mémoire devient le vrai goulot. Pour les équipes produit, ça signifie des stacks plus hétérogènes, donc plus de décisions à prendre sur où et comment exécuter chaque étape. Mémoire persistante pour agents Chez Meta, Mark Zuckerberg poursuit la réorganisation avec une nouvelle entité Applied AI engineering. Structure volontairement plus plate, reporting resserré, et mandat centré sur l’outillage interne: pipelines de données, systèmes d’évaluation, et ce que Meta décrit comme un “data engine” pour accélérer l’amélioration des modèles. Le signal est fort: la comp