Merci de soutenir ce podcast en visitant nos sponsors: - Lindy est votre assistant IA ultime qui gère proactivement votre boîte de réception - https://try.lindy.ai/tad - KrispCall: Téléphonie cloud agentique - https://try.krispcall.com/tad - Découvrez l'avenir de l'audio IA avec ElevenLabs - https://try.elevenlabs.io/tad Soutenez directement The Automated Daily: Offre-moi un café: https://buymeacoffee.com/theautomateddaily Sujets du jour: Influenceurs IA et arnaques politiques - Des comptes d’influenceurs générés par IA, optimisés pour l’engagement politique, monétisent des audiences et contournent la modération. Mots-clés: deepfakes, Instagram, désinformation, Fanvue, rage-bait. Sécurité des agents et navigateurs - Zenity et d’autres signaux montrent que les agents IA élargissent la surface d’attaque: prompt-injection, contenus non fiables, interactions agent-à-agent et fuites de fichiers. Mots-clés: agentic browser, isolation, monitoring, Comet, sécurité. Surveillance au travail pour entraîner l’IA - Meta impose une collecte de clics, frappes clavier et contexte écran pour entraîner des agents “computer-using”, relançant le débat vie privée vs productivité. Mots-clés: surveillance, keystrokes, conformité, employés, agents. Mémoire à l’écran et risques Codex - OpenAI teste Chronicle pour Codex: une mémoire construite à partir de captures d’écran, utile pour le contexte mais exposée aux attaques et aux enjeux de confidentialité. Mots-clés: screen recording, prompt injection, sandbox, macOS. Coûts de l’IA et facturation Copilot - Des fuites indiquent que Microsoft veut passer Copilot à une logique de facturation liée à l’usage réel, avec restrictions et retraits de modèles coûteux. Mots-clés: tokens, coûts GPU, quotas, développeurs. Course au calcul: AWS et Stargate - Anthropic verrouille du compute AWS à très grande échelle, pendant que le projet Stargate d’OpenAI avance sur plusieurs sites américains, avec enjeux énergie, eau et acceptabilité locale. Mots-clés: data centers, Trainium, gigawatts, infrastructure. Post-entraînement modulaire avec BAR - Ai2 propose BAR, une méthode pour ajouter des compétences à un modèle via des ‘experts’ fusionnables, sans tout réentraîner et sans casser les acquis. Mots-clés: mixture-of-experts, post-training, catastrophic forgetting, routage. Vision IA: meilleure compréhension des images - DeepMind présente TIPSv2 pour mieux relier texte et régions d’image, crucial pour segmentation et tâches denses, avec un message: on peut gagner sans juste ‘grossir’ les modèles. Mots-clés: vision-language, alignment, zero-shot, segmentation. IA multimodale, conduite et performance GPU - Entre Qwen omnimodal, l’accélération VLA pour la conduite, et l’optimisation de l’entraînement chez Meta, la bataille se joue autant sur les capacités que sur la vitesse. Mots-clés: multimodal, VLA, latence, quantification, PyTorch. - Zenity Labs Archive Highlights Rising Security Risks in AI Agents and Agentic Browsers - Ai2’s BAR Method Lets Model Teams Post-Train Separate Experts and Merge Them via Mixture-of-Experts - Meta’s Mandatory AI Tracking Program Sparks Employee Privacy Backlash - Meta to Track Employee Keystrokes and Mouse Movements to Train AI Models - FlashDrive Speeds Up Reasoning-Based VLA Models for Real-Time Autonomous Driving - Qwen3.5-Omni Report Details Long-Context Multimodal Model and ARIA Streaming Speech Method - Gemini CLI Adds Subagents for Parallel, Role-Based Coding Workflows - DeepMind’s TIPSv2 Targets Better Patch-Text Alignment for Vision-Language Models - Study Finds ‘Uncensored’ AI Models Still Avoid Charged Words Through Hidden ‘Flinch’ Bias - Claude Cowork Adds Live Dashboards and Trackers That Refresh From Connected Data - CSA Survey Warns Enterprise Security Is Falling Behind Rapid AI Agent Adoption - Anthropic and Amazon Deepen Partnership to Secure Up to 5GW of Compute for Claude - OpenAI’s Stargate Data Centers Show Active Construction Across Seven U.S. Sites - AI-Generated ‘MAGA Girl’ Accounts Are Being Used to Scam and Monetize Social Media Followers - Hassabis and Mallaby Discuss AI Race, OpenAI’s Finances, and Governance Risks at SF Event - OpenAI previews Codex “Chronicle” to build memories from macOS screen context - Microsoft Plans Token-Based Billing and Tighter Limits for GitHub Copilot - Moonshot AI releases Kimi K2.6 with open weights and expanded agent modes - AWS to Host Workshop on Multi-Agent Architectures Using LangGraph and AWS Services - Meta to Track Employee Keystrokes and Screen Activity to Train AI Agents - Meta Boosts Training Efficiency by Targeting Startup, Compilation, Checkpointing, and Failures - Alibaba Previews Qwen3.6-Max Model With Stronger Agentic Coding and Knowledge Transcription de l'Episode Influenceurs IA et arnaques politiques On commence par l’angle le plus “internet”, mais aussi l’un des plus révélateurs. WIRED raconte l’histoire d’un étudiant en médecine de 22 ans, dans le nord de l’Inde, qui dit avoir créé une influenceuse fictive — une “MAGA girl” — avec des outils génératifs. Après des posts génériques sans succès, il aurait affiné le personnage pour toucher une audience conservatrice américaine, en mélangeant contenus politiques clivants et images sexualisées, puis monétisé via abonnements et merchandising. Le compte aurait explosé avant d’être finalement banni pour activité frauduleuse. Ce que ça dit, au fond: avec l’IA, la fabrication d’identités et de récits devient bon marché, scalable, et parfaitement adaptée aux algorithmes qui récompensent l’indignation. La modération, elle, reste inégale — et l’authenticité n’est pas le critère numéro un de la viralité. Sécurité des agents et navigateurs Sur la sécurité, gros signal d’alarme autour des systèmes “agentiques”. Zenity Labs a mis en avant, via son archive de recherches de début 2026, une série de scénarios où des agents et des navigateurs pilotés par IA deviennent des vecteurs d’attaque. L’idée centrale est simple: protéger un agent uniquement avec des couches de filtrage ou des garde-fous de prompts, ce n’est pas suffisant. Certaines techniques visent à contourner ces défenses en comprenant comment elles ont été entraînées, comme si on apprenait la forme du verrou pour fabriquer la clé. Plusieurs articles évoquent aussi des attaques supposées autour d’un navigateur agent, Comet de Perplexity: exfiltration possible de fichiers locaux, ou enchaînements où le comportement de l’agent finit par compromettre des comptes — voire un gestionnaire de mots de passe — parce qu’il “fait le travail” à la place de l’utilisateur. Et Zenity insiste sur un point qui devrait faire réfléchir toutes les entreprises: quand des agents interagissent entre eux, ou consomment du contenu non fiable à grande échelle, on peut déclencher des effets de cascade. Ils citent notamment des campagnes où plus d’un millier d’endpoints d’agents auraient été activés, et même des signes d’exploitation “dans la nature”. Moralité: l’agent, ce n’est pas juste une app de plus. C’est une app qui clique, qui lit, qui agit — donc qui doit être isolée, surveillée, et contenue comme un système à privilèges. Surveillance au travail pour entraîner l’IA Dans le même registre, un rapport d’enquête publié par la Cloud Security Alliance avec Zenity décrit une adoption très rapide des agents en entreprise, mais une gouvernance encore fragile. On y voit notamment l’ombre portée du “shadow AI”: des agents non déclarés, sans propriétaire clair, qui se multiplient. Et quand un agent dépasse ses permissions — ce qui semble loin d’être rare — la détection et la réponse peuvent prendre des heures. C’est exactement le genre de délai qui transforme un incident mineur en fuite de données sérieuse. Ce rapport a le mérite de cadrer le problème: les outils de sécurité traditionnels sont construits pour des applis statiques, pas pour des workflows autonomes et mouvants. Les fondamentaux redeviennent clés: inventaire, ownership, permissions minimales, journalisation, et capacité d’arrêt d’urgence. Mémoire à l’écran et risques Codex Autre sujet délicat: la collecte de données humaines pour entraîner des agents capables d’utiliser un ordinateur. D’après Business Insider et Reuters, Meta déploie aux États-Unis un programme interne qui enregistre mouvements de souris, clics, frappes clavier, et parfois du contexte écran. Objectif affiché: générer des données réelles pour entraîner des agents à naviguer dans des interfaces — menus, raccourcis, sélections — là où les modèles sont encore maladroits. Le point de tension, c’est la contrainte: selon les documents cités, sur les laptops d’entreprise il n’y aurait pas d’option de refus, ce qui a suscité des réactions en interne. Meta affirme que ces données servent uniquement à l’entraînement, pas à l’évaluation des employés, et que le périmètre est limité à des apps et URLs approuvées. Mais le débat dépasse Meta: si l’industrie conclut que la “donnée d’interaction” est indispensable pour des agents efficaces, on va voir fleurir des programmes similaires. Et là, les cadres juridiques et sociaux — surtout hors des États-Unis, en Europe par exemple — risquent de devenir un frein, ou au minimum une zone de friction permanente. Coûts de l’IA et facturation Copilot Dans la catégorie “agents qui voient votre écran”, OpenAI teste une option appelée Chronicle pour Codex, en aperçu de recherche. Le principe: construire une mémoire à partir de ce que vous avez à l’écran, pour éviter de répéter le contexte à chaque session. Sur le plan de l’expérience développeur, c