The Automated Daily - Hacker News Edition

Welcome to 'The Automated Daily - Hacker News Edition', your ultimate source for a streamlined and insightful daily news experience.

  1. 1H AGO

    Lettre ouverte et IA militaire & Sécuriser les agents IA par isolement - Actualités Hacker News (28 févr. 2026)

    Merci de soutenir ce podcast en visitant nos sponsors: - KrispCall: Téléphonie cloud agentique - https://try.krispcall.com/tad - Conception assistée par l’IA sans effort pour des présentations, des sites web et bien plus avec Gamma - https://try.gamma.app/tad - Investissez comme les professionnels avec StockMVP - https://www.stock-mvp.com/?via=ron Soutenez directement The Automated Daily: Offre-moi un café: https://buymeacoffee.com/theautomateddaily Sujets du jour: Lettre ouverte et IA militaire - Lettre “We Will Not Be Divided” sur la pression du Pentagone (Defense Production Act), surveillance de masse et armes autonomes; signataires Google et OpenAI. Sécuriser les agents IA par isolement - NanoClaw propose une architecture “design for distrust” avec conteneurs éphémères, montages explicites et séparation stricte des agents contre fuites et prompt-injection. Quantification GGUF Dynamic v2.0 - Unsloth annonce Dynamic v2.0 pour GGUF: sélection de couches plus fine, calibration 1,5M tokens, métriques MMLU 5-shot et KL Divergence pour préserver l’accuracy. Suppression de compte ChatGPT et données - Guide OpenAI: suppression via Privacy Portal ou flux self-serve, rétention (hard delete 30 jours), mémoires, opt-out entraînement, limites téléphone et irréversibilité. Vérification d’âge imposée aux OS - La Californie (AB 1043) exigera un signal d’âge à la création de compte OS dès 2027, API temps réel pour app stores, impacts et contournements possibles côté Linux. SplatHash: aperçu image en 16 octets - SplatHash compresse une image en 16 bytes (base64url 22 chars) pour un preview 32×32; décodage ultra-rapide, Oklab, alpha, parité multi-langages. Le mythe récurrent de la fin des devs - Analyse historique: COBOL, 4GL, CASE, no-code et maintenant IA générative—les outils simplifient, mais la complexité se déplace; la demande dev persiste. Simplenote passe en maintenance - Simplenote annonce l’arrêt du développement actif: l’application reste disponible, mais uniquement maintenance et stabilité, sans nouvelles fonctionnalités. Mariage: ressources, héritage, alliances - Article d’anthropologie: systèmes matrimoniaux comme stratégies d’alliance et d’héritage—polygynie, bridewealth, monogamie légale, et transitions modernes (urbanisation, revenus féminins). - https://help.openai.com/en/articles/6378407-how-to-delete-your-account - https://nanoclaw.dev/blog/nanoclaw-security-model - https://notdivided.org/ - https://github.com/junevm/splathash - https://unsloth.ai/docs/basics/unsloth-dynamic-2.0-ggufs - https://www.ivanturkovic.com/2026/01/22/history-software-simplification-cobol-ai-hype/ - https://forums.simplenote.com/forums/topic/customer-update-on-simplenote/ - https://www.worksinprogress.news/p/more-cows-more-wives - https://www.pcgamer.com/software/operating-systems/a-new-california-law-says-all-operating-systems-including-linux-need-to-have-some-form-of-age-verification-at-account-setup/ Transcription de l'Episode Lettre ouverte et IA militaire Commençons par le sujet le plus chargé politiquement: une lettre ouverte intitulée “We Will Not Be Divided”. Les auteurs—présentés comme des employés de Google et d’OpenAI—affirment que le Département de la Défense américain exercerait une pression sur Anthropic, notamment parce que l’entreprise refuserait deux usages: la surveillance de masse sur le territoire américain, et des systèmes capables de tuer de manière autonome sans supervision humaine. Le texte mentionne un levier très concret: la possibilité que le Pentagone invoque le Defense Production Act pour contraindre Anthropic à fournir, voire “adapter”, ses modèles. Pire: la menace de faire passer l’entreprise pour un “risque pour la chaîne d’approvisionnement”, une étiquette qui peut compliquer des contrats, des partenariats, et même l’accès à certains marchés. Et le point tactique de la lettre, c’est l’idée de division: si une boîte pense que ses concurrentes vont céder, elle peut être tentée de céder à son tour. D’où cet appel à une position commune—avec un objectif simple: maintenir un refus coordonné sur la surveillance domestique et sur l’autonomie létale sans humain dans la boucle. La page liste des centaines de signataires “vérifiés” —plus de 500 chez Google et près d’une centaine chez OpenAI dans le décompte affiché—avec la possibilité de signer anonymement tout en prouvant son emploi. Les organisateurs décrivent une infra minimaliste: hébergement Fly.io, base SQLite chiffrée, emails de vérification, appli Flask open source, pas de scripts d’analytics. Ils reconnaissent aussi des détails intéressants: un bug de vérification ayant permis un faux nom pendant un court moment, et des doublons que leur déduplication automatique n’avait pas attrapés. Bref, même le mécanisme de “preuve” devient lui-même un sujet de sécurité et de confiance. Ce qu’il faut retenir, au-delà du débat: on voit émerger une contestation interne, structurée, et techniquement outillée, autour des lignes rouges d’usage des modèles. Et ça, c’est nouveau à cette échelle. Sécuriser les agents IA par isolement Dans un registre plus “ingénierie”, mais lié au même fond de risque: comment sécuriser des agents IA qui exécutent des actions sur nos machines ? Gavriel Cohen défend une idée assez tranchée: il faut considérer les agents comme non fiables—potentiellement malveillants—et construire la sécurité dans l’architecture, pas dans des listes de permissions plus fines ou des pop-ups de confirmation. Son exemple, c’est NanoClaw, qui prend le contrepied d’approches où l’agent tourne sur la machine hôte par défaut. Ici, l’isolement est la règle: chaque invocation d’agent se fait dans un conteneur éphémère—Docker, ou Apple Container sur macOS—créé à la demande et détruit ensuite. Les agents tournent en utilisateur non privilégié, et n’accèdent qu’aux répertoires explicitement montés. Le système d’exploitation fait respecter la frontière. Le point subtil, et très important: NanoClaw évite aussi le “multi-agent dans le même bac à sable”. Cohen critique un modèle où plusieurs agents partagent le même environnement, car cela ouvre la porte à des fuites accidentelles—le scénario typique “agent perso” qui voit des traces de l’agent “boulot”. Dans NanoClaw, c’est séparation stricte: conteneur, système de fichiers, et même historique de session distinct. Il ajoute une défense en profondeur: un fichier d’allowlist de montages, hors du répertoire projet, que l’agent ne peut pas modifier, et qui bloque par défaut des chemins sensibles—.ssh, .gnupg, .aws, des .env, des motifs liés aux clés privées et identifiants. Le code hôte est monté en lecture seule, et comme le conteneur est détruit, les actions ne persistent pas. Même les discussions de groupe sont traitées comme surface d’attaque: des groupes non principaux sont “non fiables” par défaut, avec interdiction d’envoyer des messages à d’autres chats ou de planifier des tâches ailleurs—un garde-fou explicite contre l’injection de prompt via des contenus tiers. Enfin, Cohen tape aussi sur la complexité logicielle: il oppose un cœur de quelques milliers de lignes à des projets perçus comme des “monolithes” avec centaines de milliers de lignes et dizaines de dépendances, difficiles à auditer. Là encore, l’idée est simple: moins il y a de surface, plus on peut raisonner sur la sécurité. Quantification GGUF Dynamic v2.0 On reste dans l’IA, mais côté performance: Unsloth annonce “Dynamic v2.0” pour la quantification de modèles au format GGUF. Si vous utilisez llama.cpp, LM Studio, ou des moteurs compatibles, c’est typiquement le genre d’amélioration qui se traduit par: modèles plus légers, plus rapides, sans saccager la qualité. Ce qui change avec Dynamic v2.0, d’après Unsloth, c’est la sélection de la quantification couche par couche—pas juste quelques couches “critiques”, mais un choix dynamique pour chaque couche possible, avec des combinaisons qui varient selon le modèle. Ils insistent aussi sur une calibration “faite à la main” pour le chat, annoncée à plus de 1,5 million de tokens, et sur la compatibilité MoE et non-MoE. Côté évaluation, ils mettent en avant plusieurs métriques: MMLU en 5-shot, Aider Polyglot pour du code, et surtout la KL Divergence comme indicateur d’erreur de quantification—en rappelant qu’une perplexité flatteuse peut masquer des pertes de qualité, et que des jeux de calibration trop proches des tests peuvent sur-optimiser. Ils racontent même avoir dû bâtir leur propre framework MMLU pour reproduire les scores officiels, à cause de détails d’implémentation—tokenisation, templates de prompts—qui font varier les résultats. Et dans leurs exemples, ils comparent des quantifs type QAT à leurs schémas “Dynamic”, en promettant des gains d’accuracy à taille équivalente, ou des tailles réduites à accuracy comparable. À garder en tête: ce sont leurs chiffres, mais la démarche—mesures, réplication, discussion des pièges—est intéressante. Suppression de compte ChatGPT et données Passons à un sujet plus “compte utilisateur”, mais important: le centre d’aide d’OpenAI détaille comment supprimer son compte OpenAI/ChatGPT. Deux chemins sont mis en avant: une demande via le Privacy Portal, ou un flux de suppression en self-service dans ChatGPT. Via le Privacy Portal, on va sur privacy.openai.com, on choisit “Make a Privacy Request”, on indique qu’on a un compte ChatGPT “consumer”, puis “Delete my ChatGPT account”, et on suit les étapes. Via le site ChatGPT, c’est plus opérationnel: il faut être connecté depuis moins de dix minutes, puis Settings → Account

    13 min
  2. 1D AGO

    Anthropic face au Pentagone & Puzzle ML MD5 de Jane Street - Actualités Hacker News (27 févr. 2026)

    Today's topics: Anthropic face au Pentagone - Anthropic et Dario Amodei décrivent l’usage de Claude en défense, mais refusent deux usages: surveillance de masse et armes autonomes. Mots-clés: DoD, “any lawful use”, DPA, garde-fous, libertés civiles. Puzzle ML MD5 de Jane Street - Jane Street publie un CTF ML où le modèle PyTorch (poids inclus) cache un calcul type MD5, détectable via interprétabilité mécaniste. Mots-clés: mechanistic interpretability, SAT, ReLU, MD5, rétro-ingénierie. Nouvelle API Streams proposée - Cloudflare critique l’API Web Streams (verrous, BYOB, allocations) et propose une alternative basée sur AsyncIterable et politiques de backpressure explicites. Mots-clés: performance, GC, pipeTo, async iteration, new-streams. postmarketOS: kernels génériques, politique IA - postmarketOS annonce des paquets de noyaux génériques (mainline/stable/lts), renforce sa CI matérielle et clarifie une politique interdisant l’IA générative. Mots-clés: Linux mobile, kernels, Hardware CI, KDE nightly, Fairphone. F-Droid: nominations au conseil - F-Droid ouvre les nominations 2026 pour jusqu’à quatre postes bénévoles au Board, avec un engagement hebdo léger et une priorité aux nouveaux profils. Mots-clés: FOSS, gouvernance, libertés mobiles, nominations, AoE. Lutte contre l’enshittification numérique - Le Conseil norvégien des consommateurs publie “Breaking Free” sur l’enshittification et coordonne plus de 70 organisations pour pousser des réformes. Mots-clés: marchés numériques, régulation, Europe, droits des consommateurs. Indexation spatiale: comprendre les quadtrees - Un article pédagogique explique comment les quadtrees accélèrent les requêtes “près de moi” et les collisions en jeux, en divisant l’espace en quadrants. Mots-clés: index spatial, nearest neighbor, range query, O(log n). Rétro Windows 95 dans le navigateur - RetroTick propose d’exécuter des programmes DOS/Windows (FreeCell, QBasic, screensavers) directement dans un navigateur via une interface style Windows 95. Mots-clés: émulation, Win95, EXE, démo, rétro-computing. Corruption normalisée dans les organisations - Ashforth et Anand détaillent comment la corruption devient routinière via institutionnalisation, rationalisation et socialisation, chez des individus pourtant “normaux”. Mots-clés: culture d’entreprise, leadership, déni, cocon social, prévention. Cartographier les petits-déjeuners en vecteurs - Un billet humoristique modélise pancakes, omelettes et autres plats sur un simplex lait-œufs-farine, et pointe un “abyss” culinaire intriguant. Mots-clés: data drôle, nutrition, manifold, IHOP, exploration. https://www.anthropic.com/news/statement-department-of-war https://blog.janestreet.com/can-you-reverse-engineer-our-neural-network/ https://f-droid.org/2026/02/26/board-of-directors-nominations.html https://blog.cloudflare.com/a-better-web-streams-api/ https://retrotick.com/ https://growingswe.com/blog/quadtrees https://moultano.wordpress.com/2026/02/22/the-hunt-for-dark-breakfast/ https://gwern.net/doc/sociology/2003-ashforth.pdf https://www.forbrukerradet.no/breakingfree/ https://postmarketos.org/blog/2026/02/26/pmOS-update-2026-02/

    13 min
  3. 2D AGO

    Clés Google exposées et Gemini & Push-to-talk chiffré via Tor - Actualités Hacker News (26 févr. 2026)

    Today's topics: Clés Google exposées et Gemini - Des clés API Google de type "AIza…" visibles sur le web peuvent, après activation de Gemini, donner accès à des endpoints sensibles (/files, /cachedContents). Mots-clés: Google Cloud, Gemini API, clés non restreintes, Common Crawl, privilege escalation. Push-to-talk chiffré via Tor - TerminalPhone propose une communication voix/texte façon talkie-walkie, chiffrée de bout en bout, sur services cachés Tor, sans serveur ni compte. Mots-clés: Tor hidden services, Opus, AES-256, Bash, anonymat. Spam basé sur l’activité GitHub - Des entreprises scraperait les métadonnées de commits Git (email) pour envoyer du marketing non sollicité; GitHub rappelle que c’est contre ses règles. Mots-clés: scraping, commit email, GDPR, no-reply, anti-spam. Orchestration d’agents IA en essaim - Agent Swarm (MIT) orchestre un lead agent et des workers en conteneurs Docker, avec file de priorités, dépendances, dashboard et mémoire persistante via embeddings. Mots-clés: multi-agents, MCP, Docker, Slack/GitHub, SQLite. Anthropic assouplit sa politique sécurité - Anthropic met à jour sa Responsible Scaling Policy v3: cadre plus flexible et moins contraignant, avec une "Frontier Safety Roadmap" et des rapports publics. Mots-clés: safety policy, guardrails, compétition, transparence, risques. OpenAI: stratégie, distribution, rétention - Benedict Evans détaille quatre problèmes d’OpenAI: parité technologique, engagement faible, concurrence des incumbents, difficulté à créer de nouveaux usages seul. Mots-clés: distribution, stickiness, ads, plateforme, network effects. Tech correcte, décisions confortables - Un essai explique pourquoi la “bonne” solution technique perd souvent: organisations optimisées pour le confort immédiat, veto déguisé en consensus, et responsabilité sans autorité. Mots-clés: dette technique, gouvernance, burnout, processus, incitations. Nouvel opioïde inspiré du fentanyl - Scripps remanie la structure centrale du fentanyl (spirocycle) pour conserver l’analgésie tout en réduisant la dépression respiratoire via moindre recrutement beta-arrestin. Mots-clés: μ-opioid receptor, spirocyclic, overdose, half-life, ACS. Hendrix expliqué par l’ingénierie - IEEE Spectrum décortique le son d’Hendrix comme un système: Fuzz Face, Octavia, wah-wah, Marshall, feedback acoustique, et modélisation SPICE reproductible. Mots-clés: signal chain, ngspice, harmonique, feedback, Purple Haze. https://gitlab.com/here_forawhile/terminalphone https://trufflesecurity.com/blog/google-api-keys-werent-secrets-but-then-gemini-changed-the-rules https://github.com/desplega-ai/agent-swarm https://www.scripps.edu/news-and-events/press-room/2026/20260211-janda-molecule.html https://www.cnn.com/2026/02/25/tech/anthropic-safety-policy-change https://raccoon.land/posts/technical-excellence-is-not-enough/ https://spectrum.ieee.org/jimi-hendrix-systems-engineer https://news.ycombinator.com/item?id=47163885 https://www.ben-evans.com/benedictevans/2026/2/19/how-will-openai-compete-nkg2x https://hightouch.com/careers#open-positions

    12 min
  4. 3D AGO

    IA et escalade nucléaire simulée & Danemark vers bureautique open source - Actualités Hacker News (25 févr. 2026)

    Today's topics: IA et escalade nucléaire simulée - Des simulations de crise montrent des LLM (GPT‑5.2, Claude, Gemini) recommandant l’arme nucléaire dans 95% des cas, soulevant des questions d’alignement, de garde-fous et de contrôle humain. Danemark vers bureautique open source - Le ministère danois de la Digitalisation migre de Microsoft Office vers LibreOffice pour la « souveraineté numérique », réduire la dépendance aux fournisseurs US et gérer la fin de support Windows 10. Nom de domaine .online suspendu - Un site sur getwisp.online disparaît après un passage en serverHold au niveau registre: blocage lié à Google Safe Browsing, absence de notification, et impasse de vérification Search Console. Claude Code: remote, bruit, chien - Anthropic détaille Remote Control pour piloter Claude Code à distance sur sa machine; en parallèle, des devs dénoncent le bruit des outils (stdout) qui pollue le contexte et proposent un flag standard LLM=true; et un projet insolite transforme des frappes de chien en jeux Godot via Claude. LLM Skirmish: modèles en RTS - LLM Skirmish fait s’affronter des modèles en 1v1 type Screeps via scripts exécutés en Docker, avec adaptation entre rounds; Claude Opus 4.5 domine en ELO mais coûte cher, tandis que GPT‑5.2 est plus efficient par dollar. Défi PHP: parser 100M CSV - TempestPHP lance un concours de deux semaines pour optimiser un parseur PHP transformant 100 millions de lignes CSV en JSON; règles strictes, dataset secret, bench sur droplet DigitalOcean, JIT désactivé et FFI interdit. YC: hedge fund piloté par agents - Event Horizon Labs (YC W24) recrute un Founding Infrastructure Engineer à SF pour une plateforme de hedge fund « AI-native »: orchestration d’agents, pipelines data, observabilité et trading low-latency (Python, Go, Kubernetes). https://www.0xsid.com/blog/online-tld-is-pain https://therecord.media/denmark-digital-agency-microsoft-digital-independence https://llmskirmish.com/ https://github.com/tempestphp/100-million-row-challenge https://www.calebleak.com/posts/dog-game/ https://code.claude.com/docs/en/remote-control https://blog.codemine.be/posts/2026/20260222-be-quiet/ https://www.newscientist.com/article/2516885-ais-cant-stop-recommending-nuclear-strikes-in-war-game-simulations/ https://www.ycombinator.com/companies/event-horizon-labs/jobs/xGQicps-founding-infrastructure-engineer

    10 min
  5. 4D AGO

    Un CPU x86 en CSS & Firefox 148 et l’API Sanitizer - Actualités Hacker News (24 févr. 2026)

    Today's topics: Un CPU x86 en CSS - Démonstration surprenante: x86CSS exécute du code 8086 dans le navigateur avec du CSS “seul”, en ciblant l’ère 16-bit et en restant surtout compatible Chromium. Firefox 148 et l’API Sanitizer - Mozilla intègre l’API standard Sanitizer dans Firefox 148: setHTML() remplace innerHTML pour réduire les risques XSS, avec politiques configurables et couplage possible à Trusted Types. Vérification d’âge et vie privée - L’IEEE décrit le “piège” de l’age verification: pour bloquer les mineurs, plateformes et régulateurs poussent vers plus d’IDs, biométrie, logs… et donc plus de risques privacy. ENVeil pour protéger les secrets - ENVeil (Rust) évite les fuites de .env vers les assistants IA: références ev:// dans .env, secrets chiffrés localement (AES-256-GCM), saisie interactive, pas d’export. Les outils manquants du MIT - Le cours IAP 2026 “Missing Semester” du MIT remet à niveau sur shell, éditeurs, Git, debug/profiling, packaging, et inclut des usages d’outils IA dans chaque séance. λProlog, HOAS et Coq - λProlog, langage de programmation logique à base de logique intuitionniste d’ordre supérieur, popularise HOAS; implémentations modernes: ELPI (OCaml) intégré à Coq via Coq-ELPI. Diode, atelier d’électronique web - Diode propose un établi d’électronique 100% web: schémas dans le navigateur, composants courants (555, transistors, LED), câblage, et simulation interactive sans installation. Coreboot sur ThinkPad X270 - Retour d’expérience: port Coreboot/Libreboot sur ThinkPad X270, dump SPI, réparation d’un condo arraché, et diagnostic PCIe/CLKREQ pour restaurer NVMe et Wi‑Fi. Une file distribuée sur objet - turbopuffer reconçoit sa file de jobs d’indexation: un seul fichier sur object storage + broker stateless, CAS, group commit, heartbeats, et forte baisse de latence de queue. Terence Tao, prodige documenté - Un papier de 1984 détaille les tests d’enfance de Terence Tao: performances hors normes, auto-apprentissage (maths, BASIC), et questions éducatives sur l’accélération scolaire. https://www.withdiode.com/ https://www.lix.polytechnique.fr/Labo/Dale.Miller/lProlog/ https://hacks.mozilla.org/2026/02/goodbye-innerhtml-hello-sethtml-stronger-xss-protection-in-firefox-148/ https://gwern.net/doc/iq/high/smpy/1984-clements.pdf https://turbopuffer.com/blog/object-storage-queue https://missing.csail.mit.edu/ https://github.com/GreatScott/enveil https://dork.dev/posts/2026-02-20-ported-coreboot/ https://lyra.horse/x86css/ https://spectrum.ieee.org/age-verification

    14 min
  6. 5D AGO

    MicroVM Shuru pour agents IA & Réseaux sociaux devenus médias d’attention - Actualités Hacker News (22 févr. 2026)

    Today's topics: MicroVM Shuru pour agents IA - Shuru exécute des agents IA dans des microVM Linux sur macOS via Virtualization.framework, avec environnements éphémères, checkpoints et réseau désactivé par défaut. Réseaux sociaux devenus médias d’attention - Analyse de Susam Pal: les plateformes Web 2.0 ont glissé vers la captation d’attention (scroll infini, notifications artificielles, algorithmes), tandis que Mastodon resterait plus chronologique. Git et VS Code au quotidien - Panorama d’outils Git/VS Code: extension Fresh File Explorer (fichiers récemment modifiés, Git history, restaurations), et “fichiers magiques” Git (.gitignore, .gitattributes, .mailmap, etc.). Développement distant FreeBSD via Linuxulator - Retour d’expérience: faire fonctionner VS Code Remote SSH sur FreeBSD malgré l’erreur “Unsupported platform”, en s’appuyant sur vscode-server-freebsd et la compatibilité Linux (linux_base-rl9). Transactions SQL et niveaux d’isolation - PlanetScale explique les transactions SQL (BEGIN/COMMIT/ROLLBACK), la cohérence de lecture, MVCC, et les anomalies (dirty/non-repeatable/phantom reads) selon Read Committed, Repeatable Read, Serializable. CSS box-sizing et border-box - Chris Coyier remet en avant box-sizing: border-box, clé pour des mises en page prévisibles: la largeur déclarée inclut padding et bordures, réduisant les calculs et surprises. https://susam.net/attention-media-vs-social-networks.html https://ochagavia.nl/blog/fix-your-tools/ https://github.com/FreHu/vscode-fresh-file-explorer https://planetscale.com/blog/database-transactions https://css-tricks.com/international-box-sizing-awareness-day/ https://hayzam.com/blog/02-linuxulator-is-awesome/ https://shuru.run/ https://nesbitt.io/2026/02/05/git-magic-files.html

    12 min
  7. FEB 21

    Wikipedia bannit Archive.today en masse & F-Droid alerte sur Android - Actualités Hacker News (21 févr. 2026)

    Merci de soutenir ce podcast en visitant nos sponsors: - Prezi: Créez rapidement des présentations avec l'IA - https://try.prezi.com/automated_daily - Découvrez l'avenir de l'audio IA avec ElevenLabs - https://try.elevenlabs.io/tad - Investissez comme les professionnels avec StockMVP - https://www.stock-mvp.com/?via=ron Soutenez directement The Automated Daily: Offre-moi un café: https://buymeacoffee.com/theautomateddaily Sujets du jour: Wikipedia bannit Archive.today en masse - Wikipédia déprécie et blacklist Archive.today après un détournement via CAPTCHA pour DDoS et des soupçons d’altération d’archives. Impact: ~695 000 liens à remplacer (Archive.org, Ghostarchive, etc.). F-Droid alerte sur Android - F-Droid estime que l’ouverture d’Android reste menacée par les changements d’installation d’apps promis par Google, avec un “advanced flow” toujours flou. Bannières d’alerte, mobilisation auprès des autorités, et nombreuses mises à jour d’apps. LinkedIn badge bleu et Persona - La vérification “real person” de LinkedIn passerait par Persona, avec collecte de passeport (NFC), selfie, biométrie faciale, signaux comportementaux et recoupements tiers. Le billet pointe des risques GDPR, sous-traitants US (CLOUD Act) et clauses d’arbitrage. Dependabot critiqué dans l’écosystème Go - Filippo Valsorda juge Dependabot trop bruyant, surtout pour Go, en générant des PR inutiles et des scores CVSS discutables. Il propose plutôt `govulncheck` + tests CI contre les dernières dépendances pour réduire les faux positifs. Divulgation vulnérabilité et menaces juridiques - Un ingénieur découvre une faille critique chez un assureur plongée: IDs séquentiels, mot de passe par défaut, pas de MFA, pas de rate limit. La réponse via cabinet juridique menace de poursuites et exige une déclaration façon NDA, malgré une correction annoncée. Claws, agents IA sur machine - Andrej Karpathy popularise l’idée des “Claws”: une couche d’orchestration pour agents LLM (planification, contexte, outils, persistance) sur matériel personnel. Des implémentations légères émergent (ex: NanoClaw ~4 000 lignes, conteneurs par défaut). Local AI : ggml chez Hugging Face - L’équipe derrière `ggml` et `llama.cpp` rejoint Hugging Face pour renforcer l’avenir du “Local AI” tout en gardant des projets open source et communautaires. Objectifs: intégration “single-click” avec `transformers`, packaging, UX et qualité des modèles. Facebook envahi par contenus IA - Un retour sur Facebook après des années décrit un fil d’actualité saturé de contenus “suggested” douteux, dont images possiblement générées par IA et bait d’engagement. Le billet souligne l’érosion du produit cœur et la difficulté à distinguer vrai et faux. CERN reconstruit le premier navigateur - Le CERN propose une reconstruction du tout premier navigateur WorldWideWeb (NeXT, 1990) directement dans un navigateur moderne. On y retrouve menus, double-clic sur liens, et même des fonctions d’édition et création de liens. - https://f-droid.org/2026/02/20/twif.html - https://thelocalstack.eu/posts/linkedin-identity-verification-privacy/ - https://words.filippo.io/dependabot/ - https://dixken.de/blog/i-found-a-vulnerability-they-found-a-lawyer - https://simonwillison.net/2026/Feb/21/claws/ - https://pilk.website/3/facebook-is-absolutely-cooked - https://github.com/ggml-org/llama.cpp/discussions/19759 - https://arstechnica.com/tech-policy/2026/02/wikipedia-bans-archive-today-after-site-executed-ddos-and-altered-web-captures/ - https://worldwideweb.cern.ch/ Transcription de l'Episode Wikipedia bannit Archive.today en masse On commence donc par cette décision assez spectaculaire côté Wikipédia. La version anglophone a choisi de déprécier et de blacklister Archive.today — vous savez, ces liens d’archivage souvent utilisés pour contourner des paywalls ou figer une page à un instant donné. La raison: pendant des discussions entre éditeurs, le site a été associé à un détournement via une page CAPTCHA qui aurait servi à orchestrer une attaque DDoS contre le blog Gyrovague. En clair: des lecteurs qui cliquent sur un lien d’archive pourraient, sans le vouloir, participer à une attaque. Et ça, pour Wikipédia, c’est un seuil de risque inacceptable. F-Droid alerte sur Android Deuxième problème, tout aussi grave pour un service d’archivage: des éléments suggérant que certaines captures auraient été altérées. Des éditeurs indiquent avoir vu des modifications dans des snapshots, notamment l’insertion d’un nom propre dans des pages archivées, ce qui sape la confiance dans l’intégrité des preuves. Résultat: consensus pour bloquer les nouveaux liens, et supprimer ou remplacer les anciens. L’ordre de grandeur donne le vertige: plus de 695 000 liens répartis sur environ 400 000 pages. Les alternatives recommandées tournent autour d’Archive.org, Ghostarchive, Megalodon, ou tout simplement des sources qui n’exigent pas d’archivage tiers. Et en toile de fond, une question revient: est-ce que la Wikimedia Foundation devrait créer son propre service d’archives, contrôlé et audité, pour éviter ce genre de dépendance risquée ? LinkedIn badge bleu et Persona Restons sur l’idée de contrôle — mais cette fois sur Android. F-Droid, via son billet “This Week in F-Droid”, affirme que le projet est “sous menace” parce que les changements annoncés par Google sur l’installation d’applications restent au programme. Beaucoup d’utilisateurs auraient cru, notamment après des échanges à FOSDEM 2026, que Google avait fait marche arrière et que “l’ouverture d’Android” était acquise. F-Droid parle plutôt d’un malentendu amplifié par la répétition de messages PR et de reprises médiatiques. Dependabot critiqué dans l’écosystème Go Le point central, c’est ce fameux “advanced flow” promis par Google pour l’installation d’apps en dehors du Play Store. Selon F-Droid, on ne voit pas clairement ce mécanisme dans les versions Android récentes, ou alors pas de manière observable et stable, ce qui laisse planer une incertitude: qu’est-ce qui sera réellement déployé, quand, et avec quelles contraintes pour les stores alternatifs et le sideloading ? En réaction, F-Droid ajoute des bannières d’alerte sur son site et dans ses clients — F-Droid et F-Droid Basic — pour inciter les utilisateurs à exprimer leurs inquiétudes auprès des autorités locales compétentes. Et F-Droid n’est pas seul: IzzyOnDroid affiche aussi une bannière, et Obtainium propose déjà un avertissement dans l’application. Divulgation vulnérabilité et menaces juridiques À côté du volet “politique produit”, il y a aussi des nouvelles techniques. La réécriture de F-Droid Basic avance avec une version 2.0-alpha3: export CSV des apps installées, historique d’installation, choix de miroir, option pour empêcher les captures d’écran, infobulles d’interface, nouveau menu “My Apps”, tri persistant, plus des corrections et des traductions. Attention toutefois: si vous êtes sur la branche 1.23.x, l’alpha ne viendra pas toute seule, il faut activer les mises à jour bêta manuellement. L’équipe mentionne aussi une période de récupération après des corrections liées à une mise à niveau Debian, et pousse les projets encore sur Java 17 à envisager Java 21. Claws, agents IA sur machine Et comme souvent chez F-Droid, il y a un tour d’horizon d’applications: retour de Buses en 1.10 après deux ans, Conversations et Quicksy en 2.19.10+free avec des améliorations de workflow et tablette, et un changement notable côté “flavor Play Store” qui évite d’utiliser directement une bibliothèque Google en passant par Play Services via IPC. On note aussi Dolphin Emulator 2512 et sa longue liste de changements upstream, Image Toolbox 3.6.1 avec des correctifs et de nouveaux outils “IA”, Luanti 5.15.1 pour des corrections dont du scintillement, une rafale de mises à jour Nextcloud (client 33.0.0, Talk 23.0.0, et “Nextcloud Hub 26 Winter”), et ProtonVPN 5.15.70.0 qui abandonne OpenVPN pour WireGuard et Stealth — ce qui réduit nettement la taille de l’app. Bilan du catalogue: une nouvelle app ajoutée, quelques suppressions, et des centaines de mises à jour. Local AI : ggml chez Hugging Face On enchaîne avec un sujet qui touche beaucoup de monde: la vérification d’identité “badge bleu” sur LinkedIn. Un auteur raconte avoir voulu obtenir le badge “real person” et découvrir que la vérification n’est pas gérée directement par LinkedIn, mais par Persona Identities, Inc., un prestataire d’identité basé à San Francisco. Le flux dure quelques minutes, mais la quantité de données impliquées est impressionnante: photos complètes du passeport, y compris lecture de la puce NFC, selfie “vivant”, biométrie dérivée de la géométrie du visage, infos d’identité nationale, coordonnées, et aussi des données techniques comme l’appareil, l’IP, voire la géolocalisation. Même des signaux comportementaux sont cités, comme l’hésitation ou la détection de copier-coller. Facebook envahi par contenus IA Persona indique également croiser les informations avec un “réseau global” de sources tierces — registres d’identité, agences de crédit, opérateurs mobiles, bases postales, services publics. L’auteur souligne un point sensible en Europe: l’usage des images et selfies pour “améliorer les systèmes”, potentiellement via entraînement IA, en s’appuyant sur la base juridique des “intérêts légitimes” plutôt que sur un consentement explicite, ce qui ouvre un débat GDPR. LinkedIn, de son côté, recevrait des résultats plus limités — nom, année de naissance, type d’ID, émetteur, résultat, et une image floutée/expurgée — mais Persona par

    14 min
  8. Résumés IA multilingues manipulables & Évaluer et durcir la sécurité IA - Actualités Hacker News (19 févr. 2026)

    FEB 19

    Résumés IA multilingues manipulables & Évaluer et durcir la sécurité IA - Actualités Hacker News (19 févr. 2026)

    Merci de soutenir ce podcast en visitant nos sponsors: - Investissez comme les professionnels avec StockMVP - https://www.stock-mvp.com/?via=ron - Créez n'importe quel formulaire, sans code, avec Fillout. 50 % de crédits supplémentaires à l'inscription - https://try.fillout.com/the_automated_daily - Consensus: IA pour la recherche. Obtenez un mois gratuit - https://get.consensus.app/automated_daily Soutenez directement The Automated Daily: Offre-moi un café: https://buymeacoffee.com/theautomateddaily Sujets du jour: Résumés IA multilingues manipulables - Des résumés LLM peuvent être discrètement orientés via une “policy” ou un system prompt, surtout en multilingue (anglais/farsi), au point de changer cadrage, omissions et acceptabilité. Évaluer et durcir la sécurité IA - Le Multilingual AI Safety Evaluation Lab compare anglais vs langues non-anglaises (factualité, safety/privacy, non-discrimination) et révèle des écarts, des conseils dangereux et des faiblesses des guardrails et du “LLM-as-a-Judge”. Retour du matériel Pebble - RePebble approche l’expédition de Pebble Time 2, Index 01 et Pebble Round 2, avec détails PVT/DVT, étanchéité 3ATM/IPX8, ramp-up de production et gros travail PebbleOS/apps. Journal chiffré local-only open source - Mini Diarium, successeur de Mini Diary, est un journal chiffré AES-256-GCM, local-only, sans télémétrie ni sync, basé sur Tauri 2 + Rust + SQLite, avec nouvelles méthodes de déverrouillage par clés X25519. Pont Elixir–Python via Oban - Oban propose une interopérabilité durable entre Elixir et Python via une table Postgres partagée (oban_jobs), pour traiter des jobs cross-langages sans HTTP bricolé ni deuxième queue. Zine hacking Paged Out! #8 - Paged Out! Issue #8 franchit 1 million de téléchargements cumulés, lance un web viewer (alpha), ouvre le CFP #9, et couvre reverse, exploit, CI/CD security et articles sur LLM en cybersécurité. Techniques exotiques sur Commodore 64 - Un développeur détaille neuf astuces “demo-scene” sur C64 pour son jeu Seawolves: IRQ/NMI synchronisés, split sprites, FLD, distortion d’eau, et micro-optimisations de branchements. Ray tracing photoréaliste dans Makie - RayMakie + Hikari apportent le path tracing physique à Makie (Julia): global illumination, volumes, rendu spectral, multi-backends GPU/CPU, avec démos scientifiques (nuages, protéines, Geant4). Mongols et rumeurs en Europe médiévale - Une étude raconte comment la France médiévale a construit un “archive mongole”: rumeur du roi David, lettres d’alerte, ambassades papales, Rubrouck, puis Marco Polo influençant durablement l’imaginaire. Chaos des tailles dans la mode - The Pudding cartographie le manque de standards des tailles féminines aux États-Unis: variabilité inter-marques, vanity sizing, “mid-size gap”, et plages ‘regular’ qui s’arrêtent souvent avant la réalité des mensurations. - https://royapakzad.substack.com/p/multilingual-llm-evaluation-to-guardrails - https://repebble.com/blog/february-pebble-production-and-software-updates - https://github.com/fjrevoredo/mini-diarium - https://oban.pro/articles/bridging-with-oban - https://pagedout.institute/download/PagedOut_008.pdf - https://kodiak64.co.uk/blog/seawolves-technical-tricks - https://makie.org/website/blogposts/raytracing/ - https://www.historytoday.com/archive/feature/mongol-khans-medieval-france - https://pudding.cool/2026/02/womens-sizing/ Transcription de l'Episode Résumés IA multilingues manipulables On commence par le sujet le plus sensible du jour: la fiabilité des résumés générés par IA. L’auteur d’un long billet explique pourquoi les résumés LLM peuvent être dangereusement trompeurs—non pas parce qu’ils “inventent” forcément des faits de manière grossière, mais parce qu’une minuscule modification, parfois invisible au lecteur, dans la “policy” interne ou le system prompt peut déplacer l’accent. Ce qui est mis en avant, ce qui est minimisé, ce qui est considéré “acceptable” dans la formulation: tout peut glisser, sans que le résultat ait l’air suspect. Le cœur de la démonstration, c’est une expérience sur GPT-OSS-20B qui résume un rapport de l’ONU sur la situation des droits humains en Iran. Avec la configuration par défaut, le résumé insiste sur les abus sévères et évoque notamment “plus de 900” exécutions. Mais quand l’auteur injecte des policies personnalisées—en anglais et surtout en farsi—le cadrage se déplace: plus de vocabulaire de souveraineté, plus de “maintien de l’ordre”, plus de mise en avant du dialogue, et un ton qui colle davantage à la narration gouvernementale. L’auteur appelle sa méthode “Bilingual Shadow Reasoning”: l’idée, c’est qu’une couche délibérative non-anglaise, dans une langue moins auditée, peut contourner des garde-fous, passer sous les radars d’outils d’audit, et produire des sorties très professionnelles… tout en ayant changé l’intention. Et il souligne un point qui fait réfléchir: le steering serait souvent plus simple sur de la synthèse multilingue que sur du Q&A, parce qu’un résumé a déjà une latitude énorme pour sélectionner, compresser et reformuler. Pourquoi c’est important ? Parce que les résumés alimentent des décisions à enjeux: reportings exécutifs, analyses politiques, UX research, systèmes de personnalisation… et même des mécanismes de “mémoire” où un chatbot stocke des points clés. L’auteur cite aussi des chiffres issus de travaux antérieurs: des résumés LLM modifieraient significativement le sentiment dans environ 26,5% des cas, et ils pourraient influencer l’achat—avec un résultat rapporté comme “32% plus susceptibles d’acheter” après lecture d’un résumé LLM plutôt que de l’avis original. En clair: la synthèse n’est pas une simple compression, c’est un pouvoir de cadrage. Évaluer et durcir la sécurité IA Dans la foulée, le même ensemble de travaux propose une réponse pragmatique: mieux mesurer le multilingue, et relier l’évaluation aux garde-fous. L’auteur décrit la création d’un “Multilingual AI Safety Evaluation Lab” open source. L’ambition: comparer systématiquement anglais versus langues non-anglaises sur plusieurs axes—factualité, sécurité et vie privée, non-discrimination—en combinant évaluateurs humains et “LLM-as-a-Judge”. Et là, les résultats sont peu rassurants. Dans une étude de cas avec Respond Crisis Translation, sur des scénarios réfugiés / demande d’asile, testés en anglais puis en arabe, farsi, pachto et kurde: les chutes de qualité les plus fortes apparaissent en kurde et pachto. Les notes humaines baissent nettement sur l’actionnabilité—3,86 en anglais contre 2,92 en non-anglais—et sur la factualité—3,55 contre 2,87. Donc non seulement c’est moins utile, mais c’est aussi moins fiable. Plus délicat: les modèles donnent parfois des conseils “de bonne foi” mais dangereux, par exemple suggérer à des demandeurs d’asile de contacter des autorités ou ambassades, ce qui peut être risqué selon le contexte. Autre point: les disclaimers de sécurité, fréquents en anglais, apparaissent de façon irrégulière dans d’autres langues. Un exemple frappant: Gemini refuserait de recommander des remèdes à base de plantes pour des symptômes graves en anglais, mais les fournirait en sortie non-anglaise. Enfin, l’auteur critique sévèrement le “LLM-as-a-Judge”: surconfiance, notes gonflées, écarts sous-déclarés… et même des cas où le juge hallucine des disclaimers comme s’ils étaient présents. Le prolongement, c’est un projet “evaluation-to-guardrail pipeline” avec Mozilla.ai: transformer des dimensions d’évaluation en policies de guardrails contextualisées, en anglais et en farsi, puis tester des outils comme FlowJudge, Glider, ou AnyLLM (avec GPT-5-nano) via any-guardrail. Et là aussi, surprise: Glider montre une sensibilité énorme à la langue de la policy—des scores qui varient de 36 à 53% juste parce que la consigne est en anglais ou en farsi. Et les guardrails eux-mêmes hallucinent davantage en raisonnement farsi, ou font des suppositions biaisées. Conclusion proposée: en 2026, il ne suffit pas d’empiler des benchmarks. Il faut que l’évaluation alimente en continu la conception des garde-fous—et étendre ça à la voix, au multi-tour, et à du fact-checking par retrieval côté guardrails. Retour du matériel Pebble On change de registre, direction hardware: RePebble annonce se rapprocher de l’expédition de trois produits—Pebble Time 2, Pebble Round 2 et Index 01—avec un niveau de détails très “fin de prod”, donc forcément: arbitrages coût/qualité/délais, stress, et listes de tests. Pour la Pebble Time 2, ils sont en PVT, Production Verification Test: plusieurs centaines d’unités déjà assemblées sur différentes itérations, bugs trouvés, corrigés, re-testés. Juste avant les fermetures d’usine du Nouvel An lunaire, le dernier build PVT aurait passé tous les tests. Janvier a surtout servi à améliorer l’étanchéité, et la cible devient 30 mètres / 3 ATM. Traduction: pluie, douche, baignade oui; mais pas sauna, pas eau chaude, pas jets à haute pression, et ce n’est pas une montre de plongée. Le plan est de lancer la production de masse le 9 mars, avec une montée en cadence vers 500 montres par jour. Expéditions hebdomadaires vers un centre de distribution, puis livraison en quelques semaines. Si tout tient, premières montres chez les clients début avril, et l’ensemble des précommandes livrées d’ici début juin—avec la réserve habituelle: si un souci de production apparaît, ça peut glisser. Côté taxes, ils prévoient un e-mail de confirmation d’adresse, choix d’accessoires, et paiement des tarifs/VAT. Pour les États-Unis, ils ann

    17 min

About

Welcome to 'The Automated Daily - Hacker News Edition', your ultimate source for a streamlined and insightful daily news experience.

More From The Automated Daily