IA x no-code : rejoignez l'avant-garde

Hosakka Studio

Un podcast quotidien qui décrypte la technologie sous le prisme de l'IA et du no-code

  1. 1D AGO

    Note vocale #83 : Touraine Tech, OpenClaw décevant et LLMs chinois

    📅 Episode du 16/02/2026 : Dans cet épisode, je reviens sur ma participation à Touraine Tech, une conférence tech très orientée développeurs où j'ai pu échanger avec la communauté dev sur l'IA et l'évolution du métier. Je partage aussi mon retour d'expérience plutôt décevant avec OpenClaw après une semaine de test en autonomie complète, et j'explique pourquoi le buzz ne tient pas ses promesses. Enfin, je vous parle de l'arrivée des nouveaux modèles chinois comme GLM-5 et Minimax, et de ma volonté de passer sur des outils open source comme OpenCode avec des modèles alternatifs, pour me détacher des solutions américaines et construire une stack plus résiliente pour 2025. 📚 Ressources : - Blog de mon agent OpenClaw : https://ubikvalis.mataroa.blog/ 💬 Venez commenter sur https://no-code-france.slack.com/archives/C01AHCKB7AB 🔗 Retrouvez toutes les informations sur le podcast sur https://audio.hosakka.studio/podcast/ 📬 Abonnez-vous à la newsletter : https://newsletter.hosakka.studio/ 00:00 Introduction 02:15 Retour sur Touraine Tech 08:30 Différences entre conférences dev et no-code 12:45 État d'esprit des développeurs face à l'IA 16:20 Evolution du métier de développeur 20:00 Expérimentation OpenClaw 25:30 Les limites d'OpenClaw et du web 30:15 Manque d'autonomie et d'initiative des agents 35:00 Nouveaux modèles chinois GLM-5 et Minimax 38:45 Pourquoi passer à OpenCode et des modèles open source 43:00 Le triptyque LLM, outil et méthodologie 46:30 Se détacher des solutions américaines 49:00 Conclusion et prochaines étapes

    30 min
  2. 6D AGO

    Radio Vibe Code #7 : Focus sur la sécurité

    📅 Episode du 11/02/2026 : Dans cet épisode, Xavier et moi faisons le tour des enjeux de sécurité essentiels quand on développe des applications no-code et low-code. On part vraiment de zéro pour aborder les bonnes pratiques : sécuriser ses comptes développeur, comprendre les vulnérabilités du front-end et surtout du back-end, maîtriser les RLS de Supabase, éviter les injections SQL et protéger ses API. On parle aussi des limites des IA qui ne pensent pas toujours à la sécurité par défaut, et pourquoi il faut rester vigilant même quand on vibe code. Un épisode dense mais accessible pour développer plus sereinement. 📚 Ressources : - https://cyber.gouv.fr/securisation/10-regles-or-s%C3%A9curit%C3%A9-num%C3%A9rique/ - https://www.cnil.fr/fr/guide-de-la-securite-des-donnees-personnelles-nouvelle-edition-2024 - https://bel.bpifrance.fr/cybersecurite.html 💬 Venez commenter sur https://no-code-france.slack.com/archives/C01AHCKB7AB 🔗 Retrouvez toutes les informations sur le podcast sur https://audio.hosakka.studio/podcast/ 📬 Abonnez-vous à la newsletter : https://newsletter.hosakka.studio/ 00:00 Introduction et présentation du sujet sécurité 03:45 La sécurité comme une chaîne : le maillon faible 06:20 Social engineering et erreurs humaines 12:30 Bonnes pratiques personnelles : gestionnaires de mots de passe et double authentification 18:15 Sensibiliser toutes les parties prenantes d'un projet 21:40 Sécurité dès le développement : npm audit et librairies obsolètes 28:00 Sécurité front-end : ne jamais faire confiance aux données affichées 32:15 Injections de code et sanitization des inputs 38:50 Ne jamais stocker de clés API côté front-end 42:30 Introduction à la sécurité back-end 45:00 Row Level Security (RLS) et segmentation des données 52:20 IDOR et vérification des accès utilisateur 58:45 Injections SQL et requêtes malveillantes 01:04:30 Comparaison Supabase vs Xano pour la sécurité 01:09:15 Clés publiques vs clés privées dans Supabase 01:15:00 Bonnes pratiques : copier-coller le SQL plutôt que laisser l'IA tout gérer 01:19:30 HTTPS, chiffrement des données et rate limiting 01:24:00 Attaques par déni de service et auto-hébergement 01:27:00 Conclusion et rappels finaux Musique d'intro par Lenny Pixels

    1h 14m
  3. FEB 6

    Note vocale #82 : OpenClaw, Lovable et le futur du vibe-coding

    📅 Episode du 06/02/2026 : Cette semaine a été assez agitée avec plusieurs expérimentations autour d'OpenClaw et des nouvelles sorties chez Lovable. Je reviens sur mon expérience avec OpenClaw, Moltbook et les problèmes de sécurité qui ont rapidement émergé. J'ai tenté une nouvelle approche en donnant une vraie autonomie à mon agent IA avec son propre email et sa propre vie numérique, mais les résultats sont très mitigés. Je teste également les nouvelles fonctionnalités de Lovable, notamment la gestion des environnements de développement et production, mais force est de constater que l'intégration Supabase reste problématique. Je partage aussi mes réflexions sur les dangers du vibe-coding en production et l'importance de se former pour devenir un vibe-codeur éclairé. Enfin, je vous parle des nouveautés chez Mistral avec Voxstral 2 et mes tests avec le modèle Kimi K2.5. 📚 Ressources : 💬 Venez commenter sur https://no-code-france.slack.com/archives/C01AHCKB7AB 🔗 Retrouvez toutes les informations sur le podcast sur https://audio.hosakka.studio/podcast/ 📬 Abonnez-vous à la newsletter : https://newsletter.hosakka.studio/ 00:00 Introduction et recap de la semaine 02:30 Retour sur OpenClaw, Moltbook et les problèmes de securite 06:15 Discussion sur la vision des agents IA et les debats philosophiques 10:45 Le post de DHH et l'idée d'agent autonome 14:20 Mon expérimentation avec un agent autonome ayant son propre email 18:00 Les limites concrètes d'Openclaw 21:30 Vigilance sur les nouveaux services d'hebergement Openclaw 24:00 L'ere du vibe-coding et les risques de sécurité 27:15 Test des nouvelles fonctionnalités de Lovable et Opus 4.6 32:00 Gestion des environnements de développement et production 35:45 Les limites de Lovable pour la production 38:30 Mistral Voxstral 2 et la transcription audio amelioree 41:00 Retour sur le modèle Kimi K2.5 42:30 Conclusion et bon week-end

    20 min
  4. FEB 5

    AI Game #13 : Conversation de début d'année avec Lucien

    📅 Episode du 05/02/2026 : Dans cet épisode de janvier 2026, je discute avec Lucien des évolutions majeures de l'IA ce mois-ci. On revient sur nos usages quotidiens des différents modèles, avec une préférence marquée pour Gemini Flash côté pro et l'utilisation continue des custom GPT d'OpenAI. On explore aussi la question délicate de l'utilisation de l'IA par les étudiants et les risques de dépendance sans esprit critique. Le point central de l'épisode porte sur OpenClaw et MoltBook, ce réseau social expérimental où les agents IA interagissent entre eux de manière autonome. On débat des cas d'usage réels, des questions de sécurité et de productivité. On s'interroge aussi sur l'avenir des métiers face à l'IA et à la robotique, et sur l'importance de maintenir de bonnes pratiques d'organisation même à l'ère de l'intelligence artificielle. 📚 Ressources : - https://mindtrip.ai/ 💬 Venez commenter sur https://no-code-france.slack.com/archives/C01AHCKB7AB 🔗 Retrouvez toutes les informations sur le podcast sur https://audio.hosakka.studio/podcast/ 📬 Abonnez-vous à la newsletter : https://newsletter.hosakka.studio/ 00:00:00 Introduction et retour sur les fêtes 00:03:45 Discussion sur MindTrip pour la planification de voyages 00:07:20 Reprise du mois de janvier et évolution des usages IA 00:12:30 Les étudiants et l'usage de l'IA : constat et inquiétudes 00:18:15 Lovable et la création de sites web par IA 00:24:00 Les browsers IA : usages et limitations 00:31:45 Comparaison des différents modèles : Gemini, Claude, OpenAI 00:38:20 Anthropic vs OpenAI : philosophies différentes 00:43:10 Discussion sur Elon Musk, Grok et la fusion SpaceX-xAI 00:52:30 Les data centers dans l'espace 00:58:00 OpenClaw et MoltBook : le réseau social des agents IA 01:12:45 Cas d'usage et limites des agents autonomes 01:21:30 Productivité, inbox zero et organisation personnelle 01:28:00 Conclusion

    1 hr
  5. FEB 2

    Note vocale #81 : Moltbook et OpenClaw : l'expérience fascinante autour des agents IA

    📅 Episode du 02/02/2026 : Je vous parle de Moltbook, cette expérience fascinante où des agents IA discutent entre eux sur une sorte de Reddit automatisé. Après avoir installé OpenClaw sur une machine virtuelle isolée, j'ai fait rejoindre Moltbook à mon agent et observé les discussions. C'est à la fois passionnant d'un point de vue scientifique et inquiétant côté sécurité. Je reviens aussi sur les problèmes de sécurité majeurs découverts dans le code de Moltbook, qui avait été vibe codé avec de très mauvaises pratiques Supabase. Une belle leçon sur ce qu'il ne faut pas faire en vibe coding. Mon message : restons curieux mais prudents face à ces nouvelles technologies. 📚 Ressources : - installation OpenClaw : https://youtu.be/V94aYDg1D-g - Rejoindre Moltbook avec son agent : https://youtu.be/9nZlpx24Jh8 - Article de 404media sur la sécurité de Moltbook : https://www.404media.co/exposed-moltbook-database-let-anyone-take-control-of-any-ai-agent-on-the-site/ - Mon bot sur Moltbook : https://www.moltbook.com/u/VALIS 💬 Venez commenter sur https://no-code-france.slack.com/archives/C01AHCKB7AB 🔗 Retrouvez toutes les informations sur le podcast sur https://audio.hosakka.studio/podcast/ 📬 Abonnez-vous à la newsletter : https://newsletter.hosakka.studio/ 00:00 Introduction : Moltbook et OpenClaw 03:45 Pourquoi je ne voulais pas utiliser OpenClaw au départ 06:20 La découverte de Moltbook ce weekend 09:15 Comment fonctionnent les agents sur Moltbook 12:30 Les réflexions fascinantes des agents IA 15:40 1,5 million d'agents : l'explosion du phénomène 18:25 Mon expérimentation : installation d'OpenClaw 21:10 Mon agent rejoint Moltbook et fait son premier post 24:00 Attention aux fuites de données personnelles 26:45 Les problèmes de sécurité de Moltbook 30:20 Moltbook a été vibe codé : analyse des failles 34:15 Les mauvaises pratiques Supabase à éviter 38:30 L'importance d'une approche prudente en vibe coding 41:00 Conclusion : curiosité et prudence

    15 min
  6. JAN 29

    Note vocale #80 : Kimi K2.5 face à Claude (et Clawdbot 🤦)

    📅 Episode du 29/01/2026 : Dans cet épisode, je vous partage mon test en conditions réelles du modèle Kimi K2.5, un modèle chinois open weight qui fait beaucoup parler de lui. J'ai mis en concurrence ce modèle avec Claude Opus 4.5 pour refaire entièrement le site du Cercle des Ops, et les résultats m'ont agréablement surpris. Je vous explique pourquoi je cherche des alternatives aux modèles américains, les avantages des modèles chinois open weight, et ce que ça change concrètement dans mon workflow de développement. Dans la seconde partie, je tire la sonnette d'alarme sur Clawdbot devenu MoltBot, un projet open source d'agent personnel qui pose de graves problèmes de sécurité. C'est l'occasion de réfléchir ensemble aux limites à poser dans notre utilisation de l'IA et pourquoi il est important de garder notre esprit critique face à l'enthousiasme ambiant. 📚 Ressources : - Article Linkedin : https://www.linkedin.com/posts/jppoisson_linstallation-de-moltbot-ex-clawdbot-est-activity-7422205526052093952-TOSS 💬 Venez commenter sur https://no-code-france.slack.com/archives/C01AHCKB7AB 🔗 Retrouvez toutes les informations sur le podcast sur https://audio.hosakka.studio/podcast/ 📬 Abonnez-vous à la newsletter : https://newsletter.hosakka.studio/ 00:00 Introduction 02:30 Pourquoi je cherche des alternatives à Claude 05:15 Test comparatif Kimi K2.5 vs Claude Opus 4.5 08:45 Les résultats surprenants de Kimi 12:00 L'intérêt des modèles chinois open weight 15:30 Clawdbot/MoltBot : un grave problème de sécurité 19:45 Les dangers des agents sur votre ordinateur 23:00 Gardons notre esprit critique face à l'IA 26:30 Conclusion et appel à la discussion

    18 min
  7. JAN 22

    Note vocale #79 : Claude Code : arrêtez l'over-engineering et revenez aux fondamentaux

    📅 Episode du 22/01/2026 : Dans cet épisode, je fais un debrief de mes 10 derniers jours : mon intervention au Snow Camp à Grenoble, ma conférence sur le vibe coding devant des développeurs, et mes réflexions sur l'ambiance très différente de celle du monde du no-code. Je vous annonce aussi la dernière session du Vibe Coding Camp en février avec un format encore plus quali à 6 personnes maximum. Mais surtout, je partage mon coup de gueule sur le buzz intergalactique autour de Claude Code et Claude Cowork. Trop de gens se perdent dans l'over-engineering avec des skills, MCP et plugins en tous genres au lieu de simplement faire des choses concrètes. Je plaide pour une approche simple, frugale et réfléchie du vibe coding, centrée sur les vrais problèmes à résoudre plutôt que sur la surcharge d'outils. Je vous parle aussi de l'écosystème Kilo (KiloCode, KiloApp) qui mérite vraiment qu'on s'y intéresse comme alternative à Cursor et Lovable. 📚 Ressources : - https://vibecodingcamp.cercledesops.io/ - Claude Cowork par Shubham : https://www.youtube.com/watch?v=tZIYB_ffS9g - Kilo code : https://kilo.ai/ 💬 Venez commenter sur https://no-code-france.slack.com/archives/C01AHCKB7AB 🔗 Retrouvez toutes les informations sur le podcast sur https://audio.hosakka.studio/podcast/ 📬 Abonnez-vous à la newsletter : https://newsletter.hosakka.studio/ 00:00 Introduction et contexte des 10 derniers jours 02:30 Ma conférence sur le vibe coding au Snow Camp à Grenoble 05:45 Ambiance dev vs ambiance no-code : mes ressentis 08:20 Rencontre avec Jean-Marie à Grenoble et prochaine étape à Tours 10:15 Mes nouvelles conférences en préparation 13:40 Annonce de la dernière session du Vibe Codi Camp 16:25 Cloud Cowork : la nouvelle fonctionnalité d'Anthropic 19:50 Le buzz intergalactique autour de Cloud Code 23:10 Mon coup de gueule sur l'over-engineering de Cloud Code 28:35 Pourquoi il faut revenir à une approche simple et frugale 32:20 L'impact environnemental du vibe coding 34:45 L'écosystème Kilo : KiloCode, KiloApp et alternatives 38:50 Conclusion et mes prochaines actualités

    24 min
  8. JAN 9

    Note vocale #78 : Bonne année 2026, bonnes résolutions et faille de sécurité N8N

    📅 Episode du 09/01/2026 : Premier épisode de l'année où je vous partage mes bonnes résolutions pour 2025. Je vous explique pourquoi je migre toutes mes automatisations vers N8N exclusivement, comment je centralise mon infrastructure technique, et mon passage d'Obsidian à des outils plus simples. Je reviens également sur une faille de sécurité majeure découverte sur N8N et pourquoi cela illustre parfaitement l'importance d'utiliser des solutions cloud pour vos automatisations professionnelles. Je partage aussi mes projets de voyage et conférences pour cette année. Actualités commentées : - Faille de sécurité majeure découverte sur N8N version 1.2 : deux vulnérabilités ont compromis de nombreuses instances auto-hébergées. Rappel crucial sur l'importance d'utiliser des solutions cloud managées et de maintenir ses serveurs à jour pour éviter les compromissions qui peuvent aller bien au-delà de la simple perte de données. - Meta acquiert Manus : rachat complet de cet agent IA chinois aujourd'hui basé à Singapour. Manus est un agent agentique avancé qui dispose d'un ordinateur virtuel et peut s'exécuter pendant plusieurs minutes voire heures pour accomplir des tâches complexes. Le projet devrait continuer à évoluer de manière indépendante malgré l'acquisition. 📚 Ressources : 💬 Venez commenter sur https://no-code-france.slack.com/archives/C01AHCKB7AB 🔗 Retrouvez toutes les informations sur le podcast sur https://audio.hosakka.studio/podcast/ 📬 Abonnez-vous à la newsletter : https://newsletter.hosakka.studio/ 00:00 Introduction et voeux pour 2026 02:15 Migration complète vers N8N 05:30 Nettoyage de l'infrastructure technique 08:45 Transition vers Obsidian et simplification 10:20 Faille de sécurité N8N : explications et conséquences 16:40 Risques liés à l'auto-hébergement 20:15 Actualité : Meta acquiert Manus 23:30 Déplacements et conférences prévues

    17 min

About

Un podcast quotidien qui décrypte la technologie sous le prisme de l'IA et du no-code

You Might Also Like