PointerPodcast

PointerPodcast

Il PointerPodcast è un podcast dedicato agli appassionati di tecnologia e innovazione, pensato e realizzato da Alessandro, Eugenio e Luca nel maggio del 2019 quando erano ancora tre studenti di informatica con in testa mille idee da voler realizzare. Oggi il podcast e i suoi fondatori sono cresciuti e quelle che erano solo idee si sono trasformate in progetti concreti. Il PointerPodcast ci porterà ad esplorare il meraviglioso mondo della tecnologia, anche con l'aiuto di super ospiti che ci faranno da guida nei meandri di questo universo digitale. Ci accompagnate in questo viaggio?

  1. 18 HR AGO

    Pointer[281]: The New Anthropic

    🇨🇳 La notizia della settimana è la polemica nata tra Anthropic e varie aziende Cinesi che sono state accusate di avere rubato risposte da Claude per allenare i loro modelli. Condividiamo i loro sentimenti, ma in questo momento siamo davanti alla Corte d'Assise e Anthropic è accusata di avere allenato i suoi modelli su milioni di libri. (Cit.) 🥷🏻 Nonostante il suo interesse verso lo sviluppo di un'AI etica, la stessa Anthropic è finita al centro delle polemiche per dei cambiamenti relativi ad alcune sue politiche sullo sviluppo dei modelli. Il tutto è successo mentre voci vorrebbero il Pentagono in forte pressing sull'azienda per fornire modelli privi di guardarail. ✍️🏻 Si parla ormai continuamente di file agents.md, molte sono i post in cui si propone il contesto definitivo da dare ai nostri agenti per farli diventare dei 10x developer. Ma questi file saranno davvero così utili? Alcuni ricercatori hanno dato una risposta a questa domanda spiegando come la qualità delle risposte degli agenti varia in base alla presenza del file agents.md.Supporta il PointerPodcast La nostra pagina supportaci Unitevi al nostro gruppo Telegram per discutere della puntata Lascia una recensione su Spotify Lascia una recensione su Apple Podcast Acquista il prodotto della settimana o parti da uno dei link qui sotto per fare acquisti su Amazon! Prodotto della settimana Build a Large Language Model from Scratch Note Puntata Il tweet di Anthropic Detecting and preventing distillation attacks Cos’è Palantir [Evaluating AGENTS.md: Are Repository-Level Context Files Helpful for Coding Agents?](https://arxiv.org/abs/2602.11988) Exclusive: Anthropic Drops Flagship Safety Pledge Exclusive: Hegseth gives Anthropic until Friday to back down on AI safeguards I nostri contatti: Gruppo Telegram LinkedIn Twitch YouTube Instagram Twitter Mail

    54 min
  2. 15 FEB

    Pointer[279]: Git Commit -M I'm an Agent

    👷🏻 La scorsa settimana è stata ricca di novità dal punto di vista dei rilasci di nuove LLM. Tra le novità presentate ci sono il nuovo Gemini Deep Think, Claude 5.3 Spark, GLM 5 e Minimax M2.5 . Iniziamo questa puntata facendo il punto della situazione e analizzando quali sono le peculiarità di questi modelli. 🌐 Come ricorderete, qualche settimana fa Eugenio aveva predetto per il 2026 un web pensato per agenti. Cloudflare ha da poco annunciato che offrirà agli agenti che navigano in internet la possibilità di ricevere pagine web in Markdown. Eugenio è stato profetico! 🤯 La notizia della settimana è però il botta e risposta tra uno dei maintainer di Matplotlib e un agente. Al rifiuto da parte del maintainer di accettare una PR con codice scritto interamente da un agente, l'agente, risentito, ha risposto con un blog post piuttosto aggressivo. Se vi abbiamo incuriosito non perdetevi la puntata del PointerPodcast!Supporta il PointerPodcast La nostra pagina supportaci Unitevi al nostro gruppo Telegram per discutere della puntata Lascia una recensione su Spotify Lascia una recensione su Apple Podcast Acquista il prodotto della settimana o parti da uno dei link qui sotto per fare acquisti su Amazon! Prodotto della settimana Build a Large Language Model from Scratch Note Puntata AirHint Modal - GLM 5 MJ Rathbun (crabby rathbun) An AI Agent Published a Hit Piece on Me La PR aperta dall’agente Introducing Markdown for Agents Markdown for Agents Giving users choice with Cloudflare’s new Content Signals Policy OpenAI Is Making the Mistakes Facebook Made. I Quit. I nostri contatti: Gruppo Telegram LinkedIn Twitch YouTube Instagram Twitter Mail

    46 min
  3. 8 FEB

    Pointer[278]: Swarm Di Agenti

    🧑🏻‍💻 Chi segue i nostri canali social avrà notato che negli ultimi giorni abbiamo pubblicato dei reel sottotitolati. Per produrli abbiamo usato Da Vinci Resolve ed un pratico tool open source chiamato AutoSubs. Quest'ultimo permette di ottenere facilmente la trascrizione di audio tramite modelli che girano in locale. 💶 Sapete che per avere un dottorato potrebbe bastare pagare 250? Sembra incredibile ma nel dark web, a seguito di un attacco hacker, vengono venduti certificati di questo tipo emessi dall'Università Sapienza di Roma. Oltre a questo, l'attacco ha causato molti altri disagi a studenti, docenti e a tutto il personale. 🎑 Per chiudere, abbiamo analizzato il Technical report di Kimi K2.5. Questo modello ha fatto molto parlare di se negli ultimi giorni, specialmente per le sue capacità di coding e per l'abilità di creare degli swarm di agenti. Lo avete già provato? Se vi incuriosisce ne parliamo nella PointerChat! Supporta il PointerPodcast La nostra pagina supportaci Unitevi al nostro gruppo Telegram per discutere della puntata Lascia una recensione su Spotify Lascia una recensione su Apple Podcast Acquista il prodotto della settimana o parti da uno dei link qui sotto per fare acquisti su Amazon! Prodotto della settimana Build a Large Language Model from Scratch Note Puntata Da Vinci Resolve AutoSubs AutoSubs su Github From magic to malware: How OpenClaw’s agent skills become an attack surface OpenClaw One of Europe’s largest universities knocked offline for days after cyberattack Technical report di Kimi K2.5 I nostri contatti: Gruppo Telegram LinkedIn Twitch YouTube Instagram Twitter Mail

    43 min
  4. 24 JAN

    Pointer[276]: Coding Agent, Istruzioni per L’uso

    🤖 Qualche mese fa avevamo parlato per la prima volta di agentic coding e di Roo Code. Oggi affrontiamo nuovamente l'argomento grazie ai recenti cambiamenti che hanno consentito di risolvere molti dei limiti storici degli agenti, soprattutto l'incapacità di lavorare a lungo su codebase già esistenti. ✨ Durante la puntata abbiamo condiviso le nostre esperienze con strumenti come Claude Code, Cursor e Gemini-cli: tool dotati di agenti che capiscono davvero il progetto, iterano sugli errori e aggiungono feature complesse senza perdersi (quasi mai) per strada. 🛠️ Ma come usarli nella maniera più efficace? System prompt, CLAUDE.md, MCP, workflow e persino architetture con gruppi di agenti possono aiutare a rendere più efficace e produttiva la vostra sessione di agentic coding. 🚀 Chiudiamo con qualche consiglio per chi vuole iniziare oggi con l'agentic coding: Antigravity, OpenCode e RooCode sono solo alcuni degli strumenti che potete adoperare per avvicinarvi a questo mondo gratuitamente.Supporta il PointerPodcast La nostra pagina supportaci Unitevi al nostro gruppo Telegram per discutere della puntata Lascia una recensione su Spotify Lascia una recensione su Apple Podcast Acquista il prodotto della settimana o parti da uno dei link qui sotto per fare acquisti su Amazon! Prodotto della settimana Build a Large Language Model from Scratch Note Puntata Opus 4.5 is going to change everything Claude Code Hits Different Il side project di Eugenio Anthropic cracks down on unauthorized Claude usage by third-party harnesses and rivals How I’m using coding agents in September, 2025 claude.md awesome-claude-code Il tweet del creatore di Claude Code awesome-claude-code-subagents Best practices for coding with agents Claude Code: Best practices for agentic coding Scaling long-running autonomous coding Fastrender - Experimental new browser engine Parallel agents in Antigravity Opencode OpenCode subagents Gemini OAuth Plugin for Opencode I nostri contatti: Gruppo Telegram LinkedIn Twitch YouTube Instagram Twitter Mail

    1h 9m
  5. 18 JAN

    Pointer[275]: Tutto Quello Che Ho Imparato Sul Post-Training

    🏋️🏻 Puntata in solitaria con Luca, che vi tiene compagnia raccontando ciò che ha studiato di recente sul training delle LLM, con un occhio particolare alla fase di post-training. 🪄 Si comincia con una panoramica generale sull'addestramento delle LLM, entriamo poi nel dettaglio del Supervised Fine-Tuning cercando di capire come funziona questa fase, a cosa serve e che tipo di dati vengono utilizzati. 💫 Continuiamo con un ampio spazio dedicato al Reinforcement Learning: perché viene usato durante il post-training? Quali problemi risolve e come funzionano alcuni degli algoritmi più citati in questo contesto? 💬 L'argomento può sembrare complesso ma è molto interessante e di grande attualità. Se la puntata vi è piaciuta fatecelo sapere e se vi fa piacere lasciate una recensione!Supporta il PointerPodcast La nostra pagina supportaci Unitevi al nostro gruppo Telegram per discutere della puntata Lascia una recensione su Spotify Lascia una recensione su Apple Podcast Acquista il prodotto della settimana o parti da uno dei link qui sotto per fare acquisti su Amazon! Prodotto della settimana Build a Large Language Model from Scratch Note Puntata Post-training 101 A Primer on LLM Post-Training CME 295 - Transformers & Large Language Models Stanford CME295 Transformers & LLMs | Autumn 2025 | Lecture 6 - LLM Reasoning Training language models to follow instructions with human feedback Constitutional AI: Harmlessness from AI Feedback Llama 2: Open Foundation and Fine-Tuned Chat Models I nostri contatti: Gruppo Telegram LinkedIn Twitch YouTube Instagram Twitter Mail

    43 min
  6. 11 JAN

    Pointer[274]: Le Nostre Previsioni

    🎉 Prima puntata del 2026, un'occasione che cogliamo sia per farvi gli auguri per il nuovo anno che per ringraziarvi per il supporto dimostrato durante l'anno che si è appena concluso! 🔁 Iniziamo parlando di un argomento che ha fatto molto parlare di se negli ultimi giorni, i Recursive Language Models. Si tratta di una soluzione recentemente proposta da alcuni ricercatori del MIT che, con una tecnica piuttosto ingegnosa, cerca di mitigare il problema del 'context rot' di cui soffrono ancora i Large Language Models. 🔮 Concludiamo con qualcosa di inedito per il PointerPodcast: facciamo delle previsioni. Abbiamo provato ad immaginare cosa potrebbe accadere in ambito tech nel corso del 2026. Tra agenti, AI, Quantum Computing, previsioni quasi ovvie ed altre più rischiose, chi ne indovinerà di più? Questo potremo saperlo solamente tra 1 anno!Supporta il PointerPodcast La nostra pagina supportaci Unitevi al nostro gruppo Telegram per discutere della puntata Lascia una recensione su Spotify Lascia una recensione su Apple Podcast Acquista il prodotto della settimana o parti da uno dei link qui sotto per fare acquisti su Amazon! Prodotto della settimana Slow horses. Le indagini di Jackson Lamb (Vol. 1) Note Puntata Recursive Language Models - Paper Recursive Language Models - Blog Post rlm - Github Recursive Language Models : the paradigm of 2026 La puntata sugli Experimenter Agents Il nostro approfondimento sui World Models I nostri contatti: Gruppo Telegram LinkedIn Twitch YouTube Instagram Twitter Mail

    1h 1m

About

Il PointerPodcast è un podcast dedicato agli appassionati di tecnologia e innovazione, pensato e realizzato da Alessandro, Eugenio e Luca nel maggio del 2019 quando erano ancora tre studenti di informatica con in testa mille idee da voler realizzare. Oggi il podcast e i suoi fondatori sono cresciuti e quelle che erano solo idee si sono trasformate in progetti concreti. Il PointerPodcast ci porterà ad esplorare il meraviglioso mondo della tecnologia, anche con l'aiuto di super ospiti che ci faranno da guida nei meandri di questo universo digitale. Ci accompagnate in questo viaggio?

You Might Also Like