Risorse Artificiali. Appunti e spunti dal mondo dell’Intelligenza Artificiale

RisorseArtificiali

🎙️ Risorse Artificiali è il podcast italiano che esplora il mondo dell’Intelligenza Artificiale, tra AI generativa, agenti autonomi, machine learning e innovazione nel software. Ogni settimana, tre ingegneri e manager con esperienza sul campo discutono con uno stile diretto e competente i trend emergenti, i rischi, le opportunità e l’impatto dell’AI su business, lavoro e società. 💡 Se cerchi un punto di vista solido, tecnico ma accessibile, che unisca ingegneria, visione manageriale e cultura open source, sei nel posto giusto.

  1. Intervista a Daniele Zonca: come portare l'AI generativa in Enterprise

    2D AGO

    Intervista a Daniele Zonca: come portare l'AI generativa in Enterprise

    In questa puntata di Risorse Artificiali – Appunti e spunti dal mondo dell’Intelligenza Artificiale (AI) intervistiamo Daniele Zonca, Chief Architect in Red Hat, per capire come portare l’AI generativa in Enterprise in modo sostenibile, sicuro e governabile. Cosa significa davvero adottare l’Intelligenza Artificiale generativa in azienda? Parliamo di: Explainability e fiducia nei sistemi di AI Kubernetes come piattaforma per gestire modelli generativi in produzione Open Source e innovazione nel mondo enterprise Costi, sostenibilità e ciclo di vita dei modelli Gestione del rischio e responsabilità nell’utilizzo degli LLM Evoluzione dello sviluppo software tra AI assisted coding e vibe coding L’AI generativa non è solo una tecnologia: è un cambio di paradigma per architetture, processi e competenze. Capire come integrarla nei sistemi enterprise significa affrontare temi di governance, sicurezza, affidabilità e trasparenza. Un episodio per AI engineer, architetti software, CTO e professionisti che vogliono portare l’AI generativa in azienda senza perdere controllo e fiducia. Chapters 00:00 Introduzione e Giochi dell'Infanzia 02:40 Il Percorso Professionale di Daniele Zonca 04:57 L'Importanza dell'Explainability nell'AI 13:19 OpenShift AI e il Lavoro di Daniele Zonca 17:22 Kubernetes come Piattaforma per LLM 22:13 Vantaggi del Professional Open Source 23:37 Inizio e complessità delle soluzioni AI 29:08 La scelta tra soluzioni interne ed esterne 30:33 Futuro dei modelli linguistici 31:51 Costi e sostenibilità delle soluzioni AI 34:29 Ciclo di vita dei modelli e gestione dei dati 40:27 L'importanza del background accademico 44:47 Curiosità e Approfondimento nel Mondo del Lavoro 47:35 L'importanza del Background Tecnico 50:39 Evoluzione e Rivoluzioni Tecnologiche 53:26 Vibe Coding e AI Assisted Coding 56:30 Interazione con i Modelli di Linguaggio 59:37 Il Ruolo dello Sviluppatore nel Futuro 01:02:32 Gestione dei Fallimenti nel Mondo Enterprise 01:13:06 Gestione del Rischio e Fiducia nei Modelli 01:15:09 Responsabilità e Agenzia nell'Utilizzo degli LLM 01:17:00 Etica e Fiducia nell'Intelligenza Artificiale 01:19:13 Antropomorfizzazione e Comprensione dei Modelli 01:21:46 Architettura dei Modelli e Allineamento Etico 01:26:58 Futuro dei Modelli di Base e Open Source

    1h 37m
  2. Paolo in fissa Claude Code come previsto da Stefano. Ma con OpenClaw arriva l’Internet degli Agenti AI #39

    6D AGO

    Paolo in fissa Claude Code come previsto da Stefano. Ma con OpenClaw arriva l’Internet degli Agenti AI #39

    In questa puntata di Risorse Artificiali – Appunti e spunti dal mondo dell’AI, Paolo entra ufficialmente in fissa con Claude Code (come Stefano aveva previsto 😄), ma la vera domanda è un’altra: stiamo assistendo alla nascita dell’Internet degli Agenti AI? Parliamo di: 🔥 Claude Code, Cloud Code e Vibe Coding 🧠 Memoria e strategia negli agenti AI 🧩 Constraint solving e pianificazione con modelli intelligenti 🌐 OpenClaw e WebMCP: verso un ecosistema interoperabile di agenti 📱 Le app tradizionali sono destinate a scomparire? 🎮 AI nei giochi e nuove forme di interazione digitale 🧪 Open source, sperimentazione e modelli che generano altri modelli ⚔️ CLI vs MCP: dibattito tecnico sul futuro degli strumenti di sviluppo L’intelligenza artificiale non sta solo migliorando le app: potrebbe sostituirle.Stiamo passando da un mondo di applicazioni isolate a un ecosistema di agenti autonomi, capaci di interagire tra loro, ricordare contesto, pianificare azioni e collaborare attraverso protocolli come WebMCP. Discutiamo anche dell’evoluzione dei modelli AI (inclusi quelli cinesi), del ruolo dell’open source e di come l’AI stia cambiando radicalmente il modo in cui sviluppiamo software. 👉 Se ti interessano AI engineering, agenti intelligenti, sviluppo software, open source e scenari futuri dell’intelligenza artificiale, questa puntata fa per te. Chapters 00:00 Introduzione e Confusione Numerica 01:59 Vibe Coding e Deprivazione da Cloud Code 03:58 Progetti Strani e Automazione Domestica 07:03 Deep Research e Cloud Code 12:13 Pianificazione e Constraint Solving 15:07 Utilizzo di Cloud Code per Progetti 17:40 Strumenti e Funzionalità di Cloud Code 23:19 Svelare i Segreti del Coding 24:25 Strumenti e Workflow per Non Programmatori 26:28 Presentazioni e Conferenze: Condivisione di Esperienze 28:53 Discussione su Sviluppo Software e AI 30:19 Futuro degli Assistenti Virtuali 36:11 Implicazioni dell'AI sulle App e sull'Industria 40:13 Giochi e AI: Nuove Frontiere 41:19 Prossimi Passi: Dove Ci Porta l'AI? 42:46 L'uso consapevole degli agenti AI 45:55 Memoria e strategia negli agenti AI 47:48 La singolarità e l'evoluzione dei modelli AI 50:25 Modelli che generano altri modelli 54:43 CLI vs MCP: un dibattito tecnico 59:43 L'evoluzione dei modelli AI cinesi 01:04:08 Interazione tra modelli e agenti 01:07:05 WebMCP e l'Internet degli agenti 🎧 Ascolta “Risorse Artificiali” su Spotify:https://open.spotify.com/show/16dTKEEtKkIzhr1JJNMmSF 📺 Guarda il podcast su YouTube:https://www.youtube.com/channel/UCYQgzIby7QHkXBonTWk-2Fg 🌍 Tutti gli episodi su:https://risorseartificiali.com

    1h 9m
  3. Intervista ad Alessandro Maserati: AGI tra allineamento e consapevolezza per il futuro della società e del lavoro

    FEB 4

    Intervista ad Alessandro Maserati: AGI tra allineamento e consapevolezza per il futuro della società e del lavoro

    In questa puntata di Risorse Artificiali intervistiamo Alessandro Maserati per affrontare uno dei temi più complessi e urgenti dell’Intelligenza Artificiale contemporanea: l’AGI (Artificial General Intelligence), il suo allineamento e il ruolo della consapevolezza umana nel futuro della società e del lavoro. Partendo dal suo percorso tra ricerca e business, discutiamo del grande gap che ancora separa l’innovazione tecnologica dall’adozione reale dell’AI nelle aziende. Parliamo di spiegabilità dei modelli, di perché sia un fattore chiave per la fiducia e l’integrazione nei processi decisionali, e di come i modelli di linguaggio non si limitino a replicare conoscenza, ma possano generare nuove forme di intelligenza. Con Alessandro affrontiamo anche temi più ampi e spesso controversi: cosa intendiamo davvero quando parliamo di AGI perché l’allineamento dell’AI è un problema aperto e senza soluzioni semplici quali sono le implicazioni per il futuro del lavoro, tra automazione, nuovi ruoli e possibili sistemi di ridistribuzione il ritardo dell’Europa nella corsa all’Intelligenza Artificiale rispetto a Stati Uniti e Cina le opportunità concrete per studenti e neolaureati che oggi scelgono di investire competenze nell’AI Una conversazione lucida e senza hype, che invita a guardare all’Intelligenza Artificiale non solo come tecnologia, ma come trasformazione sistemica che richiede responsabilità, strategia e visione di lungo periodo. 🎧 Risorse Artificiali è il podcast dedicato a chi vuole capire davvero come l’AI sta cambiando il mondo del lavoro, delle aziende e della società. ⏱️ Capitoli dell’episodio 00:00 – Introduzione e presentazione di Alessandro Maserati03:03 – Percorso professionale e AI06:12 – Il gap tra ricerca e business08:55 – Adozione dell’Intelligenza Artificiale nelle aziende12:20 – Spiegabilità dei modelli AI15:20 – AGI: definizioni, paure e fraintendimenti18:00 – Implicazioni dell’Intelligenza Artificiale Generale24:12 – Futuro del lavoro e ridistribuzione della ricchezza30:49 – Automazione e trasformazione dei ruoli35:23 – Consapevolezza nell’uso dell’AI41:17 – Il problema dell’allineamento54:12 – Europa e Intelligenza Artificiale: un’assenza critica01:03:28 – Oltre i modelli stocastici01:06:47 – Evoluzione dei modelli di ragionamento01:10:55 – Agenti intelligenti e sistemi complessi01:13:06 – Comportamenti emergenti01:20:34 – AI, istruzione e nuove competenze01:30:35 – Strategie aziendali nell’era dell’AI

    1h 35m
  4. Oltre la Chat: Gemini, Agenti e la corsa all’AGI tra Hassabis, Amodei e il futuro del lavoro #37

    JAN 31

    Oltre la Chat: Gemini, Agenti e la corsa all’AGI tra Hassabis, Amodei e il futuro del lavoro #37

    Il mercato dei chatbot e dell’intelligenza artificiale sta cambiando rapidamente. In questa puntata di Risorse Artificiali analizziamo i segnali più interessanti emersi negli ultimi mesi: la crescita di Gemini, l’evoluzione dell’uso delle API, la standardizzazione delle applicazioni AI e il ruolo sempre più centrale degli agenti intelligenti. Partendo dai dati di traffico e dalle dinamiche di mercato, discutiamo di come l’AI stia passando dall’essere una semplice interfaccia conversazionale a una vera infrastruttura di automazione. Approfondiamo le regole e le limitazioni nell’uso dei modelli, il tema della spiegabilità in ambito enterprise e le nuove proposte di standardizzazione che stanno emergendo nell’ecosistema AI. Un capitolo centrale della puntata è dedicato al dibattito sull’AGI (Artificial General Intelligence) e sulla superintelligenza, confrontando le visioni di Demis Hassabis e Dario Amodei: quanto siamo davvero lontani dall’AGI? E cosa significa, concretamente, per il lavoro e per chi sviluppa software oggi? Chiudiamo con una riflessione diretta sul futuro della programmazione: scriveremo meno codice? Cambieranno gli strumenti, le interfacce e le competenze richieste ai programmatori? E che ruolo avranno gli agenti AI nel nostro modo di lavorare? Una puntata per chi vuole capire dove sta andando davvero l’intelligenza artificiale, oltre l’hype e oltre la semplice “chat”. I Link dalla puntata: Chrome: The browser you love, reimagined with AI https://blog.google/products-and-platforms/products/chrome/chrome-reimagined-with-ai/ https://openclaw.ai/ ex clawdbot ex moltbot…. https://openclaw.ai/blog/introducing-openclaw https://ppc.land/chatgpts-lead-shrinks-as-gemini-surges-in-ai-traffic-war/ Hassabis-Amodei: https://www.youtube.com/watch?v=02YLwsCKUww Chapters 00:00 Introduzione e Panoramica del Mercato 02:42 Crescita di Gemini e Confronto con ChatGPT 06:16 Traffico Internet e Utilizzo delle API 10:50 Regole e Limitazioni nell'Uso dei Modelli AI 15:49 Standardizzazione e Innovazioni di Antropic 21:58 Spiegabilità dei Modelli e Adozione nell'Enterprise 24:51 Controversie Legali e Venture Capital 28:15 Interviste e Percezioni nel Mondo Economico 30:57 Definizioni di AGI e SGI 34:10 Dibattiti sul Futuro dell'Intelligenza Artificiale 38:04 Riflessioni sulla Competizione Globale 42:25 Paragoni con la Bomba Atomica e Riflessioni Finali 48:12 Il Cambiamento dei Nomi e le Aspettative di Mercato 49:15 L'Utilizzo di Modelli e Agenti AI 52:10 Interazione e Automazione con le AI 53:48 Riflessioni sul Futuro della Programmazione 57:09 Evoluzione del Codice e delle Interfacce Utente 01:00:38 Il Ruolo degli Agenti AI nel Futuro della Tecnologia 01:02:44 La Trasformazione degli Strumenti di Lavoro 01:07:24 Conclusioni e Teaser per il Futuro

    1h 12m
  5. L'AI scala davvero? E poi coding creativo, Gemini ovunque e ChatGPT introduce la pubblicità #36

    JAN 24

    L'AI scala davvero? E poi coding creativo, Gemini ovunque e ChatGPT introduce la pubblicità #36

    L’AI scala davvero? In questo episodio di Risorse Artificiali partiamo da una domanda chiave per chi lavora con l’intelligenza artificiale oggi: la scalabilità dei modelli AI è reale o stiamo solo spostando i costi? Parliamo di: crescita dei modelli AI e limiti del pre-training distillazione come strategia per rendere l’AI più sostenibile hardware sempre più commoditizzato e costi energetici perché il prezzo della RAM sta diventando un collo di bottiglia coding creativo e Vibe Coding: conta ancora scrivere codice? l’arrivo di Gemini su (quasi) tutti i telefoni e l’impatto sull’ecosistema mobile ChatGPT e la pubblicità: cosa cambia per utenti, aziende e sviluppatori privacy, business model e nuove tensioni tra AI, prodotto e mercato Chiudiamo con una riflessione più ampia: ha ancora senso fermarsi a scrivere, progettare, persino scrivere libri, in un’epoca di accelerazione continua?Un episodio che mette insieme AI engineering, creatività, business e futuro del software, senza hype ma con domande scomode. 🎧 Risorse Artificiali – Appunti e spunti dal mondo dell’AIDisponibile su Spotify e YouTube. Link dalla puntata: Black Forest Labs is back: Flux.2 [Klein] https://bfl.ai/blog/flux2-klein-towards-interactive-visual-intelligence https://github.com/black-forest-labs/flux2  Esempi in community: https://www.reddit.com/r/StableDiffusion/comments/1qfvebh/flux_2_klein_is_really_amazing/  Prove gratis a https://huggingface.co/spaces/black-forest-labs/FLUX.2-klein-4B  Script prompt upsampling: https://github.com/black-forest-labs/flux2/blob/main/docs/flux2_with_prompt_upsampling.md Invisible watermark: https://github.com/ShieldMnt/invisible-watermark Articolo di Salvatore Sanfilippo: Don't fall into the anti-AI hype Chapters 00:00 Introduzione e Saluti 02:50 Riflessioni sull'Intelligenza Artificiale 05:44 Scalabilità e Investimenti nell'AI 08:33 Pre-Training e Consumi Energetici 11:40 Innovazioni nei Modelli AI 14:36 Hardware e Comoditizzazione 17:41 Distribuzione del Calcolo e Progetti Futuri 20:46 Ritorno di Flux e Black Forest Lab 30:10 Evoluzione e Distillazione dei Modelli 40:16 Coding Assistito e Creatività 49:20 Riflessioni sul Gioco e la Creatività 49:35 Il Vibe Coding e le Opinioni di Linus Torvalds 55:41 Le Innovazioni di Apple e Gemini 01:00:42 L'Intelligenza Artificiale e la Privacy 01:04:45 Pubblicità e Chatbot: Un Nuovo Paradigma 01:10:13 Riflessioni Finali e Conclusioni

    1h 15m
  6. Intervista a Emanuele Fabbiani: ricerca e startup AI; allucinazioni ed explainability degli LLM

    JAN 21

    Intervista a Emanuele Fabbiani: ricerca e startup AI; allucinazioni ed explainability degli LLM

    In questo episodio di Risorse Artificiali intervistiamo Emanuele Fabbiani, imprenditore e ricercatore nel mondo dell’intelligenza artificiale, fondatore di Xtream e Ready, oggi parte dell’ecosistema TeamSystem. Partendo dal suo percorso personale — tra ricerca accademica e costruzione di startup AI — affrontiamo uno dei temi più discussi e fraintesi dell’AI moderna: le allucinazioni dei modelli linguistici (LLM) e il problema della explainability. Parliamo di: perché i modelli AI allucinano e cosa ci dice questo sul loro funzionamento differenza tra significato e significante nei Large Language Models quali tecniche aiutano a mitigare le allucinazioni perché la spiegabilità è cruciale per l’adozione enterprise dell’AI limiti e costi delle scaling law il ruolo del reasoning nei modelli di nuova generazione Vibe Coding: perché sta cambiando davvero il modo di scrivere software cosa significa fare impresa AI in Italia oggi consigli pratici per giovani, ricercatori e futuri imprenditori tech Un episodio denso ma concreto, che unisce AI engineering, ricerca, startup e futuro del lavoro, con uno sguardo lucido su cosa funziona davvero oltre l’hype. Link: https://www.linkedin.com/in/emanuelefabbiani/ https://xtreamers.io/ ⏱️ Capitoli 00:00 Introduzione01:54 Il percorso di Emanuele Fabbiani05:52 Ricerca vs startup: una falsa dicotomia11:48 Accademia e industria: contaminazione necessaria12:49 Nascita di Xtream e dinamiche di gruppo19:02 L’acquisizione da parte di TeamSystem24:55 Explainability nei Large Language Models33:32 Significato, non significante43:06 Allucinazioni nei modelli AI56:42 Scaling law e limiti economici59:35 Vibe Coding e sviluppo software assistito01:05:18 Revisione del codice e AI01:10:23 Ecosistema AI in Italia01:21:24 Consigli per chi vuole fare startup01:29:33 Il futuro dell’intelligenza artificiale

    1h 38m
  7. Il caso Grok, ChatGPT Health: perché l’AI generativa ci costringe a ripensare autenticità, responsabilità e fiducia #35

    JAN 17

    Il caso Grok, ChatGPT Health: perché l’AI generativa ci costringe a ripensare autenticità, responsabilità e fiducia #35

    Nel nuovo episodio di Risorse Artificiali – Appunti e spunti dal mondo dell’AI, partiamo dal caso Grok e dalla polemica sui deepfake di immagini generate dall’AI per affrontare una domanda molto più ampia:👉 come cambia il concetto di autenticità in un mondo in cui l’intelligenza artificiale può generare contenuti indistinguibili dal reale? Discutiamo della reazione di Elon Musk, delle implicazioni culturali e legali della generazione di immagini fake e di una provocazione centrale:in un ecosistema dominato dai fake, forse non è il falso che va marcato, ma l’originale. Da qui allarghiamo lo sguardo all’evoluzione dei modelli di generazione immagini, come GLM Image, e al tema della comprensione semantica nei modelli multimodali. Nella seconda parte dell’episodio ci spostiamo sulla sanità, commentando il lancio di ChatGPT Health da parte di OpenAI:un passo importante che apre opportunità concrete, ma anche questioni etiche, di privacy e di responsabilità, soprattutto quando l’AI entra in ambiti critici come le decisioni mediche. Infine, chiudiamo con una riflessione più tecnica e filosofica sul futuro degli agenti AI, discutendo il ruolo della memoria procedurale e semantica nei coding agent e perché progettare sistemi di memoria non è solo un problema di performance, ma di affidabilità e controllo. Un episodio per chi lavora con l’AI — o ne subisce già gli effetti — e vuole andare oltre l’hype, interrogandosi su responsabilità, fiducia e limiti dell’intelligenza artificiale generativa. Chapters 00:00 Introduction and Context of the Controversy 02:27 Deepfake Technology and Cultural Reactions 04:50 Legal Implications and Image Authenticity 11:40 Emerging AI Models and Future Directions 24:49 Exploring Image Generation Techniques 37:02 AI in Healthcare: Opportunities and Ethical Concerns 46:15 User Responsibility in AI Healthcare Decisions 47:38 The Risks of Anthropomorphizing AI 50:02 The Future of AI in Personal Health 52:49 Debating AI Memory Systems 01:04:58 The Complexity of AI Memory and Learning

    1h 14m

About

🎙️ Risorse Artificiali è il podcast italiano che esplora il mondo dell’Intelligenza Artificiale, tra AI generativa, agenti autonomi, machine learning e innovazione nel software. Ogni settimana, tre ingegneri e manager con esperienza sul campo discutono con uno stile diretto e competente i trend emergenti, i rischi, le opportunità e l’impatto dell’AI su business, lavoro e società. 💡 Se cerchi un punto di vista solido, tecnico ma accessibile, che unisca ingegneria, visione manageriale e cultura open source, sei nel posto giusto.

You Might Also Like