Knowledge Share Chanel

Ben

A podcast to share knowlage in the company

  1. עולם הסוכנים: המהפכה ה'אייג'נטית' של AI בארגונים

    05/05/2025

    עולם הסוכנים: המהפכה ה'אייג'נטית' של AI בארגונים

    ברוכים הבאים לפרק מיוחד שצלול לעומק המגמה החמה ביותר בעולם הבינה המלאכותית סוכני AI. בפרק זה, המבוסס על המדריך המקיף Agents Companion, נגלה כיצד סוכני AI מהווים קפיצת מדרגה ממודלי שפה סטנדרטיים, בזכות היכולת שלהם לתפוס סביבה, להשתמש בכלים ולפעול באופן אוטונומי לפתרון בעיות מורכבות. נפרק את הארכיטקטורה של סוכן AI – המודל המרכזי, הכלים שהוא מנצל, ושכבת התזמור שמנהלת את המחשבה והפעולה. נכיר את AgentOps, גישה חיונית להפיכת סוכני AI מקונספט להפקה מבצעית, תוך שילוב שיטות מ-DevOps ו-MLOps והוספת רכיבים ייחודיים לסוכנים. נבין מדוע מדדים והערכה הם המפתח לאיכות ואמינות, החל ממדדי עסקיים ועד להערכת מסלולי פעולה ושימוש בכלים, ועד כמה חיונית הערכה אנושית בלולאה. נצלול לעולם מערכות מרובות סוכנים (Multi-Agent Systems) – צוותי מומחים AI שעובדים יחד לפתרון בעיות גדולות יותר. נלמד על היתרונות המשמעותיים שלהם ועל דפוסי עיצוב כמו היררכי, יהלום ושיתופי, עם דוגמאות מתוך AI בעולם הרכב. נדבר גם על Agentic RAG – אבולוציה חשובה שבה סוכנים משפרים את תהליך השליפה כדי לספק תשובות מדויקות ואדפטיביות יותר, וכיצד שיפור חיפוש הוא הבסיס ל-RAG מוצלח. לבסוף, נבחן כיצד סוכני AI משנים את הארגונים, עם דוגמאות לסוכני "עוזר" וסוכני "אוטומציה", ופלטפורמות כמו Google Agentspace שמסייעות לנהל "צי" של סוכנים. נציג את הרעיון המתפתח של "קבלנים" – סוכנים עם "חוזים" מוגדרים ליותר אמינות במשימות קריטיות. הצטרפו אלינו למסע מרתק אל עתיד ה-AI!

    10 min
  2. Training LLMs with Business Data: A Practical Guide

    04/15/2025

    Training LLMs with Business Data: A Practical Guide

    Welcome to the podcast exploring the fascinating world of large language models (LLMs) and their practical applications. In this series, we delve into how these powerful AI tools are being customised and fine-tuned for specific industries, moving beyond general capabilities. We examine techniques such as domain-adaptive pretraining to enhance LLMs for specialised tasks like chip design, leading to models that can even outperform state-of-the-art systems in niche areas. We also explore the essential process of fine-tuning LLMs for enterprise use, offering practical guidance on data preparation for both text and code, estimating compute requirements, and choosing the right strategies like Low-Rank Adaptation (LoRA) and Quantized LoRA (QLoRA) for efficient adaptation. Understand the critical steps involved in the seven-stage fine-tuning pipeline, from dataset curation to deployment and maintenance. Furthermore, we investigate the role of Retrieval Augmented Generation (RAG) as an alternative or complement to fine-tuning, leveraging external knowledge to improve response quality. We look at how LLMs are being evaluated in specialised domains such as finance, law, climate, and cybersecurity, using targeted benchmarks to assess their performance in real-world scenarios. Finally, we touch upon innovative methods like test-time scaling to further boost the reasoning capabilities of these models. Join us as we unpack the technologies and best practices shaping the future of LLMs in diverse and demanding fields.

    25 min
  3. Effective Prompt Engineering Practices

    04/11/2025

    Effective Prompt Engineering Practices

    Welcome to this podcast delving into the fascinating world of Prompt Engineering. In this episode, we'll be exploring the art and science behind crafting effective prompts for large language models (LLMs) like those from Gemini. Have you ever wondered how to get the most accurate and meaningful responses from these powerful AI models? This paper breaks it all down, starting with the fundamental concept of a prompt as the input that guides the model's output. We discuss how anyone can write a prompt, but mastering the craft requires understanding various factors like the model used, its training data, and output configurations. We'll unpack crucial aspects of LLM output configuration, including controlling the output length and the impact of sampling controls like temperature, top-K, and top-P on the randomness and creativity of the generated text. The episode will also guide you through a range of essential prompting techniques. From simple zero-shot prompting where no examples are provided, to more advanced methods like one-shot and few-shot prompting that leverage examples to steer the model. We'll also cover system, contextual, and role prompting to help you set the stage, provide necessary background, and assign specific personas to the LLM. For tackling complex tasks, we'll explore techniques such as step-back prompting to encourage broader reasoning, Chain of Thought (CoT) to elicit intermediate reasoning steps, Self-consistency for improving answer accuracy through multiple reasoning paths, Tree of Thoughts (ToT) for simultaneous exploration of reasoning paths, and ReAct (reason & act) which combines reasoning with external tools. We even touch upon Automatic Prompt Engineering (APE) for automating prompt generation and effective strategies for code prompting. Finally, we’ll cover best practices to elevate your prompt engineering skills. These include providing examples, designing with simplicity, being specific about the output, using instructions over constraints, controlling token length, using variables, experimenting with formats and styles, and the critical importance of documenting your prompt attempts. Tune in to learn how to move beyond basic prompting and become a true prompt engineer, unlocking the full potential of large language models!

    28 min

About

A podcast to share knowlage in the company