AWS на русском

Viktor Vedmich

Подкаст ”AWS на русском”. Говорим про использование облачных технологий, построение serverless приложений, развертывание kubernetes и внедрение ML/AI и не только. Лучшие практики и свежие новости из мира AWS в формате интервью на русском языке. Смотрите и слушайте #awsнарусском

  1. 21H AGO

    065. ClickHouse на AWS: скорость данных для AI и аналитики

    Думаете, колоночная БД — это «узкая ниша» для дата-гуру? Знаете ли вы, что ClickHouse ставит рекорды по вставке данных и теперь разворачивается в AWS… одним кликом? В новом выпуске подкаста «AWS на русском» говорим с Дмитрием Павловым (ClickHouse) о том, как построить молниеносную аналитику и подготовить данные для LLM: 🔹 Что такое ClickHouse и зачем он бизнесу 🔹 Marketplace в AWS: биллинг одной кнопкой 🔹 Real-time дашборды — для Tesla, OpenAI и Anthropic 🔹 ClickHouse + MCP: интеграция, которую клиенты сразу начали юзать 🔹 Уроки внедрения: метаданные, контекст и cost optimization   💡 Инсайт: подробное описание таблиц и бизнес-процессов снижает порог входа так сильно, что даже нетехнари начинают писать SQL-запросы сами.     🎧 Доступно на любимой платформе: • YouTube, Podbean, Apple Podcasts, Яндекс Музыка, Spotify, RSS (ссылки ниже) 💬 Какие метрики вашей системы сегодня тормозят больше всего — и попробовали бы вы мигрировать их в ClickHouse? #ClickHouse #AWS #DataAnalytics #AI #Database #Подкаст #AWSнаРусском   Навигация (Podbean) (0:00) Introduction (0:59) Что такое ClickHouse (6:02) ClickHouse в AWS Marketplace (14:59) Real-time дашборды клиентов (23:45) ClickHouse + AI/LLM (36:06) Lessons learned и cost optimization (48:09) Итоги и планы   Навигация (YouTube) 00:00:00 – Начало 00:00:59 – Что такое ClickHouse 00:06:02 – ClickHouse в AWS Marketplace 00:14:59 – Real-time дашборды клиентов 00:23:45 – ClickHouse + AI/LLM 00:36:06 – Lessons learned и cost optimization 00:48:09 – Итоги и планы   YouTube: https://www.youtube.com/watch?v=IhDf_c1icRE&list=PLxtckYH8Cdy_WT5tcCITt_f61Zr2qQJbL Podbean: https://awsinrussian.podbean.com/ Apple Podcast: https://podcasts.apple.com/by/podcast/aws-%D0%BD%D0%B0-%D1%80%D1%83%D1%81%D1%81%D0%BA%D0%BE%D0%BC/id1600771698 Яндекс.Музыка: https://music.yandex.ru/album/20088544 Spotify: https://open.spotify.com/show/4kOoih4FvHqyK5mLF3E42J RSS: https://feed.podbean.com/awsinrussian/feed.xml

    49 min
  2. AUG 7

    064. MCP: Как подключить любой инструмент к AI за 5 минут?

    Думаете, интеграция искусственного интеллекта с вашими внутренними системами — это всегда сложно и долго? А что, если существует стандарт, который упрощает этот процесс до уровня подключения USB? В новом выпуске подкаста "AWS на русском" вместе с Фёдором Павловым и Михаилом Голубевым разбираемся, что такое Model Context Protocol (MCP) и как он меняет правила игры для AI-приложений. 🔹 Что такое MCP? Объясняем на простом примере — это как Telegram-боты, только для больших языковых моделей (LLM). 🔹 Клиент или сервер? Разбираемся, с какой стороны начать разработку и почему вы, скорее всего, будете писать сервер. 🔹 Безопасность прежде всего: Кто отвечает за защиту от prompt injection и как обезопасить свои инструменты? 🔹 Практическое применение: Обсуждаем, как компании вроде PayPal уже используют MCP для расширения своих возможностей.   💡 Инсайт: MCP превращает "M×N проблему" интеграции (M приложений × N инструментов) в гораздо более простую "M+N проблему", создавая единый стандарт для взаимодействия. 🎧 Слушайте на любимой платформе: YouTube Podbean Apple Podcast Яндекс.Музыка Spotify RSS 💬 Какие инструменты вы бы хотели подключить к AI в первую очередь? Делитесь идеями в комментариях!     Навигация для Podbean: (0:00) Introduction: почему мы снова говорим про MCP? (2:45) Что такое MCP: клиент-серверный протокол для LLM (6:47) Как начать разработку: клиентская или серверная часть? (7:47) Аналогия с USB-C и решение "M x N проблемы" интеграции (12:53) Как на практике подключить MCP-сервер? (17:58) Практические примеры: Agentic Coding и доступ к файлам (19:45) Кто уже использует MCP: пример с PayPal (23:36) Вопросы безопасности и Prompt Injection (24:33) MCP — это замена агентов? (29:53) Анонс тем для следующего выпуска: Prompt Caching, CLine и другие Навигация для YouTube: 00:00:00 - Вступление: почему мы снова говорим про MCP? 00:02:45 - Что такое MCP: клиент-серверный протокол для LLM 00:06:47 - Как начать разработку: клиентская или серверная часть? 00:07:47 - Аналогия с USB-C и решение "M x N проблемы" интеграции 00:12:53 - Как на практике подключить MCP-сервер? 00:17:58 - Практические примеры: Agentic Coding и доступ к файлам 00:19:45 - Кто уже использует MCP: пример с PayPal 00:23:36 - Вопросы безопасности и Prompt Injection 00:24:33 - MCP — это замена агентов? 00:29:53 - Анонс тем для следующего выпуска: Prompt Caching, CLine и другие

    32 min
  3. JUL 8

    063. Расширяем контекст LLM: от RAG до агентов — как победить ограничения AI?

    Думаете, увеличение контекстного окна до миллионов токенов решает все проблемы? На самом деле модели всё равно теряют фокус, упускают важные детали в середине и страдают от информационной перегрузки! В этом выпуске обсуждаем: 🔹 Retrieval-Augmented Generation (RAG): как эта технология борется с "галлюцинациями" и устаревшими данными, обогащая ответы AI. 💡 GraphRAG: почему семантические графы — это следующий шаг в понимании сложных связей в данных, и как это меняет игру. 🎧 Tools и Function Calling: как научить модель взаимодействовать с внешним миром, получать актуальную информацию и выполнять действия через API. 💬 AI-агенты: как мы переходим от простых диалоговых сценариев к автономным системам, способным самостоятельно планировать и выполнять задачи. Этот выпуск будет особенно полезен разработчикам и архитекторам, которые хотят создавать более умные и автономные AI-решения, используя такие инструменты, как Amazon Bedrock. 💡 Узнаете, почему Nova Micro в 27 раз дешевле популярных моделей и как правильно декомпозировать документы для векторного поиска с учётом прав доступа. Навигация для Podbean: (0:00) Introduction (3:15) Проблема ограниченного контекста в LLM (8:40) Что такое RAG и как он обогащает запросы? (15:20) GraphRAG: новый уровень работы с данными через графы (22:10) Tools и Function Calling: как научить LLM действовать? (28:55) От диалоговых флоу к автономным AI-агентам (35:30) Анонс следующего эпизода: что такое MCP? Навигация для YouTube: 00:00:00 - Начало 00:03:15 - Проблема ограниченного контекста в LLM 00:08:40 - Что такое RAG и как он обогащает запросы? 00:15:20 - GraphRAG: новый уровень работы с данными через графы 00:22:10 - Tools и Function Calling: как научить LLM действовать? 00:28:55 - От диалоговых флоу к автономным AI-агентам 00:35:30 - Анонс следующего эпизода: что такое MCP?   🎧 Слушайте на любимой платформе: • YouTube • Podbean • Apple Podcast • Яндекс.Музыка • Spotify • 💬 Какие подходы к расширению контекста используете вы? Пробовали Graph RAG в продакшене? #AWS #AI #RAG #GraphRAG #LLM

    41 min
  4. 062. Масштабирование ML в AWS: От Исследований до Миллионов Предсказаний

    APR 10

    062. Масштабирование ML в AWS: От Исследований до Миллионов Предсказаний

    Как построить ML-систему, которая обрабатывает десятки миллионов предсказаний в месяц? Особенно когда речь идет о критически важном производственном процессе! В новом выпуске подкаста "AWS на русском" мы говорим с AWS ML Hero Рустемом (Rustem Feyzkhanov) о том, как масштабировать ML-системы в облаке от этапа исследований до промышленного внедрения: 🔹 Как построить эффективный ML-пайплайн для автоматического обучения моделей 🔹 Почему SageMaker Training Jobs и AWS Lambda — идеальная комбинация для масштабирования 🔹 Как оптимизировать расходы на ML-инфраструктуру с помощью spot-инстансов 🔹 Секреты мониторинга и отладки ML-систем в продакшене Этот выпуск будет особенно полезен ML-инженерам, DevOps-специалистам и техническим лидам, которые работают над масштабированием ML-решений в облаке. 💡 Узнаете, как сократить время итерации ML-экспериментов с дней до часов и автоматизировать процесс вывода моделей в продакшен. Навигация для Podbean: • (0:00) Введение и представление гостя • (5:30) Особенности AutoML платформы • (15:45) ML-пайплайны и инфраструктура • (25:20) Масштабирование и оптимизация • (35:10) Мониторинг и поддержка • (45:30) Рекомендации и выводы Навигация для YouTube: 00:00:00 - Начало 00:05:30 - Особенности AutoML платформы 00:15:45 - ML-пайплайны и инфраструктура 00:25:20 - Масштабирование и оптимизация 00:35:10 - Мониторинг и поддержка 00:45:30 - Рекомендации и выводы 🎧 Слушайте на любимой платформе: • YouTube • Podbean • Apple Podcast • Яндекс.Музыка • Spotify • RSS 💬 А как вы решаете задачи масштабирования ML-систем? Делитесь опытом в комментариях! #AWS #MachineLearning #SageMaker #MLOps

    34 min
  5. MAR 20

    061. Prompt Engineering: Как заставить AI работать на максимум?

    Думаете, достаточно просто задать вопрос искусственному интеллекту и получить идеальный ответ? На самом деле всё гораздо интереснее! В новом выпуске подкаста "AWS на русском" мы с Федором Павловым погружаемся в мир prompt engineering и раскрываем секреты эффективного взаимодействия с LLM: 🔹 Почему простой вопрос — это часто ошибочная стратегия 🔹 Как правильно задавать контекст и роли для AI 🔹 Few-shot learning: магия примеров в действии 🔹 Продвинутые техники для улучшения качества ответов Особенно интересно будет разработчикам, которые хотят повысить свою продуктивность с помощью AI-инструментов, таких как Amazon Q Developer. 💡 Узнаете, почему фраза "думай пошагово" творит чудеса с AI и как избежать типичных ошибок при составлении промптов. 🎧 Слушайте на любимой платформе: • YouTube • Podbean • Apple Podcast • Яндекс.Музыка • Spotify • RSS 💬 А как вы используете AI в своей работе? Делитесь опытом в комментариях! #AWS #AI #PromptEngineering #LLM #разработка #подкаст Навигация для Podbean: • (0:00) Введение • (0:25) Приглашенный гость Федор Павлов • (0:29) Обсуждение General TFI и промпт-инжиниринг • (2:08) Почему простой вопрос — это часто ошибочная стратегия • (2:29) Сравнение промпт-инжиниринга с SQL • (4:05) Как правильно задавать контекст и роли для AI • (6:51) Зачем нужен prompt engineering • (12:25) Few-shot learning: магия примеров в действии • (18:36) Продвинутые техники для улучшения качества ответов • (38:48) Борьба с галлюцинациями в моделях Навигация для YouTube: • 00:00:00 - Начало • 00:00:25 - Приглашенный гость Федор Павлов • 00:00:29 - Обсуждение General TFI и промпт-инжиниринг • 00:02:08 - Почему простой вопрос — это часто ошибочная стратегия • 00:02:29 - Сравнение промпт-инжиниринга с SQL • 00:04:05 - Как правильно задавать контекст и роли для AI • 00:06:51 - Зачем нужен prompt engineering • 00:12:25 - Few-shot learning: магия примеров в действии • 00:18:36 - Продвинутые техники для улучшения качества ответов • 00:38:48 - Борьба с галлюцинациями в моделях

    43 min
  6. FEB 20

    060. Что такое Amazon SageMaker Lakehouse и что общего между айсбергом и хранилищем данных? 🤔

    В новом эпизоде мы погружаемся в горячую тему — изменения в AWS SageMaker и появление SageMaker LakeHouse! Наш специальный гость — эксперт по аналитике Eugene Krasikov — раскрывает все карты: • 🔄 Как эволюционировали хранилища данных за последние 20 лет • 🎯 Почему Apache Iceberg становится новым стандартом • 🚀 Что такое SageMaker Lakehouse и как он может изменить вашу работу с данными • 💡 Как построить современное хранилище данных без головной боли Особенно интересно будет тем, кто работает с: • Data Lake и Data Warehouse • Аналитикой больших данных • Machine Learning проектами   🎧 Слушайте на любимой платформе: • YouTube: https://www.youtube.com/watch?v=IhDf_c1icRE&list=PLxtckYH8Cdy_WT5tcCITt_f61Zr2qQJbL • Podbean: https://awsinrussian.podbean.com/ • Apple Podcast: https://podcasts.apple.com/by/podcast/aws-%D0%BD%D0%B0-%D1%80%D1%83%D1%81%D1%81%D0%BA%D0%BE%D0%BC/id1600771698 • Яндекс.Музыка: https://music.yandex.ru/album/20088544 • Spotify: https://open.spotify.com/show/4kOoih4FvHqyK5mLF3E42J • RSS: https://feed.podbean.com/awsnarusskom/feed.xml 💬 Какие темы по SaaS и облачным технологиям вы хотели бы услышать в следующих выпусках? Делитесь в комментариях!

    38 min
  7. JAN 23

    059. Масштабирование SaaS с Enterprise Support в регионе CEE

    В новом выпуске подкаста "AWS на русском" мы погружаемся в мир Independent Software Vendors (ISV) и раскрываем секреты построения успешного SaaS-бизнеса! 🚀 Наш гость — Александр Игнатенко, руководитель команды Enterprise Support в AWS, делится уникальным опытом работы с ISV-клиентами в Центральной и Восточной Европе. Из выпуска вы узнаете: ✨ Что такое ISV и почему это важно для вашего бизнеса 🏢 Гениальную аналогию multi-tenancy с бизнес-центром (спойлер: очень наглядно!) 🔧 Как решать типичные проблемы SaaS-архитектуры 🤖 Практические кейсы внедрения Generative AI 💰 Реальные истории успеха по оптимизации затрат (до 20% экономии!) Ссылки из подкаста: https://aws.amazon.com/premiumsupport/plans/enterprise/ https://aws.amazon.com/premiumsupport/tam-engagement/ PandaDoc: https://aws.amazon.com/blogs/aws-cloud-financial-management/how-pandadoc-took-cloud-operation-to-a-new-level-with-aws/ JetBrains IntelliJ https://aws.amazon.com/solutions/case-studies/jetbrains/?did=cr_card&trk=cr_card   🎧 Слушайте на любимой платформе: • YouTube: https://www.youtube.com/watch?v=IhDf_c1icRE&list=PLxtckYH8Cdy_WT5tcCITt_f61Zr2qQJbL • Podbean: https://awsinrussian.podbean.com/ • Apple Podcast: https://podcasts.apple.com/by/podcast/aws-%D0%BD%D0%B0-%D1%80%D1%83%D1%81%D1%81%D0%BA%D0%BE%D0%BC/id1600771698 • Яндекс.Музыка: https://music.yandex.ru/album/20088544 • Spotify: https://open.spotify.com/show/4kOoih4FvHqyK5mLF3E42J • RSS: https://feed.podbean.com/awsnarusskom/feed.xml 💬 Какие темы по SaaS и облачным технологиям вы хотели бы услышать в следующих выпусках? Делитесь в комментариях!

    33 min
  8. 11/29/2024

    058. Новостной выпуск перед reInvent 2024

    Мы просмотрели более 850 обновлений и отобрали самое важное перед re:Invent 2024!   В этом выпуске вы узнаете: • 🛡 Как централизованно управлять root-доступом в Organizations • 💪 Какие EC2 instances уже доступны с Graviton 4? • 🤝 О стратегическом партнерстве Oracle и AWS • 🎮 Про обновление AWS Builder Cards и новые форматы вопросов в  сертификационных экзаменах   ⚡️ Ключевые таймкоды: 00:00 - Вступление 02:51 - DevOps новости 06:01 - Безопасность и управление доступом 15:14 - Graviton 4 и новые инстансы 27:01 - Базы данных 31:29 - Сертификация и обучение 37:10 - AWS Builder Cards   🔗 Полезные ссылки из выпуска: • AWS Console to Code: https://aws.amazon.com/blogs/aws/convert-aws-console-actions-to-reusable-code-with-aws-console-to-code-now-generally-available/ • Karpenter 1.0: https://aws.amazon.com/about-aws/whats-new/2024/08/karpenter-1-0/ • Oracle Database@AWS: https://press.aboutamazon.com/aws/2024/9/oracle-and-amazon-web-services-announce-strategic-partnership   🎧 Слушайте на любимой платформе: • YouTube: https://www.youtube.com/watch?v=IhDf_c1icRE&list=PLxtckYH8Cdy_WT5tcCITt_f61Zr2qQJbL • Podbean: https://awsinrussian.podbean.com/ • Apple Podcast: https://podcasts.apple.com/by/podcast/aws-%D0%BD%D0%B0-%D1%80%D1%83%D1%81%D1%81%D0%BA%D0%BE%D0%BC/id1600771698 • Яндекс.Музыка: https://music.yandex.ru/album/20088544 • Spotify: https://open.spotify.com/show/4kOoih4FvHqyK5mLF3E42J • RSS: https://feed.podbean.com/awsnarusskom/feed.xml   💬 Какие темы вы хотели бы услышать в следующих выпусках? Делитесь в комментариях! #aws #cloud #podcast #devops #cloudcomputing

    43 min

About

Подкаст ”AWS на русском”. Говорим про использование облачных технологий, построение serverless приложений, развертывание kubernetes и внедрение ML/AI и не только. Лучшие практики и свежие новости из мира AWS в формате интервью на русском языке. Смотрите и слушайте #awsнарусском

You Might Also Like