47 episodes

Подкаст AWS на русском.

Говорим про использование облачных технологий, построение serverless приложений, развертывание kubernetes и внедрение ML/AI и не только.
Лучшие практики и свежие новости из мира AWS в формате интервью на русском языке.

Смотрите и слушайте #awsнарусском

AWS на русско‪м‬ Viktor Vedmich

    • Technology

Подкаст AWS на русском.

Говорим про использование облачных технологий, построение serverless приложений, развертывание kubernetes и внедрение ML/AI и не только.
Лучшие практики и свежие новости из мира AWS в формате интервью на русском языке.

Смотрите и слушайте #awsнарусском

    047. Как запустить LLM (generative AI) на AWS

    047. Как запустить LLM (generative AI) на AWS

    Хотите понять, как работать с большими языковыми моделями в облаке AWS? В этом выпуске мы пригласили Рустема (Rustem Feyzkhanov) - специалиста по машинному обучению и AWS Hero. Мы подробно разобрали разные варианты деплоя LLM:
     
    •Amazon Bedrock - сервис для быстрого запуска популярных моделей
    •Amazon SageMaker JumpStart - кастомные модели в пару кликов
    •Hugging Face Estimator - доступ к библиотеке моделей Hugging Face
    •Развертывание в контейнерах ECS и на GPU-инстансах EC2
    •AWS Lambda - какие особенности надо учесть при таком запуске
     
    С чего начать, что выбрать под свой кейс, как оптимизировать затраты - ответы в подкасте.
     
    Слушайте, пробуйте!
     
    Ссылки упомянутые во время подкаста:
     

    Слайды с Реинвента https://www.dropbox.com/scl/fi/m72mosktms8k43q4ktpsx/Feyzkhanov_AWS_GenAI_Services_And_Options.pdf?rlkey=2p35imid8xxbhjyfunbj2m9ya&dl=0
    Пример Mistral 7B на SageMaker JumpStart https://aws.amazon.com/blogs/machine-learning/mistral-7b-foundation-models-from-mistral-ai-are-now-available-in-amazon-sagemaker-jumpstart/
    Использование HuggingFace для деплоя моделей на SageMaker https://huggingface.co/docs/sagemaker/inference
    Использование AWS Lambda для хостинга Mistral 7B https://aws.plainenglish.io/serverless-compute-for-llm-with-a-step-by-step-guide-for-hosting-mistral-7b-on-aws-lambda-0a267e153cae
    Использование ECS Fargate для хостинга LLAMA 2 https://aws.plainenglish.io/guide-for-running-llama-2-using-llama-cpp-on-aws-fargate-7086bcd1ed3c
    Hugging face Inferentia 2 https://huggingface.co/blog/inferentia-llama2

    • 30 min
    046. Бережливый архитектор

    046. Бережливый архитектор

    Бережливый архитектор (frugal architect) - это не просто слова, это философия работы с облачными ресурсами, где каждый цент на счету. На конференции reInvent 2023 CTO Amazon Werner Vogels представил семь законов бережливого архитектора, которые помогут сделать ваш проект не только более экономичным, но и эффективным. В этом выпуске подкаста мы вместе с архитекторами AWS глубже погрузимся в эти законы и посмотрим, как они могут быть применены на практике.
    Ссылка на законы https://www.thefrugalarchitect.com/ 

    • 39 min
    045. Оптимизация и тестирование Serverless в AWS

    045. Оптимизация и тестирование Serverless в AWS

    В это выпуске мы погружаемся в мир serverless-архитектуры и обсуждаем, как не только оптимизировать использование AWS Lambda, но и как обеспечить лучший developer experience. Рома, опытный Solutions Architect, дает практические советы по работе с serverless и демистифицирует процесс локального запуска и тестирования Lambda-функций.
    Мы начинаем с вопроса, который волнует многих разработчиков: "Как мне запускать лямбду локально?" Рома объясняет, что, хотя локальный запуск возможен, он не всегда эффективен из-за интеграции лямбды с другими сервисами AWS. Вместо попыток воссоздать полноценную среду AWS локально, мы рассматриваем стратегии для тестирования и дебаггинга непосредственно в облаке.Для улучшения developer experience обсуждаются такие инструменты, как SAM (Serverless Application Model) и его функция Accelerate, которая позволяет быстро деплоить изменения в облако и просматривать логи в реальном времени. Также мы углубляемся в интеграцию SAM с другими инструментами, такими как CDK (Cloud Development Kit) и Terraform.Рома делится своим опытом использования AWS Power Tools, набора библиотек, упрощающих разработку Lambda-функций, включая автоматизацию структурированного логирования, создание пользовательских метрик и трассировку.
    Наконец, мы затрагиваем тему тестирования serverless-приложений. Разработчикам рекомендуется писать юнит-тесты, а также проводить интеграционное и end-to-end тестирование в облачной среде, используя тестовые лямбда-функции для мониторинга асинхронных событий.
     
    Ссылки:
    https://awslabs.github.io/aws-lambda-powertools-python

    • 44 min
    044. Кто такой аккаунт-менеджер в AWS?

    044. Кто такой аккаунт-менеджер в AWS?

    В новом выпуске подкаста 'AWS на русском' мы раскрываем роль аккаунт-менеджера (AM). С нами в гостях опытный аккаунт-менеджер Юлия Андреевна, которая делится инсайдами о том, как строятся отношения с клиентами в AWS. Обсуждаем, что скрывается за кулисами работы аккаунт-менеджеров и какие навыки необходимы для успешной карьеры в этой роли. Юлия также рассказывает о том, как AM-ы AWS сочетают понимание бизнес-процессов клиентов с знанием технологических решений, чтобы предлагать оптимальные пути развития и поддержки. Особое внимание уделяется важности способности к быстрому принятию решений, ориентации на клиента и стремлению к достижению конкретных результатов.

    • 40 min
    043. Разбираем AWS reInvent 2023: часть 3-ая

    043. Разбираем AWS reInvent 2023: часть 3-ая

    Продолжаем обсуждение новинок с reInvent 2023. Это третья и заключительная часть нашего обзора.

    • 47 min
    042. Разбираем AWS reInvent 2023: часть 2-ая Generative AI

    042. Разбираем AWS reInvent 2023: часть 2-ая Generative AI

    Продолжаем обсуждать новинки из reInvent 2023 🚀. Новый выпуск полностью посвящен обсуждению Generative A. В частности, мы обсудили такие сервисы, как Amazon Q, Amazon Bedrock, векторные базы данных, новое железо для AI, создание своего RAG и многое другое. 🤖
    Ссылки на обзор всех новостей вы можете найти ниже. 
    AWS announces vector search for Amazon MemoryDB for Redis (Preview)
    Amazon CloudWatch announces AI-powered natural language query generation (in preview)
    AWS announces Amazon Q (Preview)
    Boost generative AI application development with Agents for Amazon Bedrock
    Amazon Q offers help to optimize EC2 instance type selection (preview)
    Meta Llama 2, Cohere Command Light, and Amazon Titan FMs can now be fine-tuned in Amazon Bedrock
    Safeguard generative AI applications with Guardrails for Amazon Bedrock (Preview)
    Knowledge Bases for Amazon Bedrock is now generally available
    Amazon Titan Text models—Express and Lite—now generally available in Amazon Bedrock
    Amazon Titan Multimodal Embeddings foundation model now generally available in Amazon Bedrock
    Stable Diffusion XL 1.0 foundation model from Stability AI is now generally available in Amazon Bedrock
    Llama 2 70B foundation model from Meta is now available in Amazon Bedrock
    Claude 2.1 foundation model from Anthropic is now generally available in Amazon Bedrock
    Evaluate, compare, and select the best FMs for your use case in Amazon Bedrock (Preview)
    Amazon Q generative SQL is now available in Amazon Redshift Query Editor (preview)

    • 38 min

Top Podcasts In Technology

Go Time: Golang, Software Engineering
Changelog Media
Python Bytes
Michael Kennedy and Brian Okken
Moscow Python: подкаст о Python на русском
MoscowPython
The Real Python Podcast
Real Python
Talk Python To Me
Michael Kennedy (@mkennedy)
Podlodka Podcast
Егор Толстой, Стас Цыганов, Екатерина Петрова и Евгений Кателла

You Might Also Like

Podlodka Podcast
Егор Толстой, Стас Цыганов, Екатерина Петрова и Евгений Кателла
Два по цене одного
libo/libo
The DevOps Kitchen Talks’s Podcast
DevOps Kitchen Talks
Мы обречены
Мы обречены