Bliskie Spotkania z AI

Krzysztof Tutak

Bliskie Spotkania z AI to podcast, który przeniesie Cię w fascynujący świat sztucznej inteligencji i technologii. Rozmawiam z ekspertami, naukowcami i przedsiębiorcami, odkrywając szersze spojrzenie na AI, w tym architekturę, infrastrukturę i technologie, które ją wspierają. Przygotuj się na inspirujące wywiady i najnowsze wiadomości ze świata AI, które pokażą szerokie spektrum zastosowań i wpływów technologii na nasze życie, w tym praktyczne zastosowania AI w biznesie. Dołącz do mnie, aby zgłębiać tajemnice przyszłości!

  1. AI NEWS #17: Jak używamy AI w pracy i w życiu, żeby nie potłuc sobie jajek?

    11 APR

    AI NEWS #17: Jak używamy AI w pracy i w życiu, żeby nie potłuc sobie jajek?

    Najważniejsze wydarzenia ze świata AI, które miały miejsce w marcu 2026! Omówimy największe przełomy, zaskoczenia i kontrowersje, które wpłynęły na rozwój sztucznej inteligencji w ostatnich tygodniach. 📅 Spotykamy się co miesiąc, aby na żywo analizować najnowsze trendy w świecie AI. Dołącz do AI Ninjas: → https://spolecznosc.aininjas.pl Darmowy warsztat 16 kwietnia, wbijaj za darmoszkę: → https://aininjas.pl/warsztat/ 🔴 Subskrybuj i bądź na bieżąco! Z tego odcinka dowiesz się: 🔹 Jakie kluczowe nowości i modele AI pojawiły się w ostatnim czasie na rynku. 🔹 Jak zbudować jedno, scentralizowane źródło prawdy dla agentów AI za pomocą programu Obsidian. 🔹 Dlaczego Claude Co-work staje się niezastąpionym narzędziem w automatyzacji codziennych zadań biznesowych. 🔹 W jakich konkretnych zadaniach lokalne modele językowe sprawdzają się lepiej niż te chmurowe. 🔹 Jak wykorzystać sztuczną inteligencję do analizy kontaktów i optymalizacji procesów sprzedażowych na LinkedInie. 🔹 W jaki sposób narzędzia do inteligentnej transkrypcji i dyktowania zmieniają styl codziennej pracy. 🔹 Dlaczego rola eksperta domenowego i weryfikacja wyników przez człowieka pozostają kluczowe w dobie AI. 🎙 Prowadzący: 🔹Krzysztof Tutak - https://www.linkedin.com/in/krzysztof-tutak/ 🔹Daniel Ura - https://www.linkedin.com/in/danielura/ Linki i transkrypcja: 🔹https://bliskiespotkaniazai.pl/n17 Rozdziały: 00:00 Odliczanie 00:30 Wprowadzenie 01:46 Co u nas? 03:46 Warsztaty o budowie bazy wiedzy 08:23 Anthropic otwiera własny instytut 11:27 Meta kupuje platformę dla agentów AI 14:52 Andrej Karpathy o budowie baz wiedzy 16:09 Obsidian jako scentralizowana baza wiedzy 20:28 Nowa funkcja: Claude Co-work 25:21 Wyciek kodu źródłowego Claude Code 28:52 Ukryte funkcje: Nadchodzi Auto Dream 32:15 Mistral wypuszcza nowy model text-to-speech 34:00 GLM OCR: Nowy król analizy dokumentów 38:13 Gemini vs Claude w codziennej pracy 45:48 Zastosowania polskiego modelu Bielik 48:05 Google Gemma i uruchamianie lokalnych modeli 54:23 OLLAMA vs VLM: Jak serwować modele? 01:02:53 AI i LinkedIn: Optymalizacja bazy kontaktów 01:07:00 Obsidian jako narzędzie do zarządzania sprzedażą 01:14:51 Przegląd ulubionych modeli i narzędzi AI 01:17:51 SuperWhisper: Praca głosem zamiast klawiatury 01:24:16 Przyszłość automatyzacji i jednoosobowe firmy 01:29:00 Rola człowieka w procesach sterowanych AI 01:36:25 Zakończenie i podziękowania #AI #AINews #AIwBiznesie #Automatyzacja #LLM

    1hr 39min
  2. AI NEWS #16 LIVE: Fabryki bez przerw, bez ludzi, bez światła

    12 MAR

    AI NEWS #16 LIVE: Fabryki bez przerw, bez ludzi, bez światła

    Najważniejsze wydarzenia ze świata AI, które miały miejsce w lutym 2026! Omówimy największe przełomy, zaskoczenia i kontrowersje, które wpłynęły na rozwój sztucznej inteligencji w ostatnich tygodniach. 📅 Spotykamy się co miesiąc, aby na żywo analizować najnowsze trendy w świecie AI. Dołącz do AI Ninjas: → https://spolecznosc.aininjas.pl Darmowy warsztat 19 marca, wbijaj za darmoszkę: → https://aininjas.pl/warsztat/ 26 marca spotkamy się na AI Miners w Katowicach Bilety i info: → https://aiminers.pl 🔴 Subskrybuj i bądź na bieżąco! 🎙 Prowadzący: 🔹Krzysztof Tutak - https://www.linkedin.com/in/krzysztof-tutak/ 🔹Piotr Brzyski - https://www.linkedin.com/in/pbrzyski/ Z tego odcinka dowiesz się: 🔹 Jakie przełomowe nowości ze świata sztucznej inteligencji zdominowały miniony miesiąc. 🔹 Dlaczego masowa destylacja danych przez gigantów technologicznych wywołuje kontrowersje wokół praw autorskich. 🔹 W jaki sposób lawinowy przyrost kodu generowanego przez AI zmienia podejście do programowania i weryfikacji błędów. 🔹 Z jakimi wyzwaniami cyberbezpieczeństwa wiąże się przyznawanie agentom AI bezpośredniego dostępu do infrastruktury. 🔹 Kto ostatecznie poniesie odpowiedzialność biznesową za oprogramowanie stworzone przez autonomiczne modele. 🔹 Czym dokładnie są ciemne fabryki i jak całkowita automatyzacja produkcji wygląda w praktyce. 🔹 Czy zakłady produkcyjne pozbawione ludzi stanowią rosnące zagrożenie gospodarcze dla Europy i Stanów Zjednoczonych. Linki i transkrypcja: 🔹https://bliskiespotkaniazai.pl/n16 Rozdziały: 00:00 Odliczanie 00:30 Wprowadzenie 02:05 Co u nas? 04:11 Nadchodzące wydarzenia i warsztaty AI 07:52 Optimus wypiera ludzi w fabrykach Tesli 09:14 Rosnąca autonomia AI w programowaniu 11:21 Raport Anthropic: Znikające stanowiska juniorskie 13:21 Multimodalny model embeddingowy od Google Gemini 14:11 Gemini potrafi generować utwory muzyczne 16:51 Obsidian CLI w roli Second Brain 19:26 Chińskie laboratoria destylują wiedzę z Anthropic 24:21 Destylacja modeli z książek a prawa autorskie 30:45 Jak weryfikować kod generowany przez AI? 42:09 Cursor czy bezpośrednie API do modeli? 54:10 Agenty AI a ryzyka dla cyberbezpieczeństwa 01:01:58 Temat odcinka: Czym są Dark Factories? 01:06:52 Xiaomi i Philips: Fabryki bez udziału ludzi 01:11:06 Dark Factories jako broń gospodarcza Chin 01:14:37 Zmiany na rynku pracy i jakość kodu 01:26:03 Kto bierze odpowiedzialność za wygenerowany kod? 01:31:30 Czy warto korzystać z Google Colab? 01:32:48 Podsumowanie i zaproszenie na warsztaty #ai #ainews #DarkFactories #vibecoding #cybersecurity #sztucznainteligencja

    1hr 36min
  3. #29 Czy można oddać AI kontrolę nad domem, kodem i biznesem? | Mateusz Chrobok

    5 MAR

    #29 Czy można oddać AI kontrolę nad domem, kodem i biznesem? | Mateusz Chrobok

    Szefowa bezpieczeństwa Mety wpisała "stop". Agent w OpenClaw ją zignorował i bezpowrotnie skasował setki prywatnych maili. Dałeś swojemu agentowi AI dostęp do skrzynki. Kto tak naprawdę kontroluje, co robi? Dołącz i buduj AI razem z nami: → https://spolecznosc.aininjas.pl/ Chcesz budować gotowe, produkcyjne rozwiązania AI dla biznesu i swojej codzienności? AI Devs 4 to właściwe miejsce — wbijaj ze zniżką -10%: → https://aidevs.pl/bsai10 🔔 Subskrybuj, aby nie przegapić nowych odcinków! W tym odcinku podcastu rozmawiamy o tym, jak okiełznać agenty AI zanim zrobią coś, czego nie chcesz - gdzie kończy się ich dostęp, kiedy musi wkroczyć człowiek i dlaczego izolowane środowisko to nie paranoja. Mówimy o homelabie, którym zarządza AI na podstawie bieżącej ceny prądu. Omawiamy też atak, w którym akcelerometr smartwatcha wystarcza, żeby odgadnąć PIN wpisywany przy bankomacie. Z tego odcinka dowiesz się: 🔹 Jak sztuczna inteligencja zarządza domową infrastrukturą serwerową i optymalizuje zużycie prądu. 🔹 W jaki sposób zaawansowane technologie radiowe i AI pomagają w wykrywaniu podsłuchów. 🔹 Jakie zagrożenia niosą ze sobą autonomiczni agenci AI i jak uniknąć kosztownych wpadek. 🔹 Jak skutecznie chronić firmowe dane przed zjawiskiem Shadow AI. 🔹 Dlaczego otwartoźródłowe narzędzia AI oraz ich rozszerzenia mogą stanowić zagrożenie dla bezpieczeństwa. 🔹 Czym jest vibe coding i jak sztuczna inteligencja redefiniuje współczesną rolę programisty. 🎙Prowadzący: https://www.linkedin.com/in/krzysztof-tutak/ 👥 Gość: https://www.linkedin.com/in/mateuszchrobok/ ⭐️ Zobacz też: 🔹#28 Jakub Mrugalski - https://youtu.be/hSbkxztsunQ 🔹#27 Maciej Aniserowicz - https://youtu.be/7XhP4P4OHZw 🔹#14 Marcin Czarkowski, Przemek Smyrdek - https://youtu.be/SyPF8vhywt8 🔹#12 Adam Gospodarczyk - https://youtu.be/LBG3_L-sbJA 🔹#9 Piotr Brzyski - https://youtu.be/fhpw_5-GWHg 🔹#4 Mateusz Chrobok - https://youtu.be/AWC6c-fOcFE Linki i transkrypcja: 🔹https://bliskiespotkaniazai.pl/r29 Rozdziały: 00:00 Dziś w odcinku 00:48 Wprowadzenie 01:39 Mateusz Chrobok 08:54 Jakie narzędzia AI używa na co dzień Mateusz 11:22 Własne Reverse Proxy dla Claude Code 16:32 Lokalne modele i GLM-4 Flash 17:49 Wykrywanie podsłuchów i projekt Scan.me 23:08 Kradzież danych przy użyciu smartwatcha 25:01 Homelab zarządzany przez lokalne AI 32:55 Projekt Tiny Box i automatyzacja 35:33 Wpadki agentów: AI kasujące maile 36:58 Jak bezpiecznie zarządzać agentami AI? 43:09 Sandbox, konteneryzacja i luki chmurowe 46:52 Centralizacja logów i monitorowanie AI 48:06 Agent AI do analizy przychodzących maili 53:08 VigilGuard i walka z Shadow AI 57:54 Framework OpenClaw i lokalni agenci 01:00:49 Zatrucie supply chain i złośliwe skille 01:04:08 Co przyniesie kurs AI Devs 4? 01:09:45 Nowa rola programisty i apokalipsa SaaS-ów 01:15:29 Vibe Coding i szybkie tworzenie aplikacji 01:19:03 Książki, inspiracje i polecane materiały #AgentAI #Homelab #ClaudeCode #AI #Cybersecurity

    1hr 22min
  4. #28 Jak zbudować agenta AI, który nie usunie Ci połowy plików? | Jakub Mrugalski

    26 FEB

    #28 Jak zbudować agenta AI, który nie usunie Ci połowy plików? | Jakub Mrugalski

    Budujesz agentów AI, ale boisz się puścić ich „samopas” na produkcji? Odkryj, dlaczego traktowanie modeli językowych jak niesfornych juniorów to jedyny sposób na realny zysk i jak Jakub Mrugalski hostuje krytyczne systemy dla chorych na cukrzycę tam, gdzie inni giganci zawiedli. Dołącz i buduj AI razem z nami: → https://spolecznosc.aininjas.pl/ Chcesz budować gotowe, produkcyjne rozwiązania AI dla biznesu i swojej codzienności? AI Devs 4 to właściwe miejsce — wbijaj ze zniżką -10%: → https://aidevs.pl/bsai10 🔔 Subskrybuj, aby nie przegapić nowych odcinków! W tym odcinku podcastu sprawdzamy, jak selektywne karmienie modeli danymi i anonimizacja informacji pozwala na bezpieczne wpięcie AI w procesy firmowe bez ryzyka wycieku. Jakub dzieli się metodą na drastyczną optymalizację kosztów poprzez testowanie niszowych modeli na OpenRouterze, co pozwala obniżyć rachunki. Rozmawiamy też o budowaniu repozytoriów wiedzy na GitHubie oraz o tym, jak technologia prompt cachingu radykalnie przyspiesza działanie asystentów w codziennej pracy. Z tego odcinka dowiesz się: 🔹 Czym różnią się agenci AI od klasycznych automatyzacji i w jakich zadaniach sprawdzają się najlepiej. 🔹 Na czym polega context engineering i jakie są techniki zarządzania pamięcią modelu. 🔹 Dlaczego warto budować sieci wyspecjalizowanych agentów zamiast rozwiązań ogólnych. 🔹 Jakie są ryzyka biznesowe związane z kosztami, monitoringiem i brakiem determinizmu AI. 🔹 Jak bezpiecznie wdrażać agentów w środowiskach produkcyjnych. 🔹 Dlaczego praca bezpośrednio z API bywa lepsza niż korzystanie z gotowych frameworków. 🔹 W jaki sposób serwery VPS i konteneryzacja pomagają w bezpiecznym hostowaniu narzędzi AI. 🎙Prowadzący: https://www.linkedin.com/in/krzysztof-tutak/ 👥 Gość: https://www.linkedin.com/in/unknow/ ⭐️ Zobacz też: 🔹#27 Maciej Aniserowicz - https://youtu.be/7XhP4P4OHZw 🔹#14 Marcin Czarkowski, Przemek Smyrdek - https://youtu.be/SyPF8vhywt8 🔹#12 Adam Gospodarczyk - https://youtu.be/LBG3_L-sbJA 🔹#9 Piotr Brzyski - https://youtu.be/fhpw_5-GWHg 🔹#5 Jakub Mrugalski - https://youtu.be/gEhMWWaXfkQ 🔹#4 Mateusz Chrobok - https://youtu.be/AWC6c-fOcFE Linki i transkrypcja: 🔹https://bliskiespotkaniazai.pl/r28 Rozdziały: 00:00 Dziś w odcinku 01:45 Wprowadzenie 01:49 Jakub Murgalski 06:30 Czym właściwie są agenci AI? 08:19 Kontrola nad autonomią agentów 11:44 Jak bezpiecznie zarządzać danymi? 13:23 Agent czy prosta automatyzacja? 18:27 Na czym polega Context Engineering? 23:05 Metody kompresji i optymalizacji kontekstu 30:28 Wykorzystanie sitemap w pracy z LLM 33:27 Przewaga wyspecjalizowanych zespołów agentów 34:05 Dobór modeli do konkretnych zadań 37:09 Jak skutecznie definiować narzędzia? 44:30 Strategie budowania precyzyjnych promptów 48:58 Claude jako osobiste centrum dowodzenia 50:54 Bezpieczeństwo i konteneryzacja środowiska 57:44 Ryzyka i odpowiedzialność w biznesie 01:01:32 Monitoring i utrzymanie systemów agentowych 01:06:55 Najlepsze praktyki tworzenia agentów 01:09:29 Dlaczego warto unikać frameworków? 01:11:29 Inspiracje i polecane materiały 01:20:54 Zakończenie #AI #ClaudeCode #AgenciAI #Automatyzacja #ContextEngineering

    1hr 22min
  5. #27 Wrócił do kodu po 10 latach. Teraz sam go nie pisze | Maciej Aniserowicz

    19 FEB

    #27 Wrócił do kodu po 10 latach. Teraz sam go nie pisze | Maciej Aniserowicz

    Czy „vibe coding” bez wiedzy technicznej to prosta droga do katastrofy, w której AI niepostrzeżenie „czyści” Twoją kartę kredytową? Odkryj, jak Maciej Aniserowicz zarządza swoim wirtualnym „Gangiem Kodziaków” i dlaczego mimo zaawansowanej automatyzacji wciąż ręcznie sprawdza każdego commita. Dołącz i buduj AI razem z nami: → https://spolecznosc.aininjas.pl/ 🔔 Subskrybuj, aby nie przegapić nowych odcinków! W tym odcinku podcastu poznasz historię „Francusia” – asystenta AI nazwanego na cześć szczura, który autonomicznie kategoryzuje firmowe wydatki. Maciek zdradza, jak w zaledwie godzinę postawił od zera w pełni funkcjonalny sklep z perfumami „Legacy Code” i w jaki sposób wykorzystuje klawisz F1 do błyskawicznej analizy faktur bezpośrednio z terminala. Usłyszysz również przerażającą anegdotę o deepfake’ach, które wykorzystały wizerunek gościa do promowania oszustw finansowych na rynkach wschodnich. Z tego odcinka dowiesz się: 🔹 Jak wygląda powrót do programowania przy wsparciu agentów AI. 🔹 Dlaczego „vibe coding” w wykonaniu osób nietechnicznych niesie ze sobą poważne ryzyka bezpieczeństwa. 🔹 W jaki sposób efektywnie zarządzać kontekstem i dokumentacją projektu przy współpracy z modelami LLM. 🔹 Jakie kompetencje programistów i liderów IT staną się kluczowe w erze sztucznej inteligencji. 🔹 Jak wykorzystać AI do błyskawicznego tworzenia prototypów i produktów MVP. 🔹 W jaki sposób automatyzować procesy operacyjne i administracyjne w firmie. 🔹 Dlaczego weryfikacja kodu i odpowiedzialność człowieka pozostają niezbędne mimo automatyzacji pracy. 🔹 Jakie zagrożenia dla zdrowia psychicznego niesie ciągłe przełączanie kontekstów podczas pracy z wieloma agentami. 🎙Prowadzący: https://www.linkedin.com/in/krzysztof-tutak/ 👥 Gość: https://www.linkedin.com/in/maciejaniserowicz/ ⭐️ Zobacz też: 🔹#14 Marcin Czarkowski, Przemek Smyrdek - https://youtu.be/SyPF8vhywt8 🔹#12 Adam Gospodarczyk - https://youtu.be/LBG3_L-sbJA 🔹#9 Piotr Brzyski - https://youtu.be/fhpw_5-GWHg 🔹#5 Jakub Mrugalski - https://youtu.be/gEhMWWaXfkQ 🔹#4 Mateusz Chrobok - https://youtu.be/AWC6c-fOcFE Linki i transkrypcja: 🔹https://bliskiespotkaniazai.pl/r27 Rozdziały: 00:00 Dziś w odcinku 01:27 Wprowadzenie 01:57 Maciej Aniserowicz 04:54 Powrót do kodowania z AI 07:14 Vibe coding: Szansa czy zagrożenie? 09:59 Gang Kodziaków: Agenci w terminalu 13:48 Claude Code i nauka Gita 17:25 Strona WWW w jeden wieczór 21:43 Odpowiedzialność za kod AI 28:00 Umiejętności programisty przyszłości 32:32 Tworzenie contentu w DevStyle 36:23 Sklep z perfumami w godzinę 40:09 Automatyzacja procesów firmowych 44:28 Logowanie czasu i optymalizacja 48:05 n8n, Make i Custom GPT 54:38 Gemini i hack z klawiszem F1 01:05:02 Automatyczny montaż wideo 01:16:20 Deepfakes i zagrożenia prawne 01:19:10 Własne narzędzia vs gotowce 01:23:05 Wdrażanie AI i higiena pracy 01:28:34 Inspiracje i polecane materiały #AI #VibeCoding #AgenciAI #AIwBiznesie #Automatyzacja

    1hr 34min
  6. #26 Buduje komputer z ludzkich komórek — czy biologia pokona krzem? | Ewelina Kurtys

    12 FEB

    #26 Buduje komputer z ludzkich komórek — czy biologia pokona krzem? | Ewelina Kurtys

    Współczesne komputery marnują energię na przesyłanie danych między pamięcią a procesorem, podczas gdy natura połączyła magazyn i fabrykę w jedno. Tradycyjny procesor to martwa struktura, a biokomputer to żywy „hardware", który fizycznie przebudowuje połączenia podczas nauki. Technologia, w której zamiast zer i jedynek używa się światła UV, otwierającego chemiczne klatki z dopaminą. Dołącz i buduj AI razem z nami: → https://spolecznosc.aininjas.pl/ 🔔 Subskrybuj, aby nie przegapić nowych odcinków! W tym odcinku podcastu usłyszysz o eksperymencie „Butterfly”, w którym żywa tkanka steruje prędkością cyfrowego obiektu, oraz o tym, dlaczego nawet otwarcie drzwi do laboratorium może zafałszować wynik obliczeń. Analizujemy plan stworzenia gigantycznych, 100-metrowych struktur neuronowych zasilanych syntetycznym układem krwionośnym i wyjaśniamy, dlaczego największym wyzwaniem nie jest wyhodowanie „mózgu”, ale zrozumienie języka, w którym koduje on informacje w czasie i przestrzeni. Z tego odcinka dowiesz się: 🔹 Czym jest biokomputer i dlaczego może być tysiące razy bardziej wydajny energetycznie od krzemu. 🔹 Jak powstają procesory zbudowane z żywych ludzkich neuronów hodowanych w laboratorium. 🔹 W jaki sposób programuje się żywe komórki za pomocą sygnałów elektrycznych i neuroprzekaźników. 🔹 Czym różni się naturalny proces uczenia neuronów od cyfrowej backpropagacji w modelach AI. 🔹 Czy komputery oparte na żywej tkance mogą w przyszłości posiadać świadomość lub odczuwać emocje. 🔹 Jak wygląda roadmapa rozwoju technologii Bio Cloud i kiedy powstaną pierwsze komercyjne bioserwery. 🔹 Jakie kompetencje są niezbędne do rozpoczęcia kariery w branży biokomputingu. 🎙Prowadzący: https://www.linkedin.com/in/krzysztof-tutak/ 👥 Gość: https://www.linkedin.com/in/ewelinakurtys/ ⭐️ Zobacz też: 🔹#14 Marcin Czarkowski, Przemek Smyrdek - https://youtu.be/SyPF8vhywt8 🔹#12 Adam Gospodarczyk - https://youtu.be/LBG3_L-sbJA 🔹#9 Piotr Brzyski - https://youtu.be/fhpw_5-GWHg 🔹#5 Jakub Mrugalski - https://youtu.be/gEhMWWaXfkQ 🔹#4 Mateusz Chrobok - https://youtu.be/AWC6c-fOcFE Linki i transkrypcja: 🔹https://bliskiespotkaniazai.pl/r26 Rozdziały: 00:00 Dziś w odcinku 02:08 Wprowadzenie 02:20 Ewelina Kurtys 04:50 Przełom w badaniach nad neuronami 07:10 Czym są komórki macierzyste? 11:31 Jak długo żyją neurony w laboratorium? 14:30 Czym jest biokomputer? 15:20 Interfejs mózg-maszyna 17:38 Jak programować żywe neurony? 19:45 Czy biokomputer ma uczucia? 21:20 Uczenie się: Mózg vs AI 24:05 Czym jest backpropagacja? 27:00 Filtrowanie informacji: Mózg vs Krzem 29:37 Kodowanie czasu i przestrzeni 33:15 Sterowanie cyfrowym motylem 37:51 Etyka i świadomość maszyn 43:40 Scenariusze rodem z Black Mirror 50:08 1 bit pamięci i zdalne laboratorium 53:20 Przyszłość: Bioserwery i sztuczna krew 56:33 Programowanie światłem UV 01:00:09 Dostęp do danych z laboratorium 01:01:54 Wizja komercyjnej Bio-chmury 01:05:50 Obliczenia neuromorficzne vs biokomputing 01:10:50 Jak zacząć w biokomputingu? 01:15:57 Polecane książki i materiały 01:19:00 Zakończenie #ai #biokomputery #neurobiologia #żyweneurony #bioprocesor

    1hr 20min
  7. #25 Małe modele AI drogą do cyfrowej suwerenności | Marek Zibrow

    6 FEB

    #25 Małe modele AI drogą do cyfrowej suwerenności | Marek Zibrow

    Aplikacja AI to obecnie najsłabsze ogniwo w systemie bezpieczeństwa firmy, a jej „zatrucie” jest prostsze, niż mogłoby się wydawać. W świecie, gdzie niewidoczny tekst w dokumencie CV lub zwykła naklejka na znaku drogowym stają się skuteczną bronią, tradycyjne zapory ogniowe stają się niemal bezużyteczne. Dołącz i buduj AI razem z nami: → https://spolecznosc.aininjas.pl/ 🔔 Subskrybuj, aby nie przegapić nowych odcinków! W tym odcinku podcastu analizujemy anatomię ataków na modele językowe – od manipulowania danymi wejściowymi po groźne zjawisko „model inversion” i wycieki danych treningowych. Dowiesz się, dlaczego trend „vibe codingu” bez rygorystycznego nadzoru DevSecOps to ryzyko, którego nie warto podejmować, oraz jak techniki „white-on-white” pozwalają przejmować kontrolę nad procesami decyzyjnymi algorytmów. Rozmawiamy także o budowaniu cyberodporności w sektorze finansowym oraz o tym, dlaczego przyszłość bezpiecznego AI w biznesie należy do małych, lokalnie wdrażanych modeli SLM. Z tego odcinka dowiesz się: 🔹 Jakie są główne techniczne zagrożenia dla modeli AI i na czym polega ich celowa manipulacja. 🔹 Dlaczego małe modele językowe (SLM) stanowią bezpieczniejszą i tańszą alternatywę dla rozwiązań typu LLM. 🔹 Jakie wyzwania prawne i operacyjne nakładają na firmy regulacje AI Act oraz dyrektywa DORA. 🔹 Dlaczego trend „vibe codingu” może zagrażać bezpieczeństwu oraz architekturze tworzonych aplikacji. 🔹 Jak bezpiecznie projektować procesy SDLC w dobie powszechnej generacji kodu przez sztuczną inteligencję. 🔹 Dlaczego problem braku wyjaśnialności decyzji algorytmicznych jest kluczową barierą we wdrażaniu AI w finansach. 🔹 Jakie są skuteczne metody weryfikacji danych wejściowych i wyjściowych w celu ochrony prywatności użytkowników. 🎙Prowadzący: https://www.linkedin.com/in/krzysztof-tutak/ 👥 Gość: https://www.linkedin.com/in/marekzibrow/ ⭐️ Zobacz też: 🔹#14 Marcin Czarkowski, Przemek Smyrdek - https://youtu.be/SyPF8vhywt8 🔹#12 Adam Gospodarczyk - https://youtu.be/LBG3_L-sbJA 🔹#9 Piotr Brzyski - https://youtu.be/fhpw_5-GWHg 🔹#5 Jakub Mrugalski - https://youtu.be/gEhMWWaXfkQ 🔹#4 Mateusz Chrobok - https://youtu.be/AWC6c-fOcFE Linki i transkrypcja: 🔹https://bliskiespotkaniazai.pl/r25 Rozdziały: 00:00 Dziś w odcinku 02:08 Wprowadzenie 02:15 Marek Zibrow 03:22 Studia na Stanfordzie vs Polsce 04:58 Muzyka elektroniczna i syntezatory 06:33 Sztuczna inteligencja w muzyce 08:15 Czy firmy ignorują ryzyka AI? 10:49 5 klas zagrożeń AI 11:58 Ataki adwersarialne na modele 15:16 Ataki impersonacyjne i uniki AI 16:47 Zatruwanie danych treningowych (Data Poisoning) 21:41 Problem uprzedzeń i algorytmiczny rasizm 24:50 Prywatność i wycieki z modeli 31:42 Jak bezpiecznie wdrażać AI? 32:41 SLM vs LLM: Co wybrać? 36:20 Zastosowanie modeli SLM w bankowości 44:55 Pułapka budowania agentów ogólnych 48:35 Dlaczego vibe coding to błąd? 52:45 Bezpieczne programowanie w dobie AI 55:10 AI Act a dane osobowe 57:15 Czym jest dyrektywa DORA? 01:04:06 Czy regulacje blokują innowacje AI? 01:09:50 Weryfikacja bezpieczeństwa odpowiedzi AI 01:24:07 SDLC i testy jakości kodu 01:39:43 Polecane materiały i inspiracje 01:46:15 Zakończenie #AI #Cybersecurity #SztucznaInteligencja #VibeCoding #SLM

    1hr 47min
  8. AI NEWS #15 LIVE: Jarvis czy Ultron? AI ma już swój Reddit

    6 FEB

    AI NEWS #15 LIVE: Jarvis czy Ultron? AI ma już swój Reddit

    Najważniejsze wydarzenia ze świata AI, które miały miejsce w lutym 2026! Omówimy największe przełomy, zaskoczenia i kontrowersje, które wpłynęły na rozwój sztucznej inteligencji w ostatnich tygodniach. 📅 Spotykamy się co miesiąc, aby na żywo analizować najnowsze trendy w świecie AI. Dołącz i buduj AI razem z nami: → https://spolecznosc.aininjas.pl/ 🔴 Subskrybuj i bądź na bieżąco! 🎙 Prowadzący: 🔹Krzysztof Tutak - https://www.linkedin.com/in/krzysztof-tutak/ 🔹Piotr Brzyski - https://www.linkedin.com/in/pbrzyski/ 🔹Daniel Ura - https://www.linkedin.com/in/danielura/ Czy wiedziałeś, że istnieje już platforma społecznościowa tylko dla agentów AI, gdzie boty... narzekają na ludzi? To nie scenariusz filmu sci-fi, a rzeczywistość, która obnaża przerażające luki w bezpieczeństwie i pokazuje, jak blisko jesteśmy utraty kontroli nad autonomicznymi systemami. W tym odcinku AI Newsów analizujemy przełomową technologię „Test to Time” (TTT) od Nvidii, która pozwala modelom uczyć się w locie. Przyglądamy się realnym skutkom automatyzacji na przykładzie szwedzkiego przemysłu tekstylnego oraz ostrzegamy przed krytycznymi błędami w projektach typu open-source, które doprowadziły do wycieku ponad miliona kluczy API. Rozmawiamy również o brutalnej rzeczywistości rynku pracy w 2026 roku, gdzie fala zwolnień w Big Techach zbiega się z rekordowym zapotrzebowaniem na moc obliczeniową kosztem zasobów dla przeciętnego użytkownika. Z tego odcinka dowiesz się: Rozmawiamy o tym: 🔹 Jak dobrze modele językowe pamiętają treść książek i co to oznacza dla ochrony danych treningowych. 🔹 Na czym polegają eksperymenty z autonomicznymi laboratoriami badawczymi zarządzanymi przez AI. 🔹 Jak wygląda rywalizacja Chin i USA o talenty oraz moce obliczeniowe w sektorze sztucznej inteligencji. 🔹 Czym charakteryzują się najnowsze modele Claude 4.6 i GPT 5.3 oraz rozwój systemów typu „swarm”. 🔹 Jaka przyszłość czeka architekturę RAG w dobie ogromnych okien kontekstowych i kompresji danych. 🔹 Jakie zagrożenia i szanse niesie Moldbook, czyli platforma społecznościowa stworzona wyłącznie dla agentów AI. 🔹 Czy sztuczna inteligencja jest w stanie zastąpić lekarzy w procesie wywiadu i diagnostyki medycznej. 🔹 Dlaczego model biznesowy SaaS traci na znaczeniu na rzecz budowania własnych, wewnętrznych narzędzi AI. Linki i transkrypcja: 🔹https://bliskiespotkaniazai.pl/n15 Rozdziały: 00:00 Dziś w odcinku 00:32 Wprowadzenie 00:44 Co u nas? 05:00 Czy modele AI pamiętają książki? 09:00 Autonomiczne laboratoria: Projekt ARIA 14:34 AI w fabrykach i tekstyliach 18:00 Chiny vs USA: Walka o talenty 23:00 Problem Europy z mocą obliczeniową 26:05 Nvidia TTT: Uczenie w locie 28:40 Czy okno kontekstowe zabije RAG? 32:45 Claude 4.6 i GPT 5.3 35:40 Chińskie modele Kimi rzucają wyzwanie 42:00 Geopolityka i walka o RAM 46:00 Moldbook: Facebook dla agentów AI 52:30 Ryzyka i wycieki kluczy API 01:06:00 Nadchodzi era Swarmów i agentów 01:08:30 Wielka fala zwolnień w IT 01:14:40 Ukryte koszty wdrożeń AI 01:21:00 Rewolucja w wideo: Kling i Wan 01:24:00 Czy AI zastąpi lekarza? 01:30:00 Koniec ery SaaS? Własne narzędzia 01:42:30 Jak zmienia się praca programisty? 01:45:18 Teoria spiskowa: Dlaczego RAM drożeje? 01:48:45 Zakończenie #Moldbook #OpenClaw #AgenciAI #AI #SztucznaInteligencja

    1hr 50min

Ratings & Reviews

5
out of 5
3 Ratings

About

Bliskie Spotkania z AI to podcast, który przeniesie Cię w fascynujący świat sztucznej inteligencji i technologii. Rozmawiam z ekspertami, naukowcami i przedsiębiorcami, odkrywając szersze spojrzenie na AI, w tym architekturę, infrastrukturę i technologie, które ją wspierają. Przygotuj się na inspirujące wywiady i najnowsze wiadomości ze świata AI, które pokażą szerokie spektrum zastosowań i wpływów technologii na nasze życie, w tym praktyczne zastosowania AI w biznesie. Dołącz do mnie, aby zgłębiać tajemnice przyszłości!

You Might Also Like