47 episodes

En podcast om kunstig intelligens set med danske briller.

AI Denmark AI Denmark

    • Technology
    • 4.6 • 10 Ratings

En podcast om kunstig intelligens set med danske briller.

    Har du styr på sikkerheden i din sprogmodel?

    Har du styr på sikkerheden i din sprogmodel?

    Værktøjer som ChatGPT, Copilot og Gemini kan være fristende at bruge – men man skal have styr på sin sikkerhed – ligesom med alle andre it-løsninger.
    Og især i firmaer og organisationer bør LLM-sikkerhed afgjort være på dagsordenen. Det gælder både vurdering af selve modellerne man bruger, udefrakommende manipulation af prompts, hvilke firmadata man risikerer at lække til modellerne, hvilke resultater man får og hvad man bruger dem til.
    Jeg har haft besøg i studiet af Zaruhi Aslanyan, som er sikkerhedsarkitekt på Alexandra Instituttet og Michael Rømer Bennike, der er senior sikkerhedsarkitekt samme sted, for at høre mere om udfordringerne og hvad man kan gøre.
    Desværre er der – ligesom med al anden it-sikkerhed – ikke nogle nemme løsninger...
    Lyt med 🤖
    LINKS
    NYHEDER
    The Verge prøver AI-assistenten Rabbit R1Metas nye Llama 3Kafferistning med AI🎧 BKI-episode fra 2022Lavender – Israels AI-våbenSciAm om "Lethal Autonomous Weapons"AI-film på vejSkattealgoritmer mørklagtOvertræder ChatGPT GDPR?FT leverer træningsdata til OpenAILLM-SIKKERHED
    Michael Rømer BennikeZaruhi AslanyanAlexandra Instituttet"LLM-sikkerhed for dummies" – med de 10 største risici ved LLM'erWired: Hold dine data ude af træningsmaterialet

    • 44 min
    AI er ikke en skrivemaskine – AI for journalister

    AI er ikke en skrivemaskine – AI for journalister

    Det er knap halvandet år siden ChatGPT blev lanceret, og bølgen af AI er skyllet ind over mange brancher – inklusive journalistikken, hvor både researchere, journalister, podcastere, redaktører, grafikere, fotografer og andre på godt og ondt har oplevet at generativ AI er blevet en del af hverdagen.
    Men måske er vi alligevel ikke kommet særlig langt? Måske er vi stadig der hvor vi bruger teknologien til at gøre som vi plejer, bare hurtigere, i stedet for for at prøve helt nye og anderledes ting af? Eller måske rettere; at vi spørger hvordan vi kan bruge AI til at løse journalistikkens kerneopgave på en bedre måde?
    Jeg har besøg af journalist, redaktør og SDU fellow Ida Ebbensgaard og af adjunkt Peder Hammerskov fra journalistuddannelsen på DJMX, som kom i studiet direkte fra Nordic AI in Media Summit 2024.
    Derudover har vi som sædvanlig et par korte nyheder fra AI-land – denne gang blandt andet om spillelister i Spotify og endnu en satsning fra OpenAI-direktør Sam Altman.
    LINKS
    NYHEDER
    Spotify lancerer (begrænset) test af AI-skabte spillelisterSam Altman og Jony Ive jagter penge til AI-hardwareSilo AI lancerer nordiske sprog i Viking-modellerneAI OG JOURNALISTIK
    Ida Ebbensgaard, SDU fellowPeder Hammerskov, DJMXNordic AI in Media 2024Alle præsentationerne fra NAMS 2024Financial Times afprøver chatbotten "Ask FT"Newsquest har syv AI-assisterede reporterGrønlandsk-dansk oversættelsesværktøjer hos SermitsiaqSermitsiaq – nyheder i GrønlandRune Ytreberg - nyheder fra Tromsø[Podimo afprøver AI-støttet søgning og 'discovery'](https://podimo.com/en/newsroom/podimo-tests-new-ai-feature-conversational-interface-to-aid-in-podcast-discoveryRapport og undersøgelse fra AP: "Generative AI in Journalism"

    • 42 min
    Præcise vejrudsigter med kunstig intelligens

    Præcise vejrudsigter med kunstig intelligens

    I denne episode skal det handle om vejret og selvfølgelig om hvordan machine learning og AI kan hjælpe med at lave vejrudsigter og prognoser.
    Google, Nvidia og Huawei har alle præsenteret AI-vejrmodeller som metodisk gør helt op med de kendte vejrmodeller, som typisk baserer sig på simulationer af atmosfæren og matematiske ligninger.
    Vi har besøg af seniorforsker Leif Denby fra DMI, hvor man også er gået igang med at undersøge hvordan AI-metoderne kan bruges til at supplere de "gammeldaws" modeller.
    Derudover er der også kort nyt fra AI-land, denne gang blandt andet om den lille karibiske nation, hvis top-level domæne ender på .ai
    Lyt med 🤖
    LINKSNYHEDER
    Frankrig udstikker bøde på 250 millioner Euro til GoogleVil BBC sælge tv-arkiver til AI-træning?Anguilla tjener kassen på domænet .aiOpenAI præsenterer stemmeklonmodelAI OG VEJR
    Leif DenbyLeif: Google-AI imponerer med præcision og hastighed i prognoserECMWF sammenligner forskellige AI-modeller og traditionelle modellerVejrdata og -udsigterScientific American – kan AI erstatte de traditionelle modeller?

    • 38 min
    XRAI – hjælp til planlægning og evaluering af AI-systemer

    XRAI – hjælp til planlægning og evaluering af AI-systemer

    Der er næppe tvivl om at brugen af kunstig intelligens bringer mange problemer med sig. Det som virker smart på whiteboardet kan hurtigt blive ramt af både tekniske, juridiske og etiske bomber under systemet.
    Der bliver talt meget om hvordan vi skal gøre AI mere gennemskueligt, og hvordan vi skal sikre os at de svar algoritmerne giver er korrekte. Og det er ambitioner som det er svært at være uenige med.
    Men hvordan kan man vurdere AI-løsningerne, og forsøge at sikre sig, at de så godt som muligt overholder både etiske principper og gældende lovgivning?
    Det er spørgsmålet som Per Rådberg Nagbøl fra ITU har forsøgt at besvare med værktøjet XRAI, som er udviklet i samarbejde med Erhvervsstyrelsen
    XRAI opdeler udvikling, evaluering og tilpasning af AI-systemer i fire faser, med masser af tjeklister og kontrolpunkter – i håbet om at kunne hjælpe både offentlige institutioner og private virksomheder, der arbejder med AI.
    Derudover er der også AI Siden Sidst – med historier om både industrispionage, AI Act og nye Nvidia-chips.
    Lyt med 🤖
    LINKS
    NYHEDER
    Endelig vedtagelse af AI ActGoogle begrænser adgang til valg-info på Gemini (først i Indien...)Kinesisk Google-ansat beskyldt for at stjæle hemmeligheder om AI Tensor-chipsAI-supercomputer fra Novo Nordisk og NvidiaNvidia præsenterer ny AI-chipEMNE
    Per Rådberg Nagbøl, ITUCarsten Ingerslev, ErhvervsstyrelsenArtikel på Videnskab.dk om XRAIPer Nagbøls afhandling om XRAI

    • 39 min
    Deepfakes – kan de også snyde advokater?

    Deepfakes – kan de også snyde advokater?

    I denne episode ser vi nærmere på deepfakes og ikke mindst på de juridiske aspekter af fænomenet – fra personlighedsret til de strafferetlige forhold.
    Deepfakes er en teknologi, der bruger kunstig intelligens til at skabe overbevisende billeder, lyd og video, hvor en persons ansigt eller stemme bliver erstattet med en andens. Afhængig af omstændighederne kan det faktisk give indhold, der er fuldstændig kunstigt fabrikeret, men ser helt ægte ud.
    Deepfakes kan misbruges på mange måder – til politisk propaganda, phishing-angreb og fake news, men det er måske også på sin plads at nævne, at de 'syntetiske medier' også sagtens kan anvendes i mere positive sammenhænge.
    Det er ikke umiddelbart åbenlyst hvad man kan gøre for at begrænse de negative konsekvenser af deepfakes, udover at retsforfølge de tilfælde hvor teknologien bliver misbrugt og overtræder gældende lov.
    Det fortæller advokat Jakob Plesner Mathiasen fra Gorrissen Federspiel, som især beskæftiger sig med det man kalder entertainment-ret.
    Lyt med 🤖
    LINKS
    NYHEDER
    Rapport om techgiganter og AIMistrals og Microsoft indgår partnerskab – men EU løfter pegefingerenElon Musk lægger sag an mod OpenAIDEEPFAKES
    Jakob Plesner Mathiasen - Gorrissen FederspielHeyGen til avatarerElevenLabs laver stemmeklonerKan techgiganterne også hjælpe i kampen mod deepfakes?Han skulle nok ikke have deepfaket Joe BidenSora – OpenAIs nye videoværktøj

    • 45 min
    Advokater med AI-assistent

    Advokater med AI-assistent

    I denne episode ser vi nærmere på brugen af AI i advokatbranchen.
    I juni sidste år fik den amerikanske advokat Steven Schwartz ørerne i maskinen, da det viste sig at han havde fået hjælp af ChatGPT i forberedelsen til en af sine sager.
    Flere af de retssager som ChatGPT fandt frem til Steven Schwartz og hans hold var det pure opspind. ChatGPT havde ganske enkelt hallucineret dem frem. Ups.
    Men derfor kan der jo sagtens være andre måder at bruge AI på i hverdagen, også hvis man er advokat eller arbejder i et advokatfirma. Og der er næppe tvivl om, at vi med de nyeste AI-modeller har fået værktøjer som sagtens kan tackle mange af advokaternes opgaver.
    Jeg har besøgt Marlene Winther Plas og Sarah Paustian Sander i DLA Piper for at høre mere om hvordan advokater bruger AI i hverdagen – og ikke mindst hvor man måske skal være mere varsom...
    Lyt med 🤖
    LINKS
    NYHEDER
    Meta vil have vandmærker i alle AI-billeder på Facebook, Instagram og ThreadsOpenAI indfører vandmærker i DALL-EDet er godt at techgiganter arbejder med vandmærker......men forskere viser, at de nemt kan omgåsMicrosoft og OpenAI siger at hackere bruger ChatGPT i deres angrebMozilla: AI-"venner" stjæler dine dataChatGPT – nu med mere hukommelse, på godt og ondt...AI OG JURA
    10 råd til dit arbejde med ChatGPT og anden generativ AI | JurainfoArtikel: Hvis du vil dybere i hvor godt ChatGPT klarer sig indenfor juraAI i DLA PiperMarlene Winther PlasSarah Paustian Sander

    • 38 min

Customer Reviews

4.6 out of 5
10 Ratings

10 Ratings

Mogens666 ,

Super fed podcast 🥳👌

🥳👌

Top Podcasts In Technology

Brinkmanns briks
DR
Prompt
DR
Ubegribeligt
DR
Hjernekassen på P1
DR
Vildt Naturligt
DR
Flyvende tallerken
DR

You Might Also Like

Prompt
DR
Supertrends
24syv
Transformator
Teknologiens Mediehus
Topchefernes strategi med Niels Lunde
Børsen
Adfærd
Morten Münster
Genstart
DR