33 min

Wie funktioniert KI eigentlich‪?‬ Der KI-Podcast

    • Science

Im Grunde vervollständigen Sprachmodelle wie ChatGPT, Gemini oder Claude immer nur das nächste Wort in einem Satz, basierend auf einer statistischen Wahrscheinlichkeitsrechnung. Doch irgendwie entstehen aus diesem simplen Prinzip am Ende Maschinen, die ein Verständnis von der Welt zu haben scheinen, das dem unseren oft erstaunlich nahe kommt. Wie kann das sein? Wir schauen ins Innere der "Generative Pretrained Transformer" Modelle und erklären, wie genau KI eigentlich funktioniert.

Über die Hosts:
Gregor Schmalzried ist freier Tech-Journalist und Berater, er arbeitet u.a. für den Bayerischen Rundfunk und Brand Eins.
Fritz Espenlaub ist freier Journalist und Moderator beim Bayerischen Rundfunk und 1E9 mit Fokus auf Technologie und Wirtschaft.

00:00 Intro
04:01 G wie Generative: Wie Sprachmodelle auf ihr nächstes Wort kommen
08:37 P wie Pre-Trained: Wie läuft das Training ab?
19:14 T wie Transformer: Wie sieht es eigentlich im Inneren eines LLMs aus?
25:47 Was haben wir diese Woche mit KI gemacht?

Redaktion und Mitarbeit:
David Beck, Cristina Cletiu, Chris Eckardt, Fritz Espenlaub, Marie Kilg, Mark Kleber, Gudrun Riedl, Christian Schiffer, Gregor Schmalzried

Links und Quellen:

The Surprising Power of Next Word Prediction: Large Language Models Explained https://cset.georgetown.edu/article/the-surprising-power-of-next-word-prediction-large-language-models-explained-part-1/

Erklärung von Transformer Modellen in der Financial Times: https://ig.ft.com/generative-ai/

Visualisierung von Transformern: https://jalammar.github.io/illustrated-gpt2/

Aleph Alpha und Erklärbarkeit: https://1e9.community/t/die-deutsche-ki-hoffnung-aleph-alpha-mit-transparenz-und-erklaerbarkeit-gegen-openai/19552

Electify - KI-Sprachmodelle beantwortet Fragen zu den EU-Wahlprogrammen: https://electify.eu/

Kontakt:
Wir freuen uns über Fragen und Kommentare an podcast@br.de.

Unterstützt uns:
Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf eurer liebsten Podcast-Plattform. Abonniert den KI-Podcast in der ARD Audiothek oder wo immer ihr eure Podcasts hört, um keine Episode zu verpassen. Und empfehlt uns gerne weiter!

Im Grunde vervollständigen Sprachmodelle wie ChatGPT, Gemini oder Claude immer nur das nächste Wort in einem Satz, basierend auf einer statistischen Wahrscheinlichkeitsrechnung. Doch irgendwie entstehen aus diesem simplen Prinzip am Ende Maschinen, die ein Verständnis von der Welt zu haben scheinen, das dem unseren oft erstaunlich nahe kommt. Wie kann das sein? Wir schauen ins Innere der "Generative Pretrained Transformer" Modelle und erklären, wie genau KI eigentlich funktioniert.

Über die Hosts:
Gregor Schmalzried ist freier Tech-Journalist und Berater, er arbeitet u.a. für den Bayerischen Rundfunk und Brand Eins.
Fritz Espenlaub ist freier Journalist und Moderator beim Bayerischen Rundfunk und 1E9 mit Fokus auf Technologie und Wirtschaft.

00:00 Intro
04:01 G wie Generative: Wie Sprachmodelle auf ihr nächstes Wort kommen
08:37 P wie Pre-Trained: Wie läuft das Training ab?
19:14 T wie Transformer: Wie sieht es eigentlich im Inneren eines LLMs aus?
25:47 Was haben wir diese Woche mit KI gemacht?

Redaktion und Mitarbeit:
David Beck, Cristina Cletiu, Chris Eckardt, Fritz Espenlaub, Marie Kilg, Mark Kleber, Gudrun Riedl, Christian Schiffer, Gregor Schmalzried

Links und Quellen:

The Surprising Power of Next Word Prediction: Large Language Models Explained https://cset.georgetown.edu/article/the-surprising-power-of-next-word-prediction-large-language-models-explained-part-1/

Erklärung von Transformer Modellen in der Financial Times: https://ig.ft.com/generative-ai/

Visualisierung von Transformern: https://jalammar.github.io/illustrated-gpt2/

Aleph Alpha und Erklärbarkeit: https://1e9.community/t/die-deutsche-ki-hoffnung-aleph-alpha-mit-transparenz-und-erklaerbarkeit-gegen-openai/19552

Electify - KI-Sprachmodelle beantwortet Fragen zu den EU-Wahlprogrammen: https://electify.eu/

Kontakt:
Wir freuen uns über Fragen und Kommentare an podcast@br.de.

Unterstützt uns:
Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf eurer liebsten Podcast-Plattform. Abonniert den KI-Podcast in der ARD Audiothek oder wo immer ihr eure Podcasts hört, um keine Episode zu verpassen. Und empfehlt uns gerne weiter!

33 min

Top Podcasts In Science

Почему мы еще живы
libo/libo
Голый землекоп
libo/libo
КритМышь
Александр Головин
CrowdScience
BBC World Service
TEDTalks Наука и Медицина
TED
правило 34
Николай