KI AffAIrs

Claus Zeißler

KI Affairs: Der Podcast zur kritischen und prozessorientierten Betrachtung Künstlicher Intelligenz. Wir beleuchten die Highlights der Technologie, ebenso wie die Schattenseiten und aktuellen Schwächen (z.B. Bias, Halluzinationen, Risikomanagement). Ziel ist, uns aller der Möglichkeiten und Gefahren bewusst zu sein, um die Technik zielgerichtet und kontrolliert einzusetzen. Wenn Dir dieses Format gefällt, folge mir und hinterlasse mir gerne Deinen Kommentar. Ausführliche Berichte zu den Folgen findet Ihr auch im Blog unter kiaffairs.blogspot.com

  1. TRAILER ZUR STAFFEL 2, FOLGE 6

    018 Quicky KI-Revolution 2026 Transparenz, Machtkämpfe und neue Gesetze

    Folgennummer: Q018 Titel: KI-Revolution 2026: Transparenz, Machtkämpfe und neue Gesetze Willkommen zu dieser tiefgreifenden Analyse der aktuellen KI-Landschaft. In dieser Podcast-Folge beleuchten wir die massiven Verschiebungen in der Welt der Künstlichen Intelligenz – von den neuen Transparenzgesetzen in Kalifornien bis hin zu den komplexen Anforderungen des EU AI Acts und der alles entscheidenden Frage: Wer kontrolliert die Infrastruktur hinter der Intelligenz? Was Sie in dieser Folge erwartet: Training vs. Inferenz – Der wirtschaftliche Wendepunkt: Wir klären den fundamentalen Unterschied zwischen der Lernphase (Training) und der Anwendung (Inferenz) von KI-Modellen. Während das Training hohe Vorabinvestitionen erfordert, machen die laufenden Kosten der Inferenz oft 80–90 % der Gesamtkosten eines KI-Systems aus. Wir besprechen den Trend zum „Inference-Time Compute Scaling“, bei dem Modelle wie OpenAI’s o-Serie oder DeepSeek-R1 durch längeres „Nachdenken“ ihre Leistung steigern, ohne dass ein massives neues Training nötig ist. Das Ende der Geheimhaltung? Kaliforniens AB 2013: Ab dem 1. Januar 2026 müssen Entwickler generativer KI detailliert offenlegen, welche Daten sie für das Training nutzen. Wir diskutieren, wie dieses Gesetz das Urheberrecht und den Datenschutz revolutioniert und was es für Giganten wie OpenAI und Google bedeutet. Das KI-Oligopol und die Macht der Hardware: Die KI-Infrastruktur ist extrem konzentriert. Wenige Firmen dominieren die Produktion von Mikrochips (NVIDIA, ASML) und die Cloud-Plattformen (AWS, Azure, Google Cloud). Wir analysieren die Risiken dieser Marktmacht für die Demokratie und die wirtschaftliche Gleichheit sowie den „Antimonopoly-Ansatz“ zur Regulierung. Sicherheit und „Chain of Thought“: Kann man einer KI beim Denken zusehen? Wir untersuchen das Potenzial des CoT-Monitorings (Chain of Thought), um Fehlverhalten von Modellen zu erkennen, bevor es Schaden anrichtet, und warum diese Methode dennoch fragil bleibt. Außerdem stellen wir den BIG-Argument-Ansatz für KI-Sicherheitsnachweise vor: Balanced, Integrated und Grounded. KI in der Medizin – Ein riskantes Feld: Warum kommen so viele KI-Medizinprodukte ohne klinische Studien auf den Markt? Wir werfen einen Blick auf die Lücken im FDA-Zulassungsprozess und die Notwendigkeit einer strengen Überwachung nach dem Markteintritt (Post-Market Surveillance), um Patientensicherheit zu garantieren. DSGVO-Hürden für Sprachmodelle: Das „Recht auf Vergessenwerden“ kollidiert frontal mit der Architektur von LLMs. Wir besprechen die technischen Schwierigkeiten, persönliche Daten aus den Milliarden Parametern eines trainierten Modells wieder zu löschen. Diese Folge ist unverzichtbar für Entscheider, Entwickler und alle, die verstehen wollen, wie die rechtlichen und technischen Leitplanken der Zukunft aussehen. Die Ära der „Blackbox-KI“ neigt sich dem Ende zu – seien Sie bereit für das Zeitalter der Transparenz. (Hinweis: Diese Podcast-Folge wurde mit Unterstützung und Strukturierung durch Google's NotebookLM erstellt.)

    2 Min.
  2. VOR 5 TAGEN

    017 Digitale Inzucht & Model Collapse: Das Ende des echten Internets?

    Folgennummer: L017  Titel: Digitale Inzucht & Model Collapse: Das Ende des echten Internets? Das Internet steht vor einem Wendepunkt. Während Big-Tech-Giganten wie Google, Microsoft und Meta bis 2026 voraussichtlich über 500 Milliarden US-Dollar in KI-Infrastruktur investieren, droht dem digitalen Ökosystem der „Model Collapse“. In dieser Folge analysieren wir das Phänomen der „Digitalen Inzucht“ und warum das World Wide Web Gefahr läuft, in einer autophagen Schleife aus synthetischem Einheitsbrei zu versinken. Was dich in dieser Folge erwartet: Der Aufstieg von „AI Slop“: Experten schätzen, dass bis 2026 bis zu 90 % aller Online-Inhalte KI-generiert sein könnten. Wir klären, was hinter diesem „digitalen Mikroplastik“ steckt und wie minderwertiger Content die Integrität unserer Kommunikation vergiftet. Model Collapse erklärt: Basierend auf einer aktuellen Nature-Studie diskutieren wir, warum KI-Modelle degradieren und ihre „Identität“ vergessen, wenn sie rekursiv mit synthetischen Daten trainiert werden. Was passiert, wenn Nuancen und seltene Meinungen – die sogenannten „Tails“ – einfach verschwinden?. Der linguistische Fingerabdruck: Warum Begriffe wie „delve into“ oder „explore“ plötzlich das Web überfluten und was das über die stille Übernahme durch Large Language Models (LLMs) aussagt. Journalismus als „sauberes Wasser“: In einem Ozean aus Fake-News und Deepfakes wird menschlicher Journalismus zur überlebenswichtigen Ressource. Wir besprechen, warum echte Reporter die einzige Barriere gegen den totalen Informationskollaps sind. Wirtschaft vs. Realität: Trotz gigantischer Investitionen bleibt der reale wirtschaftliche Nutzen von KI oft hinter den Erwartungen zurück. Wir werfen einen Blick auf die Robotaxi-Kriege zwischen Waymo, Tesla und chinesischen Playern wie Pony.ai. Die „Epistemische Steuer“: Wie viel wird es uns in Zukunft kosten, die Wahrheit überhaupt noch verifizieren zu können?. Warum du diese Folge hören solltest: Wenn du verstehen willst, warum wir uns in Richtung einer „Synthetischen Realität“ bewegen und wie du in Zeiten von Hyperpersonalisierung und algorithmischer Manipulation deine „epistemische Hygiene“ bewahrst, ist diese Analyse unverzichtbar. Jetzt abonnieren und eintauchen in die kritischste Debatte der Tech-Welt! #KI #KünstlicheIntelligenz #ModelCollapse #AISlop #TechTrends2026 #Journalismus #DigitaleInzucht #Deepfakes #FutureOfTech #Innovation #DataScience #Robotaxi #TechPodcast (Hinweis: Diese Podcast-Folge wurde mit Unterstützung und Strukturierung durch Google's NotebookLM erstellt.)

    19 Min.
  3. TRAILER ZUR STAFFEL 2, FOLGE 5

    017 Quicky Digitale Inzucht & Model Collapse Das Ende des echten Internets?

    Folgennummer: Q017  Titel: Digitale Inzucht & Model Collapse: Das Ende des echten Internets? Das Internet steht vor einem Wendepunkt. Während Big-Tech-Giganten wie Google, Microsoft und Meta bis 2026 voraussichtlich über 500 Milliarden US-Dollar in KI-Infrastruktur investieren, droht dem digitalen Ökosystem der „Model Collapse“. In dieser Folge analysieren wir das Phänomen der „Digitalen Inzucht“ und warum das World Wide Web Gefahr läuft, in einer autophagen Schleife aus synthetischem Einheitsbrei zu versinken. Was dich in dieser Folge erwartet: Der Aufstieg von „AI Slop“: Experten schätzen, dass bis 2026 bis zu 90 % aller Online-Inhalte KI-generiert sein könnten. Wir klären, was hinter diesem „digitalen Mikroplastik“ steckt und wie minderwertiger Content die Integrität unserer Kommunikation vergiftet. Model Collapse erklärt: Basierend auf einer aktuellen Nature-Studie diskutieren wir, warum KI-Modelle degradieren und ihre „Identität“ vergessen, wenn sie rekursiv mit synthetischen Daten trainiert werden. Was passiert, wenn Nuancen und seltene Meinungen – die sogenannten „Tails“ – einfach verschwinden?. Der linguistische Fingerabdruck: Warum Begriffe wie „delve into“ oder „explore“ plötzlich das Web überfluten und was das über die stille Übernahme durch Large Language Models (LLMs) aussagt. Journalismus als „sauberes Wasser“: In einem Ozean aus Fake-News und Deepfakes wird menschlicher Journalismus zur überlebenswichtigen Ressource. Wir besprechen, warum echte Reporter die einzige Barriere gegen den totalen Informationskollaps sind. Wirtschaft vs. Realität: Trotz gigantischer Investitionen bleibt der reale wirtschaftliche Nutzen von KI oft hinter den Erwartungen zurück. Wir werfen einen Blick auf die Robotaxi-Kriege zwischen Waymo, Tesla und chinesischen Playern wie Pony.ai. Die „Epistemische Steuer“: Wie viel wird es uns in Zukunft kosten, die Wahrheit überhaupt noch verifizieren zu können?. Warum du diese Folge hören solltest: Wenn du verstehen willst, warum wir uns in Richtung einer „Synthetischen Realität“ bewegen und wie du in Zeiten von Hyperpersonalisierung und algorithmischer Manipulation deine „epistemische Hygiene“ bewahrst, ist diese Analyse unverzichtbar. Jetzt abonnieren und eintauchen in die kritischste Debatte der Tech-Welt! #KI #KünstlicheIntelligenz #ModelCollapse #AISlop #TechTrends2026 #Journalismus #DigitaleInzucht #Deepfakes #FutureOfTech #Innovation #DataScience #Robotaxi #TechPodcast (Hinweis: Diese Podcast-Folge wurde mit Unterstützung und Strukturierung durch Google's NotebookLM erstellt.)

    2 Min.
  4. 29. JAN.

    016 LLM Council: Wie kollektive KI-Intelligenz jeden Bias besiegt

    Folgennummer: L016 Titel: LLM Council: Wie kollektive KI-Intelligenz jeden Bias besiegt Vertrauen Sie der Antwort einer einzelnen KI blind? Ob ChatGPT, Claude oder Gemini – jedes Large Language Model (LLM) hat seine eigenen Blind Spots und Biases. In dieser Episode beleuchten wir das bahnbrechende Konzept des LLM Council, das von Andrej Karpathy (Mitgründer von OpenAI) als "fun Saturday hack" ins Leben gerufen wurde und nun die KI-Welt revolutioniert. Das Problem: Der "Single Point of Failure" in der KI Wer nur eine KI befragt, riskiert Fehlentscheidungen durch systematisches Halluzinieren oder versteckte Voreingenommenheiten. Aktuelle Forschung zeigt, dass KI-Modelle als "Richter" oft unzuverlässig sind: Self-Enhancement Bias: KIs bevorzugen tendenziell Antworten, die ihrem eigenen Stil entsprechen. Verbosity Bias: Längere Antworten werden oft fälschlicherweise als besser bewertet. Position Bias: Die Reihenfolge der Antworten beeinflusst das Urteil. Die Lösung: Ein digitaler Aufsichtsrat Ein LLM Council bricht dieses Monopol auf, indem es mehrere Spitzenmodelle (z. B. GPT-4o, Claude 3.5, Gemini) in einem strukturierten Prozess zusammenführt: Stage 1: First Opinions – Mehrere Modelle antworten unabhängig voneinander. Stage 2: Anonymous Review – Die KIs bewerten die Antworten der Konkurrenten anonymisiert, um Sympathien für bestimmte Anbieter auszuschließen. Stage 3: Critique – Schwachstellen und logische Fehler werden im gegenseitigen Diskurs "gnadenlos" aufgedeckt. Stage 4: Chairman Synthesis – Ein designierter "Vorsitzender" (Chairman) fasst die gesamte Debatte zu einer finalen, belastbaren Antwort zusammen. Warum das für Unternehmen im DACH-Raum wichtig ist: Für geschäftskritische Entscheidungen, juristische Dokumentenprüfung oder automatisierte Code-Reviews fungiert der Council wie ein kostenloser digitaler Beirat. Studien belegen: Die kollektive Intelligenz eines LLM Councils korreliert deutlich stärker mit menschlichen Experten-Urteilen als jede Einzel-KI. Was Sie in dieser Folge lernen: Wie Sie Tools wie OpenRouter und Frameworks wie Council (chain-ml) nutzen, um Ihren eigenen KI-Rat aufzubauen. Warum ein Council-Meeting zwar mehr Token verbraucht, aber bei strategischen Fragen einen massiven ROI bietet (ca. 5–20 Cent pro Abfrage). Der Weg zur Collective Constitutional AI (CCAI), um Modelle an öffentlichen Werten auszurichten. Egal ob Sie Software-Entwickler, Business-Entscheider oder KI-Enthusiast sind – erfahren Sie, warum die Zukunft der Künstlichen Intelligenz nicht in einem einzelnen "Superhirn", sondern in der Kollaboration und Debatte liegt. (Hinweis: Diese Podcast-Folge wurde mit Unterstützung und Strukturierung durch Google's NotebookLM erstellt.)

    18 Min.
  5. TRAILER ZUR STAFFEL 2, FOLGE 4

    016 Quicky LLM Council: Wie kollektive KI-Intelligenz jeden Bias besiegt

    Folgennummer: Q016 Titel: LLM Council: Wie kollektive KI-Intelligenz jeden Bias besiegt Vertrauen Sie der Antwort einer einzelnen KI blind? Ob ChatGPT, Claude oder Gemini – jedes Large Language Model (LLM) hat seine eigenen Blind Spots und Biases. In dieser Episode beleuchten wir das bahnbrechende Konzept des LLM Council, das von Andrej Karpathy (Mitgründer von OpenAI) als "fun Saturday hack" ins Leben gerufen wurde und nun die KI-Welt revolutioniert. Das Problem: Der "Single Point of Failure" in der KI Wer nur eine KI befragt, riskiert Fehlentscheidungen durch systematisches Halluzinieren oder versteckte Voreingenommenheiten. Aktuelle Forschung zeigt, dass KI-Modelle als "Richter" oft unzuverlässig sind: Self-Enhancement Bias: KIs bevorzugen tendenziell Antworten, die ihrem eigenen Stil entsprechen. Verbosity Bias: Längere Antworten werden oft fälschlicherweise als besser bewertet. Position Bias: Die Reihenfolge der Antworten beeinflusst das Urteil. Die Lösung: Ein digitaler Aufsichtsrat Ein LLM Council bricht dieses Monopol auf, indem es mehrere Spitzenmodelle (z. B. GPT-4o, Claude 3.5, Gemini) in einem strukturierten Prozess zusammenführt: Stage 1: First Opinions – Mehrere Modelle antworten unabhängig voneinander. Stage 2: Anonymous Review – Die KIs bewerten die Antworten der Konkurrenten anonymisiert, um Sympathien für bestimmte Anbieter auszuschließen. Stage 3: Critique – Schwachstellen und logische Fehler werden im gegenseitigen Diskurs "gnadenlos" aufgedeckt. Stage 4: Chairman Synthesis – Ein designierter "Vorsitzender" (Chairman) fasst die gesamte Debatte zu einer finalen, belastbaren Antwort zusammen. Warum das für Unternehmen im DACH-Raum wichtig ist: Für geschäftskritische Entscheidungen, juristische Dokumentenprüfung oder automatisierte Code-Reviews fungiert der Council wie ein kostenloser digitaler Beirat. Studien belegen: Die kollektive Intelligenz eines LLM Councils korreliert deutlich stärker mit menschlichen Experten-Urteilen als jede Einzel-KI. Was Sie in dieser Folge lernen: Wie Sie Tools wie OpenRouter und Frameworks wie Council (chain-ml) nutzen, um Ihren eigenen KI-Rat aufzubauen. Warum ein Council-Meeting zwar mehr Token verbraucht, aber bei strategischen Fragen einen massiven ROI bietet (ca. 5–20 Cent pro Abfrage). Der Weg zur Collective Constitutional AI (CCAI), um Modelle an öffentlichen Werten auszurichten. Egal ob Sie Software-Entwickler, Business-Entscheider oder KI-Enthusiast sind – erfahren Sie, warum die Zukunft der Künstlichen Intelligenz nicht in einem einzelnen "Superhirn", sondern in der Kollaboration und Debatte liegt. (Hinweis: Diese Podcast-Folge wurde mit Unterstützung und Strukturierung durch Google's NotebookLM erstellt.)

    2 Min.
  6. 22. JAN.

    015 Humanoide Roboter – Industrie-Revolution oder Cyber-Falle?

    Folgennummer: L015  Titel: Humanoide Roboter – Industrie-Revolution oder Cyber-Falle? In dieser Episode tauchen wir tief in das wohl spannendste Technologiefeld der Gegenwart ein: Humanoide Roboter. Was jahrelang als Science-Fiction galt, wandelt sich in rasantem Tempo zur industriellen Realität. Wir analysieren, ob wir vor einem globalen Durchbruch stehen oder ob die technischen und sicherheitstechnischen Hürden noch zu unterschätzen sind. Wir werfen einen exklusiven Blick auf das BMW Group Werk Spartanburg, wo der humanoide Roboter Figure 02 einen Meilenstein gesetzt hat. Über mehrere Wochen legte er erfolgreich Blechteile für die Fahrwerksproduktion ein und bewies dabei eine taktile Präzision im Millimeterbereich. Mit der dreifachen Rechenleistung seines Vorgängers und Händen, die der menschlichen Kraft erstaunlich nah kommen, markiert dieser Pilotversuch den Übergang vom Labor in die echte Werkhalle. Wir diskutieren die harten Fakten des 11-monatigen Projekts: 10-Stunden-Schichten, über 90.000 geladene Teile und die steile Lernkurve bei der Hardware-Zuverlässigkeit. Ein besonderer Fokus dieser Folge liegt auf der DACH-Region. Eine Detail-Analyse zeigt eine enorme Chance für den Standort: 244 Hardware-Komponenten eines humanoiden Roboters – von Elektromotoren bis zu Präzisionsgetrieben – entsprechen exakt den Kernkompetenzen des deutschen Maschinenbaus. Während China aktuell mit 39 % der Unternehmen den Markt dominiert, positionieren sich deutsche Pioniere wie Neura Robotics und igus bereits für den weltweiten Wettbewerb. Doch wir bei KI Affairs blicken auch auf die Schattenseiten. Wir diskutieren die brisanten Sicherheitsanalysen von Alias Robotics zum chinesischen Unitree G1. Die Forscher entdeckten, dass sensible Video-, Audio- und Raumdaten ohne explizites Wissen der Nutzer an externe Server übertragen wurden. Wir klären auf, warum statische Verschlüsselungsschlüssel und veraltete Software diese Maschinen zu potenziellen „Trojanischen Pferden“ für Industriespionage machen könnten. Die Themen dieser Folge im Überblick: Der BMW-Erfolg: Wie Figure 02 die Karosseriebau-Mitarbeiter von ergonomisch ungünstigen Aufgaben entlastet. Studie des Fraunhofer IPA: Warum 74 % der Experten einen flächendeckenden Einsatz erst in 3 bis 10 Jahren sehen und weshalb die funktionale Sicherheit aktuell das größte Hindernis für den Mischbetrieb mit Menschen bleibt. Wirtschaftlichkeit: Ab wann rechnet sich ein Roboter für 100.000 Euro? Wir sprechen über Amortisationszeiten von unter 1,4 Jahren. Cybersecurity-Check: Die riskanten Sicherheitslücken des Unitree G1 und die Notwendigkeit von „Cybersecurity AI“. Egal ob Ingenieur, Entscheider oder Technik-Enthusiast – diese Folge liefert Ihnen das notwendige Wissen über die nächste Stufe der Automatisierung. Experten prognostizieren ein Marktwachstum auf bis zu 66 Milliarden Dollar bis 2032. Seien Sie dabei, wenn wir die Zukunft der Arbeit entschlüsseln. Hat dir die Folge gefallen? Dann abonniere unseren Podcast und hinterlasse eine Bewertung! ⭐⭐⭐⭐⭐ (Hinweis: Diese Podcast-Folge wurde mit Unterstützung und Strukturierung durch Google's NotebookLM erstellt.)

    15 Min.
  7. TRAILER ZUR STAFFEL 2, FOLGE 3

    015 Quicky Humanoide Roboter – Industrie-Revolution oder Cyber-Falle

    Folgennummer: Q015 Titel: Humanoide Roboter – Industrie-Revolution oder Cyber-Falle? In dieser Episode tauchen wir tief in das wohl spannendste Technologiefeld der Gegenwart ein: Humanoide Roboter. Was jahrelang als Science-Fiction galt, wandelt sich in rasantem Tempo zur industriellen Realität. Wir analysieren, ob wir vor einem globalen Durchbruch stehen oder ob die technischen und sicherheitstechnischen Hürden noch zu unterschätzen sind. Wir werfen einen exklusiven Blick auf das BMW Group Werk Spartanburg, wo der humanoide Roboter Figure 02 einen Meilenstein gesetzt hat. Über mehrere Wochen legte er erfolgreich Blechteile für die Fahrwerksproduktion ein und bewies dabei eine taktile Präzision im Millimeterbereich. Mit der dreifachen Rechenleistung seines Vorgängers und Händen, die der menschlichen Kraft erstaunlich nah kommen, markiert dieser Pilotversuch den Übergang vom Labor in die echte Werkhalle. Wir diskutieren die harten Fakten des 11-monatigen Projekts: 10-Stunden-Schichten, über 90.000 geladene Teile und die steile Lernkurve bei der Hardware-Zuverlässigkeit. Ein besonderer Fokus dieser Folge liegt auf der DACH-Region. Eine Detail-Analyse zeigt eine enorme Chance für den Standort: 244 Hardware-Komponenten eines humanoiden Roboters – von Elektromotoren bis zu Präzisionsgetrieben – entsprechen exakt den Kernkompetenzen des deutschen Maschinenbaus. Während China aktuell mit 39 % der Unternehmen den Markt dominiert, positionieren sich deutsche Pioniere wie Neura Robotics und igus bereits für den weltweiten Wettbewerb. Doch wir bei KI Affairs blicken auch auf die Schattenseiten. Wir diskutieren die brisanten Sicherheitsanalysen von Alias Robotics zum chinesischen Unitree G1. Die Forscher entdeckten, dass sensible Video-, Audio- und Raumdaten ohne explizites Wissen der Nutzer an externe Server übertragen wurden. Wir klären auf, warum statische Verschlüsselungsschlüssel und veraltete Software diese Maschinen zu potenziellen „Trojanischen Pferden“ für Industriespionage machen könnten. Die Themen dieser Folge im Überblick: Der BMW-Erfolg: Wie Figure 02 die Karosseriebau-Mitarbeiter von ergonomisch ungünstigen Aufgaben entlastet. Studie des Fraunhofer IPA: Warum 74 % der Experten einen flächendeckenden Einsatz erst in 3 bis 10 Jahren sehen und weshalb die funktionale Sicherheit aktuell das größte Hindernis für den Mischbetrieb mit Menschen bleibt. Wirtschaftlichkeit: Ab wann rechnet sich ein Roboter für 100.000 Euro? Wir sprechen über Amortisationszeiten von unter 1,4 Jahren. Cybersecurity-Check: Die riskanten Sicherheitslücken des Unitree G1 und die Notwendigkeit von „Cybersecurity AI“. Egal ob Ingenieur, Entscheider oder Technik-Enthusiast – diese Folge liefert Ihnen das notwendige Wissen über die nächste Stufe der Automatisierung. Experten prognostizieren ein Marktwachstum auf bis zu 66 Milliarden Dollar bis 2032. Seien Sie dabei, wenn wir die Zukunft der Arbeit entschlüsseln. Hat dir die Folge gefallen? Dann abonniere unseren Podcast und hinterlasse eine Bewertung! ⭐⭐⭐⭐⭐ (Hinweis: Diese Podcast-Folge wurde mit Unterstützung und Strukturierung durch Google's NotebookLM erstellt.)

    3 Min.
  8. 15. JAN.

    014 Digitale Schatten - Wenn die KI zur Waffe wird

    Folgennummer: L014  Titel: Digitale Schatten - Wenn die KI zur Waffe wird Stellen Sie sich vor, Sie sitzen in einer Videokonferenz mit Ihrem Chef und mehreren Kollegen. Alles wirkt normal, die Stimmen sind vertraut, die Gesichter bekannt. Doch am Ende des Gesprächs haben Sie gerade 25,6 Millionen US-Dollar an Betrüger überwiesen. Was wie ein Science-Fiction-Thriller klingt, wurde für ein multinationales Unternehmen in Hongkong zur bitteren Realität. In dieser Episode von „Digitale Schatten“ tauchen wir tief in die Welt der KI-gestützten Kriminalität ein. Wir analysieren den spektakulären Fall der Firma Arup, bei dem ein Mitarbeiter durch eine täuschend echte Deepfake-Videokonferenz dazu verleitet wurde, in 15 Transaktionen Millionenbeträge auf fremde Konten zu überweisen. Dieser Vorfall markiert einen Wendepunkt in der Cybersicherheit: „Sehen heißt nicht mehr länger Glauben“. Was Sie in dieser Folge lernen: Die Anatomie des Deepfake-Betrugs: Wie Kriminelle öffentlich zugängliches Material wie Interviews oder Webinare nutzen, um Stimmen und Gesichter perfekt zu imitieren. Synthetische Identitäten (SIF): Wir erklären, wie Betrüger aus echten Datenfetzen (oft von Kindern oder Verstorbenen) und erfundenen Informationen „Geister-Identitäten“ erschaffen, um Kredite zu erschleichen und ganze Branchen zu täuschen. Gefahr für die Chefetage: Warum CEOs und CFOs besonders im Visier stehen und wie Deepfakes den Ruf einer Marke über Nacht ruinieren können. Betrug im Recruiting: Wie KI-generierte Bewerber versuchen, sich in Unternehmen einzuschleichen, um Zugang zu sensiblen Daten zu erhalten. Face Morphing bei Pässen: Wie manipulierte Passbilder die Grenzkontrollen vor neue Herausforderungen stellen. Prävention und Schutzstrategien: Technologie allein reicht nicht aus. Wir diskutieren, warum Mitarbeiterschulungen die erste Verteidigungslinie sind und warum Unternehmen auf Multi-Kanal-Verifizierung und Zero-Trust-Modelle setzen müssen. Erfahren Sie außerdem, wie neue KI-basierte Detektions-Tools wie „Clarity“ oder „secunet“ Anomalien in Millisekunden erkennen, die für das menschliche Auge unsichtbar sind. Dieser Podcast ist ein Muss für Führungskräfte, IT-Sicherheitsexperten und alle, die sich in der DACH-Region (Deutschland, Österreich, Schweiz) gegen die wachsende Flut von KI-Manipulation wappnen wollen. (Hinweis: Diese Podcast-Folge wurde mit Unterstützung und Strukturierung durch Google's NotebookLM erstellt.)

    14 Min.

Trailer

Info

KI Affairs: Der Podcast zur kritischen und prozessorientierten Betrachtung Künstlicher Intelligenz. Wir beleuchten die Highlights der Technologie, ebenso wie die Schattenseiten und aktuellen Schwächen (z.B. Bias, Halluzinationen, Risikomanagement). Ziel ist, uns aller der Möglichkeiten und Gefahren bewusst zu sein, um die Technik zielgerichtet und kontrolliert einzusetzen. Wenn Dir dieses Format gefällt, folge mir und hinterlasse mir gerne Deinen Kommentar. Ausführliche Berichte zu den Folgen findet Ihr auch im Blog unter kiaffairs.blogspot.com

Das gefällt dir vielleicht auch