FAZ Wissen
In dieser Folge geht es um das neue Sprachmodell von OpenAI: "o1" soll besser darin sein, komplexe Überlegungen anzustellen - aber auch ein höheres Risiko in Bezug auf biologische, chemische und nukleare Waffen darstellen. Piotr Heller hat es ausprobiert und ist über die Fähigkeiten der KI bei Kreuzworträtseln enttäuscht. Petra Ahne fühlt sich an eine alte Debatte erinnert.
Mehr über die Angebote unserer Werbepartner finden Sie HIER
Die Links zu dieser Podcast-Folge:
- Auf einer Stufe mit der Atombome: Center for AI Safety
- "Mittleres" Risiko für chemische und biologische Waffen: Artikel bei der Financial Times
- Existenzielle Risiken im Fokus: Der "AI Safety Summit"
- Einer der "Godfathers of AI": Yoshua Bengio über Risiken von KI
Ihre Kommentare und Fragen mit Stichwort "Podcast" an: wissenschaft@faz.de
المعلومات
- البرنامج
- قناة
- معدل البثيتم التحديث أسبوعيًا
- تاريخ النشر١٧ ربيع الأول ١٤٤٦ هـ في ١:٥١ م UTC
- مدة الحلقة٢٩ من الدقائق
- الحلقة١٧٠
- التقييمملائم