📖 Achetez le livre de Stuart Armstrong sur l’IA
———
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
———
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky
———
👉 Laissez-moi un feedback anonyme
———
MES RECOMMANDATIONS
Mes livres préférés sur l’IA
Tous les livres que j’ai lus
Mon matériel high-tech
CyberGhost VPN
Riverside (Enregistrement de podcast)
Audible (Livres audio)
Kindle (eBooks)
Notion (Productivité)
———
TIME CODE
0:00 Introduction
0:25 Qu’est-ce que le problème de l’alignement ?
1:47 Pourquoi est-il si difficile à résoudre ?
7:01 Est-il possible de le résoudre ?
12:09 Les plans d’alignement des Big Tech
13:45 L’évolution du domaine de l’alignement
16:36 Le problème des humains malveillants
19:29 La super IA pourrait-elle s’auto-aligner ?
23:10 La super IA suivra-t-elle un objectif stupide ?
28:39 La super IA pourrait-elle changer de but ?
33:33 Faut-il vraiment aligner l’IA avec l’humain ?
38:28 Faut-il aligner les IA avec les animaux ?
42:27 Que penser du verrouillage des valeurs ?
46:00 Faut-il vraiment aligner les IA ?
49:31 Arrivera-t-on à aligner les IA à temps ?
51:48 Faut-il mettre l’IA en pause ?
53:01 Présentation d’Aligned AI
54:47 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Informations
- Émission
- FréquenceToutes les 2 semaines
- Publiée9 décembre 2024 à 17:00 UTC
- Durée56 min
- ClassificationTous publics