C'est l'histoire d'un avocat new-yorkais qui voulait gagner du temps avec ChatGPT et qui a fini par citer des procès qui n'avaient jamais existé devant un juge. Comment une machine capable de réussir les examens de médecine peut-elle inventer des mensonges aussi grossiers avec un aplomb aussi parfait ?
Dans cet épisode de Génération IA, nous décortiquons le phénomène des hallucinations.
Vous allez découvrir :
🤥 Le mécanisme de l'autocorrecteur géant : Pourquoi l'IA ne cherche pas la vérité, mais la "plausibilité" (et pourquoi ça change tout).
🎓 Le syndrome du premier de la classe : L'IA préfère inventer une réponse élégante plutôt que d'avouer qu'elle ne sait pas.
🛡️ Le Vibe Coding de vérification : 3 astuces concrètes de prompt engineering pour empêcher l'IA de vous mentir (Grounding, demande de sources, autorisation d'ignorance).
Un épisode indispensable pour ne plus jamais prendre pour argent comptant ce que raconte votre assistant virtuel.
Informations
- Émission
- FréquenceDeux fois par semaine
- Publiée13 décembre 2025 à 10:34 UTC
- Durée6 min
- ClassificationTous publics
