Une vidéo largement partagée sur les réseaux sociaux prétend enseigner une méthode infaillible pour détecter les escrocs lors d'appels en visioconférence. Cependant, cette technique présente un défaut majeur : les cybercriminels ont également accès à cette information. Ces derniers ne se contentent plus de tentatives de séduction en ligne, mais visent directement les données bancaires et les virements frauduleux de leurs victimes. Notre chroniqueur économique Amid Faljaoui analyse pourquoi cette solution miracle pourrait déjà être obsolète. Imaginez recevoir un appel en visioconférence. Vous voyez votre interlocuteur, vous l'entendez parler, mais êtes-vous absolument certain que ce visage à l'écran n'est pas fabriqué par un logiciel en temps réel ? La réponse est non, et c'est exactement là que réside le problème. Personne ne peut plus être certain de l'authenticité d'un visage en vidéo, une réalité qui ouvre la porte à de nouvelles formes d'escroquerie particulièrement sophistiquées. Sur les réseaux sociaux, une créatrice de contenu propose une solution apparemment simple : demander à votre interlocuteur de passer sa main devant son visage. Si c'est un deepfake, ce faux visage généré par intelligence artificielle, le masque numérique devrait sauter et révéler la supercherie. Cette astuce, largement partagée, donne l'impression d'offrir une protection infaillible contre ces nouvelles arnaques numériques. Le problème majeur de cette méthode réside dans sa date de péremption, probablement déjà dépassée. Les outils de deepfake évoluent à une vitesse vertigineuse, et ce qui faisait bugger ces technologies hier ne les fait plus broncher aujourd'hui. La vidéo continue pourtant de circuler massivement, et les utilisateurs continuent de s'y fier aveuglément. Cette situation illustre un piège classique de la vulgarisation sur les réseaux sociaux. Contrainte par le format court de 40 à 60 secondes, l'information se simplifie et évacue les nuances essentielles. En matière de sécurité numérique, supprimer ces "oui mais" devient particulièrement dangereux, car cela crée une fausse impression de sécurité. Les deepfakes représentent aujourd'hui une menace économique réelle. Des escrocs utilisent le visage de patrons pour demander la validation de paiements urgents, ou se font passer pour des conseillers bancaires en visioconférence. Des entreprises, y compris en Belgique, perdent des dizaines de milliers d'euros sur des appels vidéo de quelques minutes seulement. Face à cette menace évolutive, les experts recommandent de ne jamais se fier à un seul test. Il faut multiplier les vérifications : demander un mouvement de profil (les deepfakes gèrent encore mal les rotations), vérifier la synchronisation entre les lèvres et le son, poser une question absurde pour observer les micro-expressions. Et surtout, en cas de doute sur un virement, raccrocher et rappeler sur un numéro trouvé indépendamment. Car un conseil de sécurité périmé s'avère pire qu'aucun conseil : il donne aux victimes la certitude, seule chose qui profite vraiment aux escrocs. --- La chronique économique d'Amid Faljaoui, tous les jours à 8h30 et à 17h30. Merci pour votre écoute Pour écouter Classic 21 à tout moment i: https://www.rtbf.be/radio/liveradio/classic21 ou sur l'app Radioplayer Belgique Retrouvez tous les épisodes de La chronique économique sur notre plateforme Auvio.be :https://auvio.rtbf.be/emission/802 Et si vous avez apprécié ce podcast, n'hésitez pas à nous donner des étoiles ou des commentaires, cela nous aide à le faire connaître plus largement. Découvrez nos autres podcasts : Le journal du Rock : https://audmns.com/VCRYfsPComic Street (BD) https://audmns.com/oIcpwibLa chronique économique : https://audmns.com/NXWNCrAHey Teacher : https://audmns.com/CIeSInQHistoires sombres du rock : https://audmns.com/ebcGgvkCollection 21 : https://audmns.com/AUdgDqHMystères et Rock’n Roll : https://audmns.com/pCrZihuLa mauvaise oreille de Freddy Tougaux : https://audmns.com/PlXQOEJRock&Sciences : https://audmns.com/lQLdKWRCook as You Are: https://audmns.com/MrmqALPNobody Knows : https://audmns.com/pnuJUlDPlein Ecran : https://audmns.com/gEmXiKzRadio Caroline : https://audmns.com/WccemSk Ainsi que nos séries :Rock Icons : https://audmns.com/pcmKXZHRock’n Roll Heroes: https://audmns.com/bXtHJucFever (Erotique) : https://audmns.com/MEWEOLp Et découvrez nos animateurs dans cette série Close to You : https://audmns.com/QfFankx Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.