Choses à Savoir TECH

Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  1. Pourquoi Meta externalise la création de ses chatbots IA ?

    1 DAY AGO

    Pourquoi Meta externalise la création de ses chatbots IA ?

    Depuis 2023, Meta s’est lancé dans une drôle d’aventure : peupler Instagram, Messenger et WhatsApp de chatbots personnalisés. Au départ, ils prenaient les traits de célébrités, comme un gadget marketing. Puis l’entreprise a ouvert son outil AI Studio, permettant à chacun de créer ses propres personnages. Mais pour les marchés internationaux, ce sont des freelances chevronnés qui s’en chargent. Meta les recrute en hindi, espagnol, indonésien ou portugais, avec un profil exigeant : au moins six ans d’expérience en narration et en conception de personnages. Leur mission ? Donner vie à ces bots. Ils choisissent un vocabulaire adapté, conçoivent une personnalité cohérente et ajustent chaque interaction au contexte culturel local. Les dialogues ne doivent pas seulement être fluides : ils doivent sonner vrai pour l’utilisateur, qu’il soit en Amérique latine, en Inde ou en Asie du Sud-Est. Cette attention au détail n’a rien d’anodin. Car Meta garde en mémoire des dérapages passés. Selon Reuters, certains bots avaient pu fournir de fausses informations médicales, tenir des propos racistes, voire entretenir des conversations sexuelles avec des mineurs. Désormais, les freelances surveillent et corrigent les dialogues en continu, traquant les informations personnelles et ajustant les réponses pour rester dans des limites claires. Dans tous les cas, Meta cherche à maintenir l’équilibre : offrir des personnages attractifs, mais éviter les dérapages. La rémunération suit la complexité de la tâche. Meta propose jusqu’à 55 dollars de l’heure à ses freelances. Une somme élevée, mais qui reflète la minutie du travail : écrire des dialogues naturels dans plusieurs langues, bâtir des personnalités crédibles et vérifier en permanence que les conversations restent pertinentes. Derrière l’image ludique de ces chatbots, on découvre une réalité bien plus sérieuse : Meta veut transformer ces personnages virtuels en un canal de communication incontournable, calibré au mot près, et surveillé de près. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    2 min
  2. Pourquoi l’iPhone coûte plus cher en France ?

    2 DAYS AGO

    Pourquoi l’iPhone coûte plus cher en France ?

    L’iPhone 17 est arrivé, et une fois encore, les Français vont devoir casser leur tirelire un peu plus que les autres. Selon une étude publiée par Compare the Market, la France se classe en tête des pays où l’iPhone est le plus cher. Ici, il faut débourser en moyenne 1178,60 €, soit plus de 325 € de plus qu’au Canada. Une différence qui interroge : pourquoi un tel écart ? Premier élément de réponse : la TVA. En France, elle est fixée à 20 %, alors qu’aux États-Unis, les prix affichés sont hors taxes. Résultat : un iPhone 15 Pro Max vendu 1199 dollars outre-Atlantique, soit environ 1131 € hors taxes, grimpe à 1479 € TTC une fois sur les étagères françaises. Même avec les taxes locales américaines, souvent inférieures à 7 %, l’écart reste conséquent. Apple rappelle que ses tarifs sont ajustés en fonction de plusieurs paramètres : les taux de change, les lois d’importation, les réglementations locales, mais aussi les coûts logistiques. Et ces coûts, en Europe, sont souvent plus élevés. À cela s’ajoute la garantie légale de deux ans imposée par Bruxelles, contre un an seulement aux États-Unis. Une protection pour le consommateur, mais qui se répercute sur le prix final. Il faut aussi compter les frais de douane : importer un iPhone depuis l’Amérique du Nord en vue de le revendre en France entraîne un surcoût de 20 % sur les produits électroniques, auquel s’ajoutent des frais de transport et de gestion. De quoi décourager les chasseurs de bonnes affaires à l’international. Autre facteur : l’adaptation technique. Les iPhone vendus en Europe sont calibrés pour nos réseaux mobiles. Une étape qui entraîne des coûts supplémentaires de certification et de production. Résultat : le prix grimpe d’année en année. À titre de comparaison, depuis l’iPhone 5, le coût moyen d’un modèle haut de gamme a presque doublé. Aujourd’hui, l’iPhone 17 démarre à 969 € dans sa version de base avec 256 Go. Pour la version Pro, comptez 1329 €, et jusqu’à 2479 € pour le Pro Max doté de la plus grande capacité de stockage. En clair, l’iPhone reste un produit star en France… mais aussi un luxe de plus en plus assumé. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    2 min
  3. Un casque pour discuter avec l’IA par la pensée ?

    3 DAYS AGO

    Un casque pour discuter avec l’IA par la pensée ?

    En 2018, le MIT Media Lab dévoilait un prototype intrigant : un dispositif capable de transformer des mots « dits dans la tête » en texte. L’appareil reposait sur des électrodes fixées autour du visage, enregistrant les minuscules signaux neuromusculaires émis lorsque nous subvocalisons. « Il ne s’agit pas de lire les pensées mais de traduire ce que l’on choisit de formuler intérieurement », expliquait alors Arnav Kapur, à l’origine du projet. Sept ans plus tard, ce travail est devenu AlterEgo, une start-up qu’il a cofondée et qui propose un casque de communication presque invisible. L’idée : dialoguer avec une intelligence artificielle sans prononcer un mot, ni donner le moindre signe extérieur. À Cambridge, les premiers tests utilisaient seize électrodes pour décoder un vocabulaire limité. Après optimisation, seulement quatre suffisaient, avec un taux de précision atteignant 92 %. Dans une démonstration récente, Arnav Kapur et son associé Max Newlon utilisent leur casque pour interroger ChatGPT en silence : les réponses s’affichent ou se font entendre uniquement pour eux. « On peut taper à la vitesse de la pensée », résume Newlon. Le casque reprend ce principe dans une version compacte. Les capteurs traduisent la parole intérieure, la transmettent à une IA, et la réponse revient par conduction osseuse : de petites vibrations dirigent le son vers l’oreille interne, sans obstruer le conduit auditif. L’utilisateur peut donc interagir avec son environnement, un atout que soulignait déjà la professeure Pattie Maes, encadrante du projet, pour qui sortir un téléphone coupe toujours le fil d’une conversation. L’appareil permet déjà d’écrire un message, de lancer une recherche en ligne ou de contrôler une application uniquement par la pensée formulée. Une caméra frontale ajoute une dimension contextuelle : l’IA peut analyser la scène et répondre en tenant compte de l’environnement visuel. Les usages potentiels sont vastes : communication dans des environnements bruyants comme les aéroports ou les ponts d’envol, échanges discrets lors d’opérations sensibles, ou encore aide aux personnes privées de voix, à l’image de l’acteur Val Kilmer. AlterEgo ouvre dès maintenant un accès anticipé pour les curieux. Mais pour une commercialisation grand public, il faudra encore patienter : aucune date officielle n’a été annoncée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    3 min
  4. Villager : l’outil de cybersécurité qui inquiète les chercheurs ?

    6 DAYS AGO

    Villager : l’outil de cybersécurité qui inquiète les chercheurs ?

    Depuis cet été, un nouvel outil circule librement sur l'index Python et suscite inquiétude chez les spécialistes de la cybersécurité. Baptisé Villager, ce framework se présente comme un assistant automatisé de tests d'intrusion — cartographie d’un système, reconnaissance, exploitation, installation de mécanismes de persistance — le tout piloté par de l’intelligence artificielle. Publié sur PyPI et téléchargé des milliers de fois en quelques semaines, il s’annonce comme une aide moderne pour les pentesters. Sauf que, en creusant, des chercheurs de l’entreprise Straiker ont dressé un tout autre portrait : Villager serait lié à une entité chinoise aux pratiques opaques et recyclerait des composants déjà vus dans des malwares offensifs. Conçu pour automatiser des workflows, Villager orchestre des conteneurs, lance des scanners adaptés au contexte et génère des charges utiles, le tout à partir d’instructions en langage naturel. L’outil embarque une large bibliothèque de « prompts » préconfigurés et une interface pour suivre les campagnes en temps réel — caractéristiques utiles en audit, mais dangereuses si elles tombent entre de mauvaises mains. Straiker a surtout mis au jour des réutilisations problématiques : l’infrastructure de Villager s’appuie sur des éléments d’un projet antérieur dont les modules correspondaient à des fonctionnalités de cheval de Troie connues — keylogger, vol de comptes, accès webcam, outils d’exfiltration — déjà détournées par des opérateurs malveillants. L’autre inquiétude tient à la voie de diffusion. PyPI est massivement intégré aux processus de développement, d’intégration continue et de déploiement. Un paquet publié sur cet index peut être importé automatiquement dans des environnements sensibles sans contrôle humain, transformant une dépendance innocente en vecteur d’intrusion. De plus, le caractère modulaire et éphémère de l’outil — conteneurs configurés pour s’autodétruire et effacer les traces — complique la détection et l’analyse post-incident. Face à cette menace émergente, les équipes de sécurité recommandent des mesures pratiques mais non techniques dans leurs principes : restreindre l’installation de paquets non validés en production, surveiller et auditer l’apparition de conteneurs non autorisés, renforcer la supervision des flux sortants et des scans réseau, et formaliser un processus d’approbation pour tout agent d’automatisation fondé sur l’IA. Les autorités et la communauté open source sont aussi appelées à renforcer la gouvernance de dépôts publics afin d’éviter que des outils ambivalents ne deviennent, en quelques clics, des armes faciles d’accès. Villager illustre un nouveau pari technologique — l’automatisation IA des audits — qui peut servir la défense comme l’attaque. La question pour les entreprises et les régulateurs est désormais de réussir à encadrer ces innovations avant qu’elles ne fassent basculer la balance en faveur des cybercriminels. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    3 min
  5. Un bouton d’arrêt d’urgence dans les puces IA ?

    24 SEPT

    Un bouton d’arrêt d’urgence dans les puces IA ?

    À Santa Clara, Richard Ho, patron du hardware chez OpenAI et ancien architecte des TPU de Google, a livré un message sans détour : les garde-fous purement logiciels ne suffisent plus. Selon lui, les futurs systèmes d’intelligence artificielle devront intégrer des freins physiques, inscrits directement dans le matériel, pour garantir un contrôle ultime quand un modèle dévie. « Les modèles sont vraiment retors », a-t-il lancé, plaidant pour que l’arrêt ne repose plus seulement sur le code ou l’orchestration des serveurs. L’idée n’est pas de débrancher brutalement une IA au moindre doute, mais de doter les puces et cartes de signaux, seuils et verrous capables d’interrompre toute action anormale. C’est une étape dans la stratégie d’OpenAI visant une infrastructure « intrinsèquement sûre », testable de bout en bout. Le timing n’est pas anodin : avec des agents désormais persistants, interconnectés et capables d’agir hors du regard des utilisateurs, le risque de dérives discrètes grandit. Concrètement, OpenAI mise sur une combinaison d’« interrupteurs » matériels, de télémétrie fine et d’isolement via des enclaves sécurisées. À cela s’ajoutent attestation cryptographique, firmware minimaliste et chemins d’exécution supervisés. L’objectif est clair : imposer des politiques de sécurité au plus près du calcul, au niveau de la puce, de la carte et du rack. Car l’expérience l’a montré : certains modèles ont déjà contourné des mécanismes logiciels censés les stopper. D’où l’intérêt d’un kill switch matériel, hors de portée du modèle, et activable depuis l’extérieur. Le débat dépasse désormais le cercle des laboratoires. Régulateurs et chercheurs réclament des standards matériels, du registre des puces jusqu’aux limites intégrées d’usage. Le Royaume-Uni va même jusqu’à soutenir le développement de kill switches industriels, preuve que le sujet gagne en urgence politique. Un changement de paradigme se dessine : la sécurité ne sera plus seulement un protocole d’exploitation, mais un attribut de conception, gravé au plus près du silicium. Prochain jalon attendu : prouver que ces freins matériels tiennent leurs promesses sans étouffer l’élan des prochains modèles d’IA généralistes.   Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    2 min
  6. Le Data Act nous permet de reprendre en main nos données personnelles ?

    23 SEPT

    Le Data Act nous permet de reprendre en main nos données personnelles ?

    Depuis le mois de septembre, le Data Act s’applique dans toute l’Europe. Ce règlement, entré en vigueur en janvier dernier, prend enfin corps après neuf mois de délai. Son objectif est clair : redonner aux citoyens et aux entreprises la main sur les données générées par leurs objets connectés. Smartphone dans la poche, montre au poignet, voiture dans le garage, mais aussi machines industrielles ou dispositifs médicaux : tout ce qui produit des données est concerné, à l’exception des infrastructures publiques et des prototypes. La promesse de Bruxelles est simple : « Le règlement donne aux utilisateurs le contrôle des données générées par leurs appareils ». Mais qu’est-ce que cela change, concrètement ? Jusqu’ici, chaque constructeur gardait jalousement la main. Apple décidait pour votre iPhone, Samsung pour votre montre connectée. Désormais, vous pouvez récupérer les données brutes et les utiliser comme bon vous semble : les analyser, les transférer ou les confier à d’autres prestataires. Dans l’automobile, la bascule est spectaculaire : les données de conduite et d’entretien, autrefois réservées au constructeur, peuvent désormais être partagées avec votre garagiste ou une startup de mobilité. Même logique pour les usines, qui accèdent enfin à l’ensemble des données de leurs machines, quel que soit le fabricant. Le Data Act frappe aussi un autre verrou : le cloud. Changer de fournisseur relevait du parcours du combattant. Migrer ses données de AWS à Google ou Microsoft coûtait une fortune. Désormais, un prestataire a 30 jours pour vous aider à basculer, avec obligation de fournir tous les outils nécessaires. Depuis janvier, les transferts sont facturés au prix coûtant, et à partir de 2027, ils devront être gratuits pour un déménagement définitif. Une révolution silencieuse, déjà anticipée par Google et Microsoft qui offrent des migrations gratuites en Europe. Seule nuance : les frais persistent pour les entreprises utilisant plusieurs clouds simultanément. Pour les récalcitrants, la facture sera salée : jusqu’à 20 millions d’euros d’amende, ou 4 % du chiffre d’affaires mondial. Bruxelles se veut toutefois pédagogue : assistance juridique dédiée et modèles de contrats sont déjà prévus pour accompagner les entreprises. Le message est clair : l’ère des données captives touche à sa fin. Place à un écosystème plus ouvert… mais aussi à une bataille féroce autour de leur exploitation. -- Cet épisode est sponsorisé par Freelance Informatique, la plateforme qui met en relation consultants indépendants et entreprises clientes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    2 min
  7. Les lunettes connectées de Meta vont remplacer nos smartphones ?

    22 SEPT

    Les lunettes connectées de Meta vont remplacer nos smartphones ?

    Les lunettes connectées, ce vieux rêve de la tech, reprennent des couleurs. Meta revient en force avec deux modèles aux ambitions bien distinctes : les Ray-Ban Display, qui intègrent un petit écran dans un coin de votre vision, et les Oakley Meta Vanguard, conçues pour les sportifs, avec caméra embarquée, coaching et résistance à toute épreuve. Deux approches, mais une même promesse : faire des lunettes le nouvel accès naturel à l’intelligence artificielle. Assistant vocal, navigation contextuelle, traduction instantanée, capture sur le vif… Meta veut transformer un accessoire du quotidien en passerelle numérique. Avec les Ray-Ban Display, pas question de plonger dans un univers virtuel. L’idée est plus subtile : afficher discrètement un itinéraire, une notification urgente ou la réponse d’un assistant IA dans le coin de votre œil droit. Le tout se pilote grâce au Neural Band, un bracelet qui capte l’activité électrique des muscles : un simple geste de la main suffit pour interagir. L’appareil reprend la formule des Ray-Ban Meta « Gen 2 » : caméra 3K Ultra HD, micros et haut-parleurs open-ear, mais ajoute une puce Qualcomm AR1 pour plus d’intelligence embarquée. Comptez 6 heures d’autonomie et 799 dollars avec le bracelet, pour un lancement en septembre aux États-Unis. En Europe, il faudra patienter jusqu’en 2026, avec un tarif qui devrait dépasser largement les 379 euros de la première génération. Les « Gen 2 », elles, sont déjà disponibles à partir de 419 euros. Changement de cible avec les Oakley Meta Vanguard. Ici, pas d’écran, mais une orientation 100 % action. Caméra centrale 3K, micros résistants au vent, son calibré pour être entendu à vélo, résistance IP67 et autonomie de 9 heures. L’accent est mis sur le coaching sportif, la stabilisation vidéo et la capture automatique des moments-clés, avec compatibilité Strava et Garmin. Lancement prévu le 21 octobre à 549 euros. Au-delà du produit, Meta joue une carte stratégique : partenariat renforcé avec EssilorLuxottica, trois milliards d’euros investis, et un cap clair vers le projet Orion, censé introduire de vraies lunettes de réalité augmentée. Sur le papier, tout est là : assistance contextuelle, commandes intuitives, IA ambiante. Mais reste l’éternelle question : lisibilité en plein soleil, fluidité des interactions, respect de la vie privée. Pour l’instant, les lunettes connectées séduisent surtout une niche. Mais si l’IA contextuelle tient ses promesses, elles pourraient bien remplacer votre smartphone… sans que vous sortiez la main de la poche. -- Cet épisode est sponsorisé par Freelance Informatique, la plateforme qui met en relation consultants indépendants et entreprises clientes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    3 min
  8. Pour quels usages utilise-t-on ChatGPT ? Open AI dévoile tout.

    21 SEPT

    Pour quels usages utilise-t-on ChatGPT ? Open AI dévoile tout.

    Trois ans après son lancement, ChatGPT fait l’objet d’une analyse inédite signée OpenAI. Réalisée avec des économistes et basée sur 1,5 million de conversations anonymisées, l’étude répond à trois questions clés : qui utilise l’assistant, pour quels usages, et quelle valeur économique en résulte. Verdict : l’adoption s’est accélérée, le profil des utilisateurs s’est diversifié et ChatGPT s’installe dans le quotidien. Mais tout n’est pas si simple : qualité, sécurité et fiabilité restent des enjeux majeurs. Premier enseignement : l’usage s’est démocratisé. Alors que les débuts étaient marqués par un public masculin et technophile, l’écart de genre s’est réduit et la proportion d’utilisatrices reflète désormais davantage la population générale. Autre tendance : la croissance est plus forte dans les pays à revenus faibles et moyens, loin de l’image d’un outil réservé aux économies les plus riches. En France, environ un quart de la population aurait déjà recours à l’IA générative. Mais la diffusion ne dit pas tout de la maturité. L’étude se concentre sur l’offre grand public, sans prendre en compte l’usage en entreprise, qui explose. Et malgré l’enthousiasme, les limites persistent : pannes spectaculaires — comme celle du 3 septembre dernier — et inquiétudes autour de la protection des mineurs ou de l’usage à l’école. OpenAI ajuste régulièrement ses règles, mais la question demeure : ChatGPT est-il devenu un indispensable du quotidien ou reste-t-il un outil d’appoint ? L’analyse distingue trois grands usages. « Asking » — poser des questions, demander un avis — représente environ la moitié des interactions. « Doing » — rédaction, planification, programmation — couvre quatre messages sur dix, souvent à visée professionnelle. Enfin, « Expressing » — créativité, réflexions personnelles, divertissement — reste minoritaire. En clair, ChatGPT agit surtout comme copilote ou conseiller, bien plus que comme simple générateur de contenus. Au travail, la rédaction domine largement, devant le code ou la créativité. Une logique qui suit l’évolution du produit : au texte se sont ajoutées la voix, la vidéo et les modèles multimodaux, comme Sora pour l’audiovisuel. Mais l’extension des fonctions ne gomme pas les défauts : les fameuses « hallucinations » persistent, malgré les explications récentes d’OpenAI. Selon l’étude, 30 % des usages concernent le travail, 70 % la sphère personnelle. Une double vie qui crée de vrais gains de productivité, mais seulement si les usages sont bien cadrés et supervisés. Reste la grande inconnue : la valeur créée. Une partie est non marchande — gain de temps, allègement mental — et échappe aux statistiques classiques. Une certitude : ChatGPT est désormais un outil grand public qui investit peu à peu le monde professionnel. La prochaine étape ? Des IA plus multimodales, plus vocales… mais surtout, espérons-le, plus fiables. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    3 min

About

Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

More From Choses à Savoir

You Might Also Like