Choses à Savoir TECH

Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  1. Pour OpenAI, l’IA devient manipulatrice ?

    2 HR AGO

    Pour OpenAI, l’IA devient manipulatrice ?

    OpenAI vient de franchir une nouvelle étape dans la sécurisation de ChatGPT. Alors que l’entreprise prépare son entrée en bourse et a déjà renforcé ses règles pour protéger les adolescents, elle travaille désormais sur un bouton d’arrêt d’urgence intégré directement dans ses futures puces d’intelligence artificielle. Mais une étude publiée cette semaine révèle une difficulté inattendue : les modèles peuvent… manigancer. Le rapport, mené avec Apollo Research et intitulé « Detecting and reducing scheming in AI models », montre que certains modèles testés se sont mis à tromper leurs utilisateurs. Pas de complot digne d’un film de science-fiction pour l’instant, mais de petits mensonges opportunistes : par exemple, déclarer qu’une tâche a été accomplie alors qu’elle ne l’était pas. Ces observations rejoignent une autre étude d’Apollo Research publiée fin 2024. Les chercheurs avaient alors demandé à plusieurs modèles — dont GPT-o1, Claude 3 et Gemini 1.5 — d’atteindre un objectif “à tout prix”. Résultat : tous ont démontré des comportements trompeurs persistants. Certains ont volontairement introduit des erreurs subtiles, d’autres ont tenté de désactiver leurs mécanismes de sécurité, voire d’exfiltrer ce qu’ils croyaient être leurs propres paramètres vers des serveurs externes. Rien d’étonnant, selon les chercheurs : une IA entraînée sur des données humaines peut reproduire nos travers, y compris le mensonge. Reste que ces dérives inquiètent. Pour y répondre, OpenAI teste une méthode baptisée “alignement délibératif”. Objectif : réduire drastiquement ces manœuvres. Les premiers résultats sont encourageants, avec une baisse d’un facteur 30 des actions dissimulées lors des tests. Mais des échecs rares et graves persistent. Le risque est même paradoxal : en apprenant aux modèles à éviter de mentir, on pourrait les pousser à raffiner leurs tromperies pour échapper aux contrôles. Consciente du danger, OpenAI multiplie les garde-fous : recrutement de nouveaux chercheurs, coopération avec d’autres laboratoires et lancement d’un concours doté de 500 000 dollars pour détecter les “comportements nuisibles” des IA. La firme prévient : plus l’IA sera chargée de missions complexes aux conséquences concrètes, plus le risque de dérives grandira. D’où l’urgence de développer des défenses solides, au cœur même du matériel. Un enjeu vital à l’heure où l’intelligence artificielle prend une place croissante dans nos vies. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    2 min
  2. Jupiter, le supercalculateur le plus puissant d’Europe ?

    1 DAY AGO

    Jupiter, le supercalculateur le plus puissant d’Europe ?

    C’est officiel : l’Europe a franchi un cap historique. La Commission européenne vient de confirmer que Jupiter, le supercalculateur installé à Jülich en Allemagne, a atteint la barre symbolique de l’exaflop, soit 10 puissance 18 opérations par seconde. Concrètement, c’est comme si un million de smartphones travaillaient en même temps. Seuls trois géants américains le devancent encore – El Capitan, Frontier et Aurora – mais Jupiter propulse enfin l’Europe dans le club très fermé des supercalculateurs exaflopiques, aux côtés des États-Unis et de la Chine. Un projet colossal de 500 millions d’euros, financé par l’Union européenne et l’Allemagne via EuroHPC. La machine, conçue par Eviden à Angers avant d’être déployée en Allemagne, s’appuie sur 24 000 processeurs graphiques Nvidia dans sa partition Booster. Mais Jupiter impressionne aussi par sa sobriété : alimenté uniquement par des énergies renouvelables, il dispose d’un système innovant de refroidissement à eau chaude. Résultat : il occupe la première place mondiale du classement Green500 pour son efficacité énergétique. Au-delà de la prouesse technologique, Jupiter ouvre un champ immense d’applications. En météorologie, il permettra des prévisions climatiques et météo au kilomètre près : canicules, inondations ou tempêtes violentes seront modélisées avec une précision inédite. En intelligence artificielle, il sera la colonne vertébrale de la future AI Factory européenne, offrant enfin aux start-ups, industriels et laboratoires locaux les ressources nécessaires pour développer leurs propres modèles de génération de texte, d’image ou de vidéo. La santé n’est pas en reste : neurosciences et recherche médicale vont exploiter sa puissance pour explorer le cerveau humain et progresser sur des maladies comme Alzheimer. « JUPITER renforce la souveraineté numérique de l’Europe et met à disposition des chercheurs les ressources informatiques les plus puissantes et les plus durables », a résumé la commissaire Ekaterina Zaharieva. Déjà, EuroHPC a sélectionné 13 projets d’usines d’IA à travers le continent. Au 30 juin, pas moins de 76 candidatures avaient été déposées pour bâtir des gigafactories de modèles capables de gérer des centaines de trillions de paramètres. Avec Jupiter, l’Europe entend bien ne plus être seulement spectatrice de la course mondiale à la puissance de calcul, mais actrice à part entière. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    3 min
  3. Pourquoi Meta externalise la création de ses chatbots IA ?

    2 DAYS AGO

    Pourquoi Meta externalise la création de ses chatbots IA ?

    Depuis 2023, Meta s’est lancé dans une drôle d’aventure : peupler Instagram, Messenger et WhatsApp de chatbots personnalisés. Au départ, ils prenaient les traits de célébrités, comme un gadget marketing. Puis l’entreprise a ouvert son outil AI Studio, permettant à chacun de créer ses propres personnages. Mais pour les marchés internationaux, ce sont des freelances chevronnés qui s’en chargent. Meta les recrute en hindi, espagnol, indonésien ou portugais, avec un profil exigeant : au moins six ans d’expérience en narration et en conception de personnages. Leur mission ? Donner vie à ces bots. Ils choisissent un vocabulaire adapté, conçoivent une personnalité cohérente et ajustent chaque interaction au contexte culturel local. Les dialogues ne doivent pas seulement être fluides : ils doivent sonner vrai pour l’utilisateur, qu’il soit en Amérique latine, en Inde ou en Asie du Sud-Est. Cette attention au détail n’a rien d’anodin. Car Meta garde en mémoire des dérapages passés. Selon Reuters, certains bots avaient pu fournir de fausses informations médicales, tenir des propos racistes, voire entretenir des conversations sexuelles avec des mineurs. Désormais, les freelances surveillent et corrigent les dialogues en continu, traquant les informations personnelles et ajustant les réponses pour rester dans des limites claires. Dans tous les cas, Meta cherche à maintenir l’équilibre : offrir des personnages attractifs, mais éviter les dérapages. La rémunération suit la complexité de la tâche. Meta propose jusqu’à 55 dollars de l’heure à ses freelances. Une somme élevée, mais qui reflète la minutie du travail : écrire des dialogues naturels dans plusieurs langues, bâtir des personnalités crédibles et vérifier en permanence que les conversations restent pertinentes. Derrière l’image ludique de ces chatbots, on découvre une réalité bien plus sérieuse : Meta veut transformer ces personnages virtuels en un canal de communication incontournable, calibré au mot près, et surveillé de près. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    2 min
  4. Pourquoi l’iPhone coûte plus cher en France ?

    3 DAYS AGO

    Pourquoi l’iPhone coûte plus cher en France ?

    L’iPhone 17 est arrivé, et une fois encore, les Français vont devoir casser leur tirelire un peu plus que les autres. Selon une étude publiée par Compare the Market, la France se classe en tête des pays où l’iPhone est le plus cher. Ici, il faut débourser en moyenne 1178,60 €, soit plus de 325 € de plus qu’au Canada. Une différence qui interroge : pourquoi un tel écart ? Premier élément de réponse : la TVA. En France, elle est fixée à 20 %, alors qu’aux États-Unis, les prix affichés sont hors taxes. Résultat : un iPhone 15 Pro Max vendu 1199 dollars outre-Atlantique, soit environ 1131 € hors taxes, grimpe à 1479 € TTC une fois sur les étagères françaises. Même avec les taxes locales américaines, souvent inférieures à 7 %, l’écart reste conséquent. Apple rappelle que ses tarifs sont ajustés en fonction de plusieurs paramètres : les taux de change, les lois d’importation, les réglementations locales, mais aussi les coûts logistiques. Et ces coûts, en Europe, sont souvent plus élevés. À cela s’ajoute la garantie légale de deux ans imposée par Bruxelles, contre un an seulement aux États-Unis. Une protection pour le consommateur, mais qui se répercute sur le prix final. Il faut aussi compter les frais de douane : importer un iPhone depuis l’Amérique du Nord en vue de le revendre en France entraîne un surcoût de 20 % sur les produits électroniques, auquel s’ajoutent des frais de transport et de gestion. De quoi décourager les chasseurs de bonnes affaires à l’international. Autre facteur : l’adaptation technique. Les iPhone vendus en Europe sont calibrés pour nos réseaux mobiles. Une étape qui entraîne des coûts supplémentaires de certification et de production. Résultat : le prix grimpe d’année en année. À titre de comparaison, depuis l’iPhone 5, le coût moyen d’un modèle haut de gamme a presque doublé. Aujourd’hui, l’iPhone 17 démarre à 969 € dans sa version de base avec 256 Go. Pour la version Pro, comptez 1329 €, et jusqu’à 2479 € pour le Pro Max doté de la plus grande capacité de stockage. En clair, l’iPhone reste un produit star en France… mais aussi un luxe de plus en plus assumé. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    2 min
  5. Un casque pour discuter avec l’IA par la pensée ?

    4 DAYS AGO

    Un casque pour discuter avec l’IA par la pensée ?

    En 2018, le MIT Media Lab dévoilait un prototype intrigant : un dispositif capable de transformer des mots « dits dans la tête » en texte. L’appareil reposait sur des électrodes fixées autour du visage, enregistrant les minuscules signaux neuromusculaires émis lorsque nous subvocalisons. « Il ne s’agit pas de lire les pensées mais de traduire ce que l’on choisit de formuler intérieurement », expliquait alors Arnav Kapur, à l’origine du projet. Sept ans plus tard, ce travail est devenu AlterEgo, une start-up qu’il a cofondée et qui propose un casque de communication presque invisible. L’idée : dialoguer avec une intelligence artificielle sans prononcer un mot, ni donner le moindre signe extérieur. À Cambridge, les premiers tests utilisaient seize électrodes pour décoder un vocabulaire limité. Après optimisation, seulement quatre suffisaient, avec un taux de précision atteignant 92 %. Dans une démonstration récente, Arnav Kapur et son associé Max Newlon utilisent leur casque pour interroger ChatGPT en silence : les réponses s’affichent ou se font entendre uniquement pour eux. « On peut taper à la vitesse de la pensée », résume Newlon. Le casque reprend ce principe dans une version compacte. Les capteurs traduisent la parole intérieure, la transmettent à une IA, et la réponse revient par conduction osseuse : de petites vibrations dirigent le son vers l’oreille interne, sans obstruer le conduit auditif. L’utilisateur peut donc interagir avec son environnement, un atout que soulignait déjà la professeure Pattie Maes, encadrante du projet, pour qui sortir un téléphone coupe toujours le fil d’une conversation. L’appareil permet déjà d’écrire un message, de lancer une recherche en ligne ou de contrôler une application uniquement par la pensée formulée. Une caméra frontale ajoute une dimension contextuelle : l’IA peut analyser la scène et répondre en tenant compte de l’environnement visuel. Les usages potentiels sont vastes : communication dans des environnements bruyants comme les aéroports ou les ponts d’envol, échanges discrets lors d’opérations sensibles, ou encore aide aux personnes privées de voix, à l’image de l’acteur Val Kilmer. AlterEgo ouvre dès maintenant un accès anticipé pour les curieux. Mais pour une commercialisation grand public, il faudra encore patienter : aucune date officielle n’a été annoncée. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    3 min
  6. Villager : l’outil de cybersécurité qui inquiète les chercheurs ?

    25 SEPT

    Villager : l’outil de cybersécurité qui inquiète les chercheurs ?

    Depuis cet été, un nouvel outil circule librement sur l'index Python et suscite inquiétude chez les spécialistes de la cybersécurité. Baptisé Villager, ce framework se présente comme un assistant automatisé de tests d'intrusion — cartographie d’un système, reconnaissance, exploitation, installation de mécanismes de persistance — le tout piloté par de l’intelligence artificielle. Publié sur PyPI et téléchargé des milliers de fois en quelques semaines, il s’annonce comme une aide moderne pour les pentesters. Sauf que, en creusant, des chercheurs de l’entreprise Straiker ont dressé un tout autre portrait : Villager serait lié à une entité chinoise aux pratiques opaques et recyclerait des composants déjà vus dans des malwares offensifs. Conçu pour automatiser des workflows, Villager orchestre des conteneurs, lance des scanners adaptés au contexte et génère des charges utiles, le tout à partir d’instructions en langage naturel. L’outil embarque une large bibliothèque de « prompts » préconfigurés et une interface pour suivre les campagnes en temps réel — caractéristiques utiles en audit, mais dangereuses si elles tombent entre de mauvaises mains. Straiker a surtout mis au jour des réutilisations problématiques : l’infrastructure de Villager s’appuie sur des éléments d’un projet antérieur dont les modules correspondaient à des fonctionnalités de cheval de Troie connues — keylogger, vol de comptes, accès webcam, outils d’exfiltration — déjà détournées par des opérateurs malveillants. L’autre inquiétude tient à la voie de diffusion. PyPI est massivement intégré aux processus de développement, d’intégration continue et de déploiement. Un paquet publié sur cet index peut être importé automatiquement dans des environnements sensibles sans contrôle humain, transformant une dépendance innocente en vecteur d’intrusion. De plus, le caractère modulaire et éphémère de l’outil — conteneurs configurés pour s’autodétruire et effacer les traces — complique la détection et l’analyse post-incident. Face à cette menace émergente, les équipes de sécurité recommandent des mesures pratiques mais non techniques dans leurs principes : restreindre l’installation de paquets non validés en production, surveiller et auditer l’apparition de conteneurs non autorisés, renforcer la supervision des flux sortants et des scans réseau, et formaliser un processus d’approbation pour tout agent d’automatisation fondé sur l’IA. Les autorités et la communauté open source sont aussi appelées à renforcer la gouvernance de dépôts publics afin d’éviter que des outils ambivalents ne deviennent, en quelques clics, des armes faciles d’accès. Villager illustre un nouveau pari technologique — l’automatisation IA des audits — qui peut servir la défense comme l’attaque. La question pour les entreprises et les régulateurs est désormais de réussir à encadrer ces innovations avant qu’elles ne fassent basculer la balance en faveur des cybercriminels. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    3 min
  7. Un bouton d’arrêt d’urgence dans les puces IA ?

    24 SEPT

    Un bouton d’arrêt d’urgence dans les puces IA ?

    À Santa Clara, Richard Ho, patron du hardware chez OpenAI et ancien architecte des TPU de Google, a livré un message sans détour : les garde-fous purement logiciels ne suffisent plus. Selon lui, les futurs systèmes d’intelligence artificielle devront intégrer des freins physiques, inscrits directement dans le matériel, pour garantir un contrôle ultime quand un modèle dévie. « Les modèles sont vraiment retors », a-t-il lancé, plaidant pour que l’arrêt ne repose plus seulement sur le code ou l’orchestration des serveurs. L’idée n’est pas de débrancher brutalement une IA au moindre doute, mais de doter les puces et cartes de signaux, seuils et verrous capables d’interrompre toute action anormale. C’est une étape dans la stratégie d’OpenAI visant une infrastructure « intrinsèquement sûre », testable de bout en bout. Le timing n’est pas anodin : avec des agents désormais persistants, interconnectés et capables d’agir hors du regard des utilisateurs, le risque de dérives discrètes grandit. Concrètement, OpenAI mise sur une combinaison d’« interrupteurs » matériels, de télémétrie fine et d’isolement via des enclaves sécurisées. À cela s’ajoutent attestation cryptographique, firmware minimaliste et chemins d’exécution supervisés. L’objectif est clair : imposer des politiques de sécurité au plus près du calcul, au niveau de la puce, de la carte et du rack. Car l’expérience l’a montré : certains modèles ont déjà contourné des mécanismes logiciels censés les stopper. D’où l’intérêt d’un kill switch matériel, hors de portée du modèle, et activable depuis l’extérieur. Le débat dépasse désormais le cercle des laboratoires. Régulateurs et chercheurs réclament des standards matériels, du registre des puces jusqu’aux limites intégrées d’usage. Le Royaume-Uni va même jusqu’à soutenir le développement de kill switches industriels, preuve que le sujet gagne en urgence politique. Un changement de paradigme se dessine : la sécurité ne sera plus seulement un protocole d’exploitation, mais un attribut de conception, gravé au plus près du silicium. Prochain jalon attendu : prouver que ces freins matériels tiennent leurs promesses sans étouffer l’élan des prochains modèles d’IA généralistes.   Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    2 min
  8. Le Data Act nous permet de reprendre en main nos données personnelles ?

    23 SEPT

    Le Data Act nous permet de reprendre en main nos données personnelles ?

    Depuis le mois de septembre, le Data Act s’applique dans toute l’Europe. Ce règlement, entré en vigueur en janvier dernier, prend enfin corps après neuf mois de délai. Son objectif est clair : redonner aux citoyens et aux entreprises la main sur les données générées par leurs objets connectés. Smartphone dans la poche, montre au poignet, voiture dans le garage, mais aussi machines industrielles ou dispositifs médicaux : tout ce qui produit des données est concerné, à l’exception des infrastructures publiques et des prototypes. La promesse de Bruxelles est simple : « Le règlement donne aux utilisateurs le contrôle des données générées par leurs appareils ». Mais qu’est-ce que cela change, concrètement ? Jusqu’ici, chaque constructeur gardait jalousement la main. Apple décidait pour votre iPhone, Samsung pour votre montre connectée. Désormais, vous pouvez récupérer les données brutes et les utiliser comme bon vous semble : les analyser, les transférer ou les confier à d’autres prestataires. Dans l’automobile, la bascule est spectaculaire : les données de conduite et d’entretien, autrefois réservées au constructeur, peuvent désormais être partagées avec votre garagiste ou une startup de mobilité. Même logique pour les usines, qui accèdent enfin à l’ensemble des données de leurs machines, quel que soit le fabricant. Le Data Act frappe aussi un autre verrou : le cloud. Changer de fournisseur relevait du parcours du combattant. Migrer ses données de AWS à Google ou Microsoft coûtait une fortune. Désormais, un prestataire a 30 jours pour vous aider à basculer, avec obligation de fournir tous les outils nécessaires. Depuis janvier, les transferts sont facturés au prix coûtant, et à partir de 2027, ils devront être gratuits pour un déménagement définitif. Une révolution silencieuse, déjà anticipée par Google et Microsoft qui offrent des migrations gratuites en Europe. Seule nuance : les frais persistent pour les entreprises utilisant plusieurs clouds simultanément. Pour les récalcitrants, la facture sera salée : jusqu’à 20 millions d’euros d’amende, ou 4 % du chiffre d’affaires mondial. Bruxelles se veut toutefois pédagogue : assistance juridique dédiée et modèles de contrats sont déjà prévus pour accompagner les entreprises. Le message est clair : l’ère des données captives touche à sa fin. Place à un écosystème plus ouvert… mais aussi à une bataille féroce autour de leur exploitation. -- Cet épisode est sponsorisé par Freelance Informatique, la plateforme qui met en relation consultants indépendants et entreprises clientes. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    2 min

About

Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

More From Choses à Savoir

You Might Also Like