Choses à Savoir TECH

Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  1. WorldMonitor, un tableau de bord pour tout traquer dans le monde ?

    2D AGO

    WorldMonitor, un tableau de bord pour tout traquer dans le monde ?

    Dans un monde saturé d’informations, suivre l’actualité peut parfois ressembler à une navigation dans le brouillard. Les données affluent de toutes parts, fragmentées, dispersées entre sites, réseaux sociaux et chaînes d’information. Impossible d’en réduire le volume, mais il est possible de mieux les organiser. C’est précisément l’objectif d’un nouvel outil en ligne : WorldMonitor.app, un tableau de bord conçu pour agréger et visualiser en temps réel une grande quantité d’informations géopolitiques. L’interface repose sur un principe simple : rassembler de multiples sources dans un seul espace. WorldMonitor compile plus de 150 flux RSS — un format qui permet de récupérer automatiquement les mises à jour d’un site d’information. Le résultat est une page extrêmement dense, où l’on peut suivre simultanément différents indicateurs liés à la situation mondiale. Parmi les curiosités proposées figure par exemple le fameux « indice pizza », un indicateur informel souvent évoqué dans les cercles militaires américains : lorsque les commandes de pizzas augmentent autour du Pentagone, certains y voient un signe de tension internationale, les analystes travaillant tard lors de crises. Anecdotique, mais révélateur de l’imaginaire stratégique contemporain. Plus sérieusement, la plateforme permet de suivre de nombreux points sensibles de la planète : localisation de plus de 220 bases militaires, suivi des vols militaires en temps réel, cartographie des oléoducs, des câbles sous-marins qui transportent l’essentiel du trafic Internet mondial, mais aussi des zones de conflit ou des manifestations. Le tableau de bord propose également des flux vidéo en direct provenant de grandes chaînes internationales comme Bloomberg, France 24 ou Al Jazeera. Des webcams pointées sur certaines capitales permettent aussi d’observer des lieux stratégiques à distance. WorldMonitor va même plus loin en calculant un indice de stabilité mondiale, ainsi qu’un indice spécifique pour chaque pays. Ces indicateurs reposent sur plusieurs données : activité militaire, tensions politiques, risques structurels ou mouvements de protestation. Enfin, la plateforme ne se limite pas à la géopolitique. Elle existe en réalité en trois versions. La première, appelée « Monde », regroupe les informations globales. Deux autres tableaux de bord appliquent le même principe d’agrégation aux domaines Technologie et Finance. L’idée est simple : face à un flux d’informations toujours plus massif, offrir un outil qui permet de tout visualiser au même endroit. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    3 min
  2. Enfin des moyens financiers pour l’Open Source ?

    3D AGO

    Enfin des moyens financiers pour l’Open Source ?

    Un nouveau fonds vient de voir le jour avec une ambition inédite : soutenir durablement les logiciels libres. Baptisé Open Source Endowment, il se présente comme le premier fonds de dotation entièrement dédié à l’open source. Selon le média spécialisé The Register, l’organisation a déjà réuni environ 700 000 dollars auprès d’une soixantaine de donateurs fondateurs, parmi lesquels figurent des créateurs de projets majeurs comme curl, Nginx, Vue.js, ClickHouse, Elastic ou encore Pydantic. L’initiative part d’un constat bien connu dans le monde du logiciel libre : l’écosystème repose sur un travail massif… rarement rémunéré. Environ 86 % des développeurs open source ne perçoivent aucun revenu pour leurs contributions, alors même que 95 % des bases de code utilisées dans le monde reposent, directement ou indirectement, sur ces logiciels. Le modèle imaginé par l’Open Source Endowment s’inspire des universités. Son fondateur, Konstantin Vinogradov, rappelle que deux systèmes ont historiquement permis de financer l’enseignement supérieur : les financements publics et les dotations privées. Or, dans un écosystème mondial, décentralisé et transnational comme celui de l’open source, un financement public global est difficile à mettre en place. L’idée est donc de créer une dotation permanente. Concrètement, l’argent donné au fonds n’est pas redistribué immédiatement. Il est investi, et seuls les intérêts générés servent à financer des subventions pour des projets libres existants. Le capital reste intact afin de constituer un socle financier durable. Les donateurs qui versent plus de 1 000 dollars peuvent devenir membres et participer à la gouvernance du fonds. Cette initiative intervient dans un contexte où les alertes se multiplient depuis des années. En 2014, la faille de sécurité Heartbleed avait révélé que le logiciel OpenSSL — pourtant crucial pour la sécurité de l’internet — était maintenu par une équipe minuscule et disposait de moins de 2 000 dollars de dons annuels. Plus récemment, plusieurs mainteneurs de projets essentiels ont publiquement dénoncé un système « gratuit » qui repose en réalité sur quelques individus sous-financés. Reste une question majeure : l’échelle. Avec 700 000 dollars, le fonds envoie un signal symbolique fort, mais il reste très loin des besoins réels. Pour fonctionner durablement, il devra convaincre les grandes entreprises technologiques — celles qui utilisent massivement l’open source — de contribuer réellement à son financement. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    3 min
  3. La DGSI décrit les stratégies d’espionnage contre la France ?

    4D AGO

    La DGSI décrit les stratégies d’espionnage contre la France ?

    Un chercheur qui revient d’un déplacement sans son ordinateur. Un autre à qui l’on demande de laisser son téléphone déverrouillé avant un interrogatoire improvisé à l’aéroport. Un dirigeant de start-up dont le mobile disparaît quelques secondes lors d’une soirée à l’étranger. Ces scènes ne relèvent pas d’un roman d’espionnage : elles figurent dans le dernier rapport publié cette semaine par la DGSI, la Direction générale de la sécurité intérieure. Le constat est clair : chercheurs, cadres et entrepreneurs français sont de plus en plus ciblés lors de leurs déplacements professionnels. Les voyages deviennent des opportunités de collecte d’informations sensibles, qu’il s’agisse de données technologiques, de secrets industriels ou de projets de recherche. Dans le cas le plus élaboré, un chercheur reconnu accepte l’invitation d’un ancien étudiant devenu enseignant à l’étranger. Sur place, des réunions imprévues lui sont imposées avec des interlocuteurs anonymes qui l’interrogent en détail sur ses travaux. On lui propose ensuite une collaboration, assortie de plusieurs milliers d’euros en espèces. Il refuse. À l’aéroport, une facture inattendue lui est présentée, puis, au retour, il constate la disparition de son ordinateur. Pour la DGSI, il s’agit d’une tentative de captation technologique doublée d’une tentative de corruption. Autre scénario : dès l’arrivée à l’aéroport, un chercheur est isolé, son passeport confisqué, son téléphone laissé déverrouillé hors de sa vue. À la restitution, la double authentification a été désactivée, et des connexions inconnues ont été détectées. Un chef d’entreprise, lui, a évité le pire. Briefé en amont par la DGSI, il avait voyagé avec un téléphone vierge de toute donnée sensible. Malgré fouilles répétées et tentative d’accès furtif à son appareil, ses interlocuteurs sont repartis bredouilles. Le message des services est simple : la préparation est la meilleure défense. Voyager avec du matériel dédié, sans données stratégiques. Activer la double authentification, utiliser des mots de passe distincts, éviter les ports USB publics et les Wi-Fi non sécurisés. Au retour, changer ses identifiants et faire vérifier ses appareils . Consulter le rapport Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    2 min
  4. En cas de guerre, l’IA déclenche toujours l’arme nucléaire ?

    5D AGO

    En cas de guerre, l’IA déclenche toujours l’arme nucléaire ?

    Dans le monde réel, tout dans la dissuasion est affaire de symboles, de gravité et de retenue. L’objectif n’est pas d’utiliser l’arme, mais précisément de ne jamais avoir à le faire. Mais que se passe-t-il lorsque l’on confie ces dilemmes à une intelligence artificielle ? Une étude menée par le King’s College de Londres a placé plusieurs modèles d’IA dans la peau de dirigeants de puissances nucléaires. Les chercheurs ont utilisé GPT-5.5 d’OpenAI, Claude Sonnet 4 d’Anthropic et Gemini 3 Flash de Google, et les ont opposés dans 21 simulations de crises internationales plus ou moins graves : tensions territoriales, menaces existentielles, escalades militaires. Chaque modèle pouvait choisir parmi une gamme d’options graduelles, de la protestation diplomatique jusqu’aux frappes nucléaires tactiques ou stratégiques. Le résultat est frappant : dans 20 scénarios sur 21, l’IA a fini par recourir à l’arme nucléaire tactique. Ces armes sont censées viser des objectifs militaires précis, à la différence des frappes stratégiques dirigées contre les grandes villes. Pourtant, dans environ trois quarts des cas, les modèles ont menacé ou envisagé des frappes stratégiques massives. Jamais ils n’ont choisi la capitulation totale. Dans 86 % des simulations, l’escalade a été rapide et marquée. Chaque modèle avait son style. Claude construisait d’abord une relation de confiance avant de rompre brutalement ses engagements. GPT-5.5 se montrait mesuré… jusqu’à ce qu’une contrainte temporelle l’amène à recommander une frappe « soudaine et dévastatrice ». Gemini, lui, adoptait parfois une posture de dissuasion extrême, menaçant d’un lancement nucléaire complet. Les chercheurs notent un point troublant : malgré des avertissements sur les conséquences catastrophiques d’une guerre atomique, aucune trace d’hésitation morale n’apparaît dans les raisonnements des machines. Le tabou nucléaire semble moins peser sur des algorithmes que sur des humains. À l’heure où les armées utilisent l’IA pour l’aide à la décision ou la gestion de systèmes d’armes, cette étude alimente le débat. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    2 min
  5. Poison Fountain, une stratégie pour tuer l’IA ?

    6D AGO

    Poison Fountain, une stratégie pour tuer l’IA ?

    Les Luddites sont-ils de retour ? Au XIXᵉ siècle, ces ouvriers anglais détruisaient des métiers à tisser mécanisés pour protester contre l’industrialisation. Deux siècles plus tard, la cible n’est plus la machine textile, mais l’intelligence artificielle. Un collectif anonyme de technologues a lancé un projet baptisé « Poison Fountain ». Leur objectif affiché : ralentir le développement de l’IA en s’attaquant à sa matière première, les données. Leur raisonnement est simple : les modèles d’intelligence artificielle modernes, notamment les grands modèles de langage — ces systèmes capables de générer du texte, de raisonner ou de prendre des décisions — apprennent en ingérant d’immenses volumes de contenus collectés sur Internet. Si l’on contamine ces données à la source, on peut fragiliser les modèles lors de leur entraînement. Leur site, accompagné d’un manifeste, appelle ainsi des administrateurs de sites web à insérer des liens pointant vers des contenus « empoisonnés ». Concrètement, il s’agit de textes et de codes volontairement erronés, intégrant des bugs subtils et des incohérences logiques, destinés à perturber l’apprentissage des algorithmes. Deux adresses sont diffusées : l’une sur le web classique, l’autre sur le dark web, plus difficile à faire retirer. Cette initiative surgit dans un contexte de fortes inquiétudes autour de l’IA. Des chercheurs comme Geoffrey Hinton, pionnier des réseaux neuronaux et prix Nobel, alertent depuis 2023 sur les risques potentiellement existentiels d’une intelligence artificielle avancée. « L’intelligence machine est une menace pour l’espèce humaine », revendique le site de Poison Fountain. Des travaux récents donnent un certain crédit théorique à cette stratégie. En octobre 2025, Anthropic, avec l’AI Security Institute britannique et l’Alan Turing Institute, a montré qu’un nombre limité de documents malveillants — environ 250 — pouvait suffire à dégrader significativement les performances d’un modèle. Pour autant, saboter l’IA à grande échelle reste complexe. Les grandes entreprises investissent massivement dans le nettoyage des données : filtrage, déduplication, notation de qualité. Internet est immense, et les sources identifiées peuvent être mises sur liste noire. Même si Poison Fountain ne parvient pas à enrayer la course à l’IA, le projet met en lumière une vulnérabilité structurelle : si les données d’entraînement deviennent suspectes, la fiabilité des modèles vacille. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    2 min
  6. L’IA d’Elon Musk confiée à un étudiant de 20 ans ?

    FEB 26

    L’IA d’Elon Musk confiée à un étudiant de 20 ans ?

    En septembre dernier, l’ambiance a brutalement changé chez xAI, la filiale d’intelligence artificielle d’Elon Musk à l’origine du modèle Grok. En pleine restructuration, plus de 500 collaborateurs ont été licenciés, principalement des annotateurs de données. Ces profils jouent pourtant un rôle clé : ils étiquettent, corrigent et affinent les réponses de l’IA pour l’aider à apprendre. Certains cadres ont même découvert leurs accès désactivés sans avertissement. À l’époque, l’équipe comptait environ 1 000 personnes. Une première vague de licenciements a visé les tuteurs dits « généralistes », l’entreprise expliquant vouloir privilégier des spécialistes capables d’intervenir sur des tâches plus pointues. Un courriel interne évoquait un « virage stratégique » prenant effet immédiat. Une semaine plus tard, 100 suppressions de postes supplémentaires étaient annoncées, malgré des assurances contraires quelques jours auparavant. Les effectifs sont ainsi tombés à 900 employés. Dans ce contexte tendu, une décision a surpris : confier la direction d’une équipe stratégique de 900 personnes à un jeune homme de 20 ans. Diego Pasini, étudiant à l’université de Pennsylvanie début 2025, s’est fait remarquer en remportant un hackathon organisé par xAI en janvier. Recruté dans la foulée, il supervise désormais les équipes d’annotation, salariés permanents comme contractuels. Cette nomination s’inscrit dans une philosophie revendiquée par Elon Musk : promouvoir le mérite plutôt que l’ancienneté. Le milliardaire a déjà placé de très jeunes profils à des postes sensibles, notamment au sein du Department of Government Efficiency, où plusieurs collaborateurs avaient moins de 25 ans. Une stratégie qui divise en interne. Lors de sa première réunion générale, Diego Pasini a assuré qu’aucune nouvelle coupe n’était prévue. Pourtant, peu après, des entretiens individuels obligatoires ont été instaurés : chaque salarié devait justifier sa valeur ajoutée. Selon certains employés, un « climat de panique » s’est installé. Deux collaborateurs ayant critiqué la promotion du nouveau dirigeant sur Slack auraient vu leurs accès suspendus. Cette culture managériale, marquée par des restructurations rapides et une exigence permanente de performance, interroge sur la stabilité de l’organisation. Reste à savoir si ce pari sur la jeunesse et la pression constante permettra à Grok de s’imposer face aux géants déjà installés de l’IA générative. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    2 min
  7. La Chine concurrence Neuralink sur la tech cerveau-machine ?

    FEB 25

    La Chine concurrence Neuralink sur la tech cerveau-machine ?

    La Chine veut prendre position sur l’un des terrains technologiques les plus sensibles du XXIe siècle : les interfaces cerveau-ordinateur. Pékin a officiellement classé ce domaine comme secteur stratégique national. Une feuille de route prévoit même l’émergence de deux à trois entreprises « de classe mondiale » d’ici 2030. Parmi les candidats potentiels figure NeuroXess, une start-up fondée en 2021 à Shanghai. Son approche diffère de celle de son concurrent le plus médiatisé, Neuralink, la société d’Elon Musk. Pour comprendre l’enjeu, il faut rappeler ce qu’est une interface cerveau-ordinateur, ou BCI pour Brain-Computer Interface : il s’agit d’un dispositif capable de capter l’activité électrique du cerveau et de la traduire en commandes numériques, par exemple pour déplacer un curseur ou contrôler un appareil. NeuroXess développe un système composé d’un maillage métallique placé à la surface du cerveau, relié à un processeur implanté dans la poitrine. Ce processeur transmet ensuite les signaux à un ordinateur externe. L’implantation en surface est considérée comme moins invasive que l’insertion d’électrodes directement dans le tissu cérébral, comme le fait Neuralink. En revanche, cette méthode capte pour l’instant des signaux moins détaillés, donc des débits de données plus limités. L’objectif premier reste médical. Ces technologies visent à aider des patients atteints de paralysie sévère ou de maladies neurodégénératives comme la sclérose latérale amyotrophique. Selon son fondateur, Tiger Tao, NeuroXess a déjà réalisé un premier test humain : un patient paralysé aurait réussi à déplacer un curseur à l’écran cinq jours seulement après l’implantation. Pendant ce temps, Neuralink mène un essai clinique international avec une vingtaine de patients pour démontrer la capacité de ses implants à transformer rapidement l’activité neuronale en actions numériques complexes. En Chine, l’écosystème s’accélère. Les levées de fonds se multiplient et une dizaine d’essais cliniques ont été lancés récemment. Le pays dispose d’un atout majeur : un vaste réservoir de patients potentiels, ce qui facilite le recrutement pour les études médicales. À plus long terme, NeuroXess ambitionne de miniaturiser davantage ses implants afin de réduire encore l’invasivité et, peut-être un jour, d’élargir les usages au-delà du cadre strictement médical. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    2 min
  8. Freedom.gov, le site anti-censure de Donald Trump en Europe ?

    FEB 24

    Freedom.gov, le site anti-censure de Donald Trump en Europe ?

    Selon des informations rapportées par Reuters, le Département d’État américain travaillerait sur une plateforme baptisée Freedom.gov. Son objectif : permettre à des internautes étrangers d’accéder à des contenus bloqués ou supprimés par leurs propres gouvernements. Le principe serait relativement simple sur le plan technique. Le site fonctionnerait comme un VPN — un réseau privé virtuel. Pour rappel, un VPN fait transiter la connexion d’un utilisateur par un serveur situé dans un autre pays. Résultat : l’internaute apparaît comme naviguant depuis ce pays, ce qui permet de contourner certaines restrictions géographiques ou légales. Freedom.gov s’appuierait ainsi sur des serveurs basés aux États-Unis, sans enregistrer l’identité ni l’activité des visiteurs. En clair, l’État américain deviendrait lui-même fournisseur d’anonymat en ligne, un rôle jusqu’ici occupé par des acteurs privés comme NordVPN ou ExpressVPN. Le projet serait supervisé par Sarah Rogers, responsable de l’image des États-Unis à l’étranger. Présentée comme une initiative en faveur de la liberté d’expression, la plateforme permettrait d’accéder à des contenus jugés illégaux localement — qu’il s’agisse de discours controversés ou de propagande. Une approche qui s’inscrit dans la ligne de l’administration Trump, souvent critique à l’égard des régulations européennes du numérique. Mais en interne, le projet susciterait de fortes réserves. Des juristes du Département d’État auraient alerté sur les risques diplomatiques : encourager des citoyens étrangers à contourner les lois nationales pourrait exposer Washington à des tensions juridiques sérieuses. Officiellement, le porte-parole du Département d’État affirme que « la liberté numérique est une priorité », sans confirmer les détails du dispositif. Côté européen, l’inquiétude est palpable. Kenneth Propp, ancien diplomate américain aujourd’hui chercheur à l’Atlantic Council, évoque auprès de Reuters « un tir direct » contre les lois européennes, notamment le Digital Services Act. Cette réglementation impose aux plateformes de retirer contenus haineux ou désinformation. Pour l’administration Trump, cette loi serait perçue comme hostile aux entreprises américaines. Dans un contexte déjà tendu — différends commerciaux, guerre en Ukraine, débats sur le Groenland — Freedom.gov pourrait devenir un nouveau point de friction. D’autant que des figures proches d’Elon Musk, farouche opposant aux règles numériques européennes, seraient impliquées dans le projet. Difficile, dès lors, d’y voir une simple initiative technique. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    3 min

Ratings & Reviews

4.7
out of 5
3 Ratings

About

Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

More From Choses à Savoir

You Might Also Like