XY Magazine

Régis BAUDOUIN

Le podcast de la génération X et Y. On traite de sujets touchant à la tech, innovation, cyber, souveraineté, sobriété, enjeux sociétaux

  1. 29 NOV · VIDEO

    La France légifère contre les ingérences

    La France légifère contre les ingérences étrangères face aux cyberattaques et aux campagnes de désinformation, cette nouvelle « guerre froide ». Ces menaces proviennent principalement de la Russie, de la Chine. C On a souvent entendu des critiques à l”encontre de pays qui obligent les ONG à s’enregistrer. Cette inscription permet ensuite aux pays concernés de mener des actions contre les personnes engagées dans ces ONG. Obliger une personne à déclarer son activité est à la base un démarche totalitaire. soit l’activité est licite , soit elle le l’est pas et la loi est déjà la pour agir. Le texte de loi n° 2024-850 du 25 juillet 2024, visant à prévenir les ingérences étrangères, constitue une réponse majeure à ce défi. Ce texte entre en application en Octobre 2025. C’est la HAPV qui se voit charger de sa mise en oeuvre. Le rôle de la HAPV contre l’ingérence étrangère La Haute Autorité pour la transparence de la vie publique (HATVP) est une agence de l’Etat. Elle exerce un contrôle étendu et spécifique sur les personnes physiques ou morales tenues de déclarer leurs activités d’influence pour le compte d’un mandant étranger, afin d’assurer la transparence et de prévenir les ingérences. Le nom est un peu trompeur. la HAPV n’est pas là pour garantir aux citoyens une transparence politique et économique. Elle est là pour protéger l’Etat. Le contrôle exercé par la HATVP se déploie à travers plusieurs outils et procédures coercitives dpécifiques. La mission principale de la HATVP est de s’assurer du respect des obligations prévues par la loi. Ce contrôle porte sur : Le respect des obligations déclaratives, notamment la complétude et l’exactitude des informations communiquées. Le respect des règles déontologiques qui imposent, par exemple, de déclarer son identité et les intérêts représentés lors des communications, et de s’abstenir de proposer des avantages d’une valeur significative aux responsables publics. Procédures d’Enquête et de Vérification La Haute Autorité dispose de plusieurs pouvoirs pour vérifier l’information et obtenir la conformité : La HATVP peut agir à son initiative ou à la suite d’un signalement. S’il existe des raisons sérieuses de penser qu’une personne est soumise à l’obligation de déclaration, la Haute Autorité peut la mettre en demeure de lui communiquer, dans un délai d’un mois, toute information ou tout document nécessaire à l’exercice de sa mission. La HATVP peut également demander aux responsables publics contactés (membres du Gouvernement, parlementaires, élus locaux, etc.) de lui communiquer la liste des personnes tenues de déclarer qui sont entrées en communication avec eux. Perquisition Administrative La HATVP dispose d’un pouvoir de vérification sur place dans les locaux professionnels des déclarants. Cette vérification nécessite l’autorisation du juge des libertés et de la détention (JLD) du tribunal judiciaire de Paris. Les vérifications sont menées en présence d’un officier de police judiciaire. Les agents de la HATVP peuvent exiger la communication et obtenir ou prendre copie de tous documents professionnels de toute nature. Avis Consultatif La HATVP peut être saisie par les responsables publics pour obtenir un avis sur la qualification d’une activité, afin de savoir si une personne physique ou morale est soumise à l’obligation de déclaration. Sanctions en Cas de Manquement Si la HATVP constate un manquement aux obligations déclaratives ou déontologiques, elle applique une gradation des mesures : Mise en Demeure (Formal Notice) Elle adresse au déclarant, après l’avoir invité à présenter ses observations, une mise en demeure de respecter ses obligations. Cette mise en demeure peut être rendue publique. Sanctions Pénales Le non-respect de l’obligation de communication des informations à la HATVP (de sa propre initiative ou à sa demande) est puni par des sanctions pénales spécifiques : Pour les personnes physiques : trois ans d’emprisonnement et 45 000 euros d’amende. Pour les personnes morales : 225 000 euros d’amende, ainsi que d’autres peines comme l’interdiction d’émettre des chèques, la confiscation, l’affichage public de la peine, ou l’interdiction de recevoir toute aide publique pendant cinq ans ou plus. Ce dispositif de contrôle permet à la HATVP de jouer un rôle central, non seulement en gérant le répertoire numérique, mais aussi en assurant l’intégrité des informations et en appliquant des mesures coercitives pour garantir que les actions d’influence étrangère, considérées comme légitimes, soient menées dans la transparence requise par la loi. Cette autorité c’est une police politique avec un habillage déontologique. L’influence étrangère n’est pas (toujours) de l’ingérence Contrairement à une idée largement répandue, la loi n’a pas pour objectif d’interdire toute forme d’influence étrangère sur le sol français. Le législateur reconnaît au contraire que les stratégies d’influence sont une « composante légitime des relations internationales ». C’est ce type de texte qui me fait toujours dire que la loi met le loup dans bergerie dès sont premier article. En fait c’est autorisé sauf quand on va décider que c’est interdit. L’objectif principal n’est donc pas la prohibition, mais la clarification. En obligeant les acteurs agissant pour le compte de puissances étrangères à déclarer leurs actions, la loi vise à rendre ces activités transparentes. Cette transparence doit permettre de mieux distinguer l’influence légitime, qui promeut des intérêts, de l’ingérence illégale, qui, elle, « a pour objectif de déstabiliser les institutions d’un État et porter atteinte à l’intégrité de ses intérêts nationaux ». Le mot d’ordre est donc la transparence, pas l’interdiction. C’est assez troublant de mettre en place des listes. Liste d’influenceur légaux par rapport à des influenceurs illégaux. Quelle est la limite entre le jeu démocratique et le totalitarisme. Pensez-vous vraiment qu’une personne qui sait qu’elle agit contre la loi va venir s’inscrire sur la liste ? Cela permet surtout au besoin de faire condamner une personne pour ne pas avoir été sur la liste. L’Europe n’est pas considérée comme “étrangère” La définition du « mandant étranger » est au cœur du dispositif. La loi le définit de manière très précise : il s’agit d’une puissance hors Union européenne, d’une entreprise qu’elle contrôle ou finance majoritairement, ou encore d’un parti politique étranger non européen. Par conséquent, les actions d’influence menées pour le compte d’un État membre de l’Union européenne ne sont pas soumises à cette nouvelle obligation de déclaration. Cette distinction est fondamentale : elle ancre le dispositif dans une logique où l’Union européenne n’est pas un espace étranger mais un projet d’intégration politique fondé sur des valeurs démocratiques et un marché unique. Le législateur considère ainsi que les influences intra-européennes relèvent d’un jeu d’échanges légitime, à l’inverse des manœuvres de déstabilisation stratégique que la loi cherche à contrer de la part d’acteurs étatiques externes. Quelle périmètre pour ce texte Lorsqu’on pense à l’influence étrangère, on imagine souvent des actions visant les ministres, les parlementaires ou l’Élysée. La nouvelle loi voit beaucoup plus large et étend la notion de « responsable public » à un périmètre étonnamment vaste. Sont notamment concernés par les actions d’influence à déclarer : • Les maires des communes de plus de 20 000 habitants et les présidents d’établissements publics de coopération intercommunale (EPCI). • Les anciens présidents de la République, anciens membres du Gouvernement, anciens députés et anciens sénateurs, pendant une période de cinq ans après la fin de leurs fonctions. • Les candidats déclarés aux élections présidentielles, législatives, sénatoriales ou européennes. • Les dirigeants d’un parti ou d’un groupement politique. Cette vision large est une reconnaissance du fait que l’influence ne s’exerce pas uniquement dans les ministères parisiens. Des décisions cruciales en matière d’urbanisme, de marchés publics ou d’infrastructures se prennent au niveau local, et le parcours d’un responsable politique, avant et après son mandat national, constitue une fenêtre d’opportunité pour les acteurs étrangers. Le débat sur la méthode Si l’objectif de transparence est largement partagé et souhaitable, la méthode choisie par le gouvernement est loin de faire l’unanimité. L’association Transparency International France a vivement critiqué la création d’un second répertoire dédié à l’influence étrangère, distinct du registre des lobbyistes déjà existant depuis la loi « Sapin 2 » de 2016. L’argument central de l’ONG est que cette démarche est redondante. En effet, le répertoire Sapin 2, conçu pour être universel, « inclut déjà en partie les influences étrangères », et la HATVP elle-même avait clarifié que les entités étrangères devaient s’y déclarer. L’ONG craint que ce choix n’ajoute de la complexité, n’affaiblisse le dispositif existant et ne soit finalement qu’une mesure « cosmétique ». La véritable lutte contre les ingérences appartient aux services répressifs et aux services de renseignement, pas à un dispositif de transparence géré par la HATVP. Les vrais espions ne s’inscriront jamais Ce point de v

    10 min
  2. 22 NOV · VIDEO

    L'Etat français est-il toujours souverain ?

    L’Etat français est-il toujours souverain, c’est la question que l’on peut se poser pour plusieurs raisons. Souveraineté numérique de la France L’intégration de la France dans l’ensemble européen impose de renoncer à des compétences régaliennes. Le niveau de dette rend la politique française dépendante de ses créanciers. Mais le destin numérique de la France est-il bien protégé. Un rapport récent de la cour des comptes nous éclaire sur ce sujet. L’Etat français est-il toujours souverain On imagine que l’État protège jalousement ses données les plus sensibles, les enfermant dans des forteresses numériques impénétrables. La souveraineté numérique est devenue un mot d’ordre politique, une promesse de contrôle et d’indépendance face aux géants technologiques étrangers. Ceux que l’on nomme les GAFAM. Le paradoxe standard du marché ou souveraineté Il faut garder en tête que les standard du marché sont américains et ensuite Chinois. L’Europe arrive ensuite en ordre dispersé. Sur le plan analytique, il existe une tension concernant la politique numérique française : d’un côté, l’ambition affichée de souveraineté ; de l’autre, le besoin des administrations de disposer d’outils performants, modernes et à un coût maîtrisé. J’ajoute aussi que les agents de l’Etat veulent utiliser des outils qu’ils connaissent car ils ont été formés dessus avec ou en disposent chez eux. Bien souvent, c’est le second impératif qui l’emporte. Le cas le plus notable est celui du nouveau système d’information de ressources humaines du ministère de l’Éducation nationale, Virtuo, pour lequel le ministère a choisi une solution cloud opérée par une entreprise américaine. Ce choix a été fait en passant outre les recommandations initiales de la doctrine “Cloud au centre”, car aucune offre souveraine ne répondait aux exigences de performance et de coût. Le ministère estime a posteriori que sa décision est conforme à la version finale de la loi SREN, qui a restreint le champ d’application de l’obligation de souveraineté en exigeant non seulement que les données soient sensibles, mais aussi que leur violation présente un risque direct pour l’ordre public. Quand la loi se met elle même une balle dans le pied et fait de la vertu un vice. Circulaire Cloud au centre Revenons sur ce texte important, la circulaire cloud au centre. La doctrine « Cloud au centre » est une orientation édictée par le Premier ministre pour que les administrations privilégient les infrastructures cloud (informatique en nuage) pour leurs nouveaux projets numériques. Le cloud est appelé à devenir l’environnement par défaut de tout nouveau projet informatique de l’État. Cette doctrine est la déclinaison opérationnelle de la Stratégie nationale pour le cloud lancée en mai 2021, qui vise à encourager l’utilisation du cloud tout en assurant l’autonomie de l’État, la maîtrise de ses données et le respect des règles européennes en matière de protection des données à caractère personnel. Version de juillet 2021 : La première version de la circulaire, diffusée en juillet 2021, stipulait que toute application manipulant des données d’une sensibilité particulière, notamment les données personnelles des citoyens français, devait être hébergée sur une infrastructure souveraine. Voir mon article sur ce sujet ici Version de mai 2023 : La doctrine a été mise à jour en mai 2023 (circulaire n° 6404/SG). Cette version a restreint l’obligation de recourir à une offre souveraine, ne l’exigeant que lorsque deux critères sont cumulativement observés : Les données doivent relever de secrets protégés par la loi. Leur violation doit être susceptible « d’engendrer une atteinte à l’ordre public, à la sécurité publique, à la santé et à la vie des personnes, ou à la protection de la propriété intellectuelle ». Voilà comment faire entrer le loup dans la bergerie. Loi SREN : Ces critères cumulatifs ont été élevés au niveau législatif par l’Article 31 de la loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (dite loi SREN). La restriction du champ d’application de cette obligation visait notamment à consolider la doctrine sur le plan juridique en limitant les risques de recours par des opérateurs étrangers au regard des règles du marché intérieur européen et du principe de non-discrimination de l’OMC. Le Cloud de confiance et SecNumCloud Le concept de « cloud de confiance » remplace la notion initiale de « cloud souverain ». Il repose sur deux solutions jugées équivalentes en termes de sécurité pour les données sensibles : Les clouds internes de l’État (dits du 1er cercle), comme Nubo (opéré par la DGFiP) et Pi (opéré par le ministère de l’Intérieur). Les offres commerciales qualifiées SecNumCloud. La qualification SecNumCloud est un référentiel d’exigences techniques, opérationnelles et juridiques élaboré par l’Agence nationale de la sécurité des systèmes d’information (Anssi). Il garantit le plus haut niveau de sécurité pour les services de l’État et les opérateurs d’importance vitale (OIV). Un apport essentiel de ce référentiel est l’accent mis sur la souveraineté. Il garantit une immunité aux lois non européennes à portée extraterritoriale, telles que le Cloud Act ou le Foreign Intelligence Surveillance Act (Fisa) américain. Cela impose notamment que le siège social du prestataire soit situé dans l’Union européenne et qu’une entité non européenne ne détienne pas, à elle seule, plus de 24 % du capital et des droits de vote du prestataire. Les limites de la mise en œuvre Cloud au centre Malgré l’ambition politique affichée, la mise en œuvre de la doctrine « Cloud au centre » rencontre des difficultés. Bien que la commande publique en services cloud soit passée de 1 M€ en 2020 à 52 M€ en 2024, atteignant 120 M€ au total sur cette période, cela reste très modeste par rapport aux dépenses informatiques annuelles de l’État, de l’ordre de 3 Md€. De plus, le recours aux solutions qualifiées SecNumCloud induit un surcoût par rapport aux offres cloud non qualifiées, estimé entre +25 % et +40 %. Ce point est à challenger car, pour avoir fait le travail de passer tout une entreprise SECNUMCLOUD, cela à pu être fait à ISO cout en partant d’un système déjà Cloud. C’est sur que si on part de On premise, on a ce surcout. Mais on ne compare pas la même solution. Cloud au centre L’échec des clouds internes Face à la domination des géants américains, l’État a tenté de construire ses propres solutions Cloud souverain. Deux clouds interministériels ont ainsi vu le jour : Nubo, porté par le ministère des Finances, et Pi, porté par celui de l’Intérieur. L’ambition était de fournir une alternative sûre et maîtrisée pour les données les plus sensibles. La réalité est cependant bien loin des ambitions affichées. Les chiffres sont sans appel : “la part d’interministériel pour les clouds Pi et Nubo plafonne à 5 %”. En clair, ces solutions sont très peu utilisées en dehors des ministères qui les ont créées. La raison principale ? Un sous-investissement chronique. Le rapport note que Nubo a coûté 55 millions d’euros en neuf ans, une somme modeste au regard des dépenses numériques annuelles de l’État qui s’élèvent à environ 3 milliards d’euros. En conséquence, la gamme de services offerts reste limitée et la tarification est jugée inadaptée. Cet échec à attirer les utilisateurs empêche Nubo et Pi d’atteindre la “taille critique” nécessaire pour justifier de nouveaux investissements, créant ainsi un cercle vicieux de sous-performance et de sous-utilisation qui les rend non compétitifs. Peut être aussi la stratégie n’est pas bonne de vouloir créer son propose cloud plutôt qu’externaliser cela à un hyperscaler souverain qui pourra mutualiser les couts. La souveraineté SECNUMCLOUD un coût : jusqu’à 40 % plus cher Qu’est-ce qu’une solution numérique “vraiment” souveraine ? En France, le plus haut standard est défini par la qualification SecNumCloud, délivrée par l’Agence nationale de la sécurité des systèmes d’information (ANSSI). Ce label garantit non seulement un très haut niveau de sécurité technique, mais aussi une immunité juridique contre les lois extraterritoriales, comme le fameux Cloud Act américain. Cette loi qui permet aux autorités américaines de contraindre les fournisseurs de services américains à livrer des données, où qu’elles soient stockées dans le monde. Services secnumcloud Cette garantie a un prix. Le rapport de la Cour des comptes met un chiffre précis sur ce coût, une donnée rarement rendue publique : le surcoût d’une infrastructure qualifiée SecNumCloud par rapport à une offre cloud traditionnelle est estimé “entre +25 et +40 %”. De nouveau, je pense que ce montant est un maximum et que en faisant appels à un hyperscaler et en optimisant, on peut le faire à iso cout. Marché public cloud Vos logiciels de bureautiques sont un enjeu stratégique majeur D’un point de vue politique, le débat sur la souveraineté devient le plus tangible lorsqu’il touche aux outils quotidiens des agents publics. Exemple très concret des suites bureautiques pour illustrer ce défi. La dépendance historique de l’administration française à la suite Microsoft Office est devenue un problème stratégique lorsque l’entreprise a commencé à pousser agressivement son offre cloud, Microsoft 365. Face à ce mouvement, la Direction interministérielle du numérique (DINUM) a demandé aux minis

    12 min
  3. 15 NOV · VIDEO

    La commission européenne créé le score de souveraineté

    La commission européenne créé le score de souveraineté. Elle introduit un cadre pour un cloud de confiance qui inclut un système de score de souveraineté destiné principalement aux marchés publics. Sur la papier, c’est important de permettre aux acheteurs public de disposer d’une score de souveraineté pour qualifier leur démarche d’achat responsable et souverain. Pour bien l’utiliser, il faut comprendre comment il est calculé. Ce système évalue les offres de fournisseurs cloud sur huit critères, allant de l’ancrage juridique et financier à la protection des données et à la résilience opérationnelle, attribuant un niveau de service allant de 0 à 4 pour chaque pilier. L’initiative s’appuie sur plusieurs référentiels existants, notamment Gaia-X et les politiques nationales comme SecNumCloud en France. Cette méthodologie fait face à des critiques de l’association CISPE, qui la juge opaque et estime qu’elle pourrait involontairement favoriser les grands fournisseurs américains. Les discussions portent également sur la complexité du calcul du score final, qui repose sur une formule pondérée des différents critères. La bureaucratie va-t-elle protéger le marché européen ou avoir l’effet inverse ? Le « score de souveraineté » cloud de l’Union Européenne La souveraineté numérique est un enjeu stratégique majeur pour l’Europe. Faute de champions mondiaux dans tous les segment stratégiques, ll faut protéger les quelques entreprises européennes qui se battent face à des géants. Il faut également accepter d’acheter non souverains en connaissance de cause. Pour les organismes publics, choisir un service cloud qui garantit la protection des données et une indépendance vis-à-vis des puissances étrangères est un véritable casse-tête. Face à la domination des géants technologiques américains et chinois, comment s’assurer qu’une offre est véritablement “de confiance” et alignée avec les intérêts européens ? La circulaire Cloud au centre et la transposition de la directive NIS 2 obligent ces entités publiques à prendre des décisons souveraines en matière de Cloud. Etant obligé de composer avec les composants Cloud chinois et américains (Routeurs, OS, licences), à partir de quel niveau la souveraineté est en péri l? Pour répondre à cette question, la Commission européenne vient de dévoiler une initiative ambitieuse : un cadre de référence accompagné d’un “score de souveraineté” pour évaluer les fournisseurs de cloud. L’objectif est de fournir aux acheteurs publics un outil concret pour mesurer et comparer les offres. Cependant, loin de faire l’unanimité, cette solution a immédiatement déclenché une vive controverse. L’Europe veut quantifier la souveraineté C’est une approche cartésienne. On créé des critères et un indice pour aider le secteur public à prendre les bonnes décisions. C’est comme le nutri score pour les aliments. Pour les amateurs et connaisseurs, je vous ai fait la copie de la formule du score de souveraineté. #formule cloud souverain Si avec cela vous doutez encore… La Commission européenne a mis en place un cadre formel destiné aux autorités publiques pour mesurer la souveraineté des offres cloud. Cette démarche ne part pas de zéro ; elle s’appuie sur des initiatives reconnues comme Gaia-X et le référentiel du Cigref, sur des politiques nationales comme SecNumCloud en France et le standard C5 en Allemagne. Le tout dans un cadre européen de certification de cybersécurité (Enisa, NIS2, Dora). L’ambition est donc d’intégrer cette mesure dans l’arsenal réglementaire plus large de l’UE. Le cœur du système est un score basé sur huit “objectifs de souveraineté” (SOV). Pour chaque objectif, un niveau de service (SEAL) est attribué, allant de 0 à 4. Le niveau 0 signifie que le service, la technologie ou les opérations sont sous le contrôle exclusif d’entités non-européennes, Le niveau 4 garantit une technologie et des opérations sous contrôle total de l’UE, soumises uniquement au droit européen et sans dépendances critiques extérieures. La grille d’analyse se veut exhaustive, couvrant les aspects suivants : Le degré d’ancrage du fournisseur au sein de l’écosystème juridique, financier et industriel de l’UE. L’exposition juridique à des autorités étrangères. La protection et le contrôle des données et des services IA. La souveraineté opérationnelle (continuité, disponibilité des compétences, résilience). La résilience de la supply chain (chaîne d’approvisionnement). La dépendance technologique. La sécurité et la conformité. Les efforts en termes de développement durable. Critique de la méthode L’association CISPE, qui regroupe les fournisseurs de cloud européens, est la première à monter au créneau. Selon elle, le cadre proposé est opaque et, dans sa forme actuelle, il favoriserait les “hyperscalers étrangers” (AWS, Microsoft, Google Cloud) au détriment des acteurs purement européens. On constate bien en lisant certains annonces que prétendre faire du Cloud souverain avec AWS ou GOOGLE, c’est normalement pas compatible. Pourtant des entreprises publiques communiquent dessus et contractualisent. Regardons l’exemple de EDF qui a annoncé la semaine dernière avoir confié ses données à Sens L’association va plus loin, accusant la démarche d’être intentionnelle. Elle suggère que ce cadre pourrait servir de prétexte aux organismes du secteur public pour ne pas résilier leurs contrats existants avec les géants américains. CISPE juge également certains objectifs, comme “le contrôle total de l’UE sur chaque composant matériel”, comme étant tout simplement irréalisables en pratique pour la majorité des acteurs. Pour avoir visité le centre de production de OVHCloud. Certains hébergeurs produisent eux-mêmes leurs matériels. C’est ce qui est étonnant chez OVHcloud, la visite commence par l’usine de production des serveurs. Voici ce qui est publié sur le site OVHcloud au sujet de leur capacité industrielle à produire leurs serveurs: Un cloud durable by design Nous produisons nos propres serveurs et les désassemblons à 100% afin qu’ils vivent jusqu’à 3 vies Grâce à 20 ans d’innovation, nous utilisons 7 fois moins d’eau que nos concurrents pour refroidir nos serveurs   Notre efficacité énergétique (PUE) est de 1,28 vs. 1,57 pour la moyenne du marché 25 de nos 43 datacenters sont installés dans des bâtiments réhabilités 100% énergies bas carbone d’ici 2025 0% mise en décharge d’ici 2025 Enfin, la méthode de calcul du score elle-même est critiquée. En se basant sur “une moyenne de moyennes pondérées”, la Commission européenne créerait, selon CISPE, un système qui manque cruellement de transparence. Cette critique est d’autant plus vive lorsque l’on examine la pondération des critères, Une pondération qui interroge Pour calculer la note finale, la Commission européenne a attribué une pondération différente à chaque famille de critères. Cette répartition des poids est au cœur des débats et révèle des choix politiques forts. Les pourcentages attribués aux principaux piliers sont les suivants : Supply chain : 20% Les volets opérationnels, stratégiques et technologiques comptent collectivement pour : 15% Parties juridiques et conformité : 10% Le point le plus frappant est la pondération de la supply chain à 20 %, la plus élevée de toutes. Or, c’est précisément ce critère que les fournisseurs européens, via CISPE, jugent “irréalisable”, car il implique un contrôle sur des chaînes d’approvisionnement matérielles mondialisées et largement dominées par des acteurs non-européens. Cette pondération semble ainsi renforcer l’argument selon lequel le score est taillé pour les hyperscalers qui maîtrisent ces chaînes. À l’inverse, le poids relativement faible des aspects juridiques et de conformité (10 %) surprend. Ces critères sont pourtant cruciaux pour évaluer la protection d’un service face aux lois à portée extraterritoriale, l’une des menaces fondamentales pour la souveraineté des données européennes. Espérons que ces pondérations vont évoluer pour aller dans un autre sens. Un premier pas nécessaire Malgré les critiques , certains saluent l’initiative comme un “premier pas” indispensable pour enfin définir et mesurer objectivement la souveraineté d’une offre cloud. Il s’agit d’une tentative de standardisation attendue de longue date. Cette indice permet aussi de se positionner et de détecter les points faibles d’une stratégie Cloud. Des questions très concrètes émergent, notamment sur le cas des offres hybrides. Comment le score évaluera-t-il des offres comme Bleu ou S3NS, notamment sur les critères d’exposition juridique à des autorités étrangères et de dépendance technologique, alors que leur modèle repose précisément sur une technologie américaine opérée par une entité européenne ? Les Directeurs des Systèmes d’Information (DSI), les Responsables de la Sécurité des Systèmes d’Information (RSSI) et les fournisseurs eux-mêmes devront s’approprier rapidement cette méthodologie et l’intégrer dans leurs grilles d’analyse. Elle pourra aussi faire l’objet de critères techniques des appels d’offre (dans les CCTP). Conclusion L’initiative de la Commission européenne est une démarche conçue pour apporter clarté et promouvoir la souveraineté cloud. Comme souvent la commissions est accusée de complexité et de favoritisme envers les acteurs non-européens qu

    11 min
  4. 1 NOV · VIDEO

    La souveraineté chinoise passe aussi par un BIOS

    La souveraineté chinoise passe aussi par un BIOS Ce mois-ci la Chine a présenté son BIOS nommé UBIOS qui doit remplacer les BIOS actuels. Il sera présent dans les PC qui seront produits et utilisés en Chine. Cela fait partie de la guerre hybride que mènent les grandes puissances. Le ubios chinois Le BIOS (Basic Input/Output System) est un micrologiciel intégré à la carte mère d’un ordinateur qui joue un rôle fondamental lors du démarrage du système. Son principal objectif est d’assurer l’initialisation et le test des composants matériels essentiels, comme le processeur, la mémoire vive (RAM), les disques durs et les périphériques d’entrée/sortie.  Une fois ces vérifications terminées, le BIOS charge le système d’exploitation depuis un support de stockage (disque dur, clé USB, etc.). Stratégie de la Chine pour Bâtir son Autonomie Technologique Ubios La Fin de la domination américaine Pendant des décennies, le monde de la technologie a fonctionné sur un modèle d’interconnexion. Les géants américains comme Microsoft, Dell, IBM et Cisco étaient omniprésents en Chine, fournissant les infrastructures matérielles et logicielles qui ont alimenté une croissance industrielle fulgurante. Cette ère de collaboration, perçue comme une aubaine, masquait en réalité une dépendance stratégique que Pékin a jugé intolérable. Ceci d’autant plus que certains composants son soupçonnés de contenir des backdoor ou leur micologiciels de collecter des données. La Chine a déjà construit son propre réseau internet qui n’est pas celui que vous connaissez ici. Aujourd’hui, la Chine mène une campagne discrète mais massive pour démanteler cette dépendance. Loin de se limiter au remplacement de logiciels, cette stratégie s’attaque aux fondations mêmes de l’informatique. De la production jusqu’au cœur du matériel. Il ne s’agit plus de choisir une alternative locale, mais de bâtir un écosystème technologique entièrement souverain. Tout part du Document 79 : L’Ordre Secret pour Effacer l’Amérique Le point de départ de cette offensive est un ordre secret connu sous le nom de “Document 79”. Émise en septembre 2022 par la Commission de Supervision et d’Administration des Actifs de l’État, son objectif est radical : obliger les entreprises publiques des secteurs les plus critiques, comme la finance et l’énergie, à remplacer tous les logiciels étrangers. Ce document cible en particulier les américains. Tous ces composants doivent être remplacés par des alternatives locales d’ici 2027. La chine a décidé de cette stratégie suite à l’escalade des tensions technologiques et commerciales avec Washington. En particulier après l’intensification des restrictions à l’exportation de puces et des sanctions imposées par les États-Unis aux entreprises technologiques chinoise. Politique qui continue actuellement. Le niveau de confidentialité entourant cet ordre était extrême. Selon plusieurs sources, les hauts fonctionnaires et les dirigeants concernés n’étaient autorisés à consulter le document qu’en personne, sans jamais pouvoir en faire de copies. Dans certains cercles, cette directive a même été surnommée “Delete A” pour “Delete America”. Il s’agit d’un signal sans ambiguïté : la Chine ne négocie plus sa place dans l’écosystème existant, elle en bâtit un autre, à ses conditions. L’Impact Concret sur les Entreprises Américaines Cette politique n’est pas qu’un projet théorique ; ses conséquences sont déjà mesurables et impactantes pour les plus grands noms de la tech américaine. Les chiffres témoignent d’un changement de marché brutal et rapide. Hewlett Packard Enterprise (HPE) : Ses revenus en Chine, qui représentaient 14,1 % de son total chiffre d’affaires en 2018, ont chuté à seulement 4 % en 2023. Signe d’une retraite stratégique, HPE a annoncé en mai 2023 envisager la vente de sa participation de 49 % dans sa coentreprise chinoise. Dell : Sa part de marché des ordinateurs personnels en Chine a été presque divisée par deux au cours des cinq dernières années. Cisco : Dès 2019, l’entreprise signalait déjà perdre des contrats au profit de fournisseurs locaux, en raison d’une forte tendance à l’achat nationaliste. Microsoft : Les ventes du géant du logiciel en Chine ne représentent plus aujourd’hui que 1,5 % de ses ventes totales. Pour un marché de cette taille, ce chiffre est remarquablement bas et illustre l’érosion profonde de l’influence du géant du logiciel dans les ventes directes. IBM : Après avoir vu ses bénéfices diminuer de manière constante, la société a été contrainte de réduire ses opérations de recherche à Pékin en 2021. À cette liste s’ajoutent des entreprises de logiciels comme Adobe, Citrix et Salesforce, qui ont toutes réduit ou retiré leurs opérations directes en Chine. Ce point est particulièrement percutant car il traduit une stratégie politique abstraite en pertes de parts de marché réelles et massives pour des entreprises qui ont longtemps dominé le paysage technologique mondial. Vu de la France on ne se rend pas compte de la force de cette politique, ni de l’impact sur l’industrie de la tech. Car bientôt la Chine va venir en Europe avec ses solutions souveraines. Au-delà du Logiciel : UBIOS, une Révolution au Cœur du Démarrage des PC Si le remplacement des logiciels est une étape visible, la stratégie chinoise va beaucoup plus loin, jusqu’à la couche la plus fondamentale d’un ordinateur : le firmware de démarrage. La Chine a développé UBIOS (Unified Basic Input Output System), une alternative entièrement nationale à l’UEFI, le standard qui lance la quasi-totalité des PC dans le monde avant même le démarrage de Windows ou de Linux. Développé par le Global Computing Consortium (GCC),est un regroupement de 13 entreprises chinoises incluant Huawei. Ce nouveau standard (identifié par le code T/GCC 3007-2025) a été conçu à partir de zéro L’UEFI, historiquement lié à Intel et Microsoft, est jugé “lourd” et inefficace pour les nouvelles architectures informatiques hétérogènes et les “Chiplets” (puces modulaires) que la Chine développe activement. L’innovation majeure d’UBIOS réside dans son “Bus Virtuel Unifié” (UVB). Alors que les firmwares traditionnels ont des interactions complexes et rigides, l’UVB crée une interface de communication standardisée, simplifiant drastiquement les échanges entre tous les composants. En remplaçant l’UEFI, la Chine ne se contente pas de changer d’applications ; elle s’approprie la clé de contact de ses systèmes informatiques, garantissant une indépendance et une sécurité quasi totales. Alors que l’UEFI a dominé le marché en évoluant à partir du BIOS traditionnel pour surmonter des limitations historiques (comme la prise en charge de disques de plus de 2 To et des démarrages plus rapides), l’UBIOS est un cadre entièrement nouveau axé sur la sécurité nationale, la gestion de l’hétérogénéité des puces et l’établissement de la Chine comme fixateur de normes dans les technologies émergentes. Le UBIOS support d’autres plateformes que Intel, présente une expérience utilisateur bien plus simple et intimidante que les BIOS actuels. Actuellement les interface bios présentent souvent des options non documentées correctement ou obscures. L’utilisateur ne comprend pas leur fonction. Une Vision d’Avenir : Plus qu’une Simple Réponse aux Sanctions Il serait erroné de voir cette quête d’autonomie comme une simple réaction défensive aux sanctions américaines. Il s’agit en réalité d’une stratégie offensive et à long terme, connue sous le nom de “Xinchuang” (“innovation informatique”). Cette politique vise à garantir la sécurité et la fiabilité des technologies nationales. Cette initiative s’inscrit dans la vision économique plus large du président Xi Jinping, la “double circulation”, qui a pour but de réduire la vulnérabilité de la Chine aux chocs externes en s’appuyant sur la production et la consommation nationales. L’objectif n’est donc pas seulement défensif, mais vise à inverser les rôles : passer du statut de “preneur de standards” (standard-taker) à celui de “créateur de standards” (standard-setter). En établissant ses propres normes pour les technologies de nouvelle génération, Pékin ambitionne de transformer le reste du monde de fournisseur en simple client, voire en suiveur. Vers une guerre Numérique Mondiale ? Les faits sont sans équivoque : la Chine n’est pas seulement en train de remplacer la technologie occidentale. Elle construit brique par brique un écosystème technologique parallèle, complet et souverain, du logiciel le plus visible au firmware le plus enfoui. Cette démarche met fin à des décennies de standards technologiques partagés et annonce une nouvelle ère de compétition. La souveraineté chinoise est un objectif politique. Dès qu’elle aura complété son écosystème, elle commercialisera en Europe ses systèmes aux normes chinoises. En Europe des voix tirent la sonnette d’alarme pour constituer ici aussi un écosystème propre. Elle sont entendues mais, la volonté collective n’est pas là. Là ou les USA et la Chine sont une seule nation on est 27 pays. Sources de l’article : Blog convergia sur le document 79 WCCFTECH sur le lancement du BIOS uBIOS Par régis BAUDOUIN The post La souveraineté chinoise passe aussi par un BIOS first appeared on XY Magazine.

    11 min
  5. 25 OCT · VIDEO

    L'administration numérique est-elle vraiment plus accessible ?

    L’administration numérique est-elle vraiment plus accessible. C’est la promesse de la digitalisation des démarches administratives. Pourtant les études démontrent que la population préfère toujours avoir un fonctionnaire pour l’assister. Mais dans le même temps, le débat budgétaire et le discours politique est en faveur d’une baisse du nombre de fonctionnaires. L’administration numérique est-elle vraiment plus accessible ? La galère administrative : le nouveau mal français ? 4 chiffres chocs qui montrent que c’est l’affaire de tous Qui n’a jamais soupiré face à un formulaire à remplir ou à une démarche administrative à accomplir ? Ce sentiment, souvent frustrant et solitaire, est devenu une expérience universelle. Mais au-delà de l’anecdote, une nouvelle enquête du Défenseur des droits vient mettre des chiffres précis sur ce ressenti collectif. Publiée en octobre 2025, cette étude agit comme une évaluation grandeur nature des vastes chantiers de modernisation des services publics, notamment la dématérialisation promise par des programmes comme « Action publique 2022 ». Les constats sont aussi surprenants qu’alarmants. Cet article décrypte les quatre points les plus marquants et contre-intuitifs de cette enquête qui nous concerne tous. La dématérialisation des procédures facile-t-elle la vie L’enquête menée par le Défenseur des droits montre que, bien que la dématérialisation puisse représenter un progrès pour certains, elle est loin de faciliter les démarches pour l’ensemble de la population. Ce que montre le sondage c’est que la dématérialisation est même liée à une augmentation notable des difficultés générales. Voici une analyse détaillée basée sur les résultats de l’enquête : La Dématérialisation comme Source de Difficultés L’enquête s’est spécifiquement penchée sur le rôle du numérique afin d’évaluer les effets de la dématérialisation sur l’accessibilité des services publics. Il en ressort que la dématérialisation, lorsqu’elle est mise en œuvre trop rapidement et insuffisamment accompagnée, vient confirmer les difficultés. Constant : Autonomie réduite en ligne : Une part non négligeable de la population n’arrive pas à effectuer ses démarches administratives en ligne seule. Moins d’une personne sur deux (49%) parvient à réaliser seule ses démarches administratives en ligne. 36% des répondants déclarent avoir besoin d’une aide ponctuelle. 8% n’y arrivent pas seuls et ont besoin d’être accompagnés. 7% évitent les démarches en ligne par choix personnel. (ceux qui veulent des humains) Difficultés pour tous les âges : Les difficultés liées aux démarches en ligne touchent autant les plus jeunes que les plus âgés. Par exemple, 51% des 18-34 ans et 53% des 55-79 ans déclarent rencontrer des difficultés. Surement pas pour les même raisons. Les premiers car ils ne comprennent pas la démarché, les seconds car ils ne sont pas familiers avec les formulaires en ligne. Augmentation des difficultés générales : La dématérialisation croissante des services publics est liée à un élargissement du nombre et des profils des usagers en difficulté pour réaliser leurs démarches administratives. En 2024, 61% des usagers rencontrent des difficultés (ponctuelles ou régulières) pour réaliser leurs démarches administratives, contre 39% en 2016. Cette hausse est significative y compris pour les populations considérées comme favorisées, telles que les cadres ou professions intermédiaires (+86 %) ou les diplômés de master et plus (+75 %). Il s’agit ici d’une hause par d’une part de cette population. Conséquences sur l’accès aux droits : La complexité des démarches est le motif principal de renoncement à un droit (dans 70% des cas). La conclusion est bien que la société est complexe. En ligne ou pas les démarches nécessitent du conseil et assistance. Soit on fait appels à un expert (avocat, expert comptable notaire…) avec un cout associé. soit on veut des fonctionnaires pour aider mais il faut accepter des impôts et des effectifs. Le fait que les démarches soient réalisables uniquement en ligne et le manque d’accès à un ordinateur ou à internet ont été la raison du renoncement pour 7% des personnes concernées. Les Ambivalences : Facilitation pour certains, Obstacle pour d’autres La dématérialisation peut avoir des effets contradictoires. Simplification potentielle pour les usagers aguerris : Pour les personnes à l’aise avec le numérique, la dématérialisation simplifie la résolution de problèmes avec les services publics (possibilité de réaliser les démarches à distance, de se renseigner plus rapidement en ligne, transmission de documents par voie numérique, etc.). D’ailleurs, l’enquête observe une baisse de la proportion de personnes déclarant avoir rencontré des problèmes dans la résolution d’un problème avec un service public (passant de 54% en 2016 à 42% en 2024). Cette facilitation potentielle dépend fortement de la capacité à rechercher l’information en ligne. Le maintien du contact humain comme facteur d’efficacité : Malgré la tendance au “tout numérique”, le contact humain reste l’outil privilégié par les usagers en cas de problème, et il est jugé plus efficace. Le principal problème rencontré est la difficulté à contacter quelqu’un pour obtenir des informations ou un rendez-vous (citée dans 72% des cas), ce qui est presque deux fois plus qu’en 2016 et concorde avec la dématérialisation des administrations qui ne prévoient pas toujours de canaux alternatifs. C’est normal, beaucoup de service en ligne ne prévoient pas d’alternatives humaines. En cas de problème, les contacts physiques ou téléphoniques sont plus fructueux que les démarches à distance ou dématérialisées. Le succès est de 72% pour ceux qui se sont rendus sur place, et de 67% pour ceux qui ont appelé, contre seulement 56% pour ceux qui ont envoyé un courrier. Recommandations en faveur d’un accès universel Face à ces constats, le Défenseur des droits insiste sur l’impératif de garantir un accès « omnicanal » aux services publics. Les recommandations incluent notamment de : Renforcer les procédures alternatives aux démarches dématérialisées, notamment l’accueil au guichet et l’accueil téléphonique, pour permettre à l’usager de choisir le mode de communication le plus approprié à sa situation. C’est facile de la demander. La mise ne place d’un service numérique c’est un cout qui doit s’amortir en remplaçant le cout humain antérieur. Si on cumule les deux couts. c’est l’usager qui paie. Simplifier les interfaces numériques et veiller à ce que l’information soit claire, compréhensible et ergonomiquement adaptée à tous (par exemple en utilisant le langage « facile à lire et à comprendre » – FALC). On peut aussi demander que les lois soient plus simples que l’on demande moins de données. Renforcer l’accompagnement numérique des usagers qui rencontrent des difficultés spécifiques face à l’administration numérique. La galère administrative n’est plus réservée aux autres : elle est devenue l’affaire de tous. Le premier constat choc de l’enquête est l’explosion du nombre de personnes rencontrant des difficultés administratives. En 2024, 61 % des sondés déclarent rencontrer des difficultés, qu’elles soient ponctuelles ou régulières, contre seulement 39 % en 2016. Ce qui rend cette évolution particulièrement surprenante, c’est qu’elle touche absolument toutes les catégories de la population, y compris celles que l’on pensait à l’abri. Les chiffres sont sans appel : le nombre de personnes en difficulté a augmenté de +86 % chez les cadres et professions intermédiaires, et de +75 % chez les diplômés de niveau master et plus. Ce chiffre suggère que la complexité n’est plus un symptôme d’inégalité sociale mais est devenue une caractéristique systémique de l’administration elle-même. Cette augmentation généralisée contribue paradoxalement à réduire les écarts entre les groupes sociaux, non pas par le haut, mais en universalisant la difficulté. La complexité administrative n’est plus un problème marginal affectant quelques-uns ; c’est devenu un phénomène de société. Cette généralisation s’explique en grande partie par une transformation majeure de l’action publique : la dématérialisation, dont les effets se font sentir y compris chez ceux que l’on croyait immunisés. Le mythe du « natif du numérique » : les jeunes aussi peinent avec les démarches en ligne. L’un des enseignements les plus contre-intuitifs de l’étude est que les difficultés avec le numérique ne sont pas qu’une question de génération. On imagine souvent les jeunes, agiles avec leurs smartphones, naviguer sans effort sur les plateformes administratives. La réalité est bien différente. Moins d’une personne sur deux (49 %) parvient à faire ses démarches en ligne sans aide. Plus frappant encore, les jeunes de 18-34 ans sont presque aussi nombreux (51 %) à rencontrer des difficultés en ligne que les 55-79 ans (53 %). Ce constat remet en cause le postulat au cœur de nombreuses réformes : l’idée qu’une simple transition numérique suffirait à moderniser l’accès aux services publics. Il brise le mythe du “natif du numérique” en montrant que la maîtrise des outils du quotidien ne se traduit pas par une aisance face à la logique propre des procédures dématérialisées. Cette difficulté, qui transcende les générations, explique pourquoi, face à un blocage, le réflexe des usagers n’est

    11 min
  6. 18 OCT · VIDEO

    Le bio-ordinateur fusionne neurones et silicium

    Le bio-ordinateur fusionne neurones et silicium. Cet ordinateur existe et vous pouvez l’acheter en ligne. c’est la société Cortical Lab qui l’a créé. Le bio-ordinateur fusionne neurones et silicium On avait évoqué l’ordinateur quantique dans un précédent article. Le bio ordinateur c’est un autre domaine d’applications. Le bio-ordinateur Cortical Lab Cortical Labs est une start-up australienne fondée en 2019. Elle est basée à Melbourne. Son objectif est de révolutionner l’informatique en intégrant des neurones vivants dans des puces de silicium.  L’entreprise a lancé, en mars 2025, son premier ordinateur biologique commercial, le CL1, décrit comme la première « intelligence biologique synthétique » (Synthetic Biological Intelligence – SBI) au monde. Ce système hybride combine des neurones humains cultivés à partir de cellules souches pluripotentes induites (iPSCs) avec une infrastructure de silicium équipée d’électrodes pour permettre une communication bidirectionnelle. Le CL1, fonctionne grâce à un système d’exploitation biologique (biOS) qui transmet des signaux électriques aux neurones et convertit leur activité en actions dans un monde numérique simulé. Les neurones, qui se connectent entre eux sur la puce, sont maintenus en vie dans un environnement contrôlé comprenant des systèmes de filtration, de régulation de la température, de mélange de gaz et de distribution de nutriments. Ces cultures peuvent survivre six mois ou plus, avec des expériences ayant démontré une survie jusqu’à un an. Notez que l’ordinateur a une coque transparente qui permet de voir les neurones travailler. Enfin on voit pas grand chose en vrai. Au-delà de l’IA que nous connaissons L’intelligence artificielle est synonyme de processeurs en silicium, de centres de données et d’une consommation d’énergie colossale. Une alternative révolutionnaire émerge, fusionnant le vivant et la machine : des neurones humains, cultivés en laboratoire, intégrés directement à des puces électroniques. L’entreprise australienne Cortical Labs est à la pointe de ce domaine, baptisé Intelligence Biologique Synthétique (SBI), avec son nouveau dispositif, le CL1. Cette technologie promet une intelligence plus dynamique, fondamentalement plus évolutive et plus économe en énergie. Cette technologie rappelle le dessin animé Capitaine FLAM qui avait avec lui le cerveaux du Professeur Simon Wright. On n’est pas encore parvenu à ce résultat. Professeur Simon Wright dans Capitaine FLAM ——————————————————————————– Les neurones en boîte apprennent plus vite qu’une IA de pointe La découverte la plus contre-intuitive est sans doute l’efficacité d’apprentissage de ces systèmes biologiques. Dans une expérience fondatrice nommée “DishBrain”, une culture d’environ 800 000 neurones humains a été intégrée à une simulation du jeu d’arcade Pong. De manière stupéfiante, ce réseau neuronal biologique a appris à jouer au jeu en seulement 5 minutes. C’est une réalisation majeure de Cortical LAB. Pour quantifier cette performance, une étude comparative a opposé ces réseaux neuronaux biologiques (BNN) à trois algorithmes d’apprentissage par renforcement profond (RL) de pointe (Intelligence Artificielle traditionnelle). Lorsque le nombre de sessions d’entraînement était limité à environ 70 épisodes (l’équivalent d’une session de 20 minutes pour le système biologique), les BNN ont systématiquement surpassé les algorithmes d’IA. Ce résultat est remarquable : un système biologique , recevant une quantité d’informations très limitée, s’est montré plus efficace pour apprendre une tâche spécifique que des algorithmes complexes et gourmands en ressources. Il est crucial de noter que cette supériorité réside dans l’efficacité d’échantillonnage ; avec des milliers de sessions d’entraînement supplémentaires, les algorithmes d’IA finissent par apprendre la tâche. La véritable percée est donc la vitesse à laquelle l’intelligence biologique s’adapte avec un minimum de données, un exploit qui reste hors de portée des systèmes en silicium. Un “ordinateur” vivant sur une simple puce de verre et de métal Au cœur du CL1 se trouvent des neurones humains cultivés en laboratoire, dérivés de cellules souches, qui sont ensuite placés sur une puce en silicium dotée d’un réseau de micro-électrodes. Le développement de ce matériel a nécessité de surmonter des obstacles importants. Les anciennes puces de type CMOS, bien que permettant une lecture à haute densité, présentaient des limites majeures : elles étaient opaques, empêchant l’observation directe des connexions neuronales, et provoquaient une accumulation de charge électrique qui finissait par endommager les cellules. Le nouveau matériel résout ce problème en permettant un équilibrage de charge stable. Le dispositif complet, le CL1, se présente sous la forme d’un boîtier autonome qui fournit tout le support vital nécessaire aux cellules. Il intègre un système de filtration, un contrôle de la température, un mélangeur de gaz et des pompes pour maintenir les cellules en bonne santé. Un rack de serveur contenant 30 de ces unités ne consomme qu’entre 850 et 1000 watts, une fraction de l’énergie requise par les infrastructures d’IA conventionnelles. Contrôle et Interface : Les neurones sont placés sur un réseau de 59 électrodes planaires (principalement composées de métal et de verre) qui optimisent la connexion électrodes-neurones et offrent une plus grande stabilité de charge. L’ensemble est connecté à un système de logiciel pour une exploitation en temps réel. Stimulation et Lecture Bidirectionnelles : Le CL1 fournit une “interface de stimulation et de lecture bidirectionnelle” conçue spécifiquement pour permettre la communication neuronale et l’apprentissage en réseau. Autonomie : Ces bio-ordinateurs sont conçus pour être entièrement programmables et ne nécessitent pas d’ordinateurs externes pour fonctionner. Le Mécanisme d’Apprentissage : La quête de prévisibilité, pas de code Contrairement aux algorithmes d’IA qui reposent sur des mécanismes mathématiques comme la rétropropagation de l’erreur, ces réseaux de neurones apprennent en suivant un principe biologique fondamental : la recherche de la prévisibilité. Le système d’apprentissage fonctionne sur un modèle de “récompense et punition”. La récompense n’est pas un score, mais un signal prévisible et économe en énergie. Lorsque les neurones réussissaient à “frapper” la balle dans Pong, ils recevaient une stimulation électrique structurée et prévisible : un signal de 100 Hz délivré simultanément sur l’ensemble des huit électrodes sensorielles pendant 100 millisecondes. La punition, quant à elle, était un signal imprévisible et chaotique. Lorsqu’ils “manquaient” la balle, les neurones recevaient une stimulation électrique aléatoire et chaotique : un signal de 5 Hz délivré à des moments et sur des électrodes imprévisibles pendant quatre secondes, créant un environnement sensoriel désordonné. En réponse à ces stimuli, les neurones réorganisent spontanément leurs connexions pour maximiser les signaux prévisibles (la récompense) et éviter les signaux chaotiques (la punition). C’est de cette adaptation auto-organisée qu’émergent l’apprentissage et l’amélioration des performances. Un accès via le cloud et une révolution pour la recherche Cortical Labs ne se contente pas de développer une technologie de pointe ; l’entreprise la rend également accessible. Les premières unités CL1 sont commercialisées avec un prix de départ d’environ 35 000 dollars américains. Plus innovant encore est le modèle commercial de “Wetware-as-a-Service” (WaaS). Cette approche permettra aux chercheurs et aux innovateurs du monde entier d’accéder à distance aux bio-ordinateurs via le cloud, sans avoir à acheter et à entretenir le matériel physique. Les applications potentielles de cette plateforme sont révolutionnaires. Elles incluent : • La découverte de médicaments et la modélisation de maladies, en particulier pour des conditions neurologiques comme l’épilepsie et la maladie d’Alzheimer. • La réduction, voire le remplacement, des tests sur les animaux, offrant une alternative éthique et potentiellement plus pertinente. • L’exploration de questions biologiques fondamentales, comme la définition du “Cerveau Minimal Viable”, c’est-à-dire le réseau neuronal le plus simple capable de fonctions cognitives. • Le développement de nouvelles intelligences robotiques, permettant la création de systèmes d’apprentissage plus organiques et adaptatifs. Vers une nouvelle intelligence ? L’Intelligence Biologique Synthétique ne représente pas simplement une amélioration de l’IA existante, mais un changement de paradigme. Nous ne codons plus l’intelligence ; nous créons les conditions pour qu’elle émerge. C’est un passage de l’architecture à l’horticulture cognitive, exploitant la capacité innée des neurones à s’adapter pour ouvrir des horizons jusqu’ici réservés à la science-fiction. Le développement ou la programmation avec un ordinateur neurologique comme le CL1 de Cortical Labs, qui combine des processeurs en silicium avec des neurones humains, s’articule autour de l’accès à la technologie et de l’exploitation de ses capacités d’intelligence biologique synthétique (SBI). Le CL1 est conçu pour être un bio-ordinateur fonctionnel et entièrement programmable. Le disp

    13 min
  7. 12 OCT · VIDEO

    La France veut être un leader de l'intelligence artificielle

    La France veut être un leader de l’intelligence artificielle. En avons nous les moyens, quels sont les défis à relever. Voyons ensemble les différents enjeux et solutions pour parvenir à cet objectif. La France veut être un leader de l’intelligence artificielle Le débat sur l’intelligence artificielle est omniprésent, mais dans le flot continu d’annonces et de promesses, il devient de plus en plus difficile de distinguer le battage médiatique de la réalité économique. Comment savoir où se situent véritablement la France et l’Europe dans cette course technologique qui redessine le monde ? Le paradoxe français : champion des talents, mais poids plume de l’investissement La France excelle dans la création de talents et de start-ups en intelligence artificielle, mais peine dramatiquement à financer leur croissance. Le pays est un leader en Europe, avec 781 start-ups en Intelligence artificielle, dépassant l’Allemagne (687). Mieux encore, la France abrite Mistral AI, le seul champion européen développant des modèles de langage d’usage général à cette échelle, qui se trouve en “situation d’hégémonie sur le marché européen”. A la date de la rédaction de cet article Mistal a été acquis par ASML qui détient 11% du capital. Quelques chiffes concernant la France : 81 Nombre de laboratoires d’intelligence artificielle en France en 2021. C’est le plus grand nombre parmi les pays européens. 600 Nombre de startups spécialisées en IA en 2023, soit une hausse de 24 % depuis 2021 13 500 Nombre de personnes qui travaillent dans les startups de l’IA en 2021 (pour 70 000 emplois indirects générés). Source : Stratégie nationale IA, ministère de l’économie Cependant, ce succès entrepreneurial masque une faiblesse structurelle massive. Entre 2013 et 2023, le secteur privé américain a investi 335 milliards de dollars dans l’Intelligence artificielle. Pour la même période, la France n’a mobilisé que 8 milliards de dollars. Cet écart abyssal s’explique par un déficit de capital-risque, particulièrement visible pour les entreprises en phase de croissance (“late stage gap”). C’est aussi que comparer la France et les USA c’est un problème d’échelle. Il faut comparer l’Europe et les USA pour être cohérent. Source : Financial Times, Has Europe’s great hope for AI missed its moment?, 30 janvier 2025. Si on veut comparer, il faut passer à l’echelle de l’europe et des USA. Initiative InvestAI : la Commission européenne a annoncé l’initiative InvestAI visant à mobiliser 200 milliards d’euros pour le développement de l’Intelligence artificielle en Europe. Ce montant ambitieux provient en grande partie d’une initiative privée, l’« AI Champions Initiative », qui rassemble plus de 60 entreprises européennes s’engageant sur 150 milliards d’euros, complétée par une contribution de 50 milliards d’euros de la Commission. 200 contre 300 ont est pas encore au même montant, mais c’est plus cohérent. Pour mobiliser des capitaux, le France a ses handicaps. Une fragmentation des marchés de capitaux européens et la frilosité des investisseurs institutionnels, contraints par des règles prudentielles comme Solvabilité II. En conséquence, il freine l’émergence de géants technologiques et pousse de nombreuses pépites prometteuses à se financer, voire à se délocaliser, aux États-Unis. Pas de fond souverains ou de retraite qui peuvent mobiliser des montants en milliard d’Euro comme les USA en disposent. Une économie morcelée entre plus de 20 pays qui ne parlent pas le même langue et n’ont pas les mêmes règles sur l’investissement. La France possède le génie créatif et la capacité d’innovation, mais elle ne parvient pas à leur donner les moyens financiers de leurs ambitions mondiales. Mais si le capital est le nerf de la guerre, l’impact sur le capital humain est tout aussi fondamental. L’IA, un surprenant levier d’égalité ? L’une des craintes les plus répandues concernant l’Intelligence artificielle est qu’elle creuse les inégalités en remplaçant massivement les travailleurs les moins qualifiés. Or, le rapport parlementaire met en lumière des études dont les premières conclusions vont à l’encontre de cette idée reçue. Loin de se substituer à l’humain, l’IA agit pour l’instant davantage comme un “copilote”. Les données chiffrées sont particulièrement éloquentes. Dans le secteur du support client, l’intelligence artificielle augmente la productivité des employés les moins expérimentés de 34 %. Pour la même tâche, l’augmentation moyenne de la productivité pour l’ensemble des employés n’est que de 14 %. Autrement dit, l’IA bénéficie de manière disproportionnée aux novices. Cette découverte est fondamentale : plutôt que d’accentuer les inégalités de compétences, l’IA pourrait agir comme un outil de formation en temps réel, permettant aux débutants de rattraper plus rapidement les experts. Le rapport apporte toutefois une nuance importante : les gains marginaux semblent décroissants, ce qui suggère que les premiers usages de l’IA ont concerné les tâches où son potentiel était le plus fort. Cette approche positive aura aussi ces cotées sombres. Création de nouvelles inégalités, polarisation de secteurs plus ou moins impactés. Le législateur va intervenir pour protéger et orienter. L’Europe est déjà intervenue avec la régulation RIA. Le mythe de l’IA “frugale” : la course à la puissance a un coût Récemment, un “coup de froid” a secoué l’écosystème mondial de l’Intelligence artificielle. Une start-up chinoise jusqu’alors méconnue, DeepSeek, a affirmé avoir développé un modèle de langage de pointe pour le “coût dérisoire de 5,6 millions de dollars”. Cette annonce a semblé fragiliser la stratégie de Mistral AI, dont le positionnement est précisément fondé sur l’efficacité et la capacité à faire mieux avec moins de moyens que les géants américains. Mais l’histoire ne s’arrête pas là. Une analyse approfondie du cabinet SemiAnalysis, citée dans le rapport, a révélé une tout autre réalité. Derrière la communication officielle, DeepSeek aurait en réalité investi 1,6 milliard de dollars en matériel, incluant un parc de cinquante mille GPUs Nvidia. L’image d’une IA chinoise frugale s’est alors fissurée. Cette révélation confirme que la communication initiale relevait davantage d’une “stratégie d’influence” que d’une véritable rupture technologique. Le développement d’IA de pointe reste une course aux investissements colossaux, dont les coûts ne cessent de grimper, comme le souligne le rapport : L’entraînement du modèle GPT-4 d’OpenAI aurait coûté de l’ordre de 78 millions de dollars, et celui du modèle Gemini Ultra de Google près de 191 millions. Les USA ont clairement vu que l’IA n’est pas sobre. Leur plan stratégie pour IA prévoit la construction de nombreux datacenter, de lancer la production d’usine électriques utilisant des énergies fossiles ou pas. Pour cette économie de plateforme IA et Cloud. Il faut des usines à GPU (processeurs de calcul). C’est un point faible de la stratégie européenne qui veut bloquer l’artificialisation des sols et réduire la production d’énergie. La souveraineté en danger : quand les règles européennes freinent l’innovation La souveraineté européenne en matière d’Intelligence artificielle ne dépend pas seulement de sa capacité à produire des technologies. Elle est aussi conditionnée par un environnement réglementaire et économique qui, paradoxalement, peut se transformer en obstacle. On peut pointer du doigt plusieurs “rigidités institutionnelles et réglementaires” qui ralentissent l’adoption de l’IA sur le continent. Des législations du travail en Allemagne, en Espagne ou en Italie, par exemple, rendent plus complexe la réorganisation des entreprises, pourtant nécessaire pour intégrer pleinement les gains de productivité de l’IA. De plus, le principe du “human in the loop” (supervision humaine), bien qu’essentiel pour des raisons éthiques, crée des “goulots d’étranglement humains”. Pour analyser ce phénomène, le rapport s’appuie sur la “théorie de l’O-ring” de l’économiste Michael Kremer, qui explique que la performance d’un système complexe reste limitée par la performance de son maillon le plus faible. L’Europe se trouve face à un dilemme complexe. Elle doit trouver un équilibre délicat entre la protection de ses valeurs sociales et de ses citoyens d’une part, et la nécessité de rester compétitive face à des régions du monde qui opèrent avec beaucoup moins de contraintes. Les risques de sur règlementation IA par rapport aux USA et à la Chine Le coût total de la mise en conformité des entreprises aux exigences réglementaires pourrait représenter environ 17 % du coût total de l’investissement dans l’IA. L’évaluation de la conformité représenterait 13 % du coût d’investissement dans les systèmes. Le respect du dispositif initial (RIA) pourrait engendrer des dépenses comprises entre 131 M€ et 345 M€ pour l’économie de l’Union européenne. Ces coûts pourraient peser sur la diffusion de la technologie. L’approche par les risques du RIA (systèmes à haut risque, systèmes à usage général) est jugée complexe et source d’incertitudes pour les entreprises. Les opérateurs économiques expriment un attentisme et des préoccupations face à l’absence d’actes délégués et de lignes directrices qui devraient clarifier et stabiliser le classement des systèmes d’IA (SIA). Charges admin

    15 min
  8. 5 OCT · VIDEO

    La guerre hybride qui menace notre souveraineté

    La guerre hybride qui menace notre souveraineté se caractérise par des attaque contre notre base industrielle et technologique. L’assemble nationale a publié un rapport du député Christophe PLASSARD (parti Horizon), que vous pouvez lire sur ce lien. Je m’en suis inspire pour dresser un panorama de la menace. Même si on parle de guerre aucun coup de feu ne sera tiré dans cet article. C’est bien la nature silencieuse de cet affrontement qui le rend particulièrement dangereux. La guerre hybride qui menace notre souveraineté La guerre hybride qui menace notre souveraineté La France est confrontée à une intensification sans précédent de la guerre économique. Cette menace vise particulièrement la base industrielle et technologique de défense (BITD) et cherche à capter, contrôler et s’approprier des richesses pour accroître la puissance des compétiteurs stratégiques de la France. La menace est décrite comme étant à la fois élevée, croissante et multiformes. Quelles sont les formes de la menace ? Les attaques contre les intérêts économiques et stratégiques français prennent plusieurs formes qui peuvent se combiner : Atteintes humaines : Celles-ci représentent plus d’un tiers des menaces et sont en hausse. Elles incluent l’espionnage, les indiscrétions internes de salariés, le chantage, ou encore le recrutement ciblé de compétences. Atteintes physiques : Elles représentent près d’une attaque sur cinq et ont quasiment doublé en un an. Il s’agit d’intrusions, de sabotages, de cambriolages, de dégradations ou de survols de sites sensibles par des drones. Cyberattaques : Leur nombre “explose”. En 2024, l’ANSSI a traité 4 386 “événements de sécurité”, soit une augmentation de 15 % par rapport à 2023. Ces attaques peuvent paralyser l’activité d’une entreprise, voire entraîner sa disparition. Menaces capitalistiques : Représentant 15 à 30 % des menaces, elles visent les entreprises financièrement fragiles par des prises de contrôle hostiles ou des investissements étrangers indirects. Le risque est la délocalisation, le transfert de technologies et la perte de souveraineté. Sans aller chercher du coté de nos ennemis, on voit bien que les USA ciblent des industries stratégiques en France. Ces acquissions se font dans le domaine des logiciels, de l’intelligence artificielle, du quantique. Menaces juridiques (Lawfare) : Certains États instrumentalisent le droit, notamment via des normes à portée extraterritoriale, pour entraver le développement d’entreprises concurrentes ou capter des données stratégiques. La politique actuelle de TRUMP le fait très officiellement. Menaces informationnelles et réputationnelles : Elles sont en augmentation et prennent la forme de campagnes de désinformation, de dénigrement ou de boycott pour déstabiliser les entreprises, souvent au moment où elles sont sur le point de remporter un marché à l’export. Lisez mon article sur TIKTOK, service chinois qui utilise son succès Qui sont les cibles principales ? La cible principale est la base industrielle et technologique de défense (BITD) française, qui compte 4 000 entreprises. Au sein de la BITD, les menaces se concentrent sur : Les PME (Petites et Moyennes Entreprises) : 80 % des atteintes visent les PME, qui sont considérées comme le “maillon le plus faible” de la chaîne de valeur car elles sont moins bien dotées que les grands groupes pour se défendre. Mais surtout détiennent des savoir faire utilisés dans les grands groupes. Les organismes de recherche : Les universités, écoles et laboratoires sont également des cibles de convoitise pour leur excellence et leur savoir-faire, et sont particulièrement vulnérables aux tentatives d’espionnage et d’ingérence. Du fait de leur ouverture et de leur mode de fonctionnement, elles sont moins prudentes. Les secteurs stratégiques : Les domaines où la France possède une expertise reconnue, comme l’aéronautique et le spatial (un tiers des attaques), les logiciels de gestion, sont particulièrement visés. D’où vient la menace ? Les menaces proviennent de tous les compétiteurs stratégiques de la France. Ceci concerne aussi bien les alliées comme les USA que des adversaires comme la Russie ou la chine. La Russie et la Chine sont identifiées comme les principales sources d’ingérences graves. La Russie reste très active en matière de cyberattaques et de désinformation, tandis que la Chine mène une stratégie de “pillage technologique”. Des alliés stratégiques : La menace peut aussi émaner de pays alliés. Les États-Unis sont explicitement cités comme menant une “véritable guerre économique contre l’Europe” en utilisant des outils juridiques comme la réglementation “Itar” ou le Cloud Act pour favoriser leurs propres entreprises. D’autres concurrents : Tous les États dotés d’une industrie de défense concurrente (Iran, Turquie, Israël, Corée…) ou cherchant à imposer des rapports de force économiques plus favorables sont des menaces potentielles. La guerre économique généralisée, utilise tous les moyens disponibles pour affaiblir les entreprises stratégiques françaises, en particulier les PME de la défense, avec des attaques provenant aussi bien d’adversaires que d’alliés. Les moyens mis en oeuvre pour contrer la menace Face à l’intensification de la guerre économique, la France a mis en œuvre et renforcé une série de moyens pour protéger ses actifs stratégiques, en particulier sa base industrielle et technologique de défense (BITD). La France a longtemps fait preuve de naïveté. Les moyens mis en œuvre couvrent plusieurs domaines : le renforcement des services de l’État, la modernisation des outils juridiques, des mesures de financement et une nécessaire évolution des mentalités. Le stockage numérique de données et l’utilisation des outils de messagerie représentent un enjeu crucial de cybersécurité et de souveraineté pour la France, en particulier pour la Base Industrielle et Technologique de Défense (BITD). Voici les observations et recommandations principales concernant le stockage numérique, tirées des sources, notamment du rapport d’information sur la guerre économique de M. Christophe Plassard: Menaces et Vulnérabilités liées au Stockage Numérique La question de la cybersécurité est particulièrement aiguë en ce qui concerne le stockage numérique de données et les outils de messagerie. La domination incontestée des grandes plateformes numériques étrangères crée de fortes externalités négatives et maintient un voile d’opacité sur l’utilisation des données sensibles des entreprises de la BITD. Ces entreprises stockent leurs données soit sur des serveurs situés à l’étranger, soit les confient à des prestataires (banques, cabinets de conseil, avocats, etc.) qui utilisent eux-mêmes des solutions étrangères. Le droit américain, notamment le Patriot Act et le Cloud Act, autorise le FBI à obliger les entreprises, y compris les fournisseurs de services d’accès à internet ou de stockage de données, à communiquer toutes les données qu’ils ont pu collecter, même celles concernant des entreprises situées en dehors du territoire américain. La possibilité que des entreprises comme Microsoft soient juridiquement tenues de communiquer des données confidentielles de leurs clients aux autorités américaines ne peut être exclue. Cela a été reconnu lors de l’audition de sont directeur à l’assemblée nationale. Nécessité de Solutions Souveraines Le devoir de l’État est de protéger les données confidentielles qu’il partage avec les entreprises, et de la responsabilité de ces entreprises de protéger les données qui leur sont confiées. Les données sensibles doivent être identifiées, transiter par des outils de télécommunications ou de messagerie sécurisés, et ne plus être stockées sur des serveurs situés à l’étranger (sans cloisonnement ni chiffrage). Ces données doivent être stockées sur des serveurs situés en France ou en Europe, afin d’être soumises à la réglementation européenne et à l’abri des atteintes étrangères, qu’elles soient légales ou illégales. Une évolution progressive vers des solutions souveraines et sécurisées est considérée comme possible, car la France dispose des ressources technologiques et des compétences humaines nécessaires pour rehausser son niveau de sécurité. Accepter cette évolution implique toutefois d’accepter un certain niveau de surcoût, qui est une condition indispensable à la pleine souveraineté. L’État, notamment via Bpifrance, a mis en place des dispositifs pour favoriser le développement d’une filière de stockage des données, permettant à des hébergeurs français d’émerger. Cependant, les acteurs français, qui constituent une alternative crédible, ne pourront se développer et acquérir une taille critique que s’ils reçoivent des commandes. La réglementation doit imposer aux entreprises, y compris celles de la BITD, d’utiliser des solutions françaises ou européennes offrant un niveau de sécurité équivalent, et d’éviter certains prestataires lorsqu’il y a une incertitude sur la confidentialité des données. Cela renforcera la protection des données tout en favorisant le développement d’entreprises capables de concurrencer les grandes plateformes étrangères. able. Le renforcement général des moyens de cyberdéfense, notamment par l’ANSSI pour les grands groupes et la DRSD (Direction du renseignement et de la sécurité de la défense) pour les PME de la BITD, vise également à mieux protéger les systèmes d’information et les données. La DGA a d’ailleurs mis e

    14 min

Ratings & Reviews

5
out of 5
2 Ratings

About

Le podcast de la génération X et Y. On traite de sujets touchant à la tech, innovation, cyber, souveraineté, sobriété, enjeux sociétaux