32 min

[L’IA s’invite dans nos métiers #3] intégrer l’IA de façon éthique et règlementée Cogitons sciences

    • Science

Pour comprendre les tenants et aboutissants du règlement européen sur l’intelligence artificielle, nous avons interrogé Jean-Gabriel Ganascia, informaticien et philosophe spécialisé dans l'intelligence artificielle et l’éthique à Sorbonne Université. Il est également membre du comité d’éthique du CNRS. Il nous partage également les bonnes questions à se poser avant de développer l’IA.

C’est quoi l’IA Act ? [01:32 - 16:54]
Le règlement européen IA Act, a pour objectif “de nous prémunir contre les dangers liés à l’intelligence artificielle” explique Jean-Gabriel Ganascia. Et ce, en introduisant la notion de risque qui est “l’éventualité d’un danger” ajoute-t-il. Ces risques sont catégorisés : inadmissibles (techniques subliminales, notation, biométrie en temps réel), élevés, modérés et faibles (filtres à spam, jeux vidéos).
Pour l’instant il y avait peu de réglementation propre à chaque pays, et encore moins en France. Raison pour laquelle ce règlement est devenu important. Du côté des Etats-Unis et de la Chine, l’encadrement est très différent. Aux Etats-Unis, depuis juillet 2023, une réglementation  enjoint les entreprises à développer l’IA pour le bien commun. En Chine, “le principe éthique sur lequel se reposent les réflexions c’est qu’il faut d’abord assurer la sécurité et la cohésion” précise l’expert.

Des entreprises inquiètes [17:04 - 21:14]
De nombreuses entreprises s’inquiètent de la complexité des règlements, avec des règles générales et contraignantes, ou encore des exceptions aux règles. En d’autres termes, “il faut des services juridiques compétents qui maîtrisent parfaitement cette réglementation pour guider [...] et pour des petites sociétés, c’est extrêmement difficile” regrette Jean-Gabriel Ganascia. Le règlement a d’ailleurs tardivement inclut l’IA générative, et en urgence, notamment avec l’arrivée de ChatGPT sur le marché.

Intégrer l’éthique dans le développement [21:18 - 31:46]
Faut-il se poser des questions sur l’éthique avant de se lancer dans le développement de l’IA ? Pour notre expert, les questions doivent se poser après la maîtrise des techniques d’IA mais avant la mise en œuvre des projets qui l’utilisent. “Sur chaque projet, il faut se demander quelles sont les conséquences et les dérives d’utilisation du système” précise le président du COMETS, en suivant une méthodologie précise en quatre points : réunir un comité d’éthique, se demander quelles sont les contraintes qu’on va s’imposer pour éviter les mauvaises utilisations, faire certifier par un organisme indépendant et garder une supervision. Et si vous ne savez pas comment faire pour mettre tout cela en place, il existe des formations !

Références citées :
Digital Service Act
AI Act
Grands modèles de Langage (ou Large Language Models, LLM)
James Vicary (techniques subliminales)
ChatGPT
Modèles de fondation
RGPD
Tatouage, filigrane ou watermarking
X (ancien Twitter)
Instagram

Ressources pour aller plus loin :
Servitudes virtuelles, de Jean-Gabriel Ganascia
Weapons of mass destruction, de Cathy O’Neil
Chronique éthique
IA Act

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Séverine Fontaine, en collaboration avec Marie-Caroline Loriquet. 

Pour comprendre les tenants et aboutissants du règlement européen sur l’intelligence artificielle, nous avons interrogé Jean-Gabriel Ganascia, informaticien et philosophe spécialisé dans l'intelligence artificielle et l’éthique à Sorbonne Université. Il est également membre du comité d’éthique du CNRS. Il nous partage également les bonnes questions à se poser avant de développer l’IA.

C’est quoi l’IA Act ? [01:32 - 16:54]
Le règlement européen IA Act, a pour objectif “de nous prémunir contre les dangers liés à l’intelligence artificielle” explique Jean-Gabriel Ganascia. Et ce, en introduisant la notion de risque qui est “l’éventualité d’un danger” ajoute-t-il. Ces risques sont catégorisés : inadmissibles (techniques subliminales, notation, biométrie en temps réel), élevés, modérés et faibles (filtres à spam, jeux vidéos).
Pour l’instant il y avait peu de réglementation propre à chaque pays, et encore moins en France. Raison pour laquelle ce règlement est devenu important. Du côté des Etats-Unis et de la Chine, l’encadrement est très différent. Aux Etats-Unis, depuis juillet 2023, une réglementation  enjoint les entreprises à développer l’IA pour le bien commun. En Chine, “le principe éthique sur lequel se reposent les réflexions c’est qu’il faut d’abord assurer la sécurité et la cohésion” précise l’expert.

Des entreprises inquiètes [17:04 - 21:14]
De nombreuses entreprises s’inquiètent de la complexité des règlements, avec des règles générales et contraignantes, ou encore des exceptions aux règles. En d’autres termes, “il faut des services juridiques compétents qui maîtrisent parfaitement cette réglementation pour guider [...] et pour des petites sociétés, c’est extrêmement difficile” regrette Jean-Gabriel Ganascia. Le règlement a d’ailleurs tardivement inclut l’IA générative, et en urgence, notamment avec l’arrivée de ChatGPT sur le marché.

Intégrer l’éthique dans le développement [21:18 - 31:46]
Faut-il se poser des questions sur l’éthique avant de se lancer dans le développement de l’IA ? Pour notre expert, les questions doivent se poser après la maîtrise des techniques d’IA mais avant la mise en œuvre des projets qui l’utilisent. “Sur chaque projet, il faut se demander quelles sont les conséquences et les dérives d’utilisation du système” précise le président du COMETS, en suivant une méthodologie précise en quatre points : réunir un comité d’éthique, se demander quelles sont les contraintes qu’on va s’imposer pour éviter les mauvaises utilisations, faire certifier par un organisme indépendant et garder une supervision. Et si vous ne savez pas comment faire pour mettre tout cela en place, il existe des formations !

Références citées :
Digital Service Act
AI Act
Grands modèles de Langage (ou Large Language Models, LLM)
James Vicary (techniques subliminales)
ChatGPT
Modèles de fondation
RGPD
Tatouage, filigrane ou watermarking
X (ancien Twitter)
Instagram

Ressources pour aller plus loin :
Servitudes virtuelles, de Jean-Gabriel Ganascia
Weapons of mass destruction, de Cathy O’Neil
Chronique éthique
IA Act

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Séverine Fontaine, en collaboration avec Marie-Caroline Loriquet. 

32 min

Top Podcasts In Science

Hidden Brain
Hidden Brain, Shankar Vedantam
Something You Should Know
Mike Carruthers | OmniCast Media | Cumulus Podcast Network
Ologies with Alie Ward
Alie Ward
Radiolab
WNYC Studios
StarTalk Radio
Neil deGrasse Tyson
Making Sense with Sam Harris
Sam Harris