Loading AI tools
Standards pour une IA robuste et transparente De Wikipédia, l'encyclopédie libre
Une intelligence artificielle digne de confiance, ou IA digne de confiance ou encore IA de confiance (en anglais Trustworthy AI) est une intelligence artificielle en laquelle toutes les parties prenantes ont confiance tout au long de son cycle de vie. Pour cela elle doit être licite, éthique et robuste et répondre en cela à un certain nombre de principes éthiques et d'exigences clefs lui octroyant et validant ce statut de confiance.
À la suite de travaux tels ceux du Groupe européen d’éthique des sciences et des nouvelles technologies (GEE), groupe consultatif de la Commission européenne, le terme « IA digne de confiance » apparaît depuis 2019 dans les documents du Groupe d'experts indépendants de haut niveau en intelligence artificielle (GEHN IA)[1],[2], qui visent à donner des orientations sur la stratégie européenne en intelligence artificielle. Cela mène à en préciser les risques et opportunités pour les entreprises, administrations et populations européennes.
Ce comité d'experts publie notamment en 2019 un recueil d'orientations intitulé Lignes directrices en matière d'éthique pour une IA digne de confiance[3], où sont détaillés les éléments constitutifs d'une IA digne de confiance et repris dans cet article, ainsi qu'en 2020 une version aboutie de questionnaire d'auto-évaluation de la confiance que l'on peut porter à une IA[4], résultat d'un travail collégial de spécialistes de l'IA.
Le groupe d'experts indépendants de haut niveau en intelligence artificielle (GEHN IA) a rendu public le 8 avril 2019 son premier livrable, intitulé Lignes directrices en matière d'éthique pour une IA digne de confiance[3] (« Ethics Guidelines for Trustworthy AI » en anglais). Ce document, qui n'est pas un document règlementaire ni une norme, donne néanmoins, grâce à une classification étayée, un cadre pour une IA digne de confiance comme vue par les experts mandatés par la Commission européenne, notamment sur la base de fondements issus des droits fondamentaux[5] tels que la dignité humaine, la non-discrimination ou les droits en relation avec la protection des données et le respect de la vie privée. Il discute ainsi des exigences essentielles, encore appelées « exigences clefs » (en anglais key requirements), en précise les détails ainsi que des méthodes, techniques et non techniques, pour parvenir à une IA digne de confiance ; il donne des exemples de préoccupations majeures, actuelles ou à venir, couvrant un vaste domaine d'utilisations, que soulève l'IA[Lesquels ?] et fournit une version pilote d'un questionnaire afin d'évaluer si une IA est digne de confiance.
Un deuxième rapport de ce même groupe d'experts suit en 2019, Policy and Investment Recommendations for Trustworthy AI[6], qui s'attache à décrire comment utiliser l'IA de confiance afin de créer un effet positif en Europe et quels leviers européens[Lesquels ?] mobiliser pour une IA digne de confiance.
Un troisième livrable fait suite le 17 juillet 2020 au dernier chapitre du premier ouvrage sur l'auto-évaluation. Il est le fruit de 350 parties prenantes et s'intitule The Assessment List For Trustworthy Artificial Intelligence (ALTAI) for self assessment[4] (« Liste d'évaluation pour une intelligence artificielle digne de confiance pour auto-évaluation »). Ce document consultatif, non exhaustif et amené à être nourri des expériences de chacun, est destiné à tous les acteurs participant de près ou de loin à l'élaboration d'une l'IA, c'est-à-dire les concepteurs, les ingénieurs système, les développeurs, les data scientists, comme les spécialistes des achats, les utilisateurs, les testeurs, les bureaux de contrôle et les metteurs en service, les ingénieurs avant-vente, les formateurs, les mainteneurs, les juristes, les commerciaux ou les managers, entre autres. Il traite des moyens de prendre conscience des risques et opportunités d'une intelligence artificielle, pour la totalité du cycle de vie d'une IA (conception, développement, prototypage, test, mise en service, exploitation, maintenance et retrait de service), et de les évaluer afin qu'elle respecte les conditions d'une IA digne de confiance telles qu'édictées dans les lignes directrices du premier livrable. Une version web interactive permet en version pilote de répondre aux questions de cette auto-évaluation directement en ligne[7].
Un quatrième et dernier livrable, Sectoral Considerations on the Policy and Investment Recommendations[8], publié le 23 juillet 2023 par le GEHN IA, explore les possibles implémentations d'une IA digne de confiance dans le secteur public, la santé ou l'industrie et l'internet des objets (IoT), qui ne seront pas développées ici.
Une IA digne de confiance, sous le prisme des experts en IA de la Commission européenne, repose sur trois caractéristiques. L'IA doit être licite (aspect législatif ou règlementaire), éthique (respect des principes éthiques) et robuste (sur le plan technique mais aussi social ou sociétal). L'aspect légal n'est pas traité dans les quatre livrables de la commission européenne car ces ouvrages collectifs se veulent rester un recueil d'orientations des deux dernières caractéristiques[3]. L'aspect législatif sera traité dans l'AI Act.
Concernant les deux autres caractéristiques, l'éthique et la robustesse, il est supposé qu'elles respectent quatre principes éthiques basés sur les droits fondamentaux : respect de l'autonomie humaine, prévention de toute atteinte, équité, explicabilité.
Ces quatre grands principes éthiques sont à leur tour déclinés en sept exigences clefs comme suit :
Ces exigences clefs d'une l'IA digne de confiance, très générales, recoupent tout ou partie de la douzaine de notions clefs que l'on retrouve dans nombre d'ouvrages de référence en France et dans le monde (livre blanc, feuille de route, etc.) traitant de l'éthique pour l'IA (OCDE[9], AFNOR[10], IEEE[11], etc.).
Ces exigences clefs sont encore affinées en 23 exigences de niveau inférieur, qui visent à en préciser le sens et mieux détourer leur périmètre :
(*) traduction française de sustainability, qui peut aussi se traduire par « développement durable » ou « soutenabilité ».
Chacune de ces sous-exigences se décline en autant d'items augmentant encore leur précision, par exemple, en définissant et concrétisant ce que l'on appelle les « biais injuste », en précisant ce que l'on entend par « explicabilité » d'une IA, en évaluant les risques et opportunités de systèmes intelligents et d'IA pour l'être humain, pour les démocraties, ou encore dans le cadre du transhumanisme ou de systèmes intelligents armés et autonomes.
Tous ces items sont donc traités de manière plus ou moins avancée dans le but de promouvoir une IA digne de confiance, même s'il est difficile d'en mesurer l'exhaustivité, dans le guide des experts de la Commission européenne cité plus haut[3], et évalués dans un autre de leurs document de référence dans l'optique de les vérifier tout au long du cycle de vie de l'IA[4].
Si des tensions apparaissent entre certaines des caractéristiques, principes, exigences clefs ou méthodes d'une IA digne de confiance, elles doivent être nommées, évaluées et arbitrées de façon raisonnée par les parties prenantes chargées de cette IA[12].
: document utilisé comme source pour la rédaction de cet article.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.