Movatterモバイル変換


[0]ホーム

URL:


Aller au contenu
Wikipédial'encyclopédie libre
Rechercher

Intelligence artificielle digne de confiance

Un article de Wikipédia, l'encyclopédie libre.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Le ton de cet article est trop promotionnel ou publicitaire().

Motif : Est-ce un concept scientifique ou un article promotionnel sur les directives politiques de la commission européenne ?
Vous êtes invité à améliorer l'article de manière à adopter unton neutre (aide quant au style) oudiscutez-en. Vous pouvez également préciser les sections non neutres en utilisant{{section promotionnelle}} et souligner les passages problématiques avec{{passage promotionnel}}.

Cet article est uneébauche concernant l’informatique et l’informatique théorique.

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations desprojets correspondants.

Uneintelligence artificielle digne de confiance, ouIA digne de confiance ou encoreIA de confiance (en anglaisTrustworthy AI) est uneintelligence artificielle en laquelle toutes lesparties prenantes ont confiance tout au long de soncycle de vie. Pour cela elle doit être « alignée », ce qui implique généralement qu'elle soit licite, éthique, transparente, explicable et robuste, et réponde à certains principes éthiques et d'exigences clés lui octroyant et validant ce statut de confiance.

Origines

[modifier |modifier le code]

À la suite de travaux tels ceux du « Groupe européen d'éthique des sciences et des nouvelles technologies » (GEE), groupe consultatif de laCommission européenne, le terme « IA digne de confiance » apparaît, en 2019, dans les documents du « Groupe d'experts indépendants de haut niveau en intelligence artificielle » (GEHN IA)[1],[2], qui visent à donner des orientations sur la stratégie européenne en intelligence artificielle.

En 2019 le GEHN IA publie un recueil d'orientations intituléLignes directrices en matière d'éthique pour une IA digne de confiance[3], où sont détaillés les éléments constitutifs d'une IA digne de confiance, repris dans cet article, ainsi qu'en 2020 une version aboutie de questionnaire d'auto-évaluation de la confiance que l'on peut porter à une IA[4], résultat d'un travail collégial de spécialistes de l'IA. Ils y estiment que« dans un contexte d’évolution technologique rapide, nous sommes convaincus qu’il est essentiel que la confiance reste le ciment des sociétés, des communautés, des économies et du développement durable (...) La fiabilité est une condition préalable pour que les personnes et les sociétés mettent au point, déploient et utilisent des systèmes d’IA. S’ils ne démontrent pas qu’ils sont dignes de confiance, les systèmes d’IA – et les êtres humains qui les conçoivent – pourraient être à l’origine de conséquences indésirables susceptibles de nuire à leur utilisation, ce qui empêcherait la réalisation des avantages sociaux et économiquespotentiellement vastes qu’apportent les systèmes d’IA ».

C'est une question de gouvernance, liée aux risques et opportunités de l'IA pour les entreprises, administrations et populations[5].

Travaux du groupe d'experts indépendants de haut niveau en intelligence artificielle

[modifier |modifier le code]
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

La forme de cet article ou de cette section n’est pas encyclopédique et ressemble trop à uncurriculum vitæ().

Modifiez l'article pour aider à le transformer en article neutre et encyclopédique — notamment grâce à dessources secondaires indépendantes qui analysent le sujet — oudiscutez-en.

Le groupe d'experts indépendants de haut niveau en intelligence artificielle (GEHN IA) a rendu public le 8 avril 2019 son premier livrable[6], intituléLignes directrices en matière d'éthique pour une IA digne de confiance[3] (« Ethics Guidelines for Trustworthy AI » en anglais). Ce document n'est ni un document règlementaire ni une norme ; il propose une classification et un cadre pour une IA digne de confiance (après mise en consultation publique de sa première version datée du 18 Décembre 2018, qui a suscité des commentaires de la part de plus 500 personnes)[7]. Ce document est notamment basé sur le concept dedroits fondamentaux[8] tels que ladignité humaine, la non-discrimination ou les droits en relation avec la protection des données et le respect de la vie privée. Il discute ainsi des exigences essentielles, regroupées en sept « exigences clefs » (en anglaiskey requirements), en précise les détails ainsi que des méthodes, techniques et non techniques, pour parvenir à une IA digne de confiance ; il donne des exemples de préoccupations majeures, actuelles ou à venir, couvrant un vaste domaine d'utilisations, que soulève l'IA[Lesquels ?] et fournit une version pilote d'un questionnaire afin d'évaluer si une IA est digne de confiance. Il reconnait le potentiel transformateur de l’intelligence artificielle tout en insistant sur la nécessité d’en encadrer les risques de manière proportionnée et selon 3 piliers : lalégalité (conformité aux lois), l’éthique (respect des principes fondamentaux) et larobustesse (prévention des dommages involontaires). Les auteurs plaident pour une IA innovante mais aussi respectueuse desdroits fondamentaux, de ladémocratie et de l’État de droit[9].

Le groupe publie un second rapport en 2019,Policy and Investment Recommendations for Trustworthy AI[10], qui s'attache à décrire comment utiliser l'IA de confiance pour créer un effet positif en Europe et quels leviers européens[Lesquels ?] mobiliser pour une IA digne de confiance.

Un troisième livrable fait suite (17 juillet 2020) au dernier chapitre du premier ouvrage sur l'auto-évaluation. Il est le fruit de 350 parties prenantes et s'intituleThe Assessment List For Trustworthy Artificial Intelligence (ALTAI) for self assessment[4] (« Liste d'évaluation pour une intelligence artificielle digne de confiancepour auto-évaluation »). Ce document consultatif, non exhaustif et amené à être nourri des expériences de tous et chacun, est destiné à tous les acteurs participant de près ou de loin à l'élaboration d'une l'IA, c'est-à-dire les concepteurs, lesingénieurs système, les développeurs, lesdata scientists, comme les spécialistes des achats, les utilisateurs, les testeurs, les bureaux de contrôle et les metteurs en service, les ingénieurs avant-vente, les formateurs, les mainteneurs, les juristes, les commerciaux ou les managers, entre autres.Il traite des moyens de prendre conscience des risques et opportunités d'une intelligence artificielle, pour la totalité ducycle de vie d'une IA (conception, développement, prototypage, test, mise en service, exploitation, maintenance et retrait de service), et de les évaluer afin qu'elle respecte les conditions d'une IA digne de confiance telles qu'édictées dans les lignes directrices du premier livrable. Une version web interactive permet, en version pilote, de répondre aux questions de cette auto-évaluation directement en ligne[11].

Un quatrième et dernier livrable,Sectoral Considerations on the Policy and Investment Recommendations[12], publié le 23 juillet 2023 par le GEHN IA, explore les possibles implémentations d'une IA digne de confiance dans le secteur public, la santé ou l'industrie et l'internet des objets (IoT).

Caractéristiques

[modifier |modifier le code]

Une « IA digne de confiance », sous le prisme des experts en IA de la Commission européenne, repose sur trois caractéristiques. L'IA doit être licite (aspect législatif ou règlementaire), éthique (respect des principes éthiques) et robuste (sur le plan technique mais aussi social ou sociétal). L'aspect légal n'est pas traité dans les quatre livrables de la commission européenne car ces ouvrages collectifs se veulent rester un recueil d'orientations des deux dernières caractéristiques[3]. L'aspect législatif sera traité dans l'AI Act.

Principes éthiques

[modifier |modifier le code]

Concernant les deux autres caractéristiques, l'éthique et la robustesse, il est supposé qu'elles respectent quatreprincipes éthiques basés sur les droits fondamentaux : respect de l'autonomie humaine, prévention de toute atteinte, équité, explicabilité.

Exigences clefs

[modifier |modifier le code]

Ces quatre grands principes éthiques sont à leur tour déclinés en septexigences clefs comme suit :

  • action humaine et contrôle humain ;
  • robustesse technique et sécurité ;
  • respect de la vie privée et gouvernance des données ;
  • transparence ;
  • diversité, non-discrimination et équité ;
  • bien-être sociétal et environnemental ;
  • responsabilité.

Ces exigences clefs d'une l'IA digne de confiance, très générales, recoupent tout ou partie de la douzaine de notions clefs retrouvées dans nombre d'ouvrages de référence en France et dans le monde (livre blanc, feuille de route, etc.) traitant de l'éthique pour l'IA (OCDE[13], AFNOR[14], IEEE[15]etc.).

Détail des exigences clefs

[modifier |modifier le code]

Ces exigences clefs sont encore affinées en 23 exigences de niveau inférieur, qui visent à en préciser le sens et mieux détourer leur périmètre :

  1. Action humaine et contrôle humain
    • droits fondamentaux
    • autonomie humaine
  2. Robustesse technique et sécurité
    • résilience aux attaques et sécurité
    • plans de secours et sécurité générale
    • précision
    • fiabilité
    • reproductibilité
  3. Respect de la vie privée et gouvernance des données
    • qualité et intégrité des données
    • accès aux données
  4. Transparence
    • traçabilité
    • explicabilité
    • communication
  5. Non-discrimination, équité et diversité
    • absence de biais injustes
    • accessibilité et conception universelle
    • participation des parties prenantes
  6. Bien-être sociétal et environnemental
    • durabilité(*) et respect de l'environnement
    • frugalité
    • impact social
    • société
    • démocratie
  7. Responsabilité (sociale et sociétale)
    • auditabilité
    • réduction au minimum des incidences négatives et la communication à leur sujet
    • arbitrages et recours

(*) traduction française desustainability, qui peut se traduire par « développement durable » ou « soutenabilité ».

Chacune de ces sous-exigences se décline en autant d'items augmentant encore leur précision ; par exemple en définissant et concrétisant ce que l'on appelle les « biais injuste », en précisant ce que l'on entend par « explicabilité » d'une IA, en évaluant les risques et opportunités de systèmes intelligents et d'IA pour l'être humain, pour les démocraties, ou encore dans le cadre du transhumanisme ou de systèmes intelligents armés et autonomes.

Tous ces items sont traités de manière plus ou moins avancée pour promouvoir une IA digne de confiance, même s'il est difficile d'en mesurer l'exhaustivité, dans le guide des experts de la Commission européenne cité plus haut[3], et évalués dans un autre de leurs document de référence dans l'optique de les vérifier tout au long du cycle de vie de l'IA[4].

Si des tensions apparaissent entre certaines des caractéristiques, principes, exigences clefs ou méthodes d'une IA digne de confiance, elles doivent être nommées, évaluées et arbitrées de façon raisonnée par les parties prenantes chargées de cette IA[16].

En France

[modifier |modifier le code]

Les autorités promeuvent la fiabilité et la résilience des systèmes d'IA, y compris dans les domaines militaire et stratégique, en particulier face aux attaques adversariales et aux manipulations de données[17]. Par exemple, en mai 2025, le Commandement de la cyberdéfense (COMCYBER) et l'Agence de l'innovation de Défense (AID) ont lancé le défi « Sécurisation de l'IA » qui a distingué deux solutions :

  • PRISM Eval, une start-up spécialisée dans l'analyse des dérives comportementales des modèles d'IA. Son outil BET Eval (BET =Behavior Elicitation Tool), teste la robustesse desLLMs face aux attaques sémantiques et contextuelles (manipulation subtile du contexte ou du sens des données visant à induire en erreur l'IA ou son utilisateur, via des biais cognitifs ou des failles de traitement de linformation), évaluant leur vulnérabilité aux injections de prompts et aux contournements de garde-fous[17].
  • CEA-List, un outil de sécurisation des modèles de classification visuelle, basé sur PyRAT et PARTICUL qui vérifiient formellement les réseaux de neurones et détectent les anomalies dans les jeux de données, réduisant les risques de manipulation malveillante[17].

Voir aussi

[modifier |modifier le code]

Articles connexes

[modifier |modifier le code]

Bibliographie

[modifier |modifier le code]

Document utilisé pour la rédaction de l’article : document utilisé comme source pour la rédaction de cet article.

Liens externes

[modifier |modifier le code]

Notes et références

[modifier |modifier le code]
  1. (en) « Commission appoints expert group on AI and launches the European AI Alliance »,Commission européenne,(consulté le).
  2. (en) « High-level expert group on artificial intelligence », surdigital-strategy.ec.europa.eu(consulté le).
  3. abc etdGEHNIA 2018.
  4. ab etcAIHLEG 2020.
  5. GauthierChassang et AnthéaSerafin,Vers une gouvernance responsable des systèmes d’IA organisée autour de la gestion des risques, Presses de l’Université Toulouse Capitole,, 419–445 p.(ISBN 978-2-36170-261-8 et978-2-37928-115-0,lire en ligne).
  6. Groupe d'Experts de haut niveau en intelligence artificielle (GEHN IA) (trad. de l'anglais),Lignes directrices en matière d'éthique pour une IA digne de confiance [« Ethics guidelines for trustworthy AI »], Bruxelles,Commission européenne, (1re éd. 2018), 56 p.(lire en ligne),p. 8 (24). Ouvrage utilisé pour la rédaction de l'article
  7. Ceci est précisé page 2 du document final.
  8. Charte des droits fondamentaux de l'Union Européenne,Commission européenne,, 17 p.(lire en ligne), surEUR-Lex.
  9. (en) « Ethics Guidelines for Trustworthy AI », surCommission européenne,(consulté le).
  10. (en) European commission,Policy and Investment Recommendations for Trustworthy AI, Bruxelles, commission européenne,, 52 p.(lire en ligne).
  11. (en) Commission européenne,« Prototype web-tool of ALTAI, to support AI developers and deployers in developing Trustworthy AI. »(Archive.orgWikiwixArchive.isGoogleQue faire ?)Inscription nécessaire, surFuturium, Commission européenne(consulté le).
  12. (en) Independant High level Expert Group on Artificial Intelligence (AI HLEG),Sectoral Considerations on the Policy and Investment Recommendations, Bruxelles, Commission européenne,, 16 p.(lire en ligne[PDF]).
  13. (en) OCDE (ill. kras99/Shutterstock.com),OECD, Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449, ECD Legal Instruments,,, 11 p.(lire en ligne),p. 7-8.
  14. AFNOR,Feuille de route stratégique pour la normalisation de l'Intelligence Artificielle, La Plaine Saint-Denis, AFNOR,, 40 p.(lire en ligne), p.14.
  15. (en) IEEE,Ethically Aligned Design (EADV2) : A Vision for Prioritizing Human Well-beingwith Autonomous and Intelligent Systems,IEEE,, 266 p.(lire en ligne),p. 9.
  16. GEHNIA 2018,p. 6, §2.3 « Tensions entre ces principes »,p. 25 (90) « Arbitrages ».
  17. ab etc« PRISM Eval et le CEA-List, lauréats du défi Sécurisation de l'IA », surActuIA,(consulté le).
v ·m
Concepts
Techniques
Applications
Enjeux et philosophie
Histoire et événements
Concepts prospectifs
Règlementation
Organisations
Ouvrages
Ce document provient de « https://fr.wikipedia.org/w/index.php?title=Intelligence_artificielle_digne_de_confiance&oldid=230665298 ».
Catégories :
Catégories cachées :

[8]ページ先頭

©2009-2025 Movatter.jp