La certification est un processus d’évaluation de la conformité consistant à faire valider par un organisme indépendant le respect du cahier des charges d’une organisation par une entreprise aux fins de garantir qu’un produit, une organisation ou une personne répond à certaines exigences.
Si la grande majorité des certifications reposent sur le volontariat de l’entreprise, et que les certifications en matière d’intelligence artificielle n’étaient pas encore développées jusqu’à présent, la volonté grandissante de réguler les produits issus de l’intelligence artificielle tend à faire évoluer la situation.
En effet, certains organismes commencent à se saisir de ce marché émergents et proposent des certifications. De manière non exhaustive, il est possible d’évoquer les exemples suivants :
- Le label GEEIS IA (Gender Equality European & International Standard) développé par Arborus pour l’égalité, la diversité et l’inclusion.
- Le label ECPAIS (Ethics Certification Program for Autonomous and Intelligent Systems) développé par IEEE Standards Association pour améliorer la transparence, la responsabilité et la réduction des biais algorithmiques dans les systèmes autonomes et intelligents (AIS).
- Le label ADEL (Algorithm Data Ethic) développé par ADELIAA pour apporter un cadre éthique autour des systèmes d’information automatisés afin de garantir du sens, de la transparence et de la sécurité; un label qui porte sur l’éthique de l’ensemble d’un projet digital (conception, mise en place, et usage).
Si la soumission à ces certifications reste à la libre appréciation de l’entreprise, le projet de règlement européenne de l’intelligence artificielle de la Commission Européenne d’avril dernier pourrait venir bousculer les entreprises produisant des Systèmes d’Intelligence Artificielle (SIA) considérés à « haut risque ».
En effet, l’article 49 dudit projet prévoit une certification obligatoire à travers un marquage de conformité CE apposé de façon visible, lisible et indélébile sur les systèmes d’AI à haut risque; si cela est impossible ou injustifié étant donné la nature du système d’IA à haut risque, il est apposé sur l’emballage ou sur les documents d’accompagnement.
Pour aller plus loin:
- Cécile Crichton, « Projet de règlement sur l’IA (II) : une approche fondée sur les risques », IP/IT et Communication, Dalloz, mis en ligne le 4 mai 2021, disponible en ligne ici.
- Jean-Baptiste Siproudhis, « Le projet de règlement européen sur l’intelligence artificielle encourage l’éthique des affaires », Lemonde.fr, mis en ligne le 3 août 2021, disponible en ligne ici.