Avis relatif à l'impact de l'intelligence artificielle sur les droits fondamentaux (A - 2022 - 6)

JurisdictionFrance
Publication au Gazette officielJORF n°0091 du 17 avril 2022
Date de publication17 avril 2022
CourtCOMMISSION NATIONALE CONSULTATIVE DES DROITS DE L'HOMME
Record NumberJORFTEXT000045593731

Assemblée plénière du 7 avril 2022

(Adoption à l'unanimité)


Résumé


Alors que les recherches sur l'intelligence artificielle (IA) et la mise en œuvre de ses applications pratiques se développent, la réglementation actuelle demeure lacunaire pour endiguer les atteintes possiblement majeures aux droits fondamentaux. Dans le contexte de l'adoption prochaine de la proposition de règlement de l'UE sur le sujet, et des travaux en cours au sein du Conseil de l'Europe, la CNCDH invite les pouvoirs publics à promouvoir un encadrement juridique ambitieux en la matière.

Elle recommande, d'une part, d'interdire certains usages de l'IA jugés trop attentatoires aux droits fondamentaux, tels que le scoring social ou l'identification biométrique à distance des personnes dans l'espace public et les lieux accessibles au public. D'autre part, elle recommande de faire peser sur les utilisateurs d'un système d'IA des exigences en mesure de garantir le respect des droits fondamentaux : une étude d'impact, une consultation des parties prenantes, une supervision du système tout au long de son cycle de vie. La CNCDH appelle enfin à reconnaître des droits aux personnes ayant fait l'objet d'une décision impliquant un algorithme, notamment le droit à une intervention humaine dans le processus de décision, ou encore un droit au paramétrage des critères de fonctionnement du système d'IA.

1. Depuis quelque temps déjà, ce qu'il est désormais courant d'appeler " intelligence artificielle " ou " IA " agit au cœur du quotidien de chacun : propositions de contenu sur les réseaux sociaux ou les plateformes en ligne, accès à des applications ou à des lieux par authentification biométrique, diagnostics médicaux automatisés, etc. Elle fait cependant l'objet d'un engouement particulier depuis plusieurs années, en profitant d'investissements publics et privés massifs. Si certains la placent en effet au cœur d'une " nouvelle révolution industrielle ", d'autres s'inquiètent d'une nouvelle vague d'automatisation des activités jusque-là réservées à l'être humain et, plus largement, des dérives d'une nouvelle gouvernance par les données ainsi que, plus largement, d'atteintes possiblement majeures aux droits fondamentaux, sans compter son impact croissant sur l'environnement.

2. A titre liminaire, la Commission nationale consultative des droits de l'homme (CNCDH) tient à exprimer ses réserves à l'égard de la terminologie usitée en la matière. Elle observe en effet un excès d'anthropomorphisation dans les termes employés, à commencer par celui de l'" intelligence artificielle ", mais également lorsqu'il est question de " réseaux de neurones ", d'" apprentissage profond ", etc. Cela engendre des confusions sur les possibilités réelles offertes par des systèmes de traitement de données, qui reposent sur des procédures codées dans des systèmes informatiques : il s'agit avant tout de mathématiques. L'ensemble des acteurs, tant du secteur public que du secteur privé, devrait donc s'affranchir de cette expression en raison de son impact psychologique, source de réticences ou au contraire de confiance et d'acceptation exagérées. C'est pourquoi la CNCDH recommande que les institutions publiques et les médias privilégient des expressions plus neutres, telles que des " systèmes algorithmiques d'aide à la décision " (SAAD). Néanmoins, pour des raisons de commodité rédactionnelle, et parce qu'il s'agit de l'usage actuellement consacré, la CNCDH fera dans cet avis référence à l'" IA ".

Recommandation n° 1 : La CNCDH recommande de privilégier, dans la communication institutionnelle, une terminologie plus neutre et objective que l'expression " intelligence artificielle ", telle celle de " système algorithmique d'aide à la décision " (SAAD).

3. Ce vocable recouvre, plus précisément, des technologies informatiques qui reposent sur des logiques de fonctionnement différentes : on distingue principalement l'IA symbolique (ou cognitiviste) de l'IA connexionniste. La première suppose de programmer une série d'instructions explicites et univoques - autrement dit un algorithme - appelées à donner un résultat, prévisible parce qu'il se présente comme le traitement logique des données rentrées dans le système. La seconde, d'apparition plus récente, repose sur un autre type d'algorithme, non plus axé sur une approche logique du traitement de l'information mais sur une approche probabiliste : les programmeurs conçoivent un algorithme d'apprentissage et soumettent à l'ordinateur une série de données (data set) à partir desquelles il va " apprendre " ou, plus exactement, inférer des règles. Cet apprentissage peut être supervisé ou non supervisé : dans le premier cas, les données utilisées pour l'apprentissage sont étiquetées, tandis que dans le second cas elles sont " brutes ". Dans cette dernière hypothèse, l'apprentissage machine établit des corrélations entre les informations qui ont alimenté le système.

4. Ce dernier type d'apprentissage, l'apprentissage machine, soulève des enjeux inédits par rapport à l'IA symbolique. Tandis que les instructions codées dans un logiciel " classique " peuvent aisément être communiquées (encore que la compréhension du système puisse être rendue malaisée lorsque ces instructions sont nombreuses et les données traitées volumineuses, comme c'est le cas par exemple de la plateforme en ligne d'admission dans l'enseignement supérieur, Parcoursup), le modèle auquel parvient la machine au terme de son apprentissage peut plus ou moins aisément faire l'objet d'une information, étant donné que les concepteurs du système sont dans certains cas extrêmes (en matière de deep learning notamment) bien incapables de connaître le modèle de fonctionnement auquel est parvenue la machine pour obtenir ses résultats.

5. Si l'IA pourrait permettre, selon certains, d'" activer nos droits fondamentaux " (1), elle présente toutefois des risques incontestables pour ces derniers. Au niveau national, la Commission nationale de l'informatique et des libertés (CNIL) a publié en 2017 un rapport sur les algorithmes, fruit d'une vaste consultation auprès d'acteurs du secteur et de citoyens, face à la nécessité de " permettre à l'homme de garder la main " (2), et a également axé sa réflexion sur certaines applications particulières de l'IA (3). En 2017, encore, le Défenseur des droits alertait sur les risques de discrimination engendrés par l'utilisation d'algorithmes dans le cadre de la lutte contre la fraude aux prestations sociales, en ciblant des catégories de personnes à contrôler en priorité (4). Depuis, le Défenseur des droits mène une réflexion plus large sur l'IA et les discriminations (5). Au niveau international, de nombreuses instances ont également alerté sur l'impact de l'IA sur les droits fondamentaux (6). En particulier, l'Agence des droits fondamentaux de l'Union européenne (FRA), et le Comité ad hoc sur l'intelligence artificielle (CAHAI), organe du Conseil de l'Europe chargé d'examiner les possibilités de mettre en place un cadre juridique relatif à l'IA, ont dressé un inventaire des droits fondamentaux susceptibles d'être remis en cause par l'IA : notamment le respect de la dignité humaine, le respect de la vie privée et la protection des données, l'égalité et la non-discrimination, l'accès à la justice, l'accès aux droits sociaux, etc.

6. Le déploiement de l'IA inquiète d'autant plus qu'il n'existe pas, à l'heure actuelle, de cadre juridique global, à l'échelon tant national qu'international, pour endiguer ses débordements. Les réglementations en vigueur fournissent des références seulement partielles, qu'il s'agisse de la protection des données personnelles - avec en particulier, au sein de l'Union européenne, le Règlement général sur la protection des données (RGPD) - ou de la non-discrimination. Cela demeure toutefois insuffisant dès lors qu'un grand nombre de systèmes d'IA fonctionnent à partir de données non identifiantes et peuvent avoir des conséquences sur les droits fondamentaux excédant la protection des données personnelles et la non-discrimination, sans compter les formes de discriminations susceptibles de viser des groupes non couverts par les critères de discrimination prohibés par le droit (7).

7. Depuis plusieurs années, des initiatives émanent du secteur privé. Conscients de la nécessité de proposer des solutions d'IA dignes de confiance pour en assurer le succès commercial, des professionnels proposent des guides d'éthique à destination des concepteurs et des développeurs (8). Par ailleurs, des institutions internationales adressent aux Etats des recommandations allant dans le même sens, par exemple celles adoptées par l'UNESCO le 24 novembre 2021 afin de " mettre les systèmes d'IA au service de l'humanité, des individus, des sociétés, de l'environnement et des écosystèmes, ainsi que de prévenir les préjudices " (9).

8. Les préoccupations exprimées à travers ces textes, souvent formulées à partir d'une référence à des " principes éthiques ", coïncident en grande partie avec les droits de l'Homme, en particulier lorsqu'il est question de l'autonomie ou de la liberté, du respect de la dignité de la personne humaine, ou encore de la non-discrimination. Elles disposent cependant d'une portée limitée, s'en remettant aux vertus de l'auto-régulation des acteurs, au bon vouloir des industriels et des entreprises, et n'enjoignent aucune obligation aux Etats.

9. Etant donné l'impact important de l'IA sur les droits fondamentaux, cette approche n'apparaît pas suffisante. C'est pourquoi la CNCDH s'est auto-saisie de la question. L'ampleur des enjeux soulevés à l'égard des droits fondamentaux par la conception, le déploiement et l'utilisation des systèmes d'IA plaide pour la mise en place d'un cadre juridique contraignant en mesure de garantir le respect de ces droits. La CNCDH a suivi avec attention les réflexions et les travaux actuellement menés en ce sens au sein du Conseil de l'Europe par le CAHAI (10), qui pourraient aboutir à l'adoption...

Pour continuer la lecture

SOLLICITEZ VOTRE ESSAI

VLEX uses login cookies to provide you with a better browsing experience. If you click on 'Accept' or continue browsing this site we consider that you accept our cookie policy. ACCEPT