Négociations sur le futur règlement sur l’IA
En avril 2021, la Commission européenne a publié une proposition de règlement sur l’intelligence artificielle (IA). Depuis, le Défenseur des droits et la Commission nationale consultative des droits de l’Homme ont respectivement apporté leurs contributions. Tous deux plaident pour la prise en compte des droits fondamentaux et du droit de la non-discrimination dans le cadre juridique en cours de négociation.
Aujourd’hui, les négociations sur le futur règlement sur l’IA se tiennent dans le cadre du trilogue, la réunion des représentants des trois institutions de l’Union européenne participant au processus législatif (la Commission européenne, le Conseil de l’Union européenne et le Parlement européen).
À cette étape déterminante, la Défenseure des droits, la CNCDH et l’ensemble des membres des réseaux Equinet (European Network of National Equality Bodies) et ENNHRI (European Network of National Human Rights Institutions) expriment leurs profondes inquiétudes. Le 20 novembre 2023, dans une déclaration commune, les 60 autorités nationales indépendantes adressent leurs recommandations.
La Défenseure des droits et la CNCDH insistent sur quatre points cruciaux :
- Ajouter à la liste des systèmes interdits les systèmes biométriques permettant l’identification des personnes dans l’espace public, catégorisant les personnes et « reconnaissant » leurs émotions, ainsi que les systèmes de police prédictive. Ces systèmes présentent des risques majeurs d’atteinte aux droits fondamentaux des individus.
- Garantir les droits de recours individuels et collectifs auprès des futures autorités nationales compétentes et du bureau européen de l’IA. Ces garanties procédurales sont essentielles pour assurer la cohérence avec les recours accordés aux individus ou aux groupes en vertu des droits fondamentaux de l’UE et du droit de la non-discrimination.
- Retenir les propositions du Parlement européen relatives aux analyses d’impact sur les droits fondamentaux pour les entités qui déploient les systèmes d’IA. Ces propositions apparaissent les seules à même de prévenir et protéger contre les discriminations et les atteintes aux droits fondamentaux d’une manière globale, transparente et cohérente.
- Prévoir un contrôle solide et indépendant des « modèles de fondation ». Un modèle de fondation est un modèle d’IA de grande taille, entraîné sur de très nombreuses données brutes. Les dangers inhérents à ce type d’IA sont largement documentés. Un contrôle solide et indépendant de ces systèmes apparait comme la condition préalable à la prévention des discriminations et à la protection des droits fondamentaux. Malgré cela, lors des dernières négociations, le cadre envisagé ne reposerait que sur des codes de conduite et une autorégulation par les acteurs, sans sanction immédiate en cas de violation.