De nouvelles règles en matière de responsabilité applicables aux produits et à l’IA (Intelligence Artificielle)

Pour protéger les consommateurs et
favoriser l’innovation.

Communiqué de Presse de la Commission Européenne

  1. Premièrement, elle propose de moderniser les règles existantes concernant la responsabilité objective des fabricants pour les produits défectueux (des technologies intelligentes aux produits pharmaceutiques). Les règles révisées offriront aux entreprises une sécurité juridique leur permettant d’investir dans des produits nouveaux et innovants et garantiront que les victimes peuvent obtenir une indemnisation équitable lorsque des produits défectueux, y compris des produits numériques et remis à neuf, causent un préjudice.
  2. En second lieu, la Commission propose pour la première fois une harmonisation ciblée des règles nationales en matière de responsabilité applicables à l’IA (intelligence artificielle), afin de permettre aux victimes de dommages liés à l’IA d’obtenir plus facilement réparation. Conformément aux objectifs du livre blanc sur l’IA et à la proposition de règlement sur l’IA présentée par la Commission en 2021, établissant un cadre pour l’excellence et la confiance dans l’IA, les nouvelles règles garantiront que les victimes bénéficient des mêmes normes de protection lorsqu’elles sont lésées par des produits ou services d’IA que si un préjudice était causé dans d’autres circonstances.

Voir l’intégralité du   Communiqué de Presse de la Commission Européenne

Date de publication : 29/09/2022

Commentaire Indecosa CGT :

L’Union Européenne veut développer les IA notamment dans le traitement des données, mais veut également donner confiance aux consommateurs. Mais le jargon technico obscur de ce texte risque d’être incompréhensible par la plupart des consommateurs.

Par ailleurs, on donne une présomption d’imputabilité d’un problème à l’IA, mais sans prendre en considération que la plupart du temps, le consommateur n’aura aucune conscience de la présence de cette IA ! Celle ci intervient généralement dans des traitements de données totalement transparents pour l’utilisateur final.

Pae exemple, si un drone livreur vous tombe dessus, ou si une voiture autonome vous renverse, vous pourrez toujours dire que c’est l’IA aux commandes qui est fautive, et vous ferez aussitôt face à un panel d’experts surdiplômés qui vous expliqueront qu’il s’agit d’une autre pièce à l’origine du problème. Bien plus simple de remplacer une pièce mécanique que de devoir mettre en doute des années de développement logiciel hors de prix.

Le texte nous garantit que l’IA pourra être incriminée en faisant appel à la responsabilité du constructeur ? La belle affaire ! Imaginait on seulement condamner l’IA à la place de l’entreprise productrice / utilisatrice ?