EDHEC
 |
Recherche

L'EDHEC Augmented Law Institute participe à une consultation publique de l'UE relative aux exigences juridiques et éthiques pour le développement de l'Intelligence Artificielle

L'EDHEC Augmented Law Institute a participé à la consultation publique de la Commission européenne relative aux exigences juridiques et éthiques pour le développement de l'Intelligence Artificielle…

Temps de lecture :
12 jan 2021
Partager

L'EDHEC Augmented Law Institute a participé à la consultation publique de la Commission européenne relative aux exigences juridiques et éthiques pour le développement de l'Intelligence Artificielle au sein de l'Union Européenne.

Cette contribution a donné lieu à un Position Paper  publié sur le site de l'Union Européenne. 

L'objectif consister à analyser l'étude d'impact initiale de la Commission européenne concernant une proposition d'acte juridique de l'UE réglementant l'intelligence artificielle.

Le feedback des chercheurs de l'EDHEC Augmented Law Institute concerne 3 questions :

1)  Que faut-il réglementer ?

2) Pourquoi réglementer ?

3) Comment réglementer ?

Le premier problème observé dans l'analyse d'impact et dans le livre blanc qui s'y rapporte est le manque de définitions claires. En particulier, deux termes demandent à être clairement définis avant de procéder :
1. l'intelligence artificielle ;
2. risque (pour les droits et libertés fondamentaux, y compris la santé et la sécurité des personnes).

Le Livre blanc et l'analyse d'impact initiale ne précisent pas clairement quelle définition de l'IA doit être privilégiée. Toutefois, les implications peuvent être pertinentes. Etant donné que la définition de la communication de la Commission ne précise pas ce qu'est un "comportement intelligent", il pourrait y avoir des problèmes pour comprendre la portée de la notion d'IA et savoir si certains systèmes technologiques (par exemple, les applications alertant sur l'exposition au Covid-19, les systèmes d'entrée automatique, etc) peuvent se rapporter à la notion de "comportements intelligents". En conséquence, nous proposons de préférer la définition du HLEG, accompagnée d'une annexe contenant une liste non exhaustive d'exemples pertinents de systèmes d'IA effectivement utilisés.

Selon les chercheurs, la notion de risque est également très problématique. Une partie de l'analyse d'impact initiale est largement basée sur la notion de risque. Toutefois, la manière dont est entendu le mot risque "risque" et dont il doit être évalué pour chaque système d'IA n'est pas explicité. Les chercheurs d'EDHEC Augmented Law proposent de définir clairement ce que signifie le "risque" et quel niveau de gravité et de probabilité pourrait équivaloir à un "risque élevé". En outre, ils suggèrent d'utiliser la définition du "seuil de gravité" des "effets juridiques ou d'importance similaire" sur les droits et libertés des sujets, en clarifiant éventuellement les exemples dans une annexe où, pour chaque droit ou liberté fondamentale mentionnée dans la Charte des droits fondamentaux de l'UE, il y a quelques exemples d'effets juridiques ou d'importance similaire. Lors de l'analyse des risques pour les droits et libertés fondamentaux, une attention particulière doit être accordée à la santé et à la sécurité des personnes.

Il existe déjà dans le droit communautaire plusieurs textes législatifs couvrant de nombreux domaines différents qui sont généralement très pertinents pour les systèmes d'IA (législation sur la protection des données, législation anti-discrimination, législation sur la protection des consommateurs et la responsabilité du fait des produits, droit administratif). Dans son position paper, l'EDHEC Augmented Law Institute pointe d'éventuelles lacunes dans ces domaines qu'un règlement sur l'IA pourrait couvrir et recommande de prendre également en considération les risques générés au sein des institutions publiques.

L'analyse d'impact de la Commission Européenne présente 4 options alternatives pour réglementer l'IA.  Bien que chaque approche puisse présenter des avantages et des inconvénients, les chercheurs de l'EDHEC considèrent que le système d'étiquetage volontaire est inefficace par rapport aux objectifs fixés pour une réglementation de l'IA. De nombreux autres secteurs juridiques de l'UE reconnaissent le système d'étiquetage volontaire, mais uniquement comme un outil auxiliaire, lié à d'autres types de réglementation. En fonction de la définition du risque élevé, l'approche 3.b de l'étude initiale pourrait être envisagée, mais uniquement avec une liste noire claire d'exemples de risques élevés et avec des critères simples pour identifier les risques et pour corréler chaque risque à un droit ou à une liberté fondamentaux tels que reconnus par la Charte des droits et libertés fondamentaux de l'UE. En outre, toute modification sectorielle des lois existantes devrait être conseillée (y compris les actions de soft law, comme la modification de la liste noire des pratiques commerciales déloyales, etc.)

Télécharger le Position Paper

Autres articles qui pourraient
vous intéresser

10.12.2024 - EDHEC
L’EDHEC accueille la 10e édition du Handi Day
Le jeudi 28 novembre 2024, sur son campus de Lille, l’EDHEC Business School a…
09.12.2024 - EDHEC
Private assets day 2024 : découvrez le programme de cet événement incontournable
Le 11 décembre 2024, l'EDHEC Infrastructure & Private Assets Research…
06.12.2024 - EDHEC
L'EDHEC International BBA confirme son excellence avec une 2e place au classement Challenges 2025
Pour la 4e année consécutive, l’EDHEC International BBA décroche la deuxième…