Ways to take action
   |
EDHEC Vox
 |
RSE
Recherche

Intelligence artificielle : comment réglementer une telle technologie ?

Olga Kokshagina , Associate Professor
Stan Karanasios , Queensland Univ.
Pauline Reinecke , Hamburg Univ.

Olga Kokshagina, Professeure associée à l'EDHEC, et ses 2 co-auteurs - Stan Karanasios (Queensland Univ.) & Pauline C. Reinecke (Hamburg Univ.) - se demandent, dans un article publié initialement en anglais dans The Conversation, si un cadre mondial rationalisé pour la réglementation de l'IA pourrait réellement être mis en œuvre et, dans l'affirmative, à quoi il pourrait ressembler.

Temps de lecture :
27 avr 2023
Partager

Récemment, des pionniers et des experts de l'intelligence artificielle ont exhorté les principaux laboratoires d'IA à interrompre immédiatement la formation de systèmes d'IA plus puissants que le GPT-4 pendant au moins six mois.

Une lettre ouverte rédigée par le Future of Life Institute met en garde contre le fait que les systèmes d'IA dotés d'une "intelligence compétitive avec l'homme" pourraient devenir une menace majeure pour l'humanité. Parmi les risques, la possibilité que l'IA soit plus intelligente que l'homme, qu'elle nous rende obsolètes et qu'elle prenne le contrôle de la civilisation.

La lettre souligne la nécessité d'élaborer un ensemble complet de protocoles pour régir le développement et le déploiement de l'IA. Elle précise que "ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable. Cela ne signifie pas une pause dans le développement de l'IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîte noire imprévisibles de plus en plus grands et dotés de capacités émergentes".

En règle générale, la bataille pour la réglementation oppose les gouvernements et les grandes entreprises technologiques. Mais la récente lettre ouverte - signée à ce jour par plus de 5 000 signataires, dont Elon Musk, PDG de Twitter et de Tesla, Steve Wozniak, cofondateur d'Apple, et Yonas Kassa, scientifique de l'OpenAI - semble suggérer que davantage de parties convergent enfin vers un même camp.

 

Pourrions-nous réellement mettre en place un cadre mondial rationalisé pour la réglementation de l'IA ? Et si oui, à quoi cela ressemblerait-il ?

 

Quelle est la réglementation existante ?

En Australie, le gouvernement a créé le Centre national de l'IA pour contribuer au développement de l'IA et de l'écosystème numérique du pays. Sous cette égide se trouve le Responsible AI Network, qui vise à promouvoir des pratiques responsables et à fournir un leadership en matière de lois et de normes. Toutefois, il n'existe actuellement aucune réglementation spécifique sur l'IA et la prise de décision algorithmique. Le gouvernement a adopté une approche légère qui englobe largement le concept d'IA responsable, mais ne définit pas les paramètres qui garantiront sa mise en œuvre.

 

De même, les États-Unis ont adopté une stratégie de non-intervention. Les législateurs ne se sont pas montrés pressés de réglementer l'IA et se sont appuyés sur les lois existantes pour en réglementer l'utilisation. La Chambre de commerce des États-Unis a récemment appelé à une réglementation de l'IA, afin de s'assurer qu'elle ne nuise pas à la croissance ou ne devienne pas un risque pour la sécurité nationale, mais aucune mesure n'a encore été prise.

 

L'Union européenne est à l'avant-garde de la réglementation en matière d'IA, car elle s'apprête à élaborer une loi sur l'intelligence artificielle. Cette proposition de loi attribuera trois catégories de risques à l'IA :

  • les applications et les systèmes qui créent un "risque inacceptable" seront interdits, comme le système de notation sociale géré par le gouvernement et utilisé en Chine
  • les applications considérées comme "à haut risque", telles que les outils de balayage de CV qui classent les candidats à l'emploi, seront soumises à des exigences légales spécifiques, et
  • toutes les autres applications ne feront l'objet d'aucune réglementation.

Bien que certains groupes affirment que l'approche de l'UE étouffera l'innovation, il s'agit d'une approche que l'Australie devrait suivre de près, car elle établit un équilibre entre la prévisibilité et le rythme de développement de l'IA.

 

L'approche chinoise de l'IA a consisté à cibler des applications algorithmiques spécifiques et à rédiger des réglementations concernant leur déploiement dans certains contextes, comme les algorithmes qui génèrent des informations nuisibles, par exemple. Si cette approche offre une certaine spécificité, elle risque d'aboutir à des règles qui seront rapidement dépassées par une technologie qui évolue rapidement.

 

Les pour et les contre

Il existe plusieurs arguments pour et contre le fait de laisser la prudence guider le contrôle de l'IA.

D'une part, l'IA est saluée pour sa capacité à générer toutes sortes de contenus, à effectuer des tâches banales et à détecter des cancers, entre autres. D'autre part, elle peut tromper, perpétuer des préjugés, plagier et, bien sûr, inquiéter certains experts quant à l'avenir collectif de l'humanité. Même la directrice technique d'OpenAI, Mira Murati, a suggéré que l'on s'oriente vers une réglementation de l'IA.

 

Certains chercheurs ont fait valoir qu'une réglementation excessive pourrait entraver le plein potentiel de l'IA et interférer avec la "destruction créatrice" - une théorie qui suggère que les normes et les pratiques de longue date doivent être démantelées pour que l'innovation puisse prospérer.

 

De même, au fil des ans, les entreprises ont réclamé une réglementation souple et limitée à des applications ciblées, afin de ne pas entraver la concurrence. Enfin, des associations industrielles ont demandé des "orientations" éthiques plutôt qu'une réglementation, arguant que le développement de l'IA est trop rapide et trop ouvert pour être réglementé de manière adéquate.

 

Mais les citoyens semblent plaider en faveur d'une plus grande surveillance. Selon les rapports de Bristows et de KPMG, environ deux tiers des Australiens et des Britanniques estiment que l'industrie de l'IA devrait être réglementée et tenue pour responsable.

 

 

What’s next?

Une pause de six mois dans le développement de systèmes d'IA avancés pourrait offrir un répit bienvenu dans une course qui ne semble pas vouloir s'arrêter. Toutefois, à ce jour, il n'y a pas eu d'effort mondial efficace pour réglementer l'IA de manière significative. Les efforts déployés ont été fragmentés, retardés et, dans l'ensemble, laxistes.

 

Un moratoire mondial serait difficile à appliquer, mais pas impossible. La lettre ouverte soulève des questions sur le rôle des gouvernements, qui sont restés largement silencieux quant aux méfaits potentiels d'outils d'IA extrêmement performants.

 

Pour que les choses changent, les gouvernements et les organismes de réglementation nationaux et supranationaux devront prendre l'initiative de garantir la responsabilité et la sécurité. Comme le souligne la lettre, les décisions concernant l'IA au niveau sociétal ne devraient pas être entre les mains de "leaders technologiques non élus".

 

Les gouvernements devraient donc s'engager avec l'industrie à élaborer conjointement un cadre mondial définissant des règles globales régissant le développement de l'IA. C'est le meilleur moyen de se prémunir contre les effets néfastes et d'éviter un nivellement par le bas. Elle permet également d'éviter une situation indésirable dans laquelle les gouvernements et les géants de la technologie se battent pour dominer l'avenir de l'IA.

 

Cet article par Olga Kokshagina, Professeure associée à l'EDHEC, Stan Karanasios, Professeur associé à l'University of Queensland, et Pauline C. Reinecke, Assistant Researcher à l'University of Hamburg, a été republié depuis The Conversation sous licence Creative Commons license. Lire l'article original en anglais.

 

 

Photo par Maxime VALCARCE via Unsplash

-