Think differently
   |
EDHEC Vox
 |
Recherche

Bien cerner les robots

Björn Fasterling , Professor

Quels sont les dangers insoupçonnés de l'IA ? Comment répondre aux questions éthiques qui en découlent ?  Björn Fasterling, chef de la faculté de droit, d’économie et membre du Centre de recherche Legal EDHEC décrypte le sujet...

Temps de lecture :
12 Juil 2019
Partager

À mesure que l’intelligence artificielle prend de l’ampleur – et de la puissance – dans nos vies, la société est face à nouvelles questions éthiques qui sont autant de défis. Sommes-nous munis
des bons outils pour y répondre ?

Bien cerner les robots

Robots tueurs. Armes autonomes. Destruction des institutions démocratiques. Perte de contrôle humain… les alarmes concernant les dangers posés par l’intelligence artificielle (IA) continuent de retentir à un rythme frénétique. Est-ce le signe clair qu’un nouveau code d’éthique commerciale de robot est nécessaire d’urgence pour protéger l’humanité ?

N’allons pas si vite en besogne, nous dit Björn Fasterling, chef de la faculté de droit, d’économie et membre du Centre de recherche LegalEDHEC.

« Un code éthique entièrement nouveau n’est pas nécessaire. Néanmoins, nousdevons moduler notre code éthique existant pour nous adapter à un environnement d’affaires où l’IA est de plus en plus omniprésente ».

Si l’impact de l’IA sur les modèles d’entreprise, la gestion des personnes et les processus de travail devient de plus en plus manifeste, l’IA pourrait traîner derrière elle un cortège de dangers

insoupçonnés. Björn Fasterling cite en exemple des algorithmes qui pourraient assimiler et décupler les schémas de discrimination. Les dispositifs d’incitation alimentés par l’IA (nudging, ou
coup de pouce) pourraient compromettre la capacité de discernement morale des individus et exacerber les inégalités sociales en faisant correspondre les opportunités de transaction les plus
lucratives aux bien nantis, tout en condamnant le reste de la population au déterminisme socio-économique. Oui, l’IA peut stimuler la création de richesse, mais elle peut aussi la concentrer
davantage, ce qui fait subir aux sociétés démocratiques des tensions supplémentaires. 

« Par exemple, nombreux sont ceux qui, malgré leurs bonnes intentions, ignorent que l’IA peut les amener à gravement sous-estimer les conséquences potentiellement néfastes de
leurs actions. Nous devons veiller à ce que les entreprises s’acquittent d’une obligation de vigilance soutenue pour détecter les impacts délétères d’activités en apparence
inoffensives ».

Un credo éthique pour l'IA

Au-delà de la conception de modèles commerciaux qui apportent un concours positif à la société et évitent les actions nocives, il est nécessaire que les individus reconnaissent qu’ils doivent compter sur les autres pour identifier les problèmes éthiques. 

« Être conscient des dangers de l’IA, partager les connaissances et trouver ensemble des solutions doivent faire partie de la responsabilité des
entreprises ».

Il estime que les étudiants aujourd’hui plongés dans le numérique sont déjà plus sensibles aux défis éthiques de l’IA que la plupart des salariés d’entreprises. Il faut les aider à intégrer cette prise de conscience dans les décisions commerciales et les aider à développer les bons réflexes en leur donnant les compétences nécessaires pour prendre des décisions en connaissance de
cause. 

Pour Björn Fasterling, la liste des principes et pratiques éthiques sur l’IA à transmettre aux futurs entrepreneurs est longue et continue de s’agrandir. Toutefois, il se pourrait que l’essentiel réside
dans la simple déclaration du manifeste Russell–Einstein de 1955 mettant en garde contre les dangers des armes nucléaires :

“Souvenez-vous de votre humanité et oubliez le reste.”

Extrait du magazine Otherwise (n° 7)

Vous avez apprécié cette lecture ? Lisez l’article complet en vous abonnant à Otherwise gratuitement !

 

Inscrivez-vous ici !

Derniers articles
EDHEC Vox