Explore & master
   |
EDHEC Vox
 |
Programmes
Recherche

Regards croisés d’Arnaud Billion et Michelle Sisto (EDHEC) sur l’intelligence artificielle

Michelle Sisto , Associate Professor
Arnaud Billion , Associate Professor

Risques de sécurité, perturbations du marché du travail, impacts sur la santé mentale et rôle de l’éducation : Michelle Sisto, Doyenne associée de l’EDHEC et Directrice de son centre consacré aux enjeux de l’IA, et Arnaud Billion, Professeur associé et Chercheur affilié à l’EDHEC Augmented Law Institute, discutent intelligence artificielle.

Temps de lecture :
13 Mai 2026
Partager

Pour commencer, qu’est-ce qui vous interpelle le plus dans les derniers développements autour de l’IA ?

 

Michelle Sisto : Je pense que l’affaire entre Anthropic et le département de la guerre américain (1) a mis en lumière de manière très publique et médiatique à quel point l’IA est entrée dans les domaines militaire et géopolitique. Le fait qu’une seule entreprise, parmi tous les acteurs de l’IA, ait posé une limite claire à l’utilisation éthique de sa technologie devrait nous interroger très sérieusement. L’autre chose qui m’interpelle, c’est la vitesse avec laquelle l’IA agentique pourra se déployer dans le monde économique (2). Cela pose de vraies questions en termes de sécurité et de fragilisation de nos systèmes économiques et décisionnaires.

 

Arnaud Billion : Je tirerais même le fil un peu plus loin. J’ai l’impression que les entreprises commencent à peine à prendre conscience du « shadow AI » dans leurs organisations (3). Elles utilisent des IA qu’elles n’ont pas pris le temps de spécifier techniquement et fonctionnellement, et elles découvrent petit à petit tous les flux de données potentiellement stratégiques qui partent vers des marketplaces, c’est-à-dire d’autres entreprises. Chaque salarié qui prompte génère un flux de données de l’entreprise vers un ensemble d’acteurs tiers. Le premier d’entre eux, c’est bien sûr l’éditeur du modèle. Mais le modèle d’affaires de cet éditeur repose souvent sur la valorisation de cette donnée collectée. Comment ? Auprès de qui ? Je doute que beaucoup d’entreprises se soient posé la question. On est donc face à une « passoirisation » des systèmes d’informations qui commence tout juste à apparaître sur les radars.

 

M.S. : D’autant que ces business models n’ont rien de figé. Ils évoluent en permanence, à commencer par le prix des tokens (4). Or, quand vous avez commencé à déployer une IA dans votre organisation, vous êtes captif d’un modèle économique que vous ne maitrisez pas et qui peut changer du jour au lendemain.

 

A.B. : C’est exactement ce que décrit Cory Doctorow avec son concept d’enshittification (5) : la manière dont, depuis le début du web ou même de l’informatique, l’outil qui se présente comme une évolution dans un premier temps, finit toujours par se retourner contre son utilisateur. Une fonctionnalité ou un service de base devient subitement un abonnement ; une solution que vous pensiez posséder devient une licence d’utilisation qui peut vous être retirée à tout moment.

 

Arnaud, vous expliquez dans votre ouvrage « IA : Techniques, éthique, juridique et bonnes pratiques » (6) que l’IA ne peut pas être considérée comme un outil. Si ce n’en est pas un, qu’est-ce c’est ?

 

Arnaud Billion : L’IA générative grand public est une simulation d’outil qui prend l’apparence d’une machine à répondre. Les caractères classiques d’un outil, sont, en général, une maîtrise de l’énergie et une idée du résultat : si j’utilise un marteau pour enfoncer un clou, je maîtrise la force que je mets dans le geste, je sais que personne d’autre ne tape avec moi, et j’ai plutôt une bonne idée du résultat que je peux attendre de ce geste. Or, avec l’IA, je ne me trouve, moi, utilisateur, qu’à un moment d’un grand calcul dont j’ignore tout ou presque de l’amont, et souvent de l’aval. Je suis face à une fenêtre sur un océan de 1 et de 0 : je vois la houle, j’y abonde avec mon verre d’eau, mais je n’ai aucune idée de la tempête qui l’a mise en mouvement au large. Si l’on en reste à la description technique, l’IA est un programme informatique. Ce qui veut dire qu’il faut en revenir aux bonnes pratiques de l’informatique : confier son déploiement à des experts, tester, monitorer, sécuriser, etc.

 

Michelle Sisto : Pour moi, ce qui distingue l’IA d’un outil, c’est la notion d’autonomie. Un marteau n’a pas d’autonomie. Mais avec l’IA agentique, je peux donner une mission à une IA qui va décider d’elle-même de comment y répondre, en découpant en sous-tâches, en créant des mini-programmes. Considérer l’IA comme un outil, c’est sous-estimer sévèrement les risques liés à son utilisation.

 

A.B. : Catégoriser l’IA comme un outil révèle aussi une certaine forme d’insécurité. On « utilise », on « outille », on cherche à maîtriser en somme quelque chose dont on sent bien que le fonctionnement nous échappe. Ce que cela dit, c’est qu’on a besoin d’outils, et l’IA nous en offre toutes les apparences. Je pense qu’on la méprend pour un logiciel métier, un ensemble de programmes qui servirait réellement la fonction en automatisant certaines tâches.

 

M.S. : En 1988, quand je faisais mes études de mathématiques et d’informatique, on parlait de systèmes experts pour des programmes en appui aux métiers. Même si j’ai été bluffée, comme tout le monde, par l’arrivée de l’IA générative grand public en 2022, elle reste une technologie généraliste qui simule une expertise.

 

A.B. : Et comme le savent tous ceux qui jouent aux jeux vidéo, passer des heures sur SimCity ne fera pas de vous un bon maire !

 

Une étude du MIT (7) a mis en évidence l’idée d’une « dette cognitive » liée à l’utilisation de l’IA générative. Quel regard portez-vous cette question ?

 

Michelle Sisto :  Pour moi c’est un des enjeux majeurs de l’IA, notamment vu de notre secteur de l’éducation (8). Le rôle d’un éducateur, c’est le développement des personnes. Cette étude du MIT a mis le doigt sur ce que bon nombre d’entre nous sentions depuis déjà quelques temps. Nous avons fait nos propres expériences avec des M1 pour qu’ils « vivent » le risque : en début de cours, on leur demande de préparer une présentation avec l’IA ; puis on leur demande 3 heures plus tard de faire la même présentation sans aucune appui. Et là, c’est très souvent le vide. Ils n’ont plus aucun souvenir de ce qui était dans les slides ou de l’argumentation qu’ils ont présentée. La dette cognitive est réelle (9).

C’est pour cela qu’à l’EDHEC nous avons mis en place le cours de pré-Master « Me, Myself and AI » (10) dont le but est d’amener les étudiants à questionner leur rapport à l’IA et leurs objectifs personnels. Est-ce que je suis venu ici pour faire une série de rendus et avoir un tampon sur mon diplôme ? Ou est-ce que je suis là pour apprendre, grandir, développer mes compétences et mon potentiel cognitif ?  On leur demande en fait de réfléchir sur comment ils apprennent, sur la différence entre produire et apprendre, et sur la place que l’IA peut prendre dans leur démarche éducative. C’est primordial de les mettre face à ces questions.
Nous avons la chance de travailler avec un public qui a déjà montré une certaine appétence pour les activités cognitives. Quand on voit à quelle vitesse cette population pourtant privilégiée est en train de déléguer à l’IA sans se poser de questions, c’est notre rôle d’éducateur que de pousser à prendre du recul pour former des leaders qui seront capables demain de diffuser cette approche plus largement.

 

Arnaud Billion : On est sur un phénomène de délestage cognitif qui peut aller jusqu’à l’externalisation de la pensée. Quelqu’un qui aurait délégué sa capacité d’analyse et de décision n’a rien démontré du tout, n’a rien appris (11). Il faut faire l’expérience de ce délestage cognitif pour réaliser à quel point la prothèse qu’est l’IA nous dessert. D’autant que ces interfaces sont redoutablement bien fichues : tout est fait pour nous garder captifs, pour éliminer la friction liée à l’usage, ce qui contribue à notre avilissement progressif. L’homme augmenté par l’IA se voit souvent diminué (12). Or, lutter contre l’avilissement, c’est précisément la mission de l’éducation.

 

Quels risques fait courir l’IA pour la santé mentale ?

 

Michelle Sisto : Jonathan Haidt analyse très bien l’impact des réseaux sociaux sur la santé mentale des jeunes dans son livre The Anxious Generation (13). Estime de soi, rapport à l’autre, chambres d'écho, les effets sont délétères. L’IA générative, c’est le même scénario, en bien pire. Nous avons mené un sondage auprès de nos étudiants et de ceux de six autres écoles internationales : un étudiant sur cinq rapporte une perte de confiance en lui-même du fait de l’utilisation de l’IA, ce qui, en retour, pousse à l’utiliser davantage. C’est une boucle de renforcement négative qui peut avoir des effets extrêmement pernicieux à long terme. Pour nous, c’est une raison supplémentaire de les encourager à développer leur esprit critique pour questionner leur rapport à l’IA.

 

Arnaud Billion : J’ajouterais que la noblesse et l’intérêt du métier d’enseigner prennent tout leur sens avec l’IA et les problèmes que pose son déploiement.

 

M.S. : Et elle nous donne l’opportunité de faire évoluer nos pédagogies. C’est un vrai challenge, mais j’ai beaucoup d’espoir !

 

Anthropic a publié début mars un rapport sur les impacts de l’IA sur le marché du travail (14). On peut notamment y lire que les postes les plus exposés sont ceux des démographies les plus qualifiées et aux tranches de rémunération les plus confortables, ceux-là même que visent des étudiants diplômés d’écoles de commerce. Comment abordez-vous cet enjeu ?

 

Arnaud Billion : Je ne pense pas que l’IA et l’emploi soient deux courbes en miroir où quand la première augmente, l’autre plonge. En tout cas pas sur le long terme. Je crois plutôt à des vagues. Nous sommes dans la première et il faut s’attendre à ce qu’un nombre important de travailleurs soient « remplacés » (15) : le senior qui prompte et qui n’aura plus besoin de son junior, le développeur qui ne pourra pas lutter contre la rapidité à laquelle l’IA produit du code, etc. Mais que va-t-il se passer ensuite, une fois qu’on aura fragilisé les processus métiers ? Je pense que la deuxième vague prendra la forme d’un backlash, face à dégradation de la qualité occasionnée par ce déploiement aléatoire. Derrière, ce sera la course aux compétences : il faudra tout remettre d’aplomb, réintégrer des expertises humaines pour corriger et réparer les processus. Ainsi, pour mettre en œuvre une fonctionnalité IA d'aide au diagnostic par exemple, faut-il normaliser, standardiser pour les fixer des process (workflows) en amont et en aval de ce moment voulu d'augmentation... autant de tâches bureaucratiques induites qui pèseront sur les personnels administratifs et soignants de l'hôpital dont on va déplorer par ailleurs le découragement professionnel, sans faire le lien entre ces deux phénomènes. C’est pour cette deuxième vague qu’il faut tenir la barre, car ceux qui s’en sortiront seront ceux qui n’auront pas cédé et qui auront continué à développer leurs compétences.

 

Michelle Sisto : Il est certain qu’à court terme l’IA va avoir un impact conséquent sur l’emploi de nos étudiants. Quand on regarde en détail le rapport d’Anthropic, les fonctions et secteurs les plus touchés sont tous ceux auxquels nous formons : business, management, droit, communication, etc. Et pour ceux en emploi, la situation n’est pas forcément plus enviable : une étude du Boston Consulting Group, publiée début mars (16), s’est intéressée au phénomène du « AI Brain Fry », soit l’épuisement mental de tous ces profils qui se retrouvent à devoir auditer ou superviser le travail fait par des IA. On est donc face à une double problématique, à la fois d’accès à l’emploi mais aussi de santé mentale de ceux dans l’emploi. Pour les éducateurs que nous sommes, ce sont des signaux d’alerte. C’est une des raisons pour lesquelles nous avons ouvert un centre consacré à l’IA : nous voulions étudier de près ces risques et ces transformations pour adapter nos cursus et éclairer les décideurs.

 

Une autre grande question que pose le développement de l’IA à mesure qu’elle intègre tous les pans de notre société, c’est celle de sa gouvernance. Qui doit contrôler l’IA ?

 

Arnaud Billion : Ce qui est sûr c’est qu’on n’aura pas de gouvernance internationale : on a à peine réussi à le faire sur les armes de destruction massive ; on imagine mal comment on pourrait y arriver pour l’IA. Le droit européen propose un effort de conformité et un principe de subsidiarité, c’est-à-dire de faire descendre la décision et la maîtrise au plus petit niveau : celui des acteurs. C’est très logique quand on y réfléchit : je suis une entreprise, c’est à moi que revient la charge de m’organiser pour déployer une IA qui ne détruise pas mon système d’information, qui serve un processus métier, qui ne décourage pas mes salariés et ne réduise pas à néant toute ma connaissance. L’IA nous oblige à l’excellence et à la vigilance : ceux qui perdront la partie seront ceux qui auront laissé couler, qui auront adopté des technologies qu’ils ne comprennent pas vraiment ou qui ne collent pas aux besoins de leurs métiers.

 

Michelle Sisto : C’est, là encore, une question qui recoupe notre rôle d’éducateur. Pour que cette gouvernance hyper locale fonctionne, il faut des « gouvernants » formés à la gestion des risques que ces systèmes génèrent. Notre travail ne fait que commencer !

 

 

Contributions récentes sur le même sujet :

Arnaud Billion :

 

Michelle Sisto :

Références

(1) Anthropic bloque l’utilisation de son IA par le Pentagone pour la « surveillance intérieure de masse » et les « armes complètement autonomes ». Le Monde. 27 février 2026 - https://www.lemonde.fr/economie/article/2026/02/27/anthropic-refuse-de-ceder-a-l-ultimatum-du-pentagone-et-bloque-l-utilisation-de-son-ia-pour-la-surveillance-de-masse-et-les-armes-autonomes_6668445_3234.html

(2) - https://www.vie-publique.fr/en-bref/302417-ia-agentique-une-technologie-qui-suscite-des-questions

(3) - https://www.edhec.edu/fr/recherche-et-faculte/edhec-vox/ia-en-entreprise-voici-5-phrases-a-ne-plus-prononcer-et-pourquoi-arnaud-billion-intelligence-artificielle

(4) - https://blogs.nvidia.fr/explication-des-jetons-le-langage-et-la-monnaie-de-lia/

(5) - https://www.versobooks.com/products/3341-enshittification

(6) - https://www.boutique.afnor.org/fr-fr/livre/ia-techniques-ethique-juridique-et-bonnes-pratiques/fa214015/446147

(7) - https://arxiv.org/abs/2506.08872

(8) - https://www.edhec.edu/fr/recherche-et-faculte/edhec-vox/michelle-sisto-centre-edhec-ia-usage-intelligence-artificielle-doit-rester-centre-humain-guide-valeurs

(9) - https://legrandcontinent.eu/fr/2025/06/19/chatgpt-cerveau-etude-mit/

(10) - https://www.edhec.edu/fr/news/edhec-artificial-intelligence-centre-bootcamp-ia

(11) - https://www.polytechnique-insights.com/tribunes/neurosciences/ia-generative-le-risque-de-latrophie-cognitive/

(12) - https://www.editions-hermann.fr/livre/l-homme-diminue-par-l-ia-marius-bertolucci

(13) - https://jonathanhaidt.com/anxious-generation/

(14) - https://www.anthropic.com/research/labor-market-impacts

(15) - https://www.lemonde.fr/idees/article/2026/03/01/axelle-arquie-economiste-une-catastrophe-sociale-causee-par-l-ia-fait-partie-des-scenarios-possibles_6668758_3232.html

(16) - https://hbr.org/2026/03/when-using-ai-leads-to-brain-fry

 

Derniers articles
EDHEC Vox

[#dataviz] ClimaTech, un nouveau regard sur le climat - part 1

  • Catherine Tubb , EDHEC Climate Institute Sustainability Research Expert
  • Rob Arnold , EDHEC Climate Institute Lead Resilience and Decarbonisation Specialist
  • Nishtha Manocha , Chief Operating Officer of Scientific Climate Ratings and Project Lead of ClimaTech at EDHEC Climate Institute
  • Conor Hubert , EDHEC Climate Institute Sustainability Research Engineer
  • Camille Angué , EDHEC Climate Institute Director