IA en entreprise : voici 5 phrases qu’Arnaud Billion nous invite à ne plus prononcer (et pourquoi !)
Suite à la publication de son dernier ouvrage « IA : Techniques, éthique, juridique et bonnes pratiques » (Afnor, 2026) co-écrit avec quatre autres chercheurs (1), Arnaud Billion - professeur associé à l’EDHEC, chercheur affilié à l’EDHEC Augmented Law Institute - revient sur 5 croyances communes relatives à l’IA en entreprise et pourquoi nous devrions les remettre en cause.
"L'IA, c’est clair pour moi, c’est juste un outil"
Arnaud Billion : Nous sommes nombreux à répéter cette phrase, comme pour apaiser un sentiment d'insécurité latent. Mais cette insistance sur l’utilité (2) trahit surtout une profonde ambiguïté : suis-je vraiment l’utilisateur de l’IA ?
Dans notre livre, une comparaison rationnelle avec l'outillage traditionnel révèle une rupture de nature. Un vrai outil, comme un marteau, ne me sollicite pas, n'est pas "designé" pour me donner envie de planter des clous, ne collecte pas mes informations et ne se synchronise pas avec d’autres marteaux pour orienter mon geste. L’IA, elle, fonctionne à l'inverse : elle transforme nos actions, nos requêtes et nos données en informations exploitables pour son propriétaire, qui seul en tire la valeur finale.
Dans ce contexte, la question de savoir qui est le véritable utilisateur se pose brutalement (3) : n'est-ce pas, au fond, le propriétaire de la société d'IA ? Si tel est le cas, nous ne sommes plus le bricoleur, mais le marteau ou le clou. Nous devenons partie intégrante d'un système où nous contribuons à enrichir un actif qui ne nous appartient pas, tout en gardant l’illusion de piloter un outil sous notre contrôle.
Selon nous, il ne suffit plus de souhaiter que l’IA « reste un outil ». Il est désormais impératif de mettre en place les conditions objectives de cet outillage : une transparence radicale et un contrôle effectif des flux, pour que cette technologie serve réellement ceux qui en font usage plutôt que ceux qui la possèdent.
"Les agents d'IA, c'est formidable, c'est vraiment la nouvelle frontière"
Arnaud Billion : Les agents d’IA ont le vent en poupe (4). En quelques prompts, on les assemble, on les branche à des API, on admire leurs performances et on parle déjà de « logiciel métier ». L’effet est spectaculaire. Mais derrière cette facilité apparente, nous invitons à mettre en question ces programmes mal structurés maquillés en innovation. En réalité, ce sont plutôt de véritables "plats de spaghettis électroniques" mal conçus. Pourquoi ?
En architecture logicielle, la maîtrise des entrées et des sorties (I/O) est fondamentale : formats clairs, comportements prévisibles, tests reproductibles. Or, la plupart des agents reposent sur du langage naturel, des décisions probabilistes et un empilement de briques hétérogènes. Ça fonctionne… jusqu’au moment où ça ne fonctionne plus. Les I/O sont floues, la logique est implicite et la maintenabilité fragile (5). On obtient alors ces fameux spaghettis, brillants en démo, mais dramatiquement incertains en production.
Le problème n’est pas l’agent en soi, mais de croire que l’orchestration probabiliste remplace l’ingénierie. Sans cette rigueur architecturale, un agent n’est pas une révolution : c’est du code flou avec une jolie interface. À ce stade, leur usage devrait rester cantonné à la phase de démonstration, là où l'illusion de la fluidité prime encore sur la robustesse du système.
"Ce que deviennent mes données ? Je m'en fiche, l'IA m'aide tellement !"
Arnaud Billion : Voilà sans doute la petite phrase qu’on n’ose pas toujours formuler, mais qui flotte dans beaucoup d’organisations. On nous promet un système d’information plus flexible, plus réactif, plus économe et plus pertinent. Cette espérance commune est séduisante, avec moins de frictions, plus d’efficacité, et des décisions augmentées.
Nous pensons au contraire que la question des informations transmises est essentielle (6). La question commence à émerger : où partent réellement les données ? Sont-elles envoyées à l’étranger, stockées, réutilisées, croisées ? Ce n’est pourtant qu’un avant-goût des enjeux. Le problème posé est plus fondamental : l’IA de mon entreprise est-elle un outil… ou une interface de captation ?
Car au-delà de l’outil présenté comme performant, une IA peut n'être qu'un terminal de collecte à destination de l’éditeur du modèle. Il faut poser la question frontalement : ce dernier ne serait-il qu'un data broker, dont le modèle d'affaire consiste à revendre vos prompts au plus offrant ?
Derrière l’assistant se trouve un éditeur dont la valorisation repose sur l’analyse et la captation de tout ce qui transite par les prompts. À force d’interagir avec le modèle, les équipes contribuent à enrichir un actif qui ne leur appartient pas. En promptant quotidiennement, vos salariés ne seraient-ils pas en train, sans le savoir, de travailler pour une autre entité ?
"Je sens vraiment une forme d'échange avec l'IA dont je maîtrise les conditions"
Arnaud Billion : Cette impression de maîtrise mérite clairement d'être nuancée. Lorsqu’elle propose un tableau récapitulatif ou suggère d’explorer une autre question, l'IA est-elle un véritable processus d’idéation ou une technique manipulatoire de fidélisation ?
Nous pensons qu’il faut s'interroger sur l'intention réelle derrière l'interface : pourquoi me félicite-t-elle systématiquement pour la pertinence de mes questions ? Pourquoi me propose-t-elle systématiquement d’en faire plus que ce que je demande ? Ce n’est pas une simple courtoisie, c’est une stratégie d'acquisition. De nombreux outils d’IA sont en réalité saturés de dark patterns ou de techniques subliminales (7).
Dans une économie de l’attention, à un stade de diffusion aussi rapide des innovations, l’enjeu est d'acquérir et de retenir le maximum d'utilisateurs. Les designers logiciels (UX) le savent bien, leur bible reste le livre Hooked (8), véritable guide de la captation de l’attention. L'objectif n'est plus seulement d'assister, mais de créer un ancrage comportemental.
Il devient alors nécessaire de se pencher sur les conditions objectives d’une IA réellement non parasitaire, qui privilégierait l’usage utile plutôt que l’asservissement attentionnel (9). Sans cette vigilance, nous passons de l'outil de productivité à une technologie de capture qui parasite notre autonomie intellectuelle.
"Oui j'ai vu que l'IA consommait beaucoup d'énergie, mais on va gérer non ?"
L’idée fait rêver : des modèles de plus en plus petits (ou de moins en moins gros), des algorithmes optimisés, une empreinte énergétique qui deviendrait négligeable une fois absorbée la charge du développement initial. Sur le papier, c’est séduisant. Dans la pratique, rien n'est moins vrai d'un point de vue logiciel : c'est l'illusion de la frugalité (10).
L’optimisation des algorithmes, aussi brillante soit-elle, n'a jamais économisé un gramme de CO2 en dehors des conditions de laboratoire. La réalité technique est tout autre : une fois l’IA déployée dans un environnement de « production » — c’est-à-dire connectée à d’autres logiciels et exposée à une montée en charge permanente — elle continue de produire et de transformer des 1 et des 0 de manière continue et non limitative.
Qu’elle soit grosse ou petite, lente ou rapide, optimisée ou non, l’IA en exploitation répond à une logique de flux énergétique constant. L’optimisation de laboratoire ne change rien à cette réalité physique de l’ordinateur : le fonctionnement effectif d’un système reste massivement énergivore dès qu'il est sollicité à l'échelle. Tout effort de verdissement de l’IA doit impérativement intégrer cette dimension systémique et cesser de se bercer de l'illusion des modèles frugaux.
Références
(1) IA : Techniques, éthique, juridique et bonnes pratiques (2026) Billion Arnaud ; Denis Yrieix ; Hammoudi Sabrina ; Martin Yannis ; Martin Anaëlle. AFNOR Éditions - https://nouveautes-editeurs.bnf.fr/accueil?id_declaration=10000001273674&titre_livre=IA_:_Techniques,_%C3%A9thique,_juridique_et_bonnes_pratiques
(2) Yann Le Cun (Meta) : « L’IA est un outil comme un autre », mai 2024, Stratégies - https://www.strategies.fr/actualites/culture-tech/LQ3244805C/yann-le-cun-meta-lia-est-un-outil-comme-un-autre.html
(3) Les IA ne sont pas des outils ! Et c’est important de le comprendre, février 2025, L'ADN - https://www.ladn.eu/tech-a-suivre/les-ia-ne-sont-pas-des-outils-et-cest-important-de-le-comprendre/
(4) Petits agents, grandes questions : que sont les agents IA ? - https://www.conseil-ia-numerique.fr/nos-travaux/petits-agents-grandes-questions-que-sont-les-agents-ia
(5) Quand les agents d’IA échappent au contrôle : comprendre les comportements émergents (2026) Management & Data science - https://management-datascience.org/articles/67172/
(6) CNIL, Intelligence artificielle - https://www.cnil.fr/fr/technologies/intelligence-artificielle-ia
(7) Quand l’IA nous manipule : comment réguler les pratiques qui malmènent notre libre arbitre ? Janvier 2025, The Conversation - https://theconversation.com/quand-lia-nous-manipule-comment-reguler-les-pratiques-qui-malmenent-notre-libre-arbitre-246930
(8) Hooked - Comment créer un produit ou un service qui ancre des habitudes (2018), Nir Eyal, Eyrolles - https://www.eyrolles.com/Entreprise/Livre/hooked-comment-creer-un-produit-ou-un-service-qui-ancre-des-habitudes-9782212570939/
(9) Comment l’IA altère-t-elle notre pensée ? Entretien croisé entre une philosophe et un entrepreneur? Oct. 2025, Le Monde - https://www.lemonde.fr/idees/article/2025/10/04/comment-l-ia-altere-t-elle-notre-pensee-entretien-croise-entre-une-philosophe-et-un-entrepreneur_6644371_3232.html
(10) Comment l’IA dévore la planète. Déc. 2025, Le Monde - https://www.lemonde.fr/economie/article/2025/12/26/comment-l-ia-devore-la-planete_6659449_3234.html