Datant des années 60, les premiers modèles de scoring bancaires ont connu, au fil du temps, plusieurs vagues d’amélioration dues notamment aux progrès de l’algorithmique et des techniques d’apprentissage. Or, malgré des avancées notables dans ces domaines, les institutions financières baignent toujours dans le monde statistique d’il y a 50 ans. Comme si aujourd’hui l’industrie spatiale continuait à paramétrer ses satellites en employant les équations de Newton alors qu’elles ont été remplacées depuis bien longtemps par celles d’Einstein. Retour sur un demi-siècle parfois encore obscur pour certains.

Les modèles de scoring sont employés par les banques et les institutions financières pour estimer le risque de défaut de paiement de leurs débiteurs et ce, aussi bien pour des raisons commerciales que prudentielles. Commerciales, car ils permettent de déterminer si un prêt peut être attribué à un client en fonction de sa probabilité de non remboursement, et définir quel sera le taux à appliquer à ce même client selon le niveau de risque qu’il présente. Prudentielles, car les estimations de risque sont utilisées pour définir le montant des provisions servant à couvrir les pertes potentielles que pourraient subir les établissements financiers.

La faillite représentant l’élément déclencheur principal d’un défaut de paiement, et conduisant aux pertes les plus substantielles pour le créancier, ces modèles sont rapidement devenus des modèles de faillite ; prévoir un défaut revenait alors à prévoir l’occurrence de l’événement le plus dramatique pouvant le causer.

À l’origine, un modèle s’exprimait sous la forme d’une équation simple où le risque était calculé grâce à une combinaison linéaire d’un certain nombre de ratios financiers choisis selon leur capacité à discriminer correctement les firmes susceptibles de disparaître et les autres. D’une certaine manière, une équation permettait de calculer une distance entre la situation financière d’une entreprise donnée, estimée à un moment donné de son existence, et un état prototypique de faillite. La probabilité de faillite était alors proportionnelle à l’étendue de l’écart entre les deux. Cette façon d’appréhender le risque est toujours en vigueur dans les institutions financières. La Banque de France d’ailleurs a largement documenté sa méthode fondée sur l’analyse discriminante dès les années 80 et n’en a pas changé depuis.

Les modèles employés par le monde bancaire sont à la prévision de faillite ce que les équations de Newton sont à la gravitation

La simplicité d’élaboration des premiers modèles de scoring, comme d’ailleurs leur assez bonne efficacité, ont conduit assez rapidement à la généralisation de leur emploi. Mais ce qui a fait leur succès est aussi à l’origine de leurs principales limites.

Tout d’abord, les modèles de scoring supposent que la relation entre les variables explicatives, donc les ratios financiers décrivant l’état d’un débiteur, et le risque, est linéaire, et que ces mêmes variables peuvent se compenser totalement, puisque le modèle est additif. Or, les effets de seuil que l’on peut constater lorsque l’on observe la distribution des ratios montrent que la compensation ne fonctionne que sur une partie, parfois réduite, de celle-ci ; et ces mêmes effets de seuil font que de la probabilité de défaut suit souvent une fonction dont la pente change de sens au voisinage de la valeur d’un seuil. C’est précisément pour ces raisons que des méthodes comme les réseaux de neurones ou les machines à vecteur support, qui permettent de créer des modèles non linéaires, conduisent le plus souvent à de bien meilleurs résultats que ceux obtenus avec les méthodes du monde bancaire. Les modèles linéaires apparaissent en définitive comme étant trop simples pour appréhender correctement toute la complexité du phénomène de faillite.

Ensuite, ces modèles reposent sur des règles de classification uniques, un modèle s’exprimant sous la forme d’une seule et même équation. L’état de faillite est alors réductible à un seul état critique de référence et le modèle incarne en quelque sorte la frontière entre celui-ci et un état de survie potentielle. L’unicité de la règle de prévision suppose donc que les symptômes de la faillite sont les mêmes pour toutes les firmes et que les ratios employés pour appréhender ces symptômes se dégradent à peu près tous de la même manière, selon le même rythme et avec la même magnitude. Or, il est n’est pas rare de constater que certaines firmes, qui apparaissent en bonne santé du point de vue d’un modèle, finissent par faire faillite de manière inattendue alors que d’autres, qui présentent des signes de très mauvaise santé, arrivent néanmoins à survivre et parfois très longtemps. On sait que la faillite est le résultat de processus divers, qui peuvent être longs à se mettre en place, et qui peuvent donner naissance à différents états ou différentes formes de déclin. Dès lors, on comprend que s’il existe une variété de situations prototypiques que les firmes peuvent rencontrer avant de mourir, aucun modèle construit autour d’une seule règle de classement n’est à même d’appréhender une telle pluralité de formes. C’est là que les techniques dites « ensemblistes » viennent corriger les insuffisances des modèles traditionnels. Elles permettent en effet d’appréhender la variété des situations de faillite en employant non pas un seul modèle, mais un ensemble de modèles. Les techniques employées à cette fin ont pour objet de créer un méta-modèle dont chaque élément dispose d'une expertise particulière propre à une certaine région de l'espace de décision. Un ensemble est alors constitué de plusieurs dizaines ou centaines de modèles, conçus indépendamment ou non les uns des autres, et sa prévision est calculée en combinant les prévisions individuelles de chaque modèle, le plus souvent à l’aide d’un vote majoritaire. Si les constituants d’un ensemble sont suffisamment bien choisis et suffisamment divers, ils permettent alors de capter plus d'informations sur la frontière de séparation des classes que ne peuvent le faire les modèles uniques et conduisent en général à de meilleurs résultats que ceux obtenus par ces derniers.

Enfin, les modèles de scoring s’appuient sur une vision le plus souvent statique des signes avant-coureurs de la faillite, ceux-ci étant simplement appréhendés au travers de quelques mesures instantanées de la situation financière des firmes. En effet, les variables des modèles sont généralement estimées une seule fois et un an avant l’horizon des prévisions. Or, la faillite résulte d’une dynamique qui s’inscrit d’abord dans l’histoire des entreprises et ne peut donc être décrite correctement par des modèles qui n’intègrent pas une dimension temporelle. C’est vraisemblablement là que réside la plus grande faiblesse des modèles bancaires. Non seulement ils considèrent la faillite comme le résultat du franchissement d’un seuil commun à toutes les firmes, mais en plus ils voient le processus qui y conduit comme étant a historique, comme si l’exposition d’une firme à un risque au cours d’une période de son histoire ne modifiait en rien son espérance de vie. Là encore, certains modèles qui permettent d’appréhender l’évolution de la situation financière des entreprises au cours du temps conduisent à de meilleures prévisions que ceux obtenus par les modèles bancaires.

Les trois types de modélisation qui viennent d’être présentés (modèles non-linéaires, modèles ensemblistes, modèles historiques) ne sont pas mutuellement exclusifs, et peuvent se combiner. Ainsi, les techniques les plus récentes et les plus avancées reposent-elles sur une modélisation particulière du passé des entreprises, au travers de « trajectoires » incarnant l’évolution dans le temps de la santé des entreprises ou au travers de « patterns » incarnant des formes prototypiques de faillite, alliée à l’emploi de techniques ensemblistes combinées avec des réseaux de neurones.

Tout ceci montre bien l’étendue de l’écart existant entre les pratiques des établissements financiers et la réalité des techniques modernes d’estimation du risque de défaut. En définitive, les modèles employés par le monde bancaire sont à la prévision de faillite ce que les équations de Newton sont à la gravitation. Les équations de Newton représentent une vision du monde simple et bien adaptée à l’époque où elles ont été conçues et à son stade de développement des connaissances en physique : elles ne sont pas fausses, mais elles ne correspondent qu’à un cas particulier du cas général décrit par les équations d’Einstein. Pour autant, si on les employait pour synchroniser les horloges des satellites du système GPS avec celles présentes sur terre, aucune géolocalisation ne serait possible car trop entachée d’erreur.