Les temps changent. En fait, elles évoluent rapidement. L’intelligence artificielle est devenue le grand espoir de l’industrie financière pour prévenir des événements critiques comme la crise financière. Mais cela peut-il vraiment réussir ?

Qui aurait pensé il y a dix ans qu’en 2020 vous partageriez tous la conviction que les modèles mathématiques domineront le nouveau monde (bancaire) dans un avenir pas trop lointain ? Même s’il y a encore des sceptiques, à juste titre, qui aurait douté de l’essence de cette déclaration ? On ne peut nier la disponibilité croissante des données de tous les processus vitaux et bancaires, la possibilité de saisir leurs cohérences internes par machine et d’utiliser les connaissances structurelles ainsi acquises pour divers processus de contrôle et de décision.

Dans le même temps, il a semblé pendant un moment, après la grande crise financière de 2008, que la confiance dans les modèles statistiques avait été fondamentalement et durablement ébranlée. Comment, où et par qui la marée a-t-elle tourné si vite ? La (petite) histoire de ce changement de perspective parmi de nombreux participants est aussi divertissante que révélatrice. De nombreuses personnes qui se sentent aujourd’hui en terrain connu lorsqu’il s’agit de sujets tels que les Big Data et l’intelligence artificielle (IA) ne penseraient probablement pas à associer ces technologies au grand crash d’antan. Comment faut-il comprendre cela ?

Deux questions, deux perspectives sur l’intelligence artificielle

Une explication possible commence par une définition

On trouve sans cesse des représentations dans lesquelles des concepts tels que l’intelligence artificielle et l’apprentissage machine sont imbriqués les uns dans les autres. Aussi utiles que soient ces projections pour l’initié, elles sont trompeuses pour le profane.

L’apprentissage machine est une méthode de description structurelle d’un ensemble de données par un modèle mathématique de telle sorte que les connexions pertinentes pour l’observation concrète sont cartographiées et tous les aspects aléatoires, non systématiques (plus précisément : reconnaissables à partir des observations) sont filtrés. Pour les méthodes probabilistes, la description des propriétés statistiques de la diffusion aléatoire est ajoutée.

Cependant, un système qui utilise un modèle appris par machine, par exemple pour faire des prévisions sur le comportement de remboursement du demandeur, très classiquement, sur la base des données de la demande de crédit, peut être classé comme intelligence artificielle, ne dépend pas du tout de la procédure utilisée pour la modélisation. La bonne question à cet égard est la suivante : la tâche résolue par le système n’est-elle normalement possible qu’en utilisant l’intelligence humaine, car elle prend en compte, par exemple, la prise en compte de nombreux aspects et valeurs empiriques difficiles à délimiter ?

Pour l’exemple classique de la reconnaissance de motifs dans des images non structurées, cela est incontesté. Dans l’exemple de système de notation de crédit, il faut convenir également que pour l’analyse des données d’une demande structurée, il faut tenir compte d’une interaction complexe de facteurs d’influence, ce qui requiert normalement de l’intuition et de l’expérience. En revanche, l’application de l’apprentissage machine pour la résolution efficace d’équations différentielles ne correspond pas à cette définition de l’IA. Elle remplace un algorithme parfaitement déterministe, dont l’exécution n’est ni une réalisation de l’intelligence ni même possible pour les humains.

La distinction des points de vue

L’apprentissage machine comme réponse à la question “Comment ?”, ou l’intelligence artificielle comme réponse à la question “Quoi ?”ne serait guère plus qu’une querelle académique, si elle n’avait pas de conséquences graves pour les banques en particulier.

Focus on trustworthy AI

Dans ses “Guidelines for trustworthy AI”, la commission d’experts de haut niveau de la Commission européenne s’est très clairement concentrée sur le second aspect, le “Quoi ?”, afin de définir son champ d’application. En simplifiant, vous pouvez supposer ici que la préoccupation concernant les conséquences du remplacement des actions humaines, en particulier des décisions humaines par des systèmes informatiques, est un thème central. Le fait que cette substitution soit techniquement réalisée par des modèles mathématiques-statistiques basés sur des données et appris par machine est d’une importance secondaire et est au fond peu ou pas du tout discuté.

Les banques, qui devraient avoir des oreilles particulièrement fines pour piéger le rossignol réglementaire, doivent faire réfléchir. Et ce point est d’une importance capitale. Les défis abordés à juste titre dans les lignes directrices sous l’aspect du “remplacement des performances de l’intelligence humaine” ne peuvent être correctement évalués et relevés que s’ils sont liés aux procédures techniques utilisées à cette fin, c’est-à-dire au “comment” de l’apprentissage machine.

“Explicabilité” de l’intelligence artificielle

Le terme “explicabilité” de l’intelligence artificielle est actuellement sur toutes les lèvres. Elle reflète, comme dans une grande partie des “Lignes directrices”, l’idée qu’un système d’IA prend une décision de manière quasi-canonique sur la base d’une compréhension apprise d’un problème spécifique, suivant une chaîne causale logiquement compréhensible, même si elle n’est pas nécessairement transparente. Ce n’est généralement pas le cas. Le manque de transparence est rarement un problème, généralement uniquement pour la protection de la propriété intellectuelle. Ce qui manque, c’est un mécanisme de fermeture logique en soi. Les systèmes d’IA actuels, malgré toutes les fictions, ne “pensent” pas, ils décident ad hoc sur la base de critères statistiquement optimaux tirés des données d’observation, quasi “de l’intestin (le bon serait probablement celui du cervelet)”.

Après avoir accepté que les “décisions de l’intestin”, qu’elles soient humaines ou machinales, sont fondamentalement admissibles, il serait plutôt absurde d’exiger leur “explicabilité”. Parce que personne ne s’attend à ce que les décisions prises à l’instinct soient toujours justes. Il est étonnant que même un organe philosophiquement très compétent considère qu’il est permis d’appliquer le terme “explication” à des arguments qui ne sont corrects que dans une fraction des cas. Cela contredit l’usage habituel du terme, car une explication doit toujours se référer à un lien de causalité, c’est-à-dire qu’elle est pratiquement toujours valable et non fondamentalement parfois erronée.

Explicabilité contre justification de l’intelligence artificielle

On peut facilement voir le sens strict du terme “explicabilité” à partir de l’exemple bien connu des attributs discriminants. Supposez que dans le modèle de notation des demandes mentionné ci-dessus, le groupe d’âge (moins de 30 ans/plus de 30 ans) aurait le même pouvoir prédictif de la solvabilité, pour parler simplement de la même “corrélation” avec la solvabilité que le sexe du demandeur. Alors que dans le cas de l’âge, il est accepté de tirer des conclusions du groupe (d’âge) au cas par cas, cela est interdit dans le cas du sexe. Car ni l’un ni l’autre ne peut être prouvé comme étant directement causal, et donc dans le cas d’une discrimination potentielle, on suppose que l’individu concret pourrait être désavantagé par une décision instinctive basée sur de nombreuses années d’expérience (ou des données historiques) avec le groupe correspondant. Sans parler des preuves présentées au tribunal qui seraient basées sur un niveau de confiance de 1 %, voire de 5 %.

Un terme plus approprié dans ce contexte est celui de justification. Justifier rétrospectivement une décision instinctive ne signifie généralement que donner des raisons convaincantes pour la décision et non le résultat, surtout et paradoxalement précisément lorsqu’elle s’est avérée fausse. Cela est digne de tout honneur avec les personnes, les faillibles. Mais la justification est-elle vraiment ce qui importe dans le cas de décisions mécaniques ?

Ne devrait-on pas plutôt s’attacher à garantir a priori que les décisions soient aussi “justes” que possible ? Cette question, comme le concept d’explicabilité dont il a été abordé, ne devrait finalement pas trouver de réponse sous l’aspect de la substituabilité de l’intelligence humaine, mais assez sobrement sous celui de la fiabilité des modèles statistiques utilisés à cet effet.