Par

Enthousiasmante ou glaçante, l’intelligence artificielle semble nous envahir peu à peu. Rapports officiels, grands colloques, stratégies ministérielles se succèdent. Mais qu’est-ce exactement et comment ce domaine évolue-t-il ?

Entretien avec Louis Devillaine

Qu’est-ce que l’intelligence artificielle (IA) ?
Il n’est pas évident de répondre à cette question, parce que le sens donné à l’IA dépend d’abord de la personne qui l’emploie et du message qu’elle veut faire passer. L’IA est à l’origine une discipline scientifique qui naît en 1956 lors de la conférence de Dartmouth, sous l’impulsion de jeunes chercheurs, John McCarthy et Marvin Minsky, qui souhaitent étudier comment faire réaliser par des machines et de manière quasi automatisée, des tâches jusqu’alors réservées aux humains : résolution de preuves mathématiques, traitement d’image, traitement de la parole. Ils construisent pour chacune de ces tâches différents algorithmes, c’est-à-dire des suites finies d’instructions claires qui permettent de donner un résultat à partir d’une entrée. à ce stade, l’IA est ainsi la science qui s’attache à résoudre des problèmes par des moyens algorithmiques.

« Un défaut majeur des techniques d’IA est leur manque “d’explicabilité”. »

Dans les années 1960, le sens d’intelligence artificielle va commencer à se transformer, de manière subtile et continue. Jean-Gabriel Ganascia explique très bien ce phénomène dans Le Mythe de la singularité (Seuil, 2017). On parle alors d’une IA forte qui, à l’inverse des techniques précédemment évoquées, serait capable de comprendre le sens des paramètres et des problèmes qu’elle traite. Il est intéressant de voir le basculement, depuis l’IA comme discipline, vers l’IA comme entité à part entière. Celui-ci a été nettement facilité par tous les films et livres de science-fiction qui ont fait voir l’IA à travers ce prisme. Mais aujourd’hui, les deux sens coexistent, ce qui participe à une forme de confusion générale.

En quoi l’intelligence artificielle actuelle est-elle radicalement différente de celle d’il y a vingt-cinq ans ?
Ce qui a changé, ce ne sont pas tant les méthodes utilisées, que les moyens de les mettre en œuvre. On dispose aujourd’hui de capacités de calcul et de stockage gigantesques d’un ordre de grandeur bien supérieur à celles du siècle dernier. D’autre part, le nombre de données (textes, vidéos, données issues de capteurs) que l’on collecte est tout aussi faramineux : l’ancien P-DG de Google, Eric Schmidt, estime que l’on produit tous les deux jours autant de données que ce que l’humanité tout entière a fait de son aube jusqu’à 2003. C’est dans ce contexte qu’a pu se développer l’IA qu’on appelle non symbolique, et représentée notamment par les réseaux de neurones. Cette structure algorithmique, inspirée du cerveau humain, n’en est pourtant qu’une pâle imitation qui ne peut, il faut le souligner, prétendre à en expliciter le fonctionnement. Abondamment utilisés aujourd’hui, les réseaux neuronaux trouvent leurs origines dans les années 1950, sont formalisés autour de 1986, et sont presque oubliés avant d’être remis au goût du jour il y a une dizaine d’années, grâce aux performances de calcul et de collecte de données actuelles, sans lesquelles ils ne pourraient pas donner de résultats probants.

« Les données qui servent à entraîner les algorithmes – et vont donc déterminer entièrement la teneur de leurs résultats –, sont constituées, sélectionnées, traitées avant même d’être fournies à la machine. »

Qu’est-ce que l’apprentissage machine et l’apprentissage profond ?
L’apprentissage machine (ou machine learning) est une sous-discipline de l’intelligence artificielle, dans laquelle, comme son nom l’indique, existe une phase d’apprentissage, que l’on appelle l’entraînement. L’objectif de l’entraînement est de faire repérer par le programme des motifs statistiques à l’intérieur d’une base de données, en vue d’effectuer des tâches de prédiction ou de décision. Pour être plus clair, prenons l’exemple d’un algorithme d’apprentissage machine dédié au diagnostic du cancer du poumon. On fournit à cet algorithme une base de données, c’est-à-dire un tableau comportant des individus (des patients) avec des variables associées (âge, poids, taille, fumeur ou non, antécédents, ainsi que la variable à prédire : malade ou sain). À l’aide d’une analyse purement mathématique codée par le concepteur, le programme corrèle certaines variables et la variable à prédire. Il peut, par exemple, mettre en valeur que la variable « fumeur » est corrélée à la variable « malade du cancer du poumon », ce qui signifie que plus l’on fume, plus on a un risque d’être malade. Cela ne signifie cependant pas qu’être fumeur cause la maladie : il s’agit seulement de corrélations et la machine ne peut établir de liens de cause à effet.

« Il ne faut pourtant pas oublier que le programme est codé par des humains, qui peuvent lui transmettre leurs propres biais. »

L’apprentissage profond (ou deep learning) est lui-même une sous-forme de l’apprentissage machine, imitant des modèles de communication du système nerveux, notamment en vue de reconnaissance d’images ou de sons. Les techniques d’apprentissage profond sont plus complexes et les traitements de données effectués, bien qu’ils soient lisibles ligne à ligne, y sont souvent difficiles à comprendre d’un point de vue global, même pour le concepteur du programme, du fait d’un haut niveau d’abstraction.

De qui doit-on plutôt se méfier : des IA actuelles ou de leurs promoteurs dominants ?
L’IA est un outil comme un autre et il est crucial d’être conscient de ses failles pour effectuer un travail rigoureux. Dans de nombreux domaines, elle donne des résultats très encourageants pour améliorer le niveau de vie : effectuer des tâches ingrates, diagnostiquer des maladies, prédire des catastrophes naturelles.
Il ne faut pourtant pas se leurrer. L’utilisation abondante de l’IA rentre également dans une logique d’optimisation toujours plus poussée des activités humaines, ce qu’Éric Sadin décrit avec beaucoup de détail dans L’Intelligence artificielle ou l’enjeu du siècle (L’Échappée, 2017). Ces méthodes permettent de collecter toujours plus de données, de proposer des publicités toujours plus ciblées, et de s’introduire toujours plus insidieusement dans le quotidien de chacun. En ce sens, le déploiement massif de l’IA est aussi un moyen efficace de maximiser un profit. Il semble ainsi sage de faire la part des choses et d’évaluer, selon la tâche et l’objectif, à quel point l’utilisation de l’IA est judicieuse ou non.

Quelles sont les limites actuelles de l’IA ?
On peut avoir tendance à attribuer un caractère omniscient à l’IA : la machine dit, or la machine sait, donc c’est vrai, et elle a raison. Certes, en termes de calcul pur, la machine ne se trompe quasiment jamais. Il ne faut pourtant pas oublier que le programme est codé par des humains, qui peuvent lui transmettre leurs propres biais. Les données qui servent à entraîner les algorithmes – et vont donc déterminer entièrement la teneur de leurs résultats – sont constituées, sélectionnées, traitées avant même d’être fournies à la machine. Ces étapes ne sont pas sans importance ; par exemple, en 2018, une voiture autonome pilotée par un dispositif d’IA percute Rafaela Vasquez, qui marchait sur le passage piéton, et la tue. Le véhicule ne s’est pas arrêté car il n’a pas reconnu l’obstacle qu’elle représentait. En effet, Mme Vasquez marchait à côté de sa bicyclette mais le programme, capable de reconnaître des entités du type « piéton » ou « cycliste », n’avait pas été entraîné sur des obstacles labellisés « piéton à côté du cycliste ». Si les concepteurs du programme avaient pensé à cette possibilité, ils l’auraient sans doute implémentée et l’accident n’aurait pas eu lieu. Cet événement pose par ailleurs la question de la responsabilité : en cas de défaillance, qui est responsable ? Des tentatives de donner un statut juridique au robot ont échoué dans l’Union européenne : la faute incombe à un humain, bien que seule une expertise a posteriori permette de statuer sur lequel.

« L’objectif de l’entraînement est de faire repérer par le programme des motifs statistiques à l’intérieur d’une base de données en vue d’effectuer des tâches de prédiction ou de décision. »

Un défaut majeur des techniques d’IA est leur manque « d’explicabilité ». Il n’est pas toujours possible de comprendre pourquoi on obtient un résultat plutôt qu’un autre. Pour la plupart des mé­thodes d’IA, on ne peut pas construire d’arbre de décision du type « Si… alors… » qui permette d’aboutir à un résultat à partir de données initiales, comme le ferait un médecin qui observe chez son patient certains symptômes particuliers justifiant son diagnostic. C’est un problème majeur lorsqu’il s’agit de donner confiance en la machine. On parle souvent d’un compromis performance contre explicabilité, au sens où plus un programme est performant, moins il est aisé de saisir les raisonnements sous-jacents. Cela tient au fait que la performance n’est évaluée que sur des résultats bruts (capacité à prédire correctement), alors qu’il serait tout aussi envisageable d’affirmer qu’un algorithme performant, c’est un algorithme que je comprends. 

Louis Devillaine est ingénieur, doctorant en sociologie des techniques à l’université de Grenoble.

Propos recueillis par Pierre Crépel et Fabien Ferri.

NDLR. En 2018, le mathématicien et député Cédric Villani rendait public un rapport sur l’intelligence artificielle, à la demande du président de la République. Ce rapport contenait certaines propositions intéressantes auxquelles il n’a, semble-t-il, guère été donné suite. Pour une analyse de ce document, le lecteur pourra se reporter à l’article de Yann Le Pollotec sur le sujet, publié dans La Pensée, n° 396 (octobre-décembre 2018), p. 73-85.

Cause commune n° 25 • septembre/octobre 2021