Par Christophe Chantereaux, Administrateur de la Chaire de Sécurité Globale à l’UTT ENSP de Lyon
L’IA, des attentes à la mesure des définitions qu’on en retient
Le 7e art comme la littérature ont donné au public une image déformée de l’IA depuis 1956, où le terme apparaît lors de la conférence de Dartmouth (USA)[1]. D’emblée, la tendance à l’anthropomorphisme a fait naître de fausses idées sur ce qu’on pouvait alors attendre de cette discipline.
De la technologie dont on dispose pour la mettre en œuvre ou des objectifs auxquels on la destine, l’IA offre une vision changeante pour le néophyte. S’il existe plusieurs définitions de l’intelligence humaine (IH), il est communément admis que cette dernière recouvre les activités d’apprentissage, de raisonnement, de compréhension, de perception de la réalité, de vision des interactions entre des données, de prise en compte du sens général de l’information ou encore de la distinction entre les faits et les croyances.
Quant à comparer l’IA et l’IH, le débat est ouvert et deux écoles se divisent toujours sur le sujet : d’un côté, les tenants de la singularité de l’IA (nom donné au moment où elle prendra le contrôle sur l’homme selon eux) et de l’autre, des penseurs plus circonspects sur une possible occurrence de cette révolution.
Luc Julia[2], Jean-Gabriel Ganascia[3] ou encore Albert Moukheiber [4] font par exemple figure de références parmi ceux qui remettent en perspective le terme même d’intelligence pour l’IA. Le philosophe Éric Sadin[5], lui aussi, nous rappelle que l’idée d’une intelligence computationnelle modélisée sur celle de l’humain est une erreur dans le sens où les deux intelligences ne présentent presque aucun rapport de similitude.
L’IA s’articule autour de plusieurs disciplines, dont le machine learning (ML) et le deep learning (DL). La première consiste à apprendre à un programme informatique à réaliser une tâche pour laquelle il n’est pas programmé à l’avance. Il apprend grâce à des données pour, par exemple, catégoriser un e‑mail comme spam.
La deuxième repose sur une technologie qu’on compare souvent au cerveau humain, et s’applique à des quantités de données plus importantes.
Le DL se réfère à des réseaux construits avec des calculateurs appelés neurones (mais qui n’ont rien de biologique, contrairement aux neurones du cerveau humain) et des synapses (des supraconducteurs qui, eux non plus, n’ont rien de biologique).
Les neurones sont des bijoux de technologie et le processus ne fait que suivre des équations créées par l’humain (fussent-elles complexes).
L’IA pourrait alors se définir comme une famille de disciplines fondées sur des processus mathématiques et technologiques qui visent à accomplir des tâches de façon de plus en plus autonome.
Un état des lieux difficile à discerner tant les évolutions sont rapides et incontrôlées
Le projet Manhattan (1943) est le nom du programme qui mettra au point les premières bombes atomiques de l’histoire. Pendant cette période, les États dirigeaient les recherches sur l’arme nucléaire et la sécurité au sens large. Ce n’est qu’en 1957 que l’Agence internationale de l’énergie atomique (AIEA) sera fondée. Son objectif est encore aujourd’hui de promouvoir les usages pacifiques de l’énergie nucléaire et de limiter le développement de ses applications militaires.
Par analogie, dans un contexte où la convergence des nanotechnologies, des biotechnologies, de l’informatique et des sciences cognitives (NBIC) est formidablement illustrée par l’IA, notons qu’aucune structure de régulation/certification de la discipline ne semble émerger malgré les enjeux sécuritaires. Par ailleurs, dans ce cas, la recherche est majoritairement conduite par le secteur privé.
Si en France, le CNAPS régule le secteur de la sécurité privée, celui de l’IA appliquée à la sécurité semble moins soumis aux exigences de contrôle. En effet, comment ont été vérifiées les données d’entrée du système ? Ces données sont-elles mensongères ? Des omissions volontaires, des erreurs de perspective ou des biais apparaissent-ils ? Les données relatives à la compréhension du cadre de référence sont-elles identifiées ?
Un angle mort existe sur ces systèmes sociotechniques : les plus puissants sont aussi les moins explicables.
Potentialité sans confiance ?
Alors, il convient donc de convoquer la notion de confiance. Cette notion est le sujet d’un foisonnement d’études. On observe une large diversité de perceptions, dont le caractère pléthorique est renforcé par l’existence de « plusieurs formes et de plusieurs objets de confiance[6] ».
On peut distinguer la confiance en une personne, en ses capacités, en un système ou encore en des attitudes. Pour les psychologues, elle procède d’une croyance enracinée dans la personnalité des individus. Pour les sociologues, il s’agirait plutôt d’un phénomène lié aux interactions intra et interinstitutionnelles. Enfin, les psychosociologues définissent la confiance en termes « d’espérance et de consentement d’un tiers qui s’engage dans une transaction[7] ».
Morton Deutsch[8] associe les risques et les facteurs contextuels comme source de modulation de la confiance envers un individu (relativement à la vulnérabilité de ce dernier).
Pour Olivier E. Williamson[9], la confiance dite « institutionnelle » se manifeste par le recours des partenaires à des institutions (ou à des lois et des cadres réglementaires). Typiquement, le CNAPS est un organisme qui s’inscrit dans cet esprit : les acteurs du secteur de la sécurité privée lui accordent leur confiance pour la régulation de leur activité.
La confiance humaine « contient en elle-même le germe de la trahison[10] » ; aussi, avoir confiance revient « à admettre la possibilité du changement, de la trahison ou du revirement[11] ».
Contrairement au modèle de la foi en Dieu, faire confiance à quelqu’un implique une forme de dépendance à l’égard de ses compétences, de sa fiabilité et de sa bonne volonté. Ainsi, avoir confiance ne reviendrait pas à bénéficier de l’assurance absolue que le concepteur d’un produit ou d’un service fondé sur l’IA est irréfutablement infaillible. Gageons qu’il s’agit là d’un paradoxe en matière de sécurité.
Véronique Margron corrobore cette idée en affirmant que « seul le Christ est tout entier dans la vérité[12] » et d’ajouter que la confiance « ne peut survivre que lorsqu’on accepte que chaque personne ait ses zones d’ombre et ses faiblesses ».
Aussi devrions-nous lire la question des potentialités de l’IA au travers du filigrane de celle de la confiance qui lui est attribuable.
Conclusion
Entre fantasme et potentialité : le caractère exact des mathématiques dans les algorithmes serait contrebalancé par les biais cognitifs du cerveau qui les a conçus et du contexte dans lequel il les a conçus (connaissances académiques du concepteur, cadre légal, réglementaire, économique, politique…).
Sans doute, un équilibre devrait être trouvé entre puissance et explicabilité pour évaluer le potentiel économique d’un produit ou d’un service fondé sur l’IA.
————————————————————————————————————————–
[1] Atelier scientifique organisé durant l’été 1956, considéré comme l’acte de naissance de l’intelligence artificielle en tant que domaine de recherche autonome.
[2] JULIA Luc, L’intelligence artificielle n’existe pas, First éditions, 2019, ISBN 241204340X.
[3] GANASCIA Jean-Gabriel, Le Mythe de la singularité : faut-il craindre l’intelligence artificielle ?, Seuil, 2017, ISBN 2021309991.
[4] MOUKHEIBER Albert, Votre cerveau vous joue des tours, Allary Éditions, 2019, ISBN 2370732601.
[5] SADIN Éric, L’Intelligence artificielle ou l’enjeu du siècle : anatomie d’un antihumanisme radical, L’échappée, 2018, ISBN 2373090503.
[6] SIMON Éric, « La confiance dans tous ses états », Revue française de gestion, 2007/6 (no 175), pp. 83-94, Éditions Lavoisier, DOI : 10.3166/rfg.175.83-94.
URL : https://www.cairn.info/revue-francaise-de-gestion-2007-6-page-83.htm
[7] Ibid.
[8] Morton DEUTSCH, 1920-2017, est un psychologue américain et chercheur en résolution de conflit. Il est notamment l’un des fondateurs de ce domaine.
[9] Oliver Eaton WILLIAMSON, 1932-2020, est un économiste américain connu pour son travail réalisé sur la théorie des coûts de transaction.
[10] HILLMAN James, La Trahison et autres essais, Payot, 2004, p. 16, ISBN 2228898074.
[11] MARZANO Michela, « Qu’est-ce que la confiance ? », Études, 2010/1 (Tome 412), pp. 53-63, Éditions SER, DOI : 10.3917/etu.4121.0053.
URL : https://www.cairn.info/revue-etudes-2010-1-page-53.htm
[12] MARGRON Véronique, La Douceur inespérée, Bayard, 2004, p. 82, ISBN 2227471662.