Retour sur la conférence du 29 mai 2018 sur l'Intelligence Artificielle

 

L’ESLSCA Business School Paris a tenu le 29 Mai 2018 une conférence sur l’Intelligence Artificielle (IA). Si vous n’avez pas pu y assister, en voici un petit résumé.

 

Quatre perspectives et quatre grandes étapes de l’histoire de l’intelligence artificielle y étaient discutées. Grand témoin, et ancien élève de l’ESLSCA (Promo 87), Xavier Cazin, SaaS Leader d’IBM France ouvrit ce workshop en replaçant dans le contexte la poussée de l’informatique dématérialisée qui a facilité l’avènement de l’IA, en expliquant comment le Software as a Service (Saas) a profondément transformé les entreprises et les acteurs des technologies de l’Information, les modes de travail, et a permis cette dématérialisation processuelle qui permet la forte démocratisation de l’intelligence artificielle et des data sciences. Le Cloud permet la dématérialisation et la décentralisation des calculs intensifs que consomme l’intelligence artificielle, mais aussi à tout un chacun d’utiliser des fonctions d’intelligence artificielle « comme un service ».

 

Philippe Baumard, Directeur de la Recherche à l’ESLSCA Business School Paris, poursuivait cette conversation en rappelant que cette « abstraction de l’intelligence » -- cette désincarnation de formules mathématiques permettant de résoudre des problèmes humains -- est à la fondation de l’humanité notamment code Hammurabi, où les règles de partage, de commerce ou de propriété, sont déjà des algorithmes qui permettent de faire de la résolution mathématique un vecteur de gestion de la société. Le Professeur Baumard rappelle ainsi que la naissance que l’algèbre d’Al-Khawârizmî (813-833) relevait déjà d’une algorithmique visant à régler des problèmes du quotidien, tels que le commerce, la topographie ou le partage d’héritage. Il y a « intelligence artificielle » dès lors que l’homme introduit un système de calcul qui permet de séparer la discrétion humaine et de dépersonnaliser (ou désacraliser) la résolution d’un problème (substitution mathématique).

 

Si l’intelligence artificielle a toujours été une inspiration humaine, et fut même, avec Simon et Newell une des pierres fondatrices des sciences de gestion, l’intelligence artificielle dont nous sommes actuellement les témoins est très différente de l’intelligence logique et symbolique poursuivie par les pionniers de l'IA.

 

L’Intelligence symbolique vise à donner à une machine la capacité à conduire des raisonnements proches (ou supérieures) à ceux des humains. Elle vise à identifier et à générer des causalités, et à générer un pouvoir explicatif.  Elle cherche à transférer à une machine ce que peut faire un humain, et son accomplissement peut être mesuré par un simple test de Turing.

 

L’Intelligence artificielle connexionniste, celle du Deep Learning, des réseaux de neurones convolutionistes (ConvNets), comme le disait Yann LeCun lors de sa leçon inaugurale au Collège de France, réalise le chemin inverse. Elle repose sur l’idée que le monde est ; par nature, compositionnel, et elle cherche donc, en s’inspirant du modèle biologique du cerveau humain, à « retrouver » ce monde à partir de ses morceaux épars (« edges »). Le Professeur Baumard explique que cette démarche est proche de celle de l’abduction de Blaug ; c’est-à-dire de retrouver par des sauts d’induction successifs, l’image du réel pouvant expliquer ses indices épars. Philippe Baumard nous montre ensuite combien cette forme d’intelligence artificielle est fragile, comment elle peut être facilement trompée, ou au contraire, parce qu’elle est si performante à imiter le réel, comment elle peut tromper un être humain, comme dans l’expérience de cette IA de Google qui appelle un coiffeur pour prendre un rendez-vous, sans que l’interlocutrice ne réalise qu’elle a affaire à une machine. Mais l’impersonation, l’imitation, repose un stratagème : l’utilisation d’un trait comportemental humain, le « hum », l’injonction verbale placebo d’hésitation, que l’on trouvait déjà dans le programme ELIZA de Weizenbaum en 1964 : un simple programme d’IA logique, imitant un psychothérapeute, interrompant son patient avec des « je comprends ».

 

 

https://www.youtube.com/watch?v=yv_8dx7g-WA

 

 

Cette difficulté à distinguer l’humain de la machine est mise en exergue par le troisième intervenant de notre soirée IA, M. Ronan Mouchoux, expert en cybersécurité au sein de l’unité d’élite de Kaspersky, le laboratoire GreAT. Ronan Mouchoux rappelle avec une certaine ironie que dans la cybernétique de Wiener, les hommes et les machines ne font qu’un, ce qui semble être la prémonition la plus valide de l’inventeur de la cybernétique. Car dans le monde du hacking, qui a longtemps été un écosystème laborieux où une expertise humaine rare se battait contre des codes détournés à des fins malveillantes, la révolution de l’intelligence artificielle est également en marche. Et là aussi, la frontière entre le fait-humain et le fait-machine est de plus en plus difficile à distinguer.

 

Ce point sera magistralement mis en perspective par notre quatrième intervenant, M. Pascal André, Directeur de Mission du Cabinet Plein Sens. L'Intelligence Artificielle nous confronte à 2 choses, l'outil incompréhensible (par nous) et l'outil indiscernable (de nous)

  • Qu'est-ce qu'il advient à une société de citoyens qui s'entourent d'un environnement d'outils hyper-familiers et apparemment ultramaniables et en même temps dont le fonctionnement leur échappe complètement ? Pour moi, c'est la perspective d'une entrée dans une nouvelle ère de pensée magique.
  • Qu'est-ce qu'il advient à un collectif humain, lorsque l'élément anthropologique de base de ce qui fait société, en l'occurrence "l'interaction", n'est plus seulement médié par des outils mais est susceptible d'être "remplacé" par un non humain ?

 

 

La conférence se conclue par un dialogue vivifiant avec l’audience, notamment sur les implications des modèles économiques sous-jacents à ses différentes évolutions de l’IA, IA Logique, IA Heuristique ou IA Connexioniste. Le panel conclue qu’une IA qui privilégie la création de valeur par la recherche d’une heuristique ancrée dans la société et dans la résolution de ses problèmes, à l’opposé d’une IA qui imite l’homme, le leurre, et dont le modèle économique repose sur la capture de données personnelles, est une voie d’espoir pour l’intelligence artificielle, et la transformation positive qu’elle peut apporter à nos sociétés.

 

L’ESLSCA Business School Paris remercie chaleureusement les intervenants Pascal André, Philippe Baumard, Xavier Cazin et Ronan Mouchoux d’avoir contribué à cette conférence novatrice qui est de plus en plus ancrée dans les problématiques des entreprises.

 

Pour en savoir plus:

 

Mark Blaug, Economic Theory in Retrospect, Cambridge, Cambridge University Press, 1978.

 

Yann LeCun, L'apprentissage profond : une révolution en intelligence artificielle, Leçon inaugurale au Collège de France ; du 4/02/2016 http://www.college-de-france.fr/site/yann-lecun/inaugural-lecture-2016-02-04-18h00.htm

 

Hannah Arendt, La crise de la culture, Paris : Gallimard, 1972.

 

Francisco Varela, Autonomie et connaissance, LeSeuil, 1989.

 

Stibe, A., Kjær Christensen, A.K., & Nyström, T. (2018). « Transforming Sociotech Design » In: Ham J., Karapanos E., Morita P., Burns C. (eds) Adjunct Proceedings of Persuasive Technology  2018.

 

Philippe Baumard, « La compromission numérique, nouvelle incrimination principielle? », Archives de philosophie du droit, Nº. 59, 2016, pp. 237-248.