Quand la beauté de la technologie et la force du message ouvrent la voie à une série d’articles d’analyse des exposants du Showroom technologique mutualisé du Playground Paris-Saclay. Des technologies au fil de l’histoire présente les innovations du Showroom dans une vision historique. Le retour aux grands noms, les notions clés et les étapes du développement scientifique y serviront à contextualiser ces innovations récentes, à les réinscrire dans un continuum d’idées révélant encore plus leur beauté et leur complexité. Cette approche saura souligner le lien entre la profondeur des sciences fondamentales nécessitant souvent des décennies de recherche académique et le pouvoir des sciences appliquées de répondre aux défis contemporains via une alliance avec le monde industriel.

(Rassurez-vous, ce scénario n’a rien d’un dernier Marvel)

Depuis les temps mythologiques, l’homme questionne incessamment l’origine de la vie et de son intelligence – deux thèmes majeurs qui animent à travers les époques les scientifiques, les philosophes et les religieux. A l’appui de deux start-up deeptech, AI-vidence et Learning Robots, actuellement en exposition dans le Showroom technologique de Paris-Saclay, nous vous invitons à réunir mathématiciens, informaticiens, sociologues et juristes « autour d’une table » afin de demander ses comptes à l’IA. Nous nous aventurerons sur les terres défendues de l’histoire de la technologie qui fascine autant qu’elle effraie et irons, reprenant les thèses de nos chercheuses et chercheurs, questionner notre propre intelligence et celle de notre créature.

L’Intelligence Artificielle antique

Cette histoire peut être commencée par l’homuncule des alchimistes (une sorte d’« androïde » avant l’heure), avec la première expérience attestée de Zosime de Panopolis au 3ème siècle après J-C, en Haute-Egypte, qui traduit cette volonté d’insuffler la vie dans un corps modelé en terre. D’inspiration chrétienne rappelant la création d’Adam, cette tentative de faire germer une vie de manière artificielle est précédée du mythe de Galatée et Pygmalion. Celui où le sculpteur cisèle en ivoire un corps plein de grâce auquel Aphrodite, émue par l’amour que le jeune grec voue à son propre chef-d’œuvre, donne la vie. Connue en Occident à travers la mythologie grecque, l’histoire ovidienne trouverait ses origines en Berbérie préhistorique, selon la thèse de Julien d’Huy, Docteur en histoire (Collège de France).

Si la méthode des alchimistes, aussi étonnante qu’elle puisse paraître par rapport au savoir occidental contemporain, les positionne néanmoins aux prémices de l’approche expérimentale scientifique, le souffle divin, qu’il soit produit par Aphrodite ou une divinité antique plus exotique pour nous, nous ramène à l’impuissance de l’homme de se produire une copie de manière artificielle. Une contradiction, mais aussi une quête sans fin ? Aujourd’hui nous nous sommes vertigineusement rapprochés du seuil où rendre réel un mythe deviendrait possible. La science nous propulserait ainsi aux rangs des démiurges et, au sommet de la gloire, il faudrait endosser la responsabilité qui incombe aux dieux : celle du monde que l’on crée. Mais avant de mesurer ce poids, quittons les rives du vieux monde afin de rencontrer les participants de la conférence de Dartmouth qui ont signé en 1956 l’acte de naissance de l’intelligence artificielle.

The star is born par un effort d’une intelligence collective

Au début des années 1950, le terme d’IA n’existait pas encore, mais le monde de la recherche dans les domaines associés était en plein bouillonnement. Plusieurs scientifiques ont développé concepts, outils et théories qui en ont préparé le terrain. En 1947, Norbert Wiener, mathématicien américain, pose les bases de la cybernétique [1] lors des conférences Macy réunissant de brillants scientifiques dans une approche transdisciplinaire. Neurologues, mathématiciens, logiciens, anthropologues, psychologues cherchent ensemble à percer le fonctionnement de l’esprit. En mathématiques, la théorie des automates, réunit plusieurs branches de l’informatique théorique dont la calculabilité d’inspiration Turing. En psychologie cognitive, le traitement de l’information [2] est défini par Claude E. Shannon, mathématicien et ingénieur, l’un des signataires de la naissance de l’IA à Dartmouth, comme conversion de l’information latente en information manifeste.

Le vaste ensemble de disciplines, de noms, d’approches et de pays accompagnent l’émergence de l’IA, et pas uniquement sur le continent américain. En Europe, parmi les chercheurs ayant fait un apport magistral dans le champ conceptuel du réseau de neurones artificiels, il faut citer en priorité le professeur Finlandais Teuvo Kalevi Kohonen, qui élabore un algorithme nommé Learning Vector Quantization, basée sur la quantification vectorielle [3], et le chercheur soviétique Alexander Galushkin [4]. Néanmoins, deux noms états-uniens restent centraux pour l’histoire du domaine, celui de Marvin Lee Minsky et de John McCarthy. Les deux ont été organisateurs et architectes de la conférence de Dartmouth et ont signé, avec Nathan Rochester et Claude Shannon, la fameuse proposition pour l’école d’été en intelligence artificielle. Le terme, inventé par John McCarthy, devient ainsi officiel et consacre un domaine qui connait…autant de percées fulgurantes que de chutes abyssales, une image contrastée que nous, contemporains de la nouvelle entrée en puissance de l’IA, n’avons pas forcément en tête.

Saru mo ki kara ochiru / Même le singe tombe de l’arbre

Proverbe japonais pour dire « personne n’est parfait »

Après la conférence de Dartmouth en 1956, l’IA devient une discipline académique à part entière. John McCarthy et Marvin Minsky fondent le Groupe d’Intelligence artificielle au sein de MIT. Pour l’époque, les progrès sont fulgurants et le domaine suscite un enthousiasme sans commune mesure dans la société. Les machines deviennent « intelligentes » et, après la solution de problèmes algébriques, dans les années 1960, les chercheurs attendent d’elles des succès comparables en traduction automatique. Or, en 1966 cette entreprise échoue. De surcroît, Marvin Minsky critique le courant neuronal et les perceptrons organisés en couches binaires sur lesquels reposent le deep learning d’époque. La discorde qui en résulte dans les milieux scientifiques est révélée au public élargi par la presse. S’ensuivent les coupes budgétaires. Dans les années 1970, le domaine entre dans le stade appelé « AI winter », l’hiver de l’IA.

Tombée en disgrâce des financeurs, l’IA fait un retour fracassant en 1982…mais plus dans le monde anglo-saxon. La jeune puissance industrielle japonaise, forte de son boom de technologies de rupture désire en faire son projet du siècle : les systèmes informatiques de la cinquième génération dont le développement R&D est confié à ICOT, Institut for New Generation computer technology, créée spécialement pour cette occasion. Exigé par le gouvernement de l’Empire du Soleil Levant, un programme de recherche accélérée se lance avec comme objectif la création d’un ordinateur surpuissant doté d’une intelligence artificielle performante. Fait remarquable : l’approche alors reposait sur des principaux logiques, et le langage de programmation français PROLOG en était un élément essentiel. Les ambitions de ce programme décennal reflétaient la rapidité avec laquelle le Japon a su percer sur le marché international, mais ont été décorrélées du réel état de l’art. Le cout de l’erreur s’éleva à 320 millions de dollars américains. Ce que le Ministère du Commerce International et de l’Industrie exigeait des informaticiens japonais devient peu à peu possible uniquement au XXI siècle, et encore.

Vers l’IA éthique : enjeux sociétaux et réponses des acteurs de Paris-Saclay, Ai-vidence et Learning Robots

Au-delà d’une analyse technique, l’expérience d’ICOT démontre l’importance du fort ancrage des projets innovants dans le paysage sociétal et la nécessité d’une vision critique pour mener à bien les œuvres d’une grande ambition. A Paris-Saclay, nous avons un exemple du territoire qui se crée avec une approche systémique, prenant en compte la complémentarité et la diversité des acteurs qui choisissent de s’y implanter suivant le plan de l’opération d’intérêt national, le plus vaste programme d’aménagement d’Europe. A l’échelle plus petite, mais non moins sérieuse, les chercheuses et chercheurs du territoire se lancent dans l’aventure entrepreneuriale avec une vision globale de la société, une passion pour le métier et des engagements forts.

Les spécialistes de l’IA vont souvent au-delà du travail mené au sein des laboratoires et proposent des conférences publiques, s’expriment sur les médias, rédigent des livres pour nuancer la perception souvent polarisée de l’IA. Prenons l’exemple de Laurence Devilliers, chercheuse du laboratoire LIMSI-CNRS, spécialisée en traitement des émotions dans l’interface Homme-Machine. Maître de conférences (HDR) depuis 1995, elle intervient régulièrement sur un nombre de plateformes (chaînes youtube, articles de presse, radio) pour parler de l‘éthique en IA et en robotique. Son œuvre pour la médiation en sciences informatiques et sociales peut également être lue sous forme de livres, notamment Les robots « émotionnels ».

Mais il y a des chercheurs, ingénieurs et autres experts en informatique qui choisissent une manière alternative de s’adresser à la société. Il en résulte des fois des performances surprenantes par leur profondeur et créativité. Pour la troisième édition de start-up dans l’exposition du Showroom technologique de Paris-Saclay, nous en avons choisi deux en IA éthique, faisant exception à la règle stipulant qu’il faut sélectionner une start-up par filière afin de donner l’image la plus complète possible du paysage académique et industriel de Paris-Saclay. Mais les enjeux de la réflexion multilatérale sur les problématiques éthiques et morales de l’IA sont trop importantes pour les couvrir avec un seul exemple. Laissez-nous donc vous présenter d’abord Learning Robots, proposant robots, logiciels et formations à l’IA, œuvre de Thomas Deneux, Axel Haentjens et l’équipe ; et puis Ai-vidence, du domaine de XAI, l’explicabilité de l’IA, le fruit du travail de David Cortès, Laurent Michel et Pierre Hulot.

Les produits de deux start-up sont fort différents, cependant une approche philosophique, des questionnements posés sur l’insertion des technologies de pointe dans l’espace de nos vie les unissent. Afin de préparer cette exposition du Showroom technologique, nous sommes allés interviewer les deux équipes. « Quel avenir souhaitable pourrions-nous construire avec les outils de l’Intelligence Artificielle ? » pourrait être une question clé de ces deux échanges. Les réponses varient selon le domaine d’applicabilité du savoir-faire des start-up. Thomas Deneux, depuis sa résidence scientifique au NeuroPSI, Institut de Neurosciences à Saclay, propose de maîtriser l’intelligence artificielle en entraînant un petit robot AlphAi. C’est notre premier exemple de l’ouverture possible de la « boîte noire » de l’IA dans cet article. Mais quel en est l’enjeu ? Pourquoi en déchiffrer le contenu serait une affaire de public large, en plus des spécialistes ?

Refaisons un plongeon dans l’histoire du domaine pour retrouver une crise sociale aigue qui a été provoqué à Lyon par l’émergence des métiers à tisser programmables, la révolte de canuts de Lyon. Il s’agit d’une suite de révoltes, en 1831, 1834 et 1848. Ces épisodes déchirants ont été précédés par des soulèvements populaires violemment réprimés qui sont nés…d’une peur que les machines ne remplacent l’homme ! Une peur qui agite l’humanité à travers les siècles de l’ère industrielle. Les ouvriers redoutent que leurs métiers ne disparaissent suite à l’introduction sur le marché des métiers de Jacquard. Informer les ouvriers sur les enjeux d’utilisation de ces machines, leur permettre de prendre en main le pilotage de cet outil aurait pu, à l’époque, calmer les humeurs. Et bien curieusement, deux siècles plus tard, nous voyons apparaître les inquiétudes similaires de disparition des métiers et la crainte des bouleversements qui peuvent en suivre. Le problème peut être résolu à terme par les formations continues, certes, mais il faut du temps long pour apprendre des métiers très techniques en informatique. Pour cette raison, la start-up Learning Robots propose une solution pour expliquer dès maintenant au public large, allant de l’école primaire et jusqu’à l’âge avancé, l’Intelligence Artificielle et le deep learning à travers des expériences ludiques. Ces formations de pilotage de robots avec une composante visuelle claire et didactique préparent les jeunes, les professionnels d’autres domaines et toute la société, française et internationale, à marcher de l’avant. Nous aspirons donc, avec l’engagement de Learning Robots, à la transition sociale et professionnelle en toute sérénité.

Or, comme le défi est de taille, une seule brique ne suffira pas pour construire le nouvel édifice. Si une acculturation de tous à ces technologies est nécessaire, il est également nécessaire de compléter les approches, afin de déployer et d’utiliser des IA en confiance. Les besoins d’explicabilité des boîtes noires d’IA se déclinent principalement en vigilance éthique (alignement avec des valeurs affichées) pour les applications impliquant des humains, et en garanties de robustesse pour les systèmes critiques, et/ou autonomes du monde industriel. En 2024, les acteurs européens se verront obligés de s’adapter à un nouveau cadre législatif concernant l’utilisation de l’IA en entreprise, European AI Act. En découlera la nécessité de se rendre conformes aux exigences de la loi l’utilisation des outils IA par les entreprises de l’Union. Une évolution qui s’inscrit dans la continuité des exigences RGPD mais va plus loin : si les règles de collecte et de stockage de données sont complexes et multiples, les juristes d’entreprises savent les maîtriser. Or, expliquer la façon dont les IA utilisées traitent et opèrent les données est une autre paire de manches ! Ai-vidence vole à la rescousse des entreprises qui voient le sol vaciller sous leurs pieds. La start-up palésienne, résidente du Playground Paris-Saclay, propose un logiciel nommé AntakIA qui, en appliquant une approche dite régionale (découpe en parcelles, dans la continuité des approches méthodiques… cartésiennes !) , déchiffre la boîte noire de l’IA.

Un outil que l’on imagine très prisé par les data scientists dans les années à venir. Mais l’engagement des cofondateurs de la start-up, David Cortès et Laurent Michel, va plus loin encore. Il s’agit de passer du fonctionnement actuel, de création d’intuition artificielle à la substitution par des modèles de véritables intelligences artificielles, via un processus d’acquisition et de formalisation de nouvelles connaissances humaines, l’IA « intuition artificielle » n’étant finalement qu’une étape intermédiaire.  Une démarche qui a intéressé tant le régulateur financier (ACPR) que l’initiative nationale vers une IA de Confiance (Confiance.ai). Venez vite réserver votre visite dans le Showroom technologique de Paris-Saclay, agrémentée par l’échange avec nos start-up qui sauront répondre à toutes les colles sur l’explicabilité de l’IA comme pilier de l’IA éthique et les questions de confiance.

Pour toutes questions, y compris la réservation et les modalités de visite, adressez-vous à Natalia Buryka, autrice de cet article, ou bien à l’équipe communication de la SATT Paris-Saclay !

[1] Le terme « cybernétique » existe déjà (inventé au XIXème siècle), mais dans un autre domaine et ne signifie pas la même chose, Norbert Wiener déclare n’avoir pas eu connaissance de ce fait en 1947

[2] Il existe d’autres définitions associées à d’autres champs d’étude

[3 ] https://books.google.fr/books/about/Neural_Networks_Theory.html?id=ULds8NuzLtkC&redir_esc=y

[4] https://www.semanticscholar.org/author/A.-Galushkin/3279894