Des calculateurs numériques à l'IA
La machine a bien vaincu l’humain au jeu d’échecs en 1997. C’est l’année où Gary Kasparov a accepté de se frotter une nouvelle fois au supercalculateur d’IBM affûté pour la confrontation. Le premier match, l’année précédente, avait tourné à l’avantage du Russe. Le second match, lui, a constitué un point de bascule : la machine se montrait meilleure que le meilleur des êtres humains.
En cette même fin des années 90, les humains avaient pourtant péché par excès de pessimisme. Les estimations disant qu’il existe plus de parties de jeu d’échecs jouables (environ 10^120) que d’atomes dans l’univers observable (environ 10^82), et le jeu de Go proposant un nombre de possibilités de jeu littéralement issu d’un autre monde (de l’ordre de 10^600), la situation semblait pliée de ce côté-là.
C’était sans compter sur l’augmentation drastique, au début des années 2000, de la puissance des calculateurs numériques. Allant de pair avec l’accès, dès la fin de cette même décennie et grâce à Internet, à de grandes quantités d’informations, elle a permis, au prix d’une débauche de consommation énergétique, d’espérer matérialiser un autre ancien fantasme : celui de simuler le cerveau humain, du moins partiellement.
Intelligences artificielles ou simples automates ?
Dès les années 40, McCulloch et Pitts avaient mis au point un modèle mathématique efficace de neurone formel. Mais ce neurone formel n’avait vraiment d’intérêt que lorsqu’il était multiplié et connecté en des structures complexes, impliquant un nombre énorme de liens entre tous ces neurones artificiels. Il devenait alors possible, entre autres, d’alimenter des structures de calcul mimant des fonctionnalités de vision artificielle, permettant de faire un bond dans le domaine de la reconnaissance d’images.
Et fruit de ces avancées, en 2016, c’est effectivement un réseau de neurones qui s’est permis, contre toute attente, de battre les meilleurs joueurs de Go du moment. Moins de vingt ans après la défaite de Kasparov, un nouveau point de bascule apparaissait. Et avec lui, tout paraissait possible.
Ce qui semblait être le summum de l’Intelligence Artificielle en 1997 n’était alors plus considéré que comme un algorithme « classique ». Mais alors, serons-nous encore contraints de répéter la blague : “Quelle est la différence entre automatisation et Intelligence Artificielle ? L’automatisation c’est ce qu’on sait faire faire à la machine, l’Intelligence Artificielle c’est ce qu’on aimerait faire faire à la machine ?” Combien de temps nous sépare du moment où nous considérerons les I.A. les plus performantes d’aujourd’hui comme de simples automates ?
Difficile question, à laquelle il n’est en fait peut-être pas primordial de répondre, du moins du point de vue de l’ingénierie. Car ces dernières années ont aussi vu l’émergence des Smart Objects, domaine très présent dans nos thématiques R&D à l’ISEN Méditerranée. Ce domaine se doit de mêler « intelligence » et frugalité énergétique. Et dans cette situation, on préférera un algorithme simple, peu coûteux en énergie et en ressources, à un algorithme à la mode mais dévorant les transistors et les kilowatts au petit déjeuner.
L'intelligence artificielle, un simple outil ?
C’est en tout cas une approche pragmatique et efficace, à une heure où nous cherchons toujours une définition claire de ce qu’est l’intelligence. Nos machines actuelles savent apprendre et s’adapter. C’est souvent suffisant pour résoudre nombre de nos problèmes. Nos techniques d’I.A. ne pourraient-elles donc pas être, comme le disait Benoît Mandelbrot à propos de ses chères fractales, « un outil que tout explorateur de l’univers emporte dans sa sacoche » ?
C’est en tout cas ce que nous essayons de mettre en œuvre à l’ISEN Méditerranée. Les racines de l’école plongent évidemment dans le matériel et le logiciel. Mais nous y avons aussi ajouté la prise en compte de l’énergie et de l’humain. Tout simplement pour continuer de résoudre des problèmes, sans en créer de nouveaux. Avec plusieurs outils, on peut se permettre de choisir celui qui répond au besoin, tout en nous autorisant à maîtriser les conséquences de nos choix technologiques. Ceci pour agir avec éthique et éviter la course futile au « toujours plus », sans qu’il soit besoin de plus.
Si les réseaux de neurones sont indispensables pour atteindre un objectif, alors utilisons ces réseaux. Si des techniques plus classiques comme les statistiques ou l’I.A. symbolique peuvent apporter leur lot d’avantages, tant du côté de la frugalité que de la sûreté de fonctionnement, alors tirons profit de ces avantages. Idem pour des techniques comme l’algorithmie génétique ou le renforcement d’apprentissage, etc.
Vers un meilleur usage de l'IA
Ainsi, là où les solutions analytiques ne suffisent plus, les simulations informatiques peuvent prendre le relai. Et là où ces dernières baissent pavillon, les algorithmes intelligents, dans leur grande diversité, peuvent à leur tour se révéler convaincants, voire décisifs. Toutes ces techniques sont donc des outils que nous voulons conserver dans notre sacoche d’ingénieur et de chercheur ; et que nous proposons bien entendu à nos élèves ingénieurs d’ajouter à la leur, en espérant que nous puissions tous en faire le meilleur usage qui soit.
Ghislain OUDINET, (ISEN Toulon 1998), Direction R&D ISEN Méditerranée et Docteur en analyse d’image.
Ingénieur ISEN Toulon diplômé en 1998, Ghislain a enchaîné sur une thèse mêlant analyse de matériaux nucléaires et reconstruction 3D à l’aide d’algorithmes génétiques. Il a alors rejoint l’ISEN Méditerranée pour se consacrer à la programmation à haute performance, l’IA. les architectures objet, etc. tant en enseignement qu’en R&D, R&D qu’il co-dirige depuis peu avec Thibaut Deleruyelle.