Les applications de l’intelligence artificielle ont fait leur chemin dans plusieurs des sphères de notre vie. Des systèmes de recommandations nous aident à choisir le prochain film que nous écouterons, des robots conversationnels gèrent nos interactions avec nos marques préférées…. Des machines sont même en mesure d’imaginer des oeuvres d’art!

On peut parfois avoir l’impression que l’intelligence artificielle est une discipline très récente. Et en effet, certains procédés, tels que l’apprentissage profond et les réseaux neuronaux convolutifs, se sont développés au cours des dernières années. Par contre, plusieurs techniques d’IA – pensons notamment aux machines à vecteurs de support, à la régression logistique ou à la recherche arborescente Monte Carlo – sont plutôt anciennes.

D’ailleurs, le terme ‘intelligence artificielle’ a été inventé il y a plus de 60 ans par John McCarthy lors d’une conférence à Dartmouth. Le concept a suscité un grand intérêt pendant quelques années mais le manque de résultats concrets a plongé l’IA dans une certaine ère glaciaire. Nous sommes donc en droit de nous demander légitimement s’il n’en sera pas encore de même aujourd’hui.

Voici trois raisons pour lesquelles nous sommes convaincus que l’hiver de l’IA est définitivement terminé (contrairement au nôtre qui s’étire)!

Mégadonnées et puissance de calcul

Deux éléments sont absolument essentiels à la création d’algorithmes IA de qualité: une grande quantité de données et des machines aux puissantes capacités de calcul.

En 1985, le superordinateur Cray-2, l’un des plus rapides au monde, présentait une capacité de 2.9 GFLOPS (2.9 milliards d’opérations par seconde). À titre comparatif, le Snapdragon 835, la simple puce du Samsung Galaxy S8, roule à une capacité de plus de 10 GFLOPS.

Les chercheurs manquaient aussi cruellement de données. Pour palier à cette réalité de l’époque, ils ont tenté de créer des systèmes reposant sur des règles prédéfinies, auxquels ils fournissaient des hypothèses, des éventualités et des déclarations conditionnelles servant à guider la prise de décision. Cette méthode a toutefois engendré des problèmes de qualification, comme il n’était pas possible pour les chercheurs de concevoir eux-mêmes toutes les règles nécessaires à la génération de modèles applicables à large échelle.

 

(Getty Images; TechCrunch) Left: The Pilot ACE supercomputer designed by Alan Turing in 1950. Right: Google’s Tensor Processing Unit hardware stack.

L’introduction des circuits électroniques intégrés propres à une application (ASICs), notamment dédiés à l’apprentissage profond, a permis à Google de bâtir des Tensor Processing Units (TPUs) roulant à 120 TFLOPs. Oui, le ‘T’ signifie bien Tera – cela veut dire que les nouveaux appareils de Google surpassent le Cray-2 par un facteur de 40000.

Au niveau données, il ne fait pas de doute que la prévalence des téléphones intelligents, des objets connectés et tout simplement d’Internet ont largement contribué à la multiplication exponentielle des données disponibles. En 1990, 100GB de données étaient produites chaque jour; aujourd’hui, on parle plutôt de 50000GB par seconde! Bien entendu, ces données sont, en vaste majorité, mal structurées, truffées d’erreurs et mal exploitées. Par contre, des équipes de plus en plus talentueuses de chercheurs sont en mesure de contourner le problème de qualification. Et leur travail n’est pas près d’être terminé, comme la prolifération des données et les progrès au niveau des capacités de calcul ne montrent pas de signes de fléchissement.

Modèles adaptables

L’approche des systèmes experts était très proéminente dans les années 80. Les chercheurs tentaient de distiller très précisément l’essence du processus décisionnel d’experts de façon à pouvoir le coder dans un ordinateur. Ceci avait pour but de rendre ces connaissances pointues accessibles, et d’automatiser la prise de décision.

XCON, un système servant à choisir les composantes électroniques nécessaires à l’agencement d’un ordinateur à partir des besoins d’un consommateur, a été conçu en 1978 et était composé de pas moins de 2500 règles de fonctionnement. Comme chaque règle a été rédigée manuellement, il était très difficile à la fois de mettre à jour et de déployer à grande échelle cette technologie. Malgré le grand niveau de précision de l’outil, et des économies générées de 20 millions de dollars par année, le système a dû rapidement être abandonné en raison de son faible potentiel d’adaptabilité.

 

(R. Ganesh Narayanan; Andrej Karpathy) À gauche: les systèmes experts requièrent une contribution externe et sont fort rigides; tout changement à l’algorithme doit être intégré manuellement. À droite: les réseaux neuronaux sont en mesure de s’adapter aux nouvelles données et peuvent représenter un univers dans toute sa complexité.

Non seulement les nouveaux algorithmes d’IA sont bien plus robustes que le système XCON, mais ils peuvent également être utilisés dans une pléthore de domaines variés. Comme les  réseaux de neurones profonds peuvent identifier les relations entre les facteurs sans intervention d’un expert, des algorithmes semblables sont utilisables à plusieurs sauces. Des techniques telles que la neuro-évolution permettent même aux algorithmes de pratiquement se bâtir eux-mêmes!

De plus, on peut constamment présenter à ces modèles des nouvelles données, qui leur permettront de s’adapter à un environnement en évolution tout en améliorant constamment leur niveau de précision. Ainsi, l’intelligence artificielle a atteint le niveau de performance d’un humain, ou même d’un super humain, dans une variété de tâches allant de la partie d’échec, à la reconnaissance d’image ou à la détection de tumeurs cancéreuses. Plusieurs de ces modèles émanent d’ailleurs de la même technologie de base.

Focus sur les résultats d’affaires

La recherche dans le domaine de l’intelligence d’affaires était autrefois largement financée par les gouvernements, et menée au sein des universités Carnegie Mellon, Stanford et MIT par exemple. Aux États-Unis, la DARPA (Defense Advanced Research Projects Agency) a traditionnellement été une des principales sources de financement, surtout pour des projets de robotique et de traitement du langage naturel.

D’un autre côté, des rapports rédigés par le comité consultatif sur l’automatisation du langage naturel datant de 1966 et par James Lighthill en 1973 critiquaient ouvertement les chercheurs pour leur incapacité à atteindre les ‘objectifs grandioses’ qu’ils s’étaient fixés. Plus spécifiquement, les algorithmes d’IA conçus à l’époque n’étaient pas en mesure de gérer le problème des explosions combinatoires puisque les résultats obtenus en laboratoire ne pouvaient pas être reflétés dans la réalité.

(CMU; Stradigi AI) À gauche: Herbert Simon en action dans un cours donné à des étudiants de la Carnegie Mellon University School of Computer Science À droite: Carolina Bessega, notre CSO, explique les rouages de l’IA à une assemblée de jeunes femmes leaders à la conférence Women Techmakers de Google à Montréal

La recherche en IA est bien différente de nos jours. Bien entendu, les universités sont toujours à l’avant-plan au niveau de la recherche. Par contre, de nombreuses industries, notamment dans les domaines de la technologie, de la finance et de la santé, participent activement aux efforts de recherche. Les universitaires les plus accomplis collaborent maintenant étroitement avec de grandes entreprises pour favoriser l’avancement de la recherche fondamentale et appliquée. Le financement est ainsi plus diversifié et moins à risque de disparaître brusquement, tout en favorisant le développement d’applications IA concrètes pour le milieu des affaires, le gouvernement et la société entière.

Stradigi AI est de ce nombre: nos chercheurs considèrent impérativement les applications concrètes des algorithmes développés, et s’assurent que les données utilisées soient représentatives de la réalité. Nous collaborons avec nos clients et partenaires pour développer une compréhension profonde des problématiques à régler. L’IA s’est échappée des laboratoires académiques pour devenir une alliée de tous les jours. Elle n’est plus seulement profondément intéressante, mais profondément utile. Oui, le printemps de l’IA est définitivement arrivé!