Avril 2018: 2001, l’Odyssée de l’espace, le film phare de l’oeuvre de Stanley Kubrick, fête son 50e anniversaire. Au coeur de l’intrigue, on retrouve HAL 9000, une création de l’intelligence artificielle qui semble dotée d’une conscience, d’une intelligence presque humaine et même de capacités émotionnelles.

HAL représente un exemple de ce que l’industrie appelle l’intelligence artificielle forte, ou générale. Ceci signifie qu’il démontre une certaine forme de conscience et est capable d’émettre un raisonnement abstrait, de faire preuve d’empathie et de ressentir des émotions. Ce type d’intelligence artificielle n’existe pas encore, mais certains semblent confiants de voir la génération actuelle la rencontrer.

La vaste majorité des recherches actuelles en IA s’effectuent dans le domaine de l’intelligence artificielle faible ou étroite. Les algorithmes en résultant sont en mesure d’effectuer des tâches spécifiques dans une environnement contrôlé. Ces applications sont omniprésentes, en font foi les nombreux outils de recommandation de contenu ou de produit.

Les habiletés de l’IA du film de Kubrick relevaient de la plus pure science-fiction en 1968. Qu’en est-il aujourd’hui? Pourrons-nous bientôt côtoyer HAL et ses semblables?

Le jeu d’échecs

Un des événements marquants de la récente renaissance de l’IA est survenu en 1997, alors que IBM et sa machine Deep Blue ont vaincu Garry Kasparov, le meilleur joueur d’échecs de l’histoire.

Par contre, on ne peut pas vraiment dire que Deep Blue a réellement appris à jouer aux échecs. On lui a plutôt fourni de vastes quantités de données sur le sujet et les capacités computationnelles pour déterminer le meilleur coup possible dans chaque situation.

Faisons un saut dans le temps jusqu’à l’année dernière, alors que Alphazero a mis en échec Stockfish. Non seulement Alphazero a été en mesure de vaincre l’un des plus performants programmes de jeu d’échecs au monde – mais il a été capable de réaliser un tel exploit sans même avoir accès aux connaissances essentielles à la victoire de Deep Blue.

Alphazero a en fait appris à jouer aux échecs sans assistance extérieure, en utilisant une technique appelée l’apprentissage par renforcement. Cette technique implique que l’algorithme soit tour à tour récompensé ou puni selon la justesse de ses actions. Les seules notions inculquées au départ à Alphazero sont les règles du jeu d’échecs et le nombre maximum de tours permis au cours d’une partie.

Niveau de ressemblance avec HAL: très près!

Le langage naturel

HAL était en mesure de converser, tel un humain, en temps réel. Trois composantes sous-tendent une telle capacité: la compréhension du discours, la connaissance du langage et la génération de la parole.

La popularité résurgente des réseaux convolutionnels et de l’apprentissage profond a permis à la communauté IA de faire des pas de géants dans ces domaines. Les machines en sont presque à la parité avec les humains pour toutes ces capacités. Par contre, elles ne conversent pas encore aussi naturellement que ce qui est démontré dans le film.

Au niveau de la compréhension du discours et du langage, les études de performance sont souvent effectuées sur des ensembles de données isolés, et les algorithmes sont, en conséquence, peu compétitifs lorsqu’on tente de les utiliser avec des données réelles. Les solutions sur mesure demeurent les plus performantes et bien sûr, les humains sont toujours plus efficaces pour capter les nuances, le contenu et la complexité du langage naturel. De plus, il n’y a aucune preuve à l’effet que l’IA soit capable de comprendre le langage à un niveau supérieur d’abstraction. Pour plus d’informations sur ce sujet philosophique, nous vous conseillons de lire à propos de l’expérimentation appelée The Chinese Room.

La génération de la parole, d’un autre côté, est remarquablement avancée. Les innovations récentes au niveau du clonage de la voix ont permis le développement de programmes qui répliquent la voix humaine de façon quasi indétectable.

Niveau de ressemblance avec HAL: prometteur, mais pas encore tout à fait

Lecture sur les lèvres

Dans ce qui est peut-être l’une des scènes les plus célèbres du film, les copilotes Dave Bowman et Frank Poole s’isolent dans un espace pour avoir une discussion privée. Même si HAL est incapable de les entendre, il est en mesure de saisir leur conversation en lisant sur leurs lèvres.

Bien que les chercheurs d’Oxford aient mis au point un système de lecture des lèvres alimenté par l’IA qui puisse surpasser les humains sur certains ensembles de données, il présente de sérieuses limites. L’algorithme a été formé sur des clips d’actualités de la BBC avec des sous-titres alignés avec les mouvements des lèvres des locuteurs. Cela signifie que toutes les vidéos présentaient des personnes qui étaient placées à des conditions d’éclairage idéales et qui parlaient en phrases bien structurées.

Étant donné que l’algorithme a été formé exclusivement sur des clips de nouvelles, il serait évidemment moins précis lorsque viendrait le temps d’identifier des phrases dans d’autres contextes. Nous sommes donc encore loin de pouvoir reproduire la scène du film, où la lecture des lèvres a été effectuée de côté et dans une pièce faiblement éclairée.

Niveau de ressemblance avec HAL: quelques bons résultats mais encore beaucoup de travail à faire

Empathie

Tout au long du film, HAL donne l’impression à plusieurs reprises qu’il peut à la fois comprendre et ressentir des émotions. Quand HAL refuse de laisser Dave retourner dans le vaisseau, il dit « Je sens que tu es en colère », et plus tard quand Dave est sur le point de couper ses fonctions cognitives, HAL plaide « Dave, j’ai peur ». Bien qu’il soit discutable que HAL ait réellement éprouvé ces émotions, ces qualités permettent au public de penser qu’il était vraiment vivant.

Construire l’émotion dans une intelligence artificielle est un défi si vaste que plusieurs sont sceptiques face à sa réalisation, mais il y a néanmoins beaucoup de groupes qui travaillent pour atteindre cet objectif. Des startups comme Affectiva travaillent sur la détection d’émotions à partir de vidéos de visages, et Huawei travaille à intégrer la compréhension émotionnelle dans ses assistants personnels. De nombreuses entreprises construisent des applications chatbot qui imitent des réponses émotionnelles. Mais à ce moment-ci, nous sommes loin de construire quelque chose qui soit réellement crédible, et encore plus loin de créer une entité qui ressente vraiment des émotions.

Niveau de ressemblance avec HAL: Encore très loin!

Rassurez-vous, HAL reste aujourd’hui encore un concept futuriste. Du moins, pour l’instant!