Allô robot
Sur scène, Sundar Pichai croise les doigts. Au-dessus de la rangée de projecteurs qui braquent leurs lumières bleues dans son dos, un écran de téléphone géant s’anime. « Bonjour, comment puis-je vous aider ? » demande l’Assistant Google. En ce début du mois de mai 2018, le PDG de la firme lui commande de prendre un rendez-vous chez le coiffeur, depuis le Shoreline Amphitheatre de Mountain View, en Californie. Il n’a qu’à bouger les lèvres près d’un micro-oreillette. Ensuite, l’Assistant compose le numéro. « J’appelle pour une coupe de cheveux le 3 mai », annonce une voix de femme avec un naturel désarmant. À l’autre bout du fil, l’interlocutrice ne se doute pas qu’elle communique avec un ordinateur. Elle consulte son agenda, pose une série de questions et convient de recevoir ce nouveau client à midi. Les applaudissements pleuvent sur Sundar Pichai, fier de son effet.
« Ce qui est extraordinaire, c’est que l’Assistant peut comprendre les nuances de la conversation », vante le patron. « Cela fait des années que nous travaillons sur cette technologie, elle s’appelle Google Duplex. » Les échanges qui prennent des tournures inattendues ne lui résistent pas davantage. Elle devrait être testée cet été « pour aider les utilisateurs à faire des réservations au restaurant, prévoir des rendez-vous chez le coiffeur et poser des congés par téléphone ». À la différence des autres robots conversationnels, dont le registre est monocorde, ce prototype possède une voix fluide. Son habileté à comprendre le langage employé lui permet de s’intégrer à une conversation, plutôt que de nécessiter une adaptation de l’interlocuteur humain.
Pour produire des conversations qui sonnent aussi naturelles, Google Duplex s’appuie sur un réseau de neurones artificiels récurrents, c’est-à-dire sur une batterie d’automates qui, dans leurs interrelations, copient le fonctionnement du cerveau humain. Une fois assemblé à l’aide d’un programme de Google, TensorFlow, cet engrenage se rode en prenant exemple sur des enregistrements téléphoniques. De la reconnaissance vocale à la compréhension des concepts en passant par l’audio, chaque tâche est intégrée de façon séparée. Le modèle est ensuite parachevé par « l’optimisation hyper-paramétrée », décrivent Yaniv Leviathan et Yossi Matias. Dans un article de blog, les ingénieurs de Google promettent que Duplex est capable des mener des conversations et de remplir la plupart de ses tâches en totale autonomie, sans l’intervention de l’homme.
Pour schématiser, l’apprentissage d’un tel système est, disent-ils, comparable à celui de beaucoup de disciplines. Un automate instructeur est chargé de superviser la leçon, délivrant conseils et correctifs lorsque c’est nécessaire. Dans ce cas, « il s’agit de prédire une variable en fonction de données », définit Alexandre Beretta, Data Scientist chez OUI.sncf. « Par exemple, connaissant le rapport habituel entre le poids et le taille, j’essaye de connaître l’un par rapport à l’autre pour un individu donné. » Ici, « des opérateurs experts jouent le rôle d’instructeurs », détaillent Yaniv Leviathan et Yossi Matias. « En dirigeant le système quand un appel est passé, ils peuvent en affecter le comportement en temps réel. Cela se poursuit jusqu’à ce que le système ait atteint la qualité désirée, stade à partir duquel la supervision s’arrête et le système peut passer des appels seul. » D’autres machines savantes fonctionnent sans cette hiérarchie : « Les algorithmes non supervisés servent plus à la reconnaissance de formes à travers des données », poursuit Alexandre Beretta.
Voyages-sncf.com a mis en place son bot sur Facebook Messenger début 2016 et, lorsque le site est devenu OUI.sncf, il a été doté d’un robot conversationnel. La technologie NLP pour Naturel Language Processing permet à ce dernier d’apprendre le langage de l’utilisateur et ainsi de s’adapter en fonction des différents registres utilisés. Les clients qui souscrivent un abonnement TGVmax peuvent « abandonner le courrier, l’e-mail et le fax », indique Rachel Picard, directrice générale de Voyages SNCF, présente à VivaTech le 24 mai. « On est que sur de l’instantané, sur du messenger, sur du chat, sur des réseaux sociaux. » Au total, les millennials abonnés font près de 20 000 réservations TGVmax par mois via les bots du groupe.
À partir de TensorFlow, Google annonçait en juillet dernier avoir donné vie à AlphaGo Zéro, une machine intégrant les règles du jeu de go par elle-même, pas à pas, sans intervention extérieure. Basée sur une version antérieure, Alpha Go, le programme ne disposait que d’une feuille de score vierge et des règles. « Il a joué contre lui-même des millions de fois », explique Alexandre Beretta, et, en 72 heures, il avait parfaitement compris le principe et se révélait suffisamment doué pour vaincre son prédécesseur 100 fois d’affilée. « J’espère que ce type d’algorithmes travaillera quotidiennement avec nous en tant qu’expert médical afin de repousser les limites de la science », glisse Demis Hassabis, co-fondateur de la filiale de Google DeepMind.
Pour le moment, Duplex est programmé pour engager des discussions sur des sujets donnés, dont il connaît le vocabulaire. Mais sa palette va évidemment s’élargir. L’intelligence artificielle à venir ne se contentera du reste pas de composer des phrases, mais maniera des images. Les chercheurs du Computational Neuroscience Laboratories de Kyoto sont parvenus à lui faire reproduire les formes imaginées par un sujet humain à partir d’ondes cérébrales. La différence entre le fruit d’un cerveau humain et le produit d’un réseau de neurones artificiels risque donc de s’estomper à mesure que Google progresse. Car, grâce à Duplex, la multinationale « est désormais en avance sur Apple, dont l’assistant Siri ne progresse que lentement », juge Le Monde.
Guerre de neurones
Siri fait désormais partie des meubles. L’application de commande vocale présentée en 2011 répond à bien moins de questions qu’Assistant, Alexa et Cortana, ses équivalents conçus respectivement par Google, Amazon et Microsoft, à en croire une étude de l’agence américaine Stone Temple Consulting. Il faut dire que la technologie a considérablement évolué depuis sept ans. « À l’époque, nous pensions à un algorithme fonctionnant sur une ou quelques machines », se souvient le concepteur d’un des précurseurs de Siri, Antoine Blondeau. Aujourd’hui, le Français dirige Sentient Technologies, une entreprise spécialisée dans l’intelligence artificielle à destination du e-commerce. « Les données les plus importantes sont celles qui résultent de l’interaction », décrit-il. « Un système intelligent peut devenir très bon, sans trop d’éléments de base, grâce à ces interactions. »
Parisien de naissance, Antoine Blondeau est doué, très jeune, pour faire le lien entre les différents éléments du monde. Il s’intéresse à ses composantes telles que formulée par la physique et les mathématiques. Lorsque sa mère lui achète un Apple 2-Plus, un modèle d’ordinateur sorti en 1979, l’adolescent est ravi. Le code informatique lui permet de concevoir un programme qui élabore des recettes, alors même qu’il n’y connaît rien en cuisine. Car c’est là le rôle de l’intelligence artificielle : « Il ne s’agit pas nécessairement de remplacer le cerveau humain mais de l’augmenter, autrement dit de combler ses manques et de lui donner une super intelligence. »
Les premiers robots ne sont pas si ambitieux. En 1929, le biologiste japonais Makoto Nishimura baptise son modèle Gaketensoku, ce qui signifie « apprendre des lois de la nature ». Dans le même ordre d’idée, les Américains Warren McCulloch et Walter Pitts explorent la possibilité d’ « imiter le cerveau ». Leur article de 1943, « A logical Calculus of the Ideas Immanent in Nervous Activity » propose la formation de réseaux neuronaux artificiels sur le modèle de ceux que l’on trouve dans la nature. Mais évidemment, l’ambition n’est pas de les reproduire à l’identique : la machine possède quelques avantages sur l’homme en ce qu’elle peut rapidement « calculer, conclure et opérer des choix ; elle peut faire des calculs avec de l’information », observe l’informaticien américain Edmund Berkeley, dans Giant Brains: Or Machines That Think, en 1949. Et d’en conclure : « Par conséquent, une machine peut penser. »
Les idées de Warren McCulloch et Walter Pitts ne tardent pas à être appliquées. Dès 1951, deux doctorants en mathématiques de Harvard, Marvin Minsky et Dean Edmonds, forgent la première machine neuronale, le Snarc (Stochastic Neural Analog Reinforcement Calculator). Inspiré par ces recherches, le psychologue Frank Rosenblatt crée le Perceptron, un appareil capable de reconnaître des formes par apprentissage, grâce à des signaux envoyés en fonction de la quantité de lumière reçue. Alors que le New York Times imagine le moment où il pourra « marcher, parler, voir, écrire, se reproduire et être conscient de sa propre existence », le New Yorker vante « une machine remarquable capable de quelque chose qui revient à penser ».
Après la naissance d’un programme de compréhension du langage naturel par ordinateur dans les laboratoires du Massachusetts Institute of Technology (MIT), en 1964, Marvin Minsky met en évidence les limites des réseaux de neurones artificiels dans un livre paru en 1969, Perceptrons. Peu de progrès sont réalisés à cette période car « des chercheurs, non familiers de l’histoire de ce champ, ont reproduit beaucoup des erreurs commises plus tôt », juge Minsky dans la réédition de l’ouvrage en 1988.
Pour les corriger, on mise alors sur une nouvelle technique d’apprentissage, la rétropropagation. Elle donne notamment la possibilité de modifier de manière plus calibrée les liaisons sources d’erreurs. Le modèle s’affine alors peu à peu. Une première borne de dialogue est mise en place par la SNCF en 1994. Et IBM fait sensation trois ans plus tard grâce au superordinateur Deep Blue, bourreau du champion d’échecs Garry Kasparov. On parle maintenant de deep learning. Trois ans plus tard, le robot nippon Asimo livre des commandes au restaurant.
La croissance de l’IA
Depuis Gakentensoku, en 1929, le Japon n’a rien perdu de son amour pour les robots. En 1981, le ministère de l’Économie accorde pas loin de 676 millions d’euros à un projet de développement d’ordinateurs « de cinquième génération » à même de converser, traduire, interpréter des images et, in fine, de raisonner. Antoine Blondeau arrive quelques années plus tard à l’université Chuo de Tokyo, pour profiter de l’expertise locale en informatique. Malgré ses talents en physique et en mathématiques, il a choisi d’étudier dans une école de commerce afin d’éviter de finir « dans le public ou dans une banque » à la sortie d’une école d’ingénieurs. « J’étais intéressé par les opportunités que la science pouvait offrir en termes de création d’entreprise. »
Après avoir travaillé quatre ans à Tokyo, le Français rallie Hong Kong pour diriger les ventes et le marketing du géant canadien Nortel en Asie. De là, en décembre 1998, il prend les rênes de Zi Corporation, une entreprise de logiciels canadienne. Elle est à la pointe sur l’écriture prédictive grâce à son produit, l’EziText, un concurrent du T9. En 2000, Antoine Blondeau est engagé pour diriger Dejima, une autre société du secteur basée en Californie. Il s’y perfectionne en traitement automatique du langage naturel pour les besoins du projet Calo, dont les innovations serviront plus tard Siri, et y rencontre celui avec qui il fondera Sentient sept ans plus tard, Badak Hodjat.
Un jour, alors qu’il prend sa douche, le patron se met à rêver : et si l’intelligence artificielle finissait par être capable de régler la plupart de nos problèmes ? Il suffirait pour cela que les calculs de la machine soient suffisamment fins pour évoluer en fonction du contexte. « Avant toute chose, il faut se concentrer sur les problèmes que nous ne réglons pas bien en tant qu’espèce », estime-t-il. « Ensuite, nous pouvons trouver dans le développement de la science algorithmique de quoi les traiter. » Plus une question comporte de dimensions, plus la machine sera adaptée pour s’en charger. Les algorithmes évolutionnistes, dont le fonctionnement est inspiré de la théorie de l’évolution, « sont bons pour ça car ils cherchent un optimum d’une manière non-linéaire, et leur fonctionnement et intelligible », prend en exemple Antoine Blondeau.
Grâce aux réseaux de neurones récurrents, l’intelligence artificielle n’est pas seulement une redoutable joueuse d’échecs et de go. « Des robots ont appris à marcher et à sauter comme un enfant », remarque Alexandre Beretta, Data Scientist chez OUI.sncf. « Il suffit de définir les règles et son comportement se modifiera ensuite en fonction des gains ou punitions. C’est ainsi qu’une voiture autonome finit par comprendre qu’elle ne doit pas s’approcher des bords. » Le OUIbot de la SNCF gagne lui aussi en talent à mesure que les voyageurs l’utilisent à l’oral ou en tchat. Ils sont 70 000 à le faire chaque semaine.
L’IA peut servir à beaucoup de choses. À travers le projet Tech4Rail, elle aide à piloter en temps réel la circulation des trains, les flux de voyageurs, les matériels et les ressources humaines de la SNCF. Son apprentissage analyse du reste les images de caméras pour en transmettre que celles qui sont pertinentes dans le cadre du projet Cafeine. Autrement dit, les machines savent maintenant ce qu’il convient de dire ou de taire. Duplex prouve qu’elle manie avec un certain brio une des fonctions les plus complexes du comportement humain, le langage, au point de se faire passer pour un authentique être humain. On peut donc supposer qu’elle réussirait le fameux test de Turing, élaboré par le mathématicien britannique du même nom fin d’évaluer la capacité d’une machine à imiter la conversation humaine. Est-ce à dire qu’elle pense ?
« Nous savons que le cerveau humain fonctionne différemment selon la fonction qu’il accomplit », compare Antoine Blondeau. « Certaines parties s’activent à une vitesse particulière. On ne peut donc pas voir le cerveau comme un tout. Mais de la même manière, on peut penser que les systèmes d’apprentissage autonomes n’utiliseront pas qu’une seule approche algorithmique, ils seront le résultat d’une combinaison de différents algorithmes fonctionnant de concert. » Autrement dit, ils pourront à la fois discuter, jouer aux échecs et peindre un tableau. « Les intelligences artificielles ne sont pas encore les meilleurs artistes mais elles trouvent des solutions non-intuitives en design ou dans la santé », ajoute-t-il. « Dans mon esprit, elles sont créatives. » L’IA n’a pas fini d’apprendre.
Couverture : Franck V.