Comme si le domaine de l’intelligence artificielle (IA) n’était pas déjà assez compétitif – avec des géants comme Google, Apple, Facebook, Microsoft et même des marques automobiles comme Toyota qui se bousculent pour engager des chercheurs –, on compte aujourd’hui un petit nouveau, avec une légère différence cependant. Il s’agit d’une entreprise à but non lucratif du nom d’OpenAI, qui promet de rendre ses résultats publics et ses brevets libres de droits afin d’assurer que l’effrayante perspective de voir les ordinateurs surpasser l’intelligence humaine ne soit pas forcément la dystopie que certains redoutent.
Les fonds proviennent d’un groupe de sommités du monde de la tech, parmi lesquels Elon Musk, Reid Hoffman, Peter Thiel, Jessica Livingston et Amazon Web Services. À eux tous, ils ont promis plus d’un milliard de dollars destinés à être versés au fur et à mesure. Les co-présidents de l’entreprise sont Musk et Sam Altman, le PDG d’Y Combinator, dont le groupe de recherche fait aussi partie des donateurs – ainsi qu’Altman lui-même. Musk est célèbre pour ses critiques de l’IA, et il n’est pas surprenant de le retrouver ici. Mais Y Combinator, ça oui. Le Y Combinator est l’incubateur qui a démarré il y a dix ans comme un projet estival en finançant six startups et en « payant » leurs fondateurs en ramens et en précieux conseils, afin qu’ils puissent rapidement lancer leur business. Depuis, YC a aidé à lancer plus de mille entreprises, dont Dropbox, Airbnb et Stripe, et a récemment inauguré un département de recherche.
Ces deux dernières années, l’entreprise est dirigée par Altman, dont la société, Loopt, faisait partie des startups lancées en 2005 – elle a été vendue en 2012 pour 43,4 millions de dollars. Mais si YC et Altman font partie des bailleurs et qu’Altman est co-président, OpenAI est néanmoins une aventure indépendante et bien séparée. En gros, OpenAI est un laboratoire de recherche censé contrer les corporations qui pourraient gagner trop d’influence en utilisant des systèmes super-intelligents à des fins lucratives, ou les gouvernements qui risqueraient d’utiliser des IA pour asseoir leur pouvoir ou même oppresser les citoyens. Cela peut sembler idéaliste, mais l’équipe a déjà réussi à embaucher plusieurs grands noms, comme l’ancien directeur technique de Stripe, Greg Brockman (qui sera le directeur technique d’OpenAI) et le chercheur de renommée internationale Ilya Sutskever, qui travaillait pour Google et faisait partie d’un groupe renommé de jeunes scientifiques étudiant à Toronto sous la houlette du pionnier du système neuronal Geoff Hinton. Il sera le directeur de recherche d’OpenAI. Le reste des recrues comprend la crème des jeunes talents du milieu, dont les CV incluent des expériences au sein des plus grands groupes d’étude, à Facebook AI et DeepMind, la société d’IA que Google a récupérée en 2014. Open AI dispose aussi d’un prestigieux panel de conseillers dont Alan Kay, un scientifique pionnier de l’informatique. Les dirigeants d’OpenAI m’ont parlé du projet et de leurs aspirations. Les interviews se sont déroulées en deux parties, d’abord avec Altman seul, ensuite avec Altman, Musk et Brockman. J’ai édité et mixées les deux interviews dans un souci de clarté et de longueur.
Tout public
Comment tout cela a-t-il commencé ?
Sam Altman : Nous avons lancé YC Research il y a environ un mois et demi, mais cela faisait longtemps que je réfléchissais à l’IA, tout comme Elon. Si vous pensez aux choses qui importent le plus pour l’avenir du monde, je pense qu’une IA de qualité se situe dans le haut de la liste. C’est pourquoi nous créons OpenAI. Cette organisation tente de créer une IA tournée vers l’humain. Et parce qu’il s’agit d’un projet non lucratif, il sera à libre disposition du monde entier. Elon Musk : Comme vous le savez, je suis préoccupé par l’IA depuis un bon moment. Et j’ai eu de nombreuses conversations avec Sam, Reid (Hoffman), Peter Thiel et bien d’autres. On se demandait : « Existe-t-il un moyen de s’assurer ou d’augmenter la probabilité pour que l’intelligence artificielle se développe de façon bénéfique ? » Nous sommes arrivés à la conclusion que de créer une association à but non lucratif, sans aucune obligation de maximiser un quelconque profit, serait probablement une bonne idée. Nous allons aussi faire très attention à la sécurité. Il y a également un élément philosophique très important : nous souhaitons que l’IA se répande très largement. Il y a deux écoles : ceux qui veulent beaucoup d’IA et ceux qui en veulent peu. Nous pensons qu’il vaut probablement mieux qu’il y en ait beaucoup. Au point même de pouvoir en faire des extensions de la volonté humaine, ce serait bien.
Volonté humaine ?
Musk : C’est-à-dire une IA qui serait une extension de vous-même, si bien que chaque personne serait en symbiose avec une IA, contrairement à un scénario dans lequel l’IA serait une énorme intelligence centrale qui serait autre. On peut penser à la façon dont on utilise les applications sur Internet, par exemple. Vous avez vos emails, vos réseaux sociaux et les applications sur votre smartphone : ils vous rendent effectivement surhumain et vous n’y pensez pas comme à une entité indépendante, vous les considérez comme une extension de vous-même. Dans la mesure où nous pourrons orienter l’IA dans cette direction, c’est ce vers quoi nous voulons aller. Et nous avons trouvé un certain nombre d’ingénieurs et de chercheurs qui partagent le même état d’esprit dans le domaine. Altman : Nous pensons que la meilleure façon de développer l’IA est d’en faire un émancipateur individuel qui rend les êtres humains meilleurs, qui soit gratuit et accessible à tous, et pas une entité unique des millions de fois plus puissante que n’importe quel individu. Puisque nous ne sommes pas une entreprise à but lucratif, comme Google, nous pouvons nous concentrer non pas sur la meilleure façon d’enrichir nos actionnaires mais sur ce que nous pensons être le mieux pour l’avenir de l’humanité.
Google ne partage-t-il pas ses développements avec le public, comme il vient de le faire avec l’apprentissage automatique ?
Altman : Ils partagent effectivement énormément de leurs recherches. Mais le temps passant, à mesure qu’on se rapprochera de quelque chose qui surpasse l’intelligence humaine, on est en droit de se demander ce que Google partagera.
Les trucs que vous allez faire à OpenAI, ne pourraient-ils pas surpasser l’intelligence humaine ?
Altman : Je pense que c’est possible, mais ce sera en open source et utilisable par tous plutôt que de ne l’être que par Google, pour ne citer qu’eux. Tout ce que le groupe développera sera accessible à tous. Si vous le prenez et que en changez l’objectif, vous ne serez pas obligés de partager le résultat. Mais tout le travail que nous faisons en interne sera disponible pour tout le monde.
Si je suis malintentionné et que je l’utilise, ne me donnerez-vous pas davantage de pouvoir ?
Musk : C’est une excellente question et c’est quelque chose dont nous avons beaucoup débattu. Altman : À ce sujet, nous sommes parvenus à différentes conclusions. Tout comme les humains se protègent du mal par le fait que la plupart d’entre eux sont bons et que la force collective de l’humanité parvient à contenir les mauvais éléments, nous pensons qu’il est plus probable qu’un grand nombre d’IA travaillent à endiguer les mauvaises intentions occasionnelles plutôt qu’une seule grosse entité d’IA un milliard de fois plus puissante que quoi que ce soit d’autre. Car si cette entité déraille ou si des personnes mal intentionnées s’en emparent sans qu’il existe rien pour la contrer, là on sera très très mal.
Allez-vous superviser ce qui ressort du travail d’OpenAI ?
Altman : Nous voulons effectivement construire un organe de supervision d’ici quelques temps. On commencera simplement par Elon et moi. Nous sommes encore très loin de développer une véritable IA. Mais je pense que nous aurons tout le temps de créer un département de supervision. Musk : J’ai l’intention de passer du temps avec l’équipe : au moins un après-midi ou deux au bureau toutes les semaines juste pour me tenir au courant, leur donner mes retours et tout simplement avoir une idée plus précise d’où en sont les choses dans le domaine de l’IA – savoir si nous sommes proches de quelque chose de dangereux ou non. Je vais m’impliquer personnellement dans la sécurité. C’est quelque chose qui me préoccupe beaucoup. Et si nous trouvons effectivement quelque chose qui représente un risque sécuritaire potentiel, nous le rendrons public.
L’IA qui valait un milliard
Un exemple de mauvaise IA ?
Altman : Eh bien, il y a toute la science-fiction, dont nous sommes encore loin, comme Terminator ou quelque chose dans ce genre. Je ne m’inquiète pas de ce genre de choses à court terme. Ce qui je pense va être un défi, même si je ne considère pas cela comme de l’IA malintentionnée, c’est l’automatisation massive et l’éradication d’emplois qui se profile. Il y a un autre exemple d’IA malintentionnée dont les gens parlent : les programmes de type IA qui piratent des ordinateurs et qui sont bien plus fort qu’aucun être humain. Ça existe déjà.
Allez-vous commencer avec un système déjà construit ?
Altman : Non. Nous allons commencer comme tous les laboratoires de recherche et c’est ce à quoi nous allons ressembler pendant un bon moment. Personne ne sait encore comment construire tout ça. Nous avons huit chercheurs qui vont s’y mettre from scratch et quelques autres qui vont se joindre à l’équipe dans les mois à venir. Pour l’instant, ils vont utiliser les bureaux d’YC, et à mesure qu’ils grossiront, ils déménageront. Ils vont jongler avec les idées et concevoir des logiciels pour voir s’ils peuvent faire avancer l’état actuel de l’art de l’IA.
Y aura-t-il des contributions extérieures ?
Altman : Absolument. L’un des avantages de travailler en étant un programme totalement ouvert, c’est que le laboratoire peut collaborer avec n’importe qui car il peut partager les informations librement. Il est très difficile de collaborer avec des gens de Google, par exemple, car ils ploient sous les clauses de confidentialité.
Sam, étant donné qu’OpenAI va débuter dans les locaux d’YC, votre startup aura-t-elle accès à leurs travaux ? (Update : Altman me dit à présent que le bureau sera basé à San Francisco.)
Altman : Si OpenAI développe vraiment une technologie géniale et que tout le monde peut l’utiliser gratuitement, cela sera bénéfique à toutes les entreprises de technologie. Mais pas plus à l’une qu’à l’autre. Cependant, nous allons demander aux sociétés d’YC de rendre disponibles à OpenAI toutes les données qu’elles accepteront de partager. Et Elon va aussi voir quelles données Tesla et Space X peuvent partager.
Avez-vous un exemple du type de données qui pourraient être partagées ?
Altman : Il y en a tellement. Toutes les données Reddit feraient un set d’entraînement très utile, par exemple. Tout comme des informations vidéo sur la voiture autonome de Tesla. Les larges volumes de données sont très importants. Réflechissez à la façon dont les humains deviennent plus intelligents : vous lisez un livre, vous devenez plus intelligent, je lis un livre, je deviens plus intelligent. Mais on ne devient pas plus intelligent soi-même grâce au livre que l’autre a lu. Alors qu’avec Tesla par exemple, si une Tesla apprend quelque chose, toutes les Tesla en tirent immédiatement bénéfice. Musk : Globalement, nous avons peu de plans particuliers parce que nous n’en sommes qu’au tout début de l’organisation. C’est encore à l’état embryonnaire. Mais Tesla aura sûrement une énorme quantité de données à partager, de vraies données mondiales grâces aux millions de kilomètres accumulés chaque jour par nos flottes de véhicules. Tesla aura certainement plus de données mondiales qu’aucune autre société.
L’IA nécessite beaucoup de calculs. Quelle sera votre infrastructure ?
Altman : Nous faisons un partenariat avec Amazon Web Services. Ils contribuent au projet en nous fournissant une grosse quantité d’infrastructure.
Et il y a un milliard de dollars promis à ce projet ?
Musk : Je ne pense pas exagérer en disant qu’à l’heure actuelle il y a un peu plus d’un milliard de dollars qui ont été promis. Nous ne voulons pas donner de chiffre exact, mais il y a eu de très importantes contributions de la part des gens mentionnés dans l’article.
Sur combien de temps cet argent va-t-il être versé ?
Altman : Sur autant de temps que la construction prendra. Nous serons aussi économes que possible, mais c’est probablement un projet qui va s’étendre sur plusieurs décennies et qui va demander beaucoup de main d’œuvre et de matériel informatique.
Et cela ne nécessite pas que vous fassiez du profit ?
Musk : Exactement. Ce n’est pas un investissement à but lucratif. Il n’est pas impossible qu’il génère des revenus dans le futur, tout comme le Stanford Research Institute est une association qui génère des revenus. Il pourra donc y avoir des revenus, mais pas de profit. Il n’y aura pas de profit destiné à enrichir des actionnaires, pas d’actions ou quoi que ce soit. Nous pensons que c’est la meilleur chose à faire.
L’esprit tranquille
Elon, vous avez déjà investi dans l’entreprise d’IA DeepMind, pour des raisons qui me semblent similaires – s’assurer que l’IA soit supervisée. Puis Google a racheté la société. Est-ce une deuxième tentative ?
Musk : Je dois dire que je ne suis pas vraiment un investisseur au sens classique du terme. Je ne cherche pas à investir pour obtenir ensuite un retour sur investissement. Je mets de l’argent dans des sociétés que j’aide à créer, je pourrais investir pour aider un ami, ou dans une cause dans laquelle je crois ou par laquelle je me sens concernée. Au-delà de ma propre société, je ne me suis pas du tout diversifié au sens matériel. Mais oui, mon genre d’ « investissement » dans DeepMind avait simplement pour objectif de mieux comprendre l’IA et de garder un œil sur ce qui se faisait.
Allez-vous devoir vous battre pour les meilleurs scientifiques, ceux qui vont à Facebook, DeepMind ou Microsoft ?
Altman : Notre recrutement se passe plutôt bien jusque là. L’un des éléments qui attire le plus les chercheurs, c’est la liberté et l’ouverture, ainsi que la possibilité de partager le fruit de leurs travaux. C’est quelque chose qu’aucun laboratoire industriel ne pratique à un tel degré. Nous avons pu constituer une équipe initiale d’une telle qualité que d’autres personnes veulent maintenant la rejoindre. Et puis tout simplement, je crois que notre mission, notre vision et notre structure plaît énormément aux gens.
Combien de chercheurs allez-vous embaucher ? Des centaines ?
Altman : Peut-être bien.
Je veux revenir à l’idée selon laquelle en partageant l’IA, nous pourrions ne pas souffrir du pire de ses conséquences négatives. En la rendant plus disponible, n’y a-t-il pas un risque d’augmenter les dangers potentiels ?
Altman : Je voudrais pouvoir compter les heures que j’ai passées à débattre de ça avec Elon et les autres. Et pourtant, je ne suis toujours pas sûr à 100 %. On ne peut jamais l’être tout à fait, n’est-ce pas ? Mais envisageons les différents scénarios. La sécurité par le secret, dans le monde de la technologie, ne s’est jamais révélée très efficace. Si une seule personne doit y avoir accès, comment décide-t-on si c’est Google ou le gouvernement américain, ou les Chinois, ou Daech ou je ne sais qui ? Il y a beaucoup d’êtres humains malintentionnés dans le monde et pourtant l’humanité continue de s’épanouir. Cependant, que se passerait-il si l’un de ces individus était un milliard de fois plus puissant que les autres ? Musk : Je pense que la meilleure défense contre une mauvaise utilisation de l’IA, c’est de donner le pouvoir de l’utiliser à un maximum de gens. Si tout le monde y a accès, alors aucun individu ou groupe d’individus ne détient le super pouvoir de l’IA.
Elon, vous êtes PDG de deux sociétés et président d’une autre. On pourrait penser que vous n’avez pas beaucoup de temps libre à consacrer à un nouveau projet.
Musk : Oui, c’est vrai. Mais la sécurité autour de l’intelligence artificielle occupe mes pensées depuis longtemps, et je pense que je me rétribuerai en tranquillité d’esprit !
Traduit de l’anglais par Caroline Bourgeret d’après l’article « How Elon Musk and Y Combinator Plan to Stop Computers From Taking Over », paru dans Backchannel. Couverture : Elon Musk et Sam Altman. Création graphique par Ulyces.