Karl Friston est le neuroscientifique le plus cité au monde. L’impact de ses publications serait deux fois plus élevé que celles d’Albert Einstein. La raison d’un tel succès ? Son principe de l’énergie libre, présenté par certains comme la théorie multi-disciplinaire la plus révolutionnaire depuis celle de Charles Darwin. Des mathématiques au traitement des maladies mentales, en passant par l’intelligence artificielle (IA) : son principe de minimisation de l’énergie libre pourrait s’appliquer à presque tous les domaines.
D’après le Britannique, notre cerveau est une machine à faire des prédictions, dans le but de se maintenir, mais surtout de s’adapter à un environnement en perpétuel changement. Une propriété dont pourraient s’inspirer les IA pour développer un réel discernement du monde qui les entoure. D’ici dix ans, Karl Friston s’attend donc à voir des agents artificiels curieux, doués de conscience et capables d’apprendre en autonomie. Rencontre avec le neuroscientifique dont les théories pourrait donner naissance aux robots de demain.
Qu’est-ce que le principe de l’énergie libre ?
L’énergie libre est une théorie générale selon laquelle nous devons, d’une manière ou d’une autre, minimiser notre surprise pour nous adapter au changement. L’une des mesures de cette surprise, c’est la prédiction de l’erreur, autrement dit la différence entre ce que nous observons et ce que nous avions prévu d’observer. Cela nous mène à la formule particulière de la minimisation d’énergie libre telle que le codage prédictif, qui est l’un des moyens les plus populaires de comprendre le principe d’énergie libre en terme de traitement prédictif.
Pour résumer : le cerveau est le produit d’un procédé d’optimisation, dont l’objectif est de s’assurer de la bonne intégration du sujet au sein de son environnement.
Utilisons-nous pleinement le potentiel du cerveau ?
Oui, contrairement à ce qui se dit dans certaines œuvres de science-fiction, nous l’utilisons à 100 % et il existe une raison mathématique à cela. Un système qui navigue avec succès dans un monde réel essaie de minimiser son énergie libre, ou disons plus simplement qu’il cherche la preuve de son existence. Mathématiquement, on décompose la preuve en deux éléments : la précision et la complexité. Une bonne aptitude adaptative est la précision moins la complexité. Cela signifie que dans tout ce que nous faisons, nous cherchons à fournir des explications très précises sur nos échanges sensoriels avec le monde, avec le moins de complexité possible.
Nous essayons toujours de prédire le monde le plus efficacement possible. Le coût de cette complexité, mathématiquement, c’est le nombre de degrés de liberté et de conviction qu’il me faut changer avant et après avoir été confronté à de nouvelles preuves, de nouvelles données. Si je le fais avec un maximum d’efficacité, je déplace mes croyances le moins possible.
« Pour qu’une IA survive, il lui faudra être très similaire à nous »
Le cerveau fait tout ce qu’il peut pour fournir une explication précise de ses échanges sensoriels avec le monde, en utilisant le plus petit nombre d’éléments neuronaux, le moins d’énergie et le moins de connexions possibles. On peut donc dire qu’il utilise toutes les ressources disponibles, de la manière la plus efficace possible. Cela reviendrait, pour un ordinateur, à fonctionner avec le moins d’électricité possible. Cette perspective de minimisation de la complexité, qui trouve l’explication la plus simple aux choses, a d’ailleurs une implication très pratique dans la conception de l’intelligence artificielle.
Comment ce principe s’applique-t-il au développement de l’intelligence artificielle ?
Pour le moment, nous sommes bien trop focalisés sur l’optimisation des machines à faire des choses que nous jugeons qualitatives, sans nous demander ce que sont ces qualités. Mais si vous partez du principe que ces qualités se résument à résoudre l’incertitude, à la minimiser, vous réalisez que tout ce que doit faire un robot, c’est de vous comprendre. Lorsqu’on applique le principe d’énergie libre à ce que devrait être idéalement l’IA, on en arrive à la conclusion qu’il devrait s’agir d’une intelligence incroyablement curieuse à propos de vous et moi. Elle devrait tout faire pour nous comprendre au mieux, et par là se comprendre elle-même.
Je ne vois aucun obstacle fondamental qui empêcherait le développement d’une conscience artificielle au cours des dix prochaines années. Dans un futur proche, nous assisterons à la prochaine vague d’avancées dans le domaine de l’apprentissage autonome, de la robotique et de l’intelligence artificielle. Des créatures en silicone vont être créées, et domestiquées pour jouer le rôle de nos animaux domestiques. Nous pourrons nous projeter à travers elles, et nous apprécieront nos interactions avec elles. Elles sembleront avoir exactement les mêmes états d’esprit que nous, les mêmes intentions.
À quand remonte votre rencontre avec l’intelligence artificielle ?
J’avais 15 ans et j’étais un des premiers adolescents à tester un ordinateur censé être capable de donner des conseils d’orientation. Nous devions répondre à beaucoup de questions, sur nos aptitudes et sur le genre de chose que nous aimions faire. Toutes ces données étaient envoyées à un ordinateur installé à Liverpool, avant d’être analysées pendant des heures, pour ensuite nous dévoiler le métier fait pour nous.
Il s’est avéré que je devais être monteur d’antennes de télévision, et je crois que cela se basait sur le fait que j’avais dit que j’aimais la mécanique électrique et la vie en plein air. L’ordinateur a donc pensé que je devais faire de la maintenance d’antennes télévisées !
À la suite de cela, j’ai reçu d’autres conseils d’orientation. Personnellement, je voulais devenir par-dessus tout psychologue des mathématiques, mais à cette époque, la terminologie qui désignait ce que je voulais faire n’existait pas vraiment. Moi et mon conseiller d’orientation humain nous sommes très mal compris, et il a pensé que je voulais dire psychiatre. J’ai donc fait médecine, alors que j’aurais dû étudier la psychologie… C’était une heureuse erreur, qui a tout de même donné lieu à huit ans d’études. J’ai découvert bien plus tard la « psychologie mathématique » et j’ai réalisé que cette discipline réunissait tous les ingrédients pour me garder actif, heureux, et animé par une envie de me dépasser.
D’où tenez-vous cet intérêt pour les mathématiques ?
Mon père était ingénieur civil, il avait un esprit mathématique et il insistait pour mettre en place des moyens amusants d’utiliser son cerveau. Cela passait notamment par des livres de physique, compliqués et stimulants… qu’il me faisait lire ensuite. Il y en avait notamment un sur la relativité générale qu’il m’a fait lire quand j’étais pré-adolescent. J’ai ensuite découvert qu’il l’avait d’abord offert à ma pauvre mère quand elle préparait ses concours d’infirmière. Il s’agissait d’Espace, Temps et Gravitation, d’Arthur Eddington : il lui a fait lire avant même de lui avouer son amour. Elle devait avoir entre 16 et 18 ans.
Ma mère, de son côté, était très passionnée par la psychologie et les processus qui permettent d’identifier d’où viennent les problèmes des gens. Mon père avait donc des livres de mathématiques, très techniques, et ma mère des livres de psychologie, grand public ou académiques. J’ai grandi en étant plongé dans les maths par mon père et en piquant les livres de l’étagère de ma mère, ce qui a donné un parfait mélange entre maths et psychologie. Pour moi, les maths ont toujours été un jeu duquel les règles sont simplement très strictes.
Cela explique pourquoi vous travaillez sur votre temps libre.
En effet. Le dimanche après-midi, quand je ne suis pas en famille, je travaille sur un agent artificiel, un sujet en silicone synthétique avec qui je peux avoir une conversation. Je fais cela pour tenter de comprendre les caractéristiques de l’architecture fondamentale, le modèle générateur (un ensemble de plusieurs variables) nécessaire pour qu’il existe un échange. Cela nous amène à nous demander à quelle échéance, dans le futur, ces modèles seront développés, particulièrement d’un point de vue du langage et de la communication. Jusqu’à quel point les modèles générateurs peuvent-ils être poussés ?
« Si l’on ne parvient pas à minimiser l’énergie libre, on disparaît. »
Cela pose aussi la question de l’interface physique : comment obtenir que la reconnaissance vocale, la prédiction vocale interfère avec ces modèles générateurs profonds, ces conceptions profondes du monde ? Il ne peut pas exister de langage sans compréhension, il faut donc qu’il existe un récit partagé. Une scène, un univers, doivent être présents dans la tête de cet agent, mais aussi dans la vôtre, pour que vous puissiez échanger. La notion d’empathie, et toutes ces constructions qui animent les créatures que nous sommes, sont liées au fait que 99 % de notre cerveau est dédié à la compréhension des autres. Il faudra qu’il en aille de même pour les intelligences artificielles.
Doivent-elles immanquablement avoir l’être humain pour modèle ?
Pour qu’une intelligence artificielle survive dans ce monde, il lui faudra être très similaire à nous. Si l’impératif qui préside à l’existence est simplement de minimiser les incertitudes en apprenant tout ce qu’on peut sur la nature de notre monde, nous devons modeler d’autres êtres. La même chose s’applique pour les appareils artificiels : il n’existera de communication éloquente entre un agent artificiel et un agent humain que s’ils sont suffisamment similaires.
Cela signifie que le modèle de cet agent artificiel peut aussi être utilisé comme un modèle de moi-même, et vice-versa. Sinon, il n’existe pas de communication, pas d’empathie, pas d’histoire partagée. Sans ce récit commun, les IA vont disparaître et s’éteindre. La quasi-totalité de mon modèle est dédié à la résolution de l’incertitude concernant les autres, et ce qu’ils vont faire. Cela peut aller du fait de marcher dans la rue en anticipant vers quelle direction les conducteurs et les cyclistes se dirigent, jusqu’à l’anticipation des réponses émotionnelles de quelqu’un dont je suis amoureux. Nous essayons constamment de récolter de preuves destinées à résoudre notre incertitude quant à ce qu’il se passe au-dehors.
Les robots japonais, ou les technologies commerciales telles que Siri, avec lesquels on ne peut pas lier de relation, finiront donc par s’éteindre, car ils ne nous ressemblent pas assez. Ils ne possèdent pas de vraie cohérence, ni de compassion, ou de qualités humaines. Pour que les IA survivent, il leur faudra être proches de nous en termes de forme, de croyances, d’attitudes et de structure.
Si l’on ne parvient pas à minimiser l’énergie libre, on disparaît littéralement, car cela signifie que les frontières entre ce qui nous définit et ce qui définit le monde dans lequel on évolue se désintègrent. Par exemple, le fait de maintenir notre température à un degré humainement sain, 37°C, est une forme de présence prédictive. Si l’on n’y parvenait pas, on mourrait d’hypothermie ou d’hyperthermie. Il en va de même pour les intelligences artificielles : elles s’éteindront si leur modèle ne s’adapte pas au monde qui les entoure.
Couverture : Le cerveau d’une machine.