Crédits : Learn2Smile Les développeurs de Facebook ont mis au point un « bot expressif », rapportait New Scientist le 5 septembre. Contrôlé par une intelligence artificielle, celui-ci serait en mesure de comprendre, mimer et répondre à nos expressions faciales au cours de discussions. Pour arriver à une telle prouesse, l’algorithme a dû se coltiner une bonne centaine de vidéos de conversations Skype sur YouTube. L’apprentissage n’a pas été de tout repos. Pour l’optimiser, l’IA a divisé le visage humain en 68 points précis, qu’elle a surveillés sans relâche durant des conversations vidéos. Elle a donc été capable d’identifier la signification de la plupart de nos mouvements de tête – tels que l’approbation, le sourire ou l’expression d’un désaccord. Crédits : Learn2Smile À terme, cela lui a permis de regarder la vidéo d’un être humain en train de parler et de déterminer l’expression faciale de circonstance. Si elle détecte un sourire, par exemple, elle secouera la tête ou ouvrira la bouche. Pour tester son système, le Facebook AI Research (FAIR) a montré à des volontaires plusieurs vidéos. Certaines affichaient le bot réagissant à un humain, d’autres des échanges d’humain à humain. Le bot a fait l’unanimité, les participants de l’expérience jugeant ses réactions réalistes. Bien sûr, l’IA n’est à ce jour en mesure de reproduire que des mouvements basiques de notre langage corporel. Mais sera-t-elle seulement capable, en sa qualité de robot, de devenir un interlocuteur fluide ? C’est peu probable, selon le Pr Goren Gordon de l’université de Tel-Aviv, qui rappelle que « les expressions faciales proviennent de ce que vous pensez et ressentez ». Et d’ici à ce que l’IA de Facebook devienne un être sentient, il y a de la marge. Source : New Scientist