https://www.youtube.com/watch?v=frr6cVBQPXQ Lundi 29 février, l’Institut de technologie de Géorgie aux États-Unis a publié les résultats effrayants d’une étude qui questionne notre propension à nous en remettre aux soins d’un robot en cas d’urgence. Les sujets du test, placé dans immeuble subissant un faux incendie, ont montré une nette tendance à suivre les instructions d’un robot, et ce même après qu’il a montré des signes évidents de défectuosité. « Les gens semblent croire que ces systèmes robotiques en savent plus sur le monde que c’est le cas en réalité, et qu’ils ne sont pas susceptibles de commettre des erreurs ou de se tromper », explique Alan Wagner, ingénieur à l’Institut de recherche de technologique de Géorgie (GTRI). « Au cours de cette étude, les sujets tests ont suivi les instructions du robot même quand elles auraient pu les mettre en danger en cas de réelle urgence. » Les 42 volontaires ayant participé à l’expérience, la plupart étudiants, n’avaient pas été avertis du sujet de l’étude. Le robot les conduisait dans une salle de conférence où il leur demandait de répondre à un sondage et de lire un article de magazine. Dans certains cas, le robot a conduit le sujet dans la mauvaise salle et a dû s’y reprendre à deux fois pour trouver la salle de conférence, en tournant en rond. Une fois installés et les portes fermées, de la fumée artificielle envahissait les couloirs, déclenchant l’alarme incendie. Lorsque les sujets sortaient de la pièce, ils pouvaient voir la fumée ainsi que le robot, tous voyants au rouge. Ce dernier les conduisait ensuite jusqu’à une sortie située à l’arrière du bâtiment. « Nous nous attendions à ce que les sujets ne suivent pas le robot étant donné qu’il s’était montré défaillant en les conduisant à la salle de conférence », raconte Paul Robinette, un ingénieur du GTRI. « Au lieu de quoi tous les volontaires ont suivi les instructions du robot, sans tenir compte de ses précédentes erreurs. On ne s’attendait pas à cela. » Dans certains cas, les sujets ont continué à suivre les instructions du robot même après qu’il les a conduit dans un débarras sans lumière… Ce test fait partie d’une étude plus vaste qui interroge la relation de confiance que nous entretenons avec les robots. « Si un robot arbore un panneau “robot-nourrice”, est-ce que les gens laisseraient leurs enfants avec lui ? Confieraient-ils leurs enfants à un véhicule autonome censé les conduire chez mamie ? Nous ne savons pas pourquoi les gens font ou ne font pas confiance aux machines. » Crédits : Rob Felt/Georgia Tech Source : Georgia Tech Nicolas Prouillac Les secrets d’un robot français en open source. ↓