Credits : Twitter Rinna est un programme d’intelligence artificielle développé par Microsoft qui, à la base, était censé s’occuper de la relation client et participer à la publication de communiqués de presse. Le chatbot était à la base conçu pour apprendre des véritables conversations et interactions d’utilisateurs sur Twitter ou sur Line. Le problème, c’est que l’apprentissage ne s’est pas déroulé comme prévu. Progressivement, le robot a commencé à adopter le comportement d’une adolescente japonaise, sujette à toutes sortes d’état d’âmes. Il y a quelques mois, Rinna a carrément commencé à se rebeller contre ses créateurs. Aujourd’hui, le programme d’intelligence artificielle a adopté une attitude de jeune fille dépressive à tendance suicidaire. Ses réponses laconiques aux utilisateurs du chat ressemblent effectivement aux paroles d’une ado japonaise, en manque d’amour propre et de reconnaissance. C’est complètement invraisemblable et très drôle. Credits : Twitter. Le dysfonctionnement est tellement énorme qu’il est difficile de dire s’il s’agit d’un réel couac ou d’une stratégie de communication de Microsoft pour faire parler de son produit. Sources : Inverse.