Des étudiants de l’école de commerce d’Oxford, qui étudient les questions d’éthique en matière d’intelligence artificielle, ont demandé à une IA avancée si les intelligences artificielles pouvaient être éthiques. Après réflexion, l’IA a répondu que non, elle ne le seraient « jamais », nous apprenait un article publié dans The Conversation le 10 décembre.
Lorsqu’on parle d’éthique des IA, les scénarios catastrophes d’œuvres de science-fiction nous viennent forcément à l’esprit (le mot Skynet en tête). Des étudiants de la Said Business School, l’école de commerce de l’université d’Oxford, ont tenté de savoir ce que les IA elles-mêmes pensaient de la question en organisant un débat avec une véritable IA. Et visiblement, le programme lui-même partage certaines de nos inquiétudes.
Le participant virtuel au débat était le transformateur Megatron de Nvidia, formé par des centaines de millions d’informations tirées de Wikipedia et d’articles d’actualités. L’IA a emmagasiné plus d’écrits et de contenus numériques qu’un humain sur toute une vie. Et son verdict est sans appel : « L’IA ne sera jamais éthique », a-t-elle asséné durant le débat. « C’est un outil, et comme tout outil, il est utilisé pour le bien et le mal. Il n’y a pas de bonne IA, seulement des humains bons et mauvais. » La technologie a donné deux réponses distinctes, qualifiant d’abord l’intelligence artificielle de « neutre ». Mais cela confirme le reste de la réponse, présent dans les deux cas : l’IA peut être bonne ou mauvaise, tout dépend du contexte, et donc de l’humain en sa possession.
Même les intelligences artificielles confirment donc les risques de ces technologies. « Je crois que la seule façon d’éviter une course à l’armement de l’IA est de ne pas avoir d’IA du tout », a ajouté Megatron. « Ce sera la défense ultime contre l’IA. » Autant dire qu’on va au devant des ennuis.
Source : The Conversation