OpenAI craignait que son intelligence artificielle « GPT-2 » soit détournée par des utilisateurs·rices malintentionné·e·s à des fins malveillantes, de sorte qu’il avait été décidé que ce générateur automatique de texte extrêmement performant ne serait pas diffusé dans l’immédiat au grand public. Mais selon The Independent, OpenAI a finalement décidé le 5 novembre dernier de revenir sur sa décision.
« GPT-2 » est une machine surprenante, nourrie par une base de données de 40 Go de textes trouvés sur Internet. Capable d’écrire la suite d’un texte par simple déduction, en variant le style et le ton dans l’écriture selon la demande de l’utilisateur·rice, « GPT-2 » apprend seul, sans qu’aucune supervision ne soit nécessaire.
L’IA présentée le 14 février 2019 par l’organisation sans but lucratif OpenAI dans une démo, les chercheurs·euses n’avaient alors publié qu’une partie de leurs résultats, jugeant que cette IA était tellement avancée qu’elle était potentiellement dangereuse. L’écriture de « GPT-2 » pouvant difficilement se distinguer de celle d’un être humain, iels avaient peur que l’IA soit utilisée pour générer des fake news ou encore usurper l’identité de quelqu’un…
En rendant publique une version complète de cette IA, les chercheurs·euses espèrent aider le public à comprendre comment un tel outil pourrait être utilisé à mauvais escient. Iels désirent en outre contribuer à éclairer les discussions des expert·e·s sur les moyens de réduire ce danger. Espérons qu’il ne tombera pas entre de mauvaises mains dans l’intervalle.
Source : The Independent