AccueilActualités informatiqueLifelike vs. compliant : OpenAI empêche un chatbot GPT-3 convaincant

Lifelike vs. compliant : OpenAI empêche un chatbot GPT-3 convaincant

Quiconque construit un chatbot basé sur le modèle de langage GPT-3 qui semble trop réaliste risque d’entrer en conflit avec les règles du fournisseur OpenAI. C’est l’avis du programmeur américain Jason Rohrer, qui a développé une telle application de chat et a dû la fermer, bien que – ou même parce que – elle était si bonne qu’un utilisateur a communiqué par son intermédiaire avec une simulation de sa fiancée décédée, rapporte The Register. Selon le rapport, l’application a connu un plus grand succès après qu’un journal en ait parlé, et OpenAI avait prévenu que des règles devaient être respectées. Cependant, Rohrer estime que cela signifie que le chatbot ne fonctionne plus. Cela a été suivi par la fermeture.

Sommaire

Comme l’explique The Register, Rohrer avait développé l’application de chat appelée « Project December » tout en accédant à GPT-3. Moyennant des frais, tout le monde peut essayer le modèle de langue le plus puissant de loin. Il était possible de discuter avec différents bots formés par Rohrer, dont « William », qui simulait William Shakespeare, ou « Samantha », basée sur l’application du même nom dans le film de science-fiction « Her ». Mais quiconque le souhaite peut également former un robot lui-même. C’est exactement ce qu’un utilisateur avait fait avec les textes de sa fiancée décédée, et un rapport à ce sujet a fait croître rapidement le nombre d’utilisateurs du « Projet Décembre ».

En cas de problèmes avec la lecture de la vidéo, veuillez activer JavaScript.

Comme la limite d’accès de Rohrer menaçait de s’épuiser, il a contacté OpenAI, qui a alors émis un avertissement concernant la violation des conditions d’utilisation. Pour pouvoir continuer à proposer l’application, il a d’abord dû supprimer la possibilité de former lui-même un chatbot. On lui a également demandé de mettre en place un filtre pour empêcher les robots de parler de certains sujets. Enfin, on lui a demandé d’introduire une technologie de surveillance automatique pour rechercher les sujets abusifs dans les conversations des utilisateurs. Parce que Rohrer a refusé tout cela, son accès a finalement été coupé.

M. Rohrer, qui a depuis fait passer le « Projet Décembre » à un autre modèle de langue et le teste, affirme qu’étant donné les exigences strictes d’OpenAI, il est impossible de développer des produits intéressants sur la base de GPT-3. Quiconque souhaite l’utiliser pour faire progresser le développement des chatbots se heurte à cette limitation. Il trouve risible la justification d’OpenAI selon laquelle ces chatbots pourraient être dangereux. Si la startup s’inquiète qu’une IA puisse pousser quelqu’un à voter pour quelqu’un d’autre, ou à se suicider, c’est « hyper-moral ». Il refuse de surveiller les chats car les conversations entre un humain et une IA sont les plus privées de toutes. C’est précisément la raison pour laquelle ils sont si ouverts. Il y a un an, il était encore sceptique quant au réalisme d’un tel chat, mais « Samantha » lui a donné la chair de poule.

Lire aussi


(mho)

Plus d'articles