Depuis à peu près un an, OpenAI dispose d’un système permettant d’intégrer des filigranes invisibles dans les textes générés par son ChatGPT.
Balancer les élèves, ou pas
C’est ce que rapporte le Wall Street Journal, précisant que la compagnie dispose naturellement des outils pour repérer lesdits filigranes, et donc détecter les petits malins qui utilisent ChatGPT à des fins perfides, comme faire rédiger leurs devoirs par une machine plutôt qu’à la force de son travail personnel.
Alors, à quand la mise à disposition de ces outils au public ? Eh bien OpenAI est apparemment divisé sur ce sujet. Cela semble être la démarche la plus juste, mais d’un autre côté, une certaine partie du public risque d’être déçue. En effet, selon un sondage mené par la compagnie auprès d’utilisateurs de ChatGPT, près de 30% d’entre eux affirment qu’ils cesseront d’utiliser le logiciel si le système de filigrane était intégré.
OpenAI continue néanmoins d’explorer des manières de distribuer ces outils, sans aliéner une partie de son public.