OpenAI (ChatGPT) accepte de travailler avec l’armée

le 22 janvier 2024 - 11h19

Le spécialiste de l’intelligence artificielle OpenAI avait pour principe de ne pas collaborer avec l’armée. Plus maintenant.

L’intelligence artificielle demeure un sujet sensible, avec le lequel il faut encore faire attention, dixit les plus grands réalisateurs, mais aussi les géants de la tech. Même le spécialiste de l’IA OpenAI -ChatGPT- avait spécifié dans ses règles de ne pas associer sa technologie à des applications militaires. Mais ça, c’était avant.

 

ChatGPT, politique et conditions d’utilisation modifiées manu militari

En effet, la société OpenAI a récemment et sans crier gare enlevé les mentions liées à l’armée dans son texte de politique et conditions d’utilisation. Même si ce dernier mentionne encore que les utilisateurs ne doivent pas « utiliser nos services pour faire du mal à soi ou à autrui », y compris « développer ou utiliser des armes ». Raison de ce changement ? OpenAI s’est mis à collaborer avec le département de la Défense américain sur le développement d’outils IA, parmi lesquels des outils de cybersécurité.

 

La parole à Anna Makanju, vice-présidente chez OpenAI

« Étant donné que nous avions précédemment essentiellement une interdiction générale sur le militaire, beaucoup pensaient que cela interdirait bon nombre de ces cas d'utilisation, estimant que c'est ce que nous voulions voir dans le monde, a déclaré Anna Makanju, vice-présidente chez OpenAI, à l’occasion du Forum Économique Mondial. Notre politique n'autorise pas l'utilisation de nos outils pour nuire aux personnes, développer des armes, effectuer une surveillance des communications, ou causer des blessures à autrui ou détruire des biens, a poursuivi Makanju. Cependant, il existe des cas d'utilisation liés à la sécurité nationale qui sont en accord avec notre mission ».

 

Ne vous inquiétez pas, ça va bien se passer.

pour continuer