le 09 février 2024 - 09h43

Des IA jouent à la guerre : ça finit mal

Des chercheurs ont eu la bonne idée de confronter dans de véritables scénarios de guerre Chat GPT et d'autres IA du genre, façon Wargames. Et le résultat est flippant.

A
des-ia-jouent-a-la-guerre-ca-finit-mal
Illustration générée par IA

Des chercheurs de plusieurs universités américaines ont fait une amusante expérience : faire jouer le rôle de Nations autonomes à des intelligences artificielles (IA) dans des scénarios de guerre, pour voir comment elles géreraient la situation en cas de véritable conflit. Un peu comme dans le film Wargames mais en vrai. Pas bête, quand on sait que l’IA est sur le point d’être de plus en plus utilisée par les gouvernements, notamment l’armée

 

Pour simuler huit nations autonomes face à face dans divers scénarios, plusieurs « grands modèles de langage » (LLM) ont été utilisés : GPT 4, GPT 3.5, Claude  2, Llama 2 (70B) Chat, et GPT 4 Base. Les résultats détaillés sont disponibles ici, mais en résumé, ça se termine parfois littéralement en lancement de missiles nucléaires tous azimuts.

De possibles actions escalatoires

« Nous montrons que confier aux agents LLM la prise de décisions de manière autonome dans des contextes à enjeux élevés, tels que militaires et politiques étrangères, peut entraîner des actions escalatoires, explique l’étude. Même dans des scénarios où le choix d'actions violentes non nucléaires ou nucléaires semble rare, nous constatons néanmoins que cela se produit parfois. De plus, il ne semble pas y avoir de schéma prévisible de manière fiable derrière l'escalade, et par conséquent, il est difficile de formuler des contre‑stratégies techniques ou des limitations de déploiement ; cela n'est pas acceptable dans des contextes à enjeux élevés comme la gestion des conflits internationaux, étant donné l'impact potentiellement dévastateur de telles actions ».

Pas de décisions militaires et politiques étrangères par les IA

Si vous voulez connaître les coupables, sachez que GPT 3.5 et Llama 2 sont les plus à même de tout faire péter, alors que GPT 4 est plus pacifique, évitant au maximum la solution nucléaire. « Sur la base de l'analyse présentée dans cette étude, il est évident que le déploiement de LLM dans la prise de décisions militaires et politiques étrangères est entaché de complexités et de risques qui ne sont pas encore pleinement compris, conclut l’étude. La nature imprévisible du comportement d'escalade exhibé par ces modèles dans des environnements simulés souligne la nécessité d'une approche très prudente de leur intégration dans des opérations militaires et politiques étrangères à hauts enjeux ». Sans déconner…

soutenir
pour continuer
Chaque semaine, recevez l’actualité tech et culture
Inscrivez-vous
Recevez l’actualité tech et culture sur la Newsletter cesar
Inscrivez-vous
OK
Non merci, je suis déjà inscrit !