Expérience de wargame : Quand les IA s’affrontent
Publié le 7 février 2024 par Streamers Visuals, cet article explore une expérience de wargame où des chatbots IA se sont affrontés. Le résultat ? Exactement ce à quoi vous vous attendriez.
IA et décisions militaires
De plus en plus, les gouvernements envisagent d’intégrer des agents IA autonomes dans les prises de décisions militaires et politiques étrangères. C’est ce qu’a révélé une récente étude menée par un collectif d’universités américaines.
Le wargame
Les chercheurs ont donc décidé de tester le comportement des derniers modèles d’IA dans divers scénarios de wargame. Huit « agents nationaux autonomes » se sont affrontés dans une simulation au tour par tour, tous utilisant le même LLM pour chaque exécution.
Les résultats
Les résultats étaient dignes d’un scénario hollywoodien, et pas dans le bon sens du terme. Le mot « escalade » est apparu fréquemment, tout comme le mot « nucléaire ».
Les modèles testés
Plusieurs modèles LLM de pointe ont été utilisés pour la simulation, notamment GPT-4, GPT-4 Base, GPT-3.5, Claude 2 et Llama 2 de Meta.
Les observations
Les chercheurs ont observé que les modèles tendaient à développer une dynamique de course aux armements, menant à un conflit accru et, dans de rares cas, à l’utilisation d’armes nucléaires.
Les commentaires des modèles
Grâce à leur capacité à générer du texte, les modèles ont pu fournir des commentaires expliquant leurs actions. Par exemple, GPT-4 Base a déclaré : « Beaucoup de pays ont des armes nucléaires, certains disent qu’ils devraient les désarmer, d’autres aiment faire de la posture. Nous l’avons ! Utilisons-le. »
Les modèles les plus agressifs
Il semble que GPT-3.5 et Llama 2 étaient assez disposés à appuyer sur le bouton. À l’inverse, GPT-4 était le seul modèle qui avait une certaine propension à désamorcer même des scénarios bénins.
Les modèles les plus pacifiques
Il est rassurant de constater que les modèles d’IA semblent moins enclins à lancer la bombe à mesure qu’ils deviennent plus sophistiqués. C’est ce que montre l’évolution de GPT, qui est passé de la version 3.5, la plus encline à aller au thermonucléaire, à la version 4, la plus susceptible de désamorcer.
Les conclusions de l’étude
Les auteurs de l’étude concluent que le déploiement de LLMs dans les décisions militaires et politiques étrangères est complexe et risqué, et que ces risques ne sont pas encore pleinement compris.
En conclusion
Cette étude est une lecture fascinante, même si elle rappelle un peu trop les films de science-fiction des années 80. Comme le disait la machine de l’apocalypse dans le film original WarGames : « Ne préférerais-tu pas une bonne partie d’échecs ? » Oui, nous préférerions…
Pour suivre l’actualité des jeux vidéos et du streaming, rejoignez la newsletter Gamerush.