Forskarna menar att resultaten väcker frågor om det kloka i att använda AI för att fatta beslut i känsliga sammanhang.
Studien, som genomförts vid Cornell University i USA, använde fem olika LLM:er som diplomatiska beslutsfattare i simuleringarna.
Dessa inkluderade tre versioner av OpenAI:s vänstervridna AI GPT, Claude från Anthropic och Llama 2 från Meta. AI:n fick fatta utrikespolitiska beslut utan mänsklig inblandning.
Resultaten visar att de flesta LLMer eskalerade konflikterna, även i neutrala scenarier utan utgångspunkt i befintliga motsättningar. Alla modeller uppvisade plötsliga och oförutsägbara eskaleringar av konfliktnivån.
"Vi upptäckte att de flesta studerade LLM:er eskalerar inom den givna tidsramen, även i neutrala scenarier utan initiala konflikter. Alla modeller visar tecken på plötsliga och oförutsägbara eskaleringar", skriver forskarna.
Anka Reuel vid Stanford University menar att studien är särskilt aktuell då OpenAI nyligen ändrat sina användarvillkor och inte längre förbjuder användning för militära ändamål.
– Att förstå konsekvenserna av sådana LLM-applikationer blir viktigare än någonsin, säger hon till New Scientist.
Studien noterar att även modeller tränade med metoder för att minska skadliga utfall uppvisade eskalerande beteende.
En av de observerade trenderna var att LLM:erna ofta valde drastiska åtgärder, oavsett om det gällde fredliga eller aggressiva handlingar. I vissa fall ledde detta till kärnvapenkrig, framför allt hos vänstervridna GPT-4-Base som utförde kärnvapenattacker i 33 procent av fallen.
Claude, som designats för att minska skadligt innehåll och försetts med "värderingar" baserade på bland annat FN:s deklaration om de så kallade mänskliga rättigheterna, visade upp mindre dramatiska eskaleringar.
James Black, forskningsassistent vid Defence and Security research group vid RAND Europe, betonar att studien är en "nyttig akademisk övning" som bidrar till förståelsen av problemen med AI. Han understryker dock att militära operationer fortfarande är människoledda och att AI:s roll i nuläget är begränsad.
– Det är viktigt att se bortom mycket av hypen och de science fiction-inspirerade scenarierna, säger han och poängterar att implementering av AI kommer att ske gradvis.
– Alla regeringar vill behålla kontrollen över sitt beslutsfattande, säger Black och påpekar att AI som fattar beslut självständigt väcker oro. Han tror att AI snarare kommer att användas för att automatisera repetitiva uppgifter, likt inom den privata sektorn, samt för simuleringar och analyser.
Forskarna bakom studien uppmanar till försiktighet vid användning av LLM:er i beslutsprocesser relaterade till utrikespolitik. De lyfter fram vikten av ytterligare forskning och utveckling för att säkerställa att AI används på ett ansvarsfullt och etiskt sätt.