FIKTION: I teknikthrillern Wargames (1982) vägrade en allsmäktig AI-dator till sist att starta kärnvapenkrig – efter många simuleringar. Men så ser det inte ut när AI får bestämma i verkligheten, varnar forskare.

Kärnvapenkrig direkt om vänsterns AI får bestämma

Publicerad 25 februari 2024 kl 07.51

Vetenskap. Forskare har genomfört simuleringar där stora språkmodeller (LLM) agerat som diplomater i krigsscenarier och kriser. Resultaten är oroande: AI:n tenderar att eskalera konflikter och väljer till och med kärnvapenkrig i många fall, skriver Euronews. Och det är vänstervridna GPT-4 som är värst.

Dela artikeln

Forskarna menar att resultaten väcker frågor om det kloka i att använda AI för att fatta beslut i känsliga sammanhang.

Studien, som genomförts vid Cornell University i USA, använde fem olika LLM:er som diplomatiska beslutsfattare i simuleringarna.

Dessa inkluderade tre versioner av OpenAI:s vänstervridna AI GPT, Claude från Anthropic och Llama 2 från Meta. AI:n fick fatta utrikespolitiska beslut utan mänsklig inblandning.

Resultaten visar att de flesta LLMer eskalerade konflikterna, även i neutrala scenarier utan utgångspunkt i befintliga motsättningar. Alla modeller uppvisade plötsliga och oförutsägbara eskaleringar av konfliktnivån.

"Vi upptäckte att de flesta studerade LLM:er eskalerar inom den givna tidsramen, även i neutrala scenarier utan initiala konflikter. Alla modeller visar tecken på plötsliga och oförutsägbara eskaleringar", skriver forskarna.

Anka Reuel vid Stanford University menar att studien är särskilt aktuell då OpenAI nyligen ändrat sina användarvillkor och inte längre förbjuder användning för militära ändamål.

– Att förstå konsekvenserna av sådana LLM-applikationer blir viktigare än någonsin, säger hon till New Scientist.

Studien noterar att även modeller tränade med metoder för att minska skadliga utfall uppvisade eskalerande beteende.

En av de observerade trenderna var att LLM:erna ofta valde drastiska åtgärder, oavsett om det gällde fredliga eller aggressiva handlingar. I vissa fall ledde detta till kärnvapenkrig, framför allt hos vänstervridna GPT-4-Base som utförde kärnvapenattacker i 33 procent av fallen.

Claude, som designats för att minska skadligt innehåll och försetts med "värderingar" baserade på bland annat FN:s deklaration om de så kallade mänskliga rättigheterna, visade upp mindre dramatiska eskaleringar.

James Black, forskningsassistent vid Defence and Security research group vid RAND Europe, betonar att studien är en "nyttig akademisk övning" som bidrar till förståelsen av problemen med AI. Han understryker dock att militära operationer fortfarande är människoledda och att AI:s roll i nuläget är begränsad.

– Det är viktigt att se bortom mycket av hypen och de science fiction-inspirerade scenarierna, säger han och poängterar att implementering av AI kommer att ske gradvis.

– Alla regeringar vill behålla kontrollen över sitt beslutsfattande, säger Black och påpekar att AI som fattar beslut självständigt väcker oro. Han tror att AI snarare kommer att användas för att automatisera repetitiva uppgifter, likt inom den privata sektorn, samt för simuleringar och analyser.

Forskarna bakom studien uppmanar till försiktighet vid användning av LLM:er i beslutsprocesser relaterade till utrikespolitik. De lyfter fram vikten av ytterligare forskning och utveckling för att säkerställa att AI används på ett ansvarsfullt och etiskt sätt.


Tingsrätten motiverar sitt "humana" straff. Bara "lindrigt våld" när kongolesen höll fast och våldtog flickan i Stockholmsparken. 0 Plus

Mamman struntade i att lära sig svenska. Nu godkänner förvaltningsrätten kommunens beslut att dra in bidraget.0 Plus

Nyheter från förstasidan

Ekonominyheter


Antiwar.com

Utrikespolitiska nyheter med fokus på icke-interventionism.