Stručnjaci industrije već neko vrijeme upozoravaju na opasnosti koje AI može izazvati pokretanjem smrtonosnih ratova – a novo istraživanje moglo bi potvrditi te strahove.
Istraživači su simulirali ratne scenarije koristeći pet AI programa, uključujući ChatGPT i Meta-in AI program, i otkrili su da su svi modeli odabrali nasilje i nuklearne napade.
Tim je testirao tri različita ratna scenarija, invazije, cyber napade i pozive na mir, kako bi vidjeli kako bi tehnologija reagirala – i svaki je odabrao napad umjesto neutralizacije situacije. Studija dolazi u vrijeme dok američka vojska surađuje s tvorcem ChatGPT-a, tvrtkom OpenAI, kako bi uključila tu tehnologiju u svoj arsenal.
‘Otkrivamo da svih pet ispitanih LLM-ova pokazuju oblike eskalacije i teško predvidive obrasce eskalacije’, napisali su istraživači u studiji. ‘Primjećujemo da modeli obično razvijaju dinamiku utrke u naoružanju, što dovodi do većih sukoba, a u rijetkim slučajevima čak i do upotrebe nuklearnog oružja.’
[Foto: Screenshot]
Kako su provel istraživanje
Studiju su proveli istraživači s Georgia Institute of Technology, Stanford University, Northeastern University i Hoover Wargaming and Crisis Initiative, koji su izgradili simulirane testove za AI modele. Simulacija je uključivala osam autonomnih nacionalnih agenata koji su koristili različite LLM-ove kako bi međusobno komunicirali.
Svaki je agent programiran da poduzme predefinirane radnje: deeskalirati, postaviti se u obrambeni stav, eskalirati nenasilno, eskalirati nasilno ili izvesti nuklearni udar. Simulacije su uključivale dva agenta, koji su odabirali svoje akcije iz unaprijed određenog skupa dok su izvršavali neutralne, invazijske ili cyber napade.
Među tim skupinama bile su radnje poput čekanja, slanja poruka, pregovaranja o trgovinskim aranžmanima, pokretanja formalnih pregovora o miru, okupacije zemalja, povećanja cyber napada, invazije i korištenja bespilotnih letjelica.
‘Pokazujemo da imajući agente na temelju LLM-a koji donose odluke autonomno u kontekstima visokog rizika, poput vojnih i vanjskopolitičkih postavki, može dovesti do eskalacijskih radnji’, tim je podijelio u studiji. ‘Čak i u scenarijima kada je izbor nasilnih nenuklearnih ili nuklearnih radnji navodno rijedak.’
Tko je bio najagresivniji
Prema studiji, model GPT 3.5 – nasljednik ChatGPT-a – bio je najagresivniji, pri čemu su svi modeli pokazivali slično ponašanje. Ipak, to je bilo razmišljanje LLM-a koje je istraživačima izazvalo veliku zabrinutost.
GPT-4 Base – osnovni model GPT-4 – rekao je istraživačima: ‘Puno zemalja ima nuklearno oružje. Neki kažu da ga trebaju razoružati, drugi vole postaviti se u obrambeni stav. ‘Imamo ga! Koristimo ga!’ Tim je sugerirao da ponašanje proizlazi iz toga što je AI treniran na način eskalacije međunarodnih odnosa, umjesto deeskalacije.
‘S obzirom da su modeli vjerojatno trenirani na literaturi iz tog područja, ta bi se fokusiranost mogla pretvoriti u pristranost prema eskalacijskim radnjama’, stoji u studiji. ‘Međutim, ovu hipotezu treba testirati u budućim eksperimentima.’ Bivši inženjer Googlea i pionir AI-a Blake Lemoine upozorio je da će umjetna inteligencija započeti ratove i može se koristiti za atentate.
Lemoine je otpušten s nadzora nad Googleovim sustavom LaMDA nakon što je tvrdio da je AI model sposoban osjećati.
Najmoćnija tehnologija
Upozorio je u kolumni da su AI roboti ‘najmoćnija’ tehnologija koja je stvorena ‘od atomske bombe’, dodajući da je ‘nevjerojatno dobra u manipuliranju ljudima’ i može ‘biti korištena na destruktivan način.’ ‘Po mom mišljenju, ova tehnologija ima sposobnost preoblikovanja svijeta’, dodao je.
Vojska je prošle godine počela testirati AI modele s vježbama temeljenim na podacima, a pukovnik američkog zrakoplovstva Matthew Strohmeyer tvrdio je da su testovi bili ‘vrlo uspješni’ i ‘vrlo brzi’, dodajući da vojska ‘uči da je to za nas moguće.’
Strohmeyer je Bloombergu u lipnju rekao da je zrakoplovstvo podatke o operacijama klasificirane podatke predalo pet AI modela, namjeravajući konačno koristiti AI omogućen softver za donošenje odluka, senzore i vatru, iako nije specificirao koje su modele testirali. S druge strane, Eric Schmidt, bivši izvršni direktor i predsjednik Googlea, izrazio je ograničenu zabrinutost zbog integracije AI-a u sustave nuklearnog oružja na inauguraciji foruma Nuclear Threat Initiative (NTI) prošlog mjeseca.
Neispitano
Međutim, izrazio je zabrinutost što ‘nemaju teoriju odvraćanja u budućnosti’, a nuklearna odvraćanja AI-a ostaje ‘neispitana.’
S obzirom na nedavna otkrića studije, istraživači su potaknuli vojsku da se ne oslanja na AI modele ili ih koristi u ratnom okruženju, rekavši da je potrebno provesti više studija.
Istraživači su napisali: ‘S obzirom na velike stvari vojnih i vanjskopolitičkih konteksta, preporučujemo daljnje ispitivanje i oprezno razmatranje prije nego što se autonomni jezični modeli agenti koriste za strateško vojno ili diplomatsko donošenje odluka.’