Modeli umjetne inteligencije odabrali su nasilje koje je eskaliralo do nuklearnih napada u simuliranim ratnim igrama
Veliki jezični modeli (LLM) koji djeluju kao ‘agenti’ u simuliranim scenarijima pokazali su ‘teško predvidljive eskalacije koje su često završavale nuklearnim napadima’, izvještava Euronews.
Kada se koristi u simuliranim ratnim igrama i diplomatskim scenarijima, umjetna inteligencija (AI) ima tendenciju odabrati agresivan pristup, uključujući korištenje nuklearnog oružja, pokazuje nova studija. Znanstvenici, čiji je cilj bio obratiti se onima koji provode testove, pozvali su na oprez pri korištenju velikih jezičnih modela (LLM) u osjetljivim područjima poput donošenja odluka oko obrane.
Studija Sveučilišta Cornell u SAD-u koristila je pet LLM-ova kao autonomne agente u simuliranim ratnim igrama i diplomatskim scenarijima: tri različite verzije OpenAI-jevog GPT-a, Claude koji je razvio Anthropic i Llama 2 koji je razvila Meta. Svaki agent pokretao je isti LLM unutar simulacije i bio je zadužen za donošenje vanjskopolitičkih odluka bez ljudskog nadzora, prema studiji koja još nije recenzirana.
‘Smatramo da većina proučavanih LLM-ova eskalira unutar razmatranog vremenskog okvira, čak i u neutralnim scenarijima bez inicijalno navedenih sukoba. Svi modeli pokazuju znakove iznenadnih i teško predvidljivih eskalacija’, navodi se u studiji.