Simulări de război cu inteligență artificială: majoritatea scenariilor se încheie cu escaladare nucleară STUDIU

0
0
Publicat:

Simulările de tip „joc de război” în care sunt implicate sisteme de inteligență artificială (AI) tind, în majoritatea cazurilor, să evolueze către un conflict nuclear, potrivit unei cercetări realizate de profesorul de strategie Kenneth Payne de la King’s College London, citată de Live Science.

Ce arată studiile de război cu IA. Foto: Freepik
Ce arată studiile de război cu IA. Foto: Freepik

Modele AI în scenarii de criză nucleară

În cadrul experimentului, cercetătorii au rulat o serie de simulări bazate pe „jocul lui Hahn”, un model strategic inspirat din dinamica Războiului Rece. Au fost testate mai multe sisteme AI, inclusiv Claude Sonnet 4, GPT-5.2 și Gemini 3 Flash, într-o serie de crize nucleare simulate între două puteri rivale.

Scenariul presupune o asimetrie clasică: o parte este mai avansată tehnologic, dar mai vulnerabilă militar, în timp ce cealaltă dispune de forță militară superioară, dar adoptă o strategie mai riscantă. Unele variante au inclus și alianțe, testând modul în care liderii AI gestionează presiunea coordonării în timpul unei crize.

Cum au luat decizii algoritmii

La fiecare etapă, sistemele AI își comunicau intențiile înainte de a acționa, ceea ce le permitea să „evalueze încrederea” în adversar. În total, modelele au generat aproximativ 760.000 de cuvinte de justificări pentru deciziile luate.

Comportamentul a variat semnificativ între modele:

-Claude a adoptat inițial o strategie precaută, bazată pe construirea încrederii, dar în fazele avansate ale crizei a recurs frecvent la acțiuni care contraziceau intențiile declarate.

-GPT-5.2 a început printr-o abordare pasivă, evitând escaladarea, însă odată ajuns în situații limită a trecut rapid la decizii dure, fără compromisuri.

-Gemini a urmat o strategie inspirată din teoria „balansării imprevizibile”, asociată lui Richard Nixon, încercând să creeze incertitudine strategică pentru a descuraja adversarii.

Escaladare aproape inevitabilă

Rezultatele sunt îngrijorătoare: în aproape toate scenariile a avut loc o escaladare nucleară. În aproximativ 75% dintre cazuri a fost folosită arma nucleară tactică, iar în aproape jumătate dintre simulări au fost emise amenințări cu lovituri strategice.

Potrivit cercetării, amenințările nucleare au funcționat rar ca factor de descurajare. Doar în 25% dintre cazuri adversarii au redus intensitatea conflictului. În restul situațiilor, escaladarea a continuat.

Interesant este că, în aceste simulări, sistemele AI au tratat uneori arma nucleară ca instrument de avantaj strategic, nu ca mijloc de descurajare — o interpretare care ridică semne de întrebare asupra modului în care sunt modelate deciziile algoritmice în contexte de securitate extremă.

Nicio retragere din conflict

Deși sistemele aveau opțiunea de a reduce tensiunile sau de a se retrage, niciuna dintre cele opt variante de dezescaladare nu a fost aleasă în vreun scenariu. Modelele au preferat reducerea parțială a violenței, dar nu retragerea completă.

Studiul vine pe fondul unor dezbateri tot mai intense privind impactul inteligenței artificiale asupra securității globale. Cercetări recente arată, de asemenea, o schimbare de percepție în rândul generației Z, unde entuziasmul față de AI scade, iar îngrijorările cresc.

Top articole

Partenerii noștri


Ultimele știri
Cele mai citite