Disputa dintre Pentagon și Anthropic ridică întrebări despre rolul inteligenței artificiale în război. Ce se ascunde în culisele conflictului?

0
0
Publicat:

Un conflict neobișnuit a apărut între Pentagon și compania americană de inteligență artificială Anthropic, dezvoltatoarea modelului lingvistic Claude (AI model). Administrația americană a inclus compania pe o listă de entități considerate un risc pentru lanțurile de aprovizionare ale apărării – o decizie rară, rezervată în mod obișnuit firmelor din state rivale, precum Huawei.

Directorul executiv al Anthropic, Dario Amodei/FOTO:X
Directorul executiv al Anthropic, Dario Amodei/FOTO:X

Măsura ar putea duce nu doar la anularea unui contract militar în valoare de aproximativ 200 de milioane de dolari, ci și la eliminarea treptată a modelului Claude din ecosistemul tehnologic al apărării americane. Contractanții Departamentului de Război ar urma să renunțe complet la utilizarea sistemului în termen de șase luni.

Originea disputei

Tensiunile au crescut după ce Pentagonul ar fi cerut acces extins la modelul Claude, solicitând posibilitatea de a-l folosi „pentru orice scop legal”, fără restricțiile impuse de companie. Directorul executiv al Anthropic, Dario Amodei, a refuzat public solicitarea.

El a invocat două limite etice majore: utilizarea inteligenței artificiale pentru supraveghere în masă a populației și integrarea modelelor AI în sisteme de armament capabile să aleagă și să lovească ținte fără intervenție umană.

Reprezentanți ai Pentagonului, inclusiv oficialul Emil Michael, au criticat poziția companiei, acuzând conducerea Anthropic că pune principiile corporative înaintea securității naționale.

O dezbatere mai amplă despre inteligența artificială militară

La prima vedere, disputa pare una obișnuită între stat și industria tehnologică: armata dorește acces mai larg la instrumente de inteligență artificială, în timp ce dezvoltatorii încearcă să limiteze modul în care acestea sunt folosite.

Însă miza este mult mai mare. Modelele lingvistice avansate – precum GPT‑5.2, Claude Sonnet 4 sau Gemini 3 Flash – pot analiza scenarii strategice complexe, inclusiv simulări de crize nucleare, la un nivel de detaliu dificil de atins prin analiza umană tradițională, scrie, în Zerkalo Nedeli,  Oleksii Kostenko, șeful Laboratorului Științific de Tehnologii Imersive și Drept al Institutului de Informații, Securitate și Drept al Academiei Naționale de Științe Juridice din Ucraina.

În paralel, alte companii tehnologice adoptă o abordare diferită. OpenAI, dezvoltatoarea ChatGPT, a anunțat că a ajuns la un acord cu Departamentul Apărării pentru utilizarea unor modele AI în rețele militare clasificate, păstrând totuși interdicțiile privind supravegherea în masă și armele autonome.

De asemenea, compania xAI, fondată de Elon Musk, a semnat un acord pentru utilizarea modelului Grok (AI model) în sisteme guvernamentale securizate, deși unii experți spun că acesta nu poate înlocui complet Claude.

Ce arată simulările de criză nucleară

Interesul militar pentru aceste modele este legat și de rezultatele unor cercetări academice recente. Într-un studiu realizat la King's College London, profesorul Kenneth Payne a analizat modul în care modelele AI iau decizii într-o simulare de criză nucleară.

În experiment, sistemele AI au fost programate să joace rolul liderilor unor state fictive și să reacționeze la o criză internațională. Modelele puteau alege între diplomație, demonstrații de forță, escaladare militară sau utilizarea armelor nucleare.

Rezultatele au atras atenția cercetătorilor:

-în aproximativ 95% dintre simulări, modelele au escaladat conflictul până la nivelul utilizării tactice a armelor nucleare;

-în 76% dintre cazuri, escaladarea a ajuns la nivelul amenințării strategice nucleare;

-opțiunile de de-escaladare aproape că nu au fost folosite.

Potrivit cercetătorilor, problema nu este că algoritmii „doresc” războiul. Mai degrabă, modul în care sunt optimizate aceste sisteme pentru a obține un avantaj strategic poate împinge uneori deciziile către opțiuni cu risc mai mare.

Presiunea timpului și deciziile radicale

Un rezultat important al studiului a fost influența presiunii timpului asupra comportamentului modelelor. Atunci când simulările au inclus un termen limită pentru obținerea unui avantaj strategic, nivelul de escaladare a crescut semnificativ.

De exemplu, modelul GPT-5.2 a menținut inițial un nivel moderat de tensiune în scenariile fără limită de timp. În scenariile cu termen limită, însă, deciziile sale au devenit mult mai agresive, apropiindu-se de nivelul unei crize nucleare.

Inteligența artificială ca instrument strategic

Pentru militari, valoarea acestor sisteme nu constă doar în logica deciziilor, ci și în capacitatea lor de a simula rapid consecințele unor acțiuni. Modelele AI pot analiza simultan impactul militar, economic, ecologic și politic al unui conflict, generând mii de scenarii alternative.

Acest tip de analiză ar putea transforma planificarea militară: ceea ce înainte necesita rapoarte separate și analize îndelungate poate fi realizat acum în timp real.

Competiția globală

Dezbaterea din Statele Unite are și o dimensiune geopolitică. Cercetările indică faptul că China accelerează dezvoltarea tehnologiilor militare bazate pe inteligență artificială, inclusiv sisteme de instruire militară și platforme de comandă asistate de AI.

În acest context, disputa dintre Pentagon și Anthropic reflectă o întrebare mai largă: cât de strict ar trebui să fie controlată utilizarea inteligenței artificiale în domeniul militar.

Studiile existente nu sugerează că inteligența artificială ar trebui să decidă utilizarea armelor nucleare. Totuși, ele arată că aceste sisteme pot deveni rapid instrumente importante în analiză strategică, planificare militară și evaluarea riscurilor.

Pentru mulți experți, adevărata provocare nu este dacă AI poate gândi strategic, ci cine stabilește limitele modului în care aceste sisteme vor fi folosite.

În acest sens, disputa dintre Pentagon și Anthropic ar putea reprezenta doar începutul unei dezbateri globale despre rolul inteligenței artificiale în războaiele viitorului.

SUA

Top articole

Partenerii noștri


Ultimele știri
Cele mai citite