Armata SUA a folosit asistentul Claude dezvoltat de Anthropic în timpul raidului de capturare a lui Maduro
0Armata americană a folosit modelul de inteligență artificială Claude dezvoltat de Anthropic în cursul operațiunii de capturare a președintelui Venezuelei, Nicolás Maduro, au declarat pentru Axios două surse familiarizate cu situația.

Dezvăluirea ar putea amenința afacerile companiei cu Pentagonul datorită politicilor stricte ale Antrophic privind utilizările asistentului său.
După rapoartele privind utilizarea lui Claude în raidul SUA din Venezuela, un oficial de rang înalt al administrației SUA a declarat pentru Axios că Pentagonul își va reevalua parteneriatul cu Anthropic.
„Anthropic s-a interesat dacă software-ul dezvoltat de ei a fost folosit pentru raidul de capturare a lui Maduro, ceea ce a provocat îngrijorări reale în cadrul Departamentului de Război întrucât a sugerat că ar putea să nu aprobe acest lucru”, a spus oficialul.
„Orice companie care ar pune în pericol succesul operațional al luptătorilor noștri pe teren se numără printre cele cu care ar trebui să reevaluăm parteneriatul nostru pe viitor.”
Un purtător de cuvânt al Anthropic a negat: „Anthropic nu a dat un astfel de telefon Departamentului de Război”.
Episodul evidențiază tensiunile cu care se confruntă marile laboratoare de inteligență artificială, pe măsură ce intră în afaceri cu armata, încercând în același timp să mențină anumite limite privind modul în care sunt utilizate instrumentele lor.
Modelele de inteligență artificială pot procesa rapid datele în timp real, o capacitate apreciată de Pentagon, având în vedere mediile haotice în care au loc operațiunile militare.
Axios nu a putut confirma rolul precis pe care l-a jucat Claude în operațiunea de capturare a lui Maduro. Armata l-a folosit pe Claude în trecut pentru a analiza imagini din satelit sau informații. Sursele au declarat că Claude a fost folosit în timpul operațiunii active, nu doar în etapa de pregătire a acesteia.
Niciun american nu murit în urma raidului. Atât Cuba, cât și Venezuela au declarat că zeci de soldații și personal de securitate au fost uciși după intervenția la sol în care Maduro și soția lui au fost capturați în locuința lor.
Tensiuni privind folosirea inteligenței artificiale în operațiuni militare
Pentagonul dorește ca giganții inteligenței artificiale să le permită să își folosească modelele în orice scenariu, atâta timp cât respectă legea.
Anthropic, care s-a poziționat ca un lider în domeniul inteligenței artificiale ce pune pe primul loc siguranța, negociază în prezent cu Pentagonul termenii de utilizare a acesteia. Compania dorește să se asigure, în special, că tehnologia sa nu este utilizată pentru supravegherea în masă a americanilor sau pentru operarea armelor complet autonome.
Compania este încrezătoare că armata a respectat în toate cazurile termenii de utilizare, care conține unele restricții suplimentare, a declarat pentru Axios o sursă familiarizată cu aceste discuții.
„Nu putem comenta în ce măsură Claude sau orice alt model de inteligență artificială a fost folosit pentru vreo operațiune specifică, clasificată sau de altă natură”, a declarat purtătorul de cuvânt al Anthropic.
„Orice utilizare a Claude — fie în sectorul privat, fie în cadrul guvernului — trebuie să respecte condițiile noastre de utilizare, care guvernează modul în care poate fi implementat Claude. Colaborăm îndeaproape cu partenerii noștri pentru a asigura conformitatea.”
Secretarul Apărării, Pete Hegseth, a îmbrățișat cu entuziasm inteligența artificială și a declarat că intenționează să o integreze rapid în toate aspectele activității armatei, parțial pentru a asigura întâietatea SUA în raport cu China.
Înalți oficiali ai Pentagonului și-au exprimat frustrarea față de poziția Anthropic privind asigurarea protecțiilor, a declarat o sursă familiară cu aceste discuții.
Anthropic este unul dintre numeroșii producători importanți de modele AI care lucrează cu Pentagonul în diverse domenii.
OpenAI, Google și xAI au încheiat acorduri pentru ca utilizatorii militari să acceseze modelele lor fără multe dintre protecțiile care se aplică utilizatorilor obișnuiți. Nu este clar dacă au fost folosite și alte modele AI în timpul operațiunii din Venezuela.
Pe de altă parte, cea mai sensibilă muncă a armatei — de la testarea armelor până la comunicațiile din timpul operațiunilor active — are loc pe sisteme clasificate. Deocamdată, doar sistemul Anthropic este disponibil pe aceste platforme clasificate.
Anthropic are, de asemenea, un parteneriat cu Palantir, firma de software pentru inteligență artificială care are contracte extinse cu Pentagonul, ceea ce îi permite să îl utilizeze pe Claude în cadrul produselor sale de securitate. Nu este clar dacă utilizarea asistentului în cadrul operațiunii are legătură cu parteneriatul Anthropic-Palantir.
Discuțiile sunt în desfășurare între Pentagon și OpenAI, Google și xAI cu privire la permisiunea asupra utilizării instrumentelor lor în cadrul unor sisteme clasificate. Anthropic și Pentagonul poartă, de asemenea, discuții despre o posibilă relaxare a restricțiilor impuse în utilizarea lui Claude.























































