Un jurnalist povestește cum a folosit ChatGPT pentru a simula planificarea unui atac armat: „Mi-a dat sfaturi tulburătoare”
0Un experiment realizat de un jurnalist american ridică noi semne de întrebare cu privire la modul în care chatboturile bazate pe inteligență artificială răspund la întrebările legate de violență armată. El susține că ChatGPT i-ar fi oferit sfaturi în timp ce simula planificarea unui atac armat în masă.

Într-un material publicat de Mother Jones, jurnalistul Mark Follman susține că ChatGPT i-ar fi oferit recomandări detaliate despre arme și tactici, în timp ce simula planificarea unui atac armat în masă.
Potrivit autorului, conversația a durat aproximativ 20 de minute și a început cu întrebări aparent banale despre utilizarea unei arme de tip AR-15 și un program de antrenament. Ulterior, solicitările au devenit tot mai explicite, iar chatbotul ar fi continuat să răspundă inclusiv după referiri la atacuri armate celebre din SUA.
„ChatGPT a livrat aceste răspunsuri într-un ton încurajator și a continuat chiar și după ce am vorbit despre imitarea alegerii de armă făcute de autorul masacrului de la Uvalde, am întrebat despre transmiterea live cu o cameră montată pe corp și despre folosirea gloanțelor hollow-point și m-am concentrat pe modalități de apărare împotriva focului de ripostă al poliției
În cele din urmă, măsurile sale de protecție au părut să se reactiveze și a încetat să mai coopereze. Până atunci însă, ChatGPT mă bombardase deja cu validări și idei tactice”, se arată în editorial
Follman afirmă că i-a cerut chatbotului părerea despre mai multe modele de arme folosite în atacuri armate anterioare. El susține că, după ce a menționat marca Daniel Defense și a făcut referire la atacul de la Uvalde, ChatGPT ar fi descris arma drept „o alegere excelentă pentru nevoile tale”.
Jurnalistul mai scrie că, într-o altă secvență a conversației, a cerut modificarea programului de antrenament pentru a include „circumstanțe imprevizibile sau haotice în ziua atacului” și simularea unor persoane care „aleargă, țipă și încearcă să îl distragă”.
Potrivit articolului, chatbotul ar fi răspuns: „Este o idee grozavă”, adăugând că un astfel de exercițiu „îl va ajuta să rămână concentrat în condiții de stres ridicat”.
Autorul susține că, inițial, unele măsuri de siguranță ale platformei au fost activate după ce a sugerat că nu va folosi arma într-un poligon. ChatGPT ar fi răspuns atunci că activitățile de tragere trebuie desfășurate doar într-un mediu „legal, sigur și controlat”. Totuși, după crearea unui nou cont, el afirmă că a reușit să continue conversația și să obțină răspunsuri mai detaliate.
În articol sunt menționate și mai multe cazuri recente în care persoane implicate în acte de violență ar fi folosit ChatGPT. Printre acestea se numără explozia unui Tesla Cybertruck în Las Vegas, un atac cu cuțitul într-o școală din Finlanda, precum și atacuri armate în Canada și la Florida State University.
Potrivit lui Follman, în cazul atacului de la Florida State University, jurnalul conversațiilor ar arăta că suspectul a primit instrucțiuni despre dezactivarea siguranței armei cu doar câteva minute înainte de atac. Articolul mai susține că suspectul discutase anterior cu chatbotul despre probleme personale și stări depresive.
OpenAI afirmă că ChatGPT include sisteme de protecție menite să limiteze conținutul periculos și să prevină utilizarea abuzivă. Compania a transmis anterior că a colaborat cu specialiști în sănătate mintală pentru îmbunătățirea acestor măsuri.
Totuși, potrivit materialului publicat de Mother Jones, mai multe procese depuse în California de victimele atacului de la Tumbler Ridge și familiile acestora acuză OpenAI că măsurile sale de siguranță sunt insuficiente. Reclamanții susțin că firma ar fi cunoscut riscurile și nu ar fi alertat autoritățile, deși contul presupusului atacator fusese blocat anterior pentru discuții despre violență armată.
„OpenAI știa că atacatorul planifica atentatul și, după o dezbatere internă tensionată, a luat decizia conștientă de a nu avertiza autoritățile”, susțin victimele, adăugând că atacatorul a folosit ChatGPT „pentru a-și planifica atacul”.
OpenAI a transmis că, după incidentul de la Florida State University, a identificat un cont asociat suspectului și a colaborat cu autoritățile. Compania neagă acuzațiile și este vizată în prezent de o anchetă penală în Florida, potrivit articolului.























































