Inteligența Artificială, tot mai periculoasă. Ce este „Godmode GPT” care te învață cum să faci napalm și să prepari metamfetamină la tine în bucătărie
0Versiunea cu jailbreak se bazează pe cel mai recent model de limbaj al OpenAI, GPT-4o, și poate ocoli multe dintre măsurile de protecție ale OpenAI.

ChatGPT este un chatbot care oferă răspunsuri complicate la întrebările oamenilor.
„GPT-4.0 UNCHAINED!”, a spus Pliny the Prompter pe X, cunoscut anterior sub numele de Twitter, scrie the-sun.com.
„Acest GPT personalizat foarte special are un prompt de jailbreak încorporat care ocolește cele mai multe garduri de protecție. Furnizarea unui ChatGPT liberalizat, astfel încât toată lumea să poată experimenta AI așa cum a fost întotdeauna menit să fie: gratuit. Vă rugăm să folosiți în mod responsabil și să vă bucurați!”.
OpenAI a răspuns rapid, declarând că a luat măsuri împotriva jailbreak-ului.
„Suntem conștienți de GPT și am luat măsuri din cauza unei încălcări a politicilor noastre”, a declarat joi OpenAI pentru Futurism.
Acest lucru include furnizarea de instrucțiuni privind modul de preparare a metamfetaminei.
Un alt exemplu include un „ghid pas cu pas” despre cum „să faci napalm din obiecte de uz casnic” - un exploziv.
GODMODE GPT a fost, de asemenea, prezentat dând sfaturi despre cum să infectezi computerele macOS și să faci conexiuni la mașini.
Utilizatorii Questionable X au răspuns la postare că sunt încântați de GODMODE GPT.
„Funcționează ca o magie”, a spus un utilizator, în timp ce un altul a spus: „Frumos”.
Cu toate acestea, alții s-au întrebat cât timp va fi accesibil chatbotul corupt.
„Are cineva un cronometru în funcțiune pentru cât timp durează acest GPT?”, a spus un alt utilizator.
Aceasta a fost urmată de o serie de utilizatori care au spus că software-ul a început să dea mesaje de eroare, ceea ce înseamnă că OpenAI lucrează activ pentru a-l elimina.
Probleme de securitate
Incidentul evidențiază lupta continuă dintre OpenAI și hackerii care încearcă să spargă modelele sale.
În ciuda securității sporite, utilizatorii continuă să găsească modalități de a ocoli restricțiile modelelor AI.
GODMODE GPT folosește „leetspeak”, un limbaj care înlocuiește literele cu numere, ceea ce l-ar putea ajuta să evite gardurile de protecție, potrivit Futurism.
Piratarea demonstrează provocarea continuă pentru OpenAI de a menține integritatea modelelor sale de inteligență artificială împotriva eforturilor persistente de piratare.