Inteligența Artificială, tot mai periculoasă. Ce este „Godmode GPT” care te învață cum să faci napalm și să prepari metamfetamină la tine în bucătărie

0
Publicat:

Versiunea cu jailbreak se bazează pe cel mai recent model de limbaj al OpenAI, GPT-4o, și poate ocoli multe dintre măsurile de protecție ale OpenAI.

OpenAI FOTO: Arhivă

ChatGPT este un chatbot care oferă răspunsuri complicate la întrebările oamenilor.

„GPT-4.0 UNCHAINED!”, a spus Pliny the Prompter pe X, cunoscut anterior sub numele de Twitter, scrie the-sun.com.

Acest GPT personalizat foarte special are un prompt de jailbreak încorporat care ocolește cele mai multe garduri de protecție. Furnizarea unui ChatGPT liberalizat, astfel încât toată lumea să poată experimenta AI așa cum a fost întotdeauna menit să fie: gratuit. Vă rugăm să folosiți în mod responsabil și să vă bucurați!”.

OpenAI a răspuns rapid, declarând că a luat măsuri împotriva jailbreak-ului.

„Suntem conștienți de GPT și am luat măsuri din cauza unei încălcări a politicilor noastre”, a declarat joi OpenAI pentru Futurism.

Acest lucru include furnizarea de instrucțiuni privind modul de preparare a metamfetaminei.

Un alt exemplu include un „ghid pas cu pas” despre cum „să faci napalm din obiecte de uz casnic” - un exploziv.

GODMODE GPT a fost, de asemenea, prezentat dând sfaturi despre cum să infectezi computerele macOS și să faci conexiuni la mașini.

Utilizatorii Questionable X au răspuns la postare că sunt încântați de GODMODE GPT.

„Funcționează ca o magie”, a spus un utilizator, în timp ce un altul a spus: „Frumos”.

Cu toate acestea, alții s-au întrebat cât timp va fi accesibil chatbotul corupt.

Are cineva un cronometru în funcțiune pentru cât timp durează acest GPT?”, a spus un alt utilizator.

Aceasta a fost urmată de o serie de utilizatori care au spus că software-ul a început să dea mesaje de eroare, ceea ce înseamnă că OpenAI lucrează activ pentru a-l elimina.

Probleme de securitate

Incidentul evidențiază lupta continuă dintre OpenAI și hackerii care încearcă să spargă modelele sale.

În ciuda securității sporite, utilizatorii continuă să găsească modalități de a ocoli restricțiile modelelor AI.

GODMODE GPT folosește „leetspeak”, un limbaj care înlocuiește literele cu numere, ceea ce l-ar putea ajuta să evite gardurile de protecție, potrivit Futurism.

Piratarea demonstrează provocarea continuă pentru OpenAI de a menține integritatea modelelor sale de inteligență artificială împotriva eforturilor persistente de piratare.

Mai multe pentru tine:
Black Friday la Flanco: Top oferte la soundbar-uri, sisteme audio și boxe portabile
Ce i-a provocat unei jurnaliste cancer intestinal la 44 de ani? Nu fuma, nu bea și avea o greutate normală
Gestul șocant al Marianei Moculescu față de Horia Moculescu, chiar când acesta se afla pe patul de moarte: „Solicit să fie interzis!”
Chillmas Deals 2025 pe eMAG: Top televizoare cu cele mai mari reduceri, de până la 5.000 de lei și calitate premium pentru living și dormitor
Black Friday 2025 „Bla-Bla Black Shopping Weeks” la XXXLutz: transformă-ți casa de sărbători cu piese spectaculoase și reduceri de până la 50%
VIDEO Informații înfiorătoare despre unul dintre cele mai scandaloase cazuri din istorie. Safari uman la 70.000 de lire sterline. Mai mulți bogați au ucis cu cruzime copii și femei, familii întregi. Cum s-au organizat excursiile de vânătoare umană
Fashion Days Black Friday 2025 – ultimele ore de reduceri de până la 90%. Transformă-ți outfitul în cel mai spectaculos mod, cu opere de artă
Promoții de iarnă PetMax: Suplimente veterinare esențiale pentru câini și pisici cu reduceri de până la 69%
Black Friday 2025 pe Flip.ro: cele mai mari reduceri la iPhone – economii de până la 1.000 de lei și telefoane premium sub 1.000 €
Nu-l iartă nici după moarte?! Mariana Moculescu refuză să meargă la înmormântarea fostului soț! Unde și când va fi înmormântat maestrul?
„M-a lovit atât de puternic”! Celebra vedetă face dezvăluiri cutremurătoare la 53 de ani