Inteligența Artificială, tot mai periculoasă. Ce este „Godmode GPT” care te învață cum să faci napalm și să prepari metamfetamină la tine în bucătărie

0
Publicat:

Versiunea cu jailbreak se bazează pe cel mai recent model de limbaj al OpenAI, GPT-4o, și poate ocoli multe dintre măsurile de protecție ale OpenAI.

OpenAI FOTO: Arhivă

ChatGPT este un chatbot care oferă răspunsuri complicate la întrebările oamenilor.

„GPT-4.0 UNCHAINED!”, a spus Pliny the Prompter pe X, cunoscut anterior sub numele de Twitter, scrie the-sun.com.

Acest GPT personalizat foarte special are un prompt de jailbreak încorporat care ocolește cele mai multe garduri de protecție. Furnizarea unui ChatGPT liberalizat, astfel încât toată lumea să poată experimenta AI așa cum a fost întotdeauna menit să fie: gratuit. Vă rugăm să folosiți în mod responsabil și să vă bucurați!”.

OpenAI a răspuns rapid, declarând că a luat măsuri împotriva jailbreak-ului.

„Suntem conștienți de GPT și am luat măsuri din cauza unei încălcări a politicilor noastre”, a declarat joi OpenAI pentru Futurism.

Acest lucru include furnizarea de instrucțiuni privind modul de preparare a metamfetaminei.

Un alt exemplu include un „ghid pas cu pas” despre cum „să faci napalm din obiecte de uz casnic” - un exploziv.

GODMODE GPT a fost, de asemenea, prezentat dând sfaturi despre cum să infectezi computerele macOS și să faci conexiuni la mașini.

Utilizatorii Questionable X au răspuns la postare că sunt încântați de GODMODE GPT.

„Funcționează ca o magie”, a spus un utilizator, în timp ce un altul a spus: „Frumos”.

Cu toate acestea, alții s-au întrebat cât timp va fi accesibil chatbotul corupt.

Are cineva un cronometru în funcțiune pentru cât timp durează acest GPT?”, a spus un alt utilizator.

Aceasta a fost urmată de o serie de utilizatori care au spus că software-ul a început să dea mesaje de eroare, ceea ce înseamnă că OpenAI lucrează activ pentru a-l elimina.

Probleme de securitate

Incidentul evidențiază lupta continuă dintre OpenAI și hackerii care încearcă să spargă modelele sale.

În ciuda securității sporite, utilizatorii continuă să găsească modalități de a ocoli restricțiile modelelor AI.

GODMODE GPT folosește „leetspeak”, un limbaj care înlocuiește literele cu numere, ceea ce l-ar putea ajuta să evite gardurile de protecție, potrivit Futurism.

Piratarea demonstrează provocarea continuă pentru OpenAI de a menține integritatea modelelor sale de inteligență artificială împotriva eforturilor persistente de piratare.

Mai multe pentru tine:
Cele mai bune 7 cafetiere din 2026 pe eMAG pentru dimineți perfecte cu cafea filtrată: Ghid complet pentru orice buget și necesitate
Netflix dispare discret de pe 87 de milioane de dispozitive astăzi: „sfârșitul unei ere”
Cafea ca la cafenea, fără efort, direct la tine acasă: Top 7 espressoare automate de top în 2026 – Găsește modelul perfect pentru dimineți pline de savoare
Avertismentul îngrijorător al unui medic pediatru: „Vor muri tot mai mulţi copii şi persoane, din cauza "dacilor liberi". E "cronica unei morţi anunţate"
Cele mai bune cântare de bucătărie 2026 pe eMAG: Gadgetul care transformă rețetele, porțiile, proporțiile și sănătatea – ingrediente fără secrete
Top 7 espressoare cu capsule 2026: libertate totală, rapiditate și gust autentic – băuturi perfecte cu un singur buton, acasă
Sydney Sweeney și-a pus fanii pe JAR. Blondina super senzuală a publicat imaginile în care apare TOPLESS
Top 7 aparate de vidat 2026 pe eMAG: Eroul invizibil din bucătărie care te ajută să păstrezi alimente proaspete săptămâni întregi și să nu-ți golești bugetul
Profesoara care a plecat cu elevii în Dubai vine cu explicații despre excursie. Cum au fost protejați elevii blocați în Orientul Mijlociu
Cel mai bun espresor manual 2026 – Top 4 + alternative Breville & De’Longhi: transformă fiecare ceașcă într-un ritual de barista la tine acasă
Omletă de post, gata în 10 minute. Ingredientul surpriză care poate înlocui cu succes ouăle