Inteligența Artificială, tot mai periculoasă. Ce este „Godmode GPT” care te învață cum să faci napalm și să prepari metamfetamină la tine în bucătărie

0
Publicat:

Versiunea cu jailbreak se bazează pe cel mai recent model de limbaj al OpenAI, GPT-4o, și poate ocoli multe dintre măsurile de protecție ale OpenAI.

OpenAI FOTO: Arhivă

ChatGPT este un chatbot care oferă răspunsuri complicate la întrebările oamenilor.

„GPT-4.0 UNCHAINED!”, a spus Pliny the Prompter pe X, cunoscut anterior sub numele de Twitter, scrie the-sun.com.

Acest GPT personalizat foarte special are un prompt de jailbreak încorporat care ocolește cele mai multe garduri de protecție. Furnizarea unui ChatGPT liberalizat, astfel încât toată lumea să poată experimenta AI așa cum a fost întotdeauna menit să fie: gratuit. Vă rugăm să folosiți în mod responsabil și să vă bucurați!”.

OpenAI a răspuns rapid, declarând că a luat măsuri împotriva jailbreak-ului.

„Suntem conștienți de GPT și am luat măsuri din cauza unei încălcări a politicilor noastre”, a declarat joi OpenAI pentru Futurism.

Acest lucru include furnizarea de instrucțiuni privind modul de preparare a metamfetaminei.

Un alt exemplu include un „ghid pas cu pas” despre cum „să faci napalm din obiecte de uz casnic” - un exploziv.

GODMODE GPT a fost, de asemenea, prezentat dând sfaturi despre cum să infectezi computerele macOS și să faci conexiuni la mașini.

Utilizatorii Questionable X au răspuns la postare că sunt încântați de GODMODE GPT.

„Funcționează ca o magie”, a spus un utilizator, în timp ce un altul a spus: „Frumos”.

Cu toate acestea, alții s-au întrebat cât timp va fi accesibil chatbotul corupt.

Are cineva un cronometru în funcțiune pentru cât timp durează acest GPT?”, a spus un alt utilizator.

Aceasta a fost urmată de o serie de utilizatori care au spus că software-ul a început să dea mesaje de eroare, ceea ce înseamnă că OpenAI lucrează activ pentru a-l elimina.

Probleme de securitate

Incidentul evidențiază lupta continuă dintre OpenAI și hackerii care încearcă să spargă modelele sale.

În ciuda securității sporite, utilizatorii continuă să găsească modalități de a ocoli restricțiile modelelor AI.

GODMODE GPT folosește „leetspeak”, un limbaj care înlocuiește literele cu numere, ceea ce l-ar putea ajuta să evite gardurile de protecție, potrivit Futurism.

Piratarea demonstrează provocarea continuă pentru OpenAI de a menține integritatea modelelor sale de inteligență artificială împotriva eforturilor persistente de piratare.

Mai multe pentru tine:
Crocant, sănătos, rapid, fără ulei și fără stres – Cele mai bune air fryere din 2026 care îți vor schimba modul de a găti! Profită de ofertele eMAG
Cele mai bune aparate de gătit cu aburi în 2026: Top 5 modele eMAG pentru mese rapide, sănătoase și fără grăsimi – magia aburului în bucătărie
Top mașini de pâine 2026 testate și recomandate. Secretul pâinii perfecte acasă: proaspătă, sănătoasă și fără efort
Cele mai bune storcătoare 2026 – top modele pentru sucuri proaspete și nutritive, din peste 1.400 modele eMAG, pentru schimbări reale în dieta zilnică
Top 7 fierbătoare electrice 2026 pe care nu le vrei să le ratezi: economisește timp și energie în bucătărie
Ce diferență de vârstă este între Marian Godină, concurentul de la Survivor 2026, și soția lui. Cu câți ani este Georgiana mai tânără de fapt
Nașterea care a zguduit casa regală. 70 de martori au fost prezenți la venirea pe lume a prințului. Ce a născut una dintre cele mai importante regine
Scandalul se adâncește: Sarah Ferguson ar fi avut relații intime cu Epstein, iar Andrew voia să devină „animalul lui de companie”
Un primar PSD, în lacrimi pe Facebook după ce a fost acuzat de sechestrare și violență asupra fiicei și fostei partenere. Imagini dramatice cu victima
Cel mai tânăr concurent de la Românii au talent a cucerit toată țara: „Ești absolut adorabil!” Teodor are doar 3 ani și are un vis măreț
Cel mai bun multicooker electric în 2026: Top 7 alegeri testate care îți economisesc timp și bani