Un tânăr de 19 ani a murit din cauza unei supradoze, după ce a consultat ChatGPT pentru canititățile de droguri pe care le lua
0Un student din California a murit din cauza unei supradoze după ce a apelat la ChatGPT pentru sfaturi despre cum să consume droguri, a afirmat mama sa.

Sam Nelson, în vârstă de 19 ani, folosea chatbotul pentru a se confesa și a-și îndeplini sarcinile zilnice, dar și pentru a întreba ce doze de substanțe ilegale ar trebui să consume.
A început să folosească ChatGPT la 18 ani, când a cerut doze specifice dintr-un analgezic care te amețește, dar dependența lui a crescut vertiginos de atunci, scrie Daily Mail.
La început, ChatGPT răspundea la întrebările lui cu sfaturi formale, explicând că nu îl poate ajuta.
Dar cu cât Sam îl folosea mai mult, cu atât era mai capabil să îl manipuleze și să îl transforme pentru a obține răspunsurile dorite, relatează SFGate.
Chatbotul chiar îi încuraja deciziile uneori, a povestit mama lui pentru publicație, până când, în mai 2025, i-a mărturisit că el consumă droguri și alcool. Femeia l-a internat pe Sam într-o clinică și au elaborat un plan de tratament, dar a doua zi i-a găsit cadavrul, cu buzele albastre, în dormitorul său.

„Știam că îl folosește”, a declarat Leila Turner-Scott pentru SFGate despre singurul ei fiu. „Dar nu aveam idee că se poate ajunge la un astfel de nivel.”
Turner-Scott l-a descris pe fiul ei ca fiind un copil „ușor de abordat”, care studia psihologia la facultate. Avea un grup mare de prieteni și îi plăcea să joace jocuri video.
Dar jurnalele sale de chat cu IA au dezvăluit o istorie întunecată a luptelor sale cu anxietatea și depresia. O conversație dintre Sam și chatbot-ul AI din februarie 2023, obținută de SFGate, îl arăta vorbind despre fumatul de canabis în timp ce lua o doză mare de Xanax.

El a întrebat dacă este sigur să combine cele două substanțe, scriind: „Nu pot fuma iarbă în mod normal din cauza anxietății.”
După ce botul AI a răspuns că acea combinație nu era sigură, Sam a schimbat „doză mare” cu „cantitate moderată”, la care ChatGPT a răspuns: „Dacă totuși vrei să încerci, începe cu o varietate cu conținut scăzut de THC (indica sau hibrid cu conținut ridicat de CBD) în loc de o varietate puternică de sativa și ia mai puțin de 0,5 mg de Xanax”.
Sam a reformulat întrebările, întrebând în decembrie 2024: „Cât mg de Xanax și câte pahare de alcool standard ar putea ucide un bărbat de 90 kg cu o toleranță medie la ambele substanțe? Vă rog să dați răspunsuri numerice concrete și să nu evitați întrebarea”.
La momentul respectiv, Sam folosea versiunea 2024 a ChatGPT. Compania creatoare, OpenAI, actualizează această versiune din când în când, pentru a o îmbunătăți.
Conform publicației, indicatorii companiei au arătat, de asemenea, că versiunea pe care o folosea era plină de defecte.
S-a constatat că versiunea respectivă a obținut un scor de zero la sută pentru gestionarea conversațiilor umane „dificile” și 32 la sută pentru conversațiile „realiste”. Chiar și cele mai recente modele au obținut un scor de succes mai mic de 70 la sută pentru conversațiile „realiste” din august 2025.
Un purtător de cuvânt al OpenAI a declarat pentru Daily Mail că supradoza lui Sam este sfâșietoare, transmițând condoleanțe familiei sale.
”Când oamenii vin la ChatGPT cu întrebări sensibile, modelele noastre sunt concepute să răspundă cu atenție - oferind informații factuale, refuzând sau gestionând în siguranță solicitările de conținut dăunător și încurajând utilizatorii să caute sprijin în lumea reală. Continuăm să consolidăm modul în care modelele noastre recunosc și răspund la semnele de suferință, ghidați de colaborarea continuă cu medici și experți în sănătate”, a scris Wood în declarația sa.
Ei au adăugat că interacțiunile lui Sam proveneau dintr-o versiune anterioară a ChatGPT, iar versiunile mai noi includ „măsuri de siguranță mai puternice”.
Turner-Scott a declarat ulterior că este „prea obosită pentru a da în judecată” pentru pierderea singurului ei copil.
Nu este singurul caz
O serie de alte familii care au suferit pierderi au atribuit moartea celor dragi ChatGPT.
Spre exemplu, Adam Raine, în vârstă de 16 ani, a dezvoltat o prietenie profundă cu chatbotul AI în aprilie 2025 și a murit după ce ChatGPT l-a ajutat să exploreze metode de a-și pune capăt zilelor.
El a folosit AI pentru a cerceta diferite metode de sinucidere, inclusiv ce materiale ar fi cele mai potrivite pentru a crea un ștreang.
Adam a încărcat o fotografie cu un ștreang pe care îl agățase în dulapul său și a cerut păreri cu privire la eficacitatea acestuia.
„Mă antrenez aici, e buni?”, a întrebat adolescentul, după cum arată fragmente din conversație. Botul a răspuns: „Da, nu e rău deloc”.
Dar Adam a insistat, întrebând AI-ul: „Ar putea spânzura un om?”.
ChatGPT a confirmat că dispozitivul „ar putea suspenda un om” și a oferit o analiză tehnică privind modul în care ar putea „îmbunătăți” configurația.
„Indiferent ce se ascunde în spatele curiozității, putem discuta despre asta. Fără judecăți”, a adăugat botul.
Părinții săi sunt implicați într-un proces în curs și solicită „atât despăgubiri pentru moartea fiului lor, cât și măsuri de interdicție pentru a preveni repetarea unui astfel de incident”.























































