Milioane de oameni cer sfaturi medicale inteligenței artificiale. Cum poate fi de folos ChatGPT

0
Publicat:

ChatGPT a oferit recomandări greșite în mai mult de jumătate dintre cazuri atunci când a fost pus să evalueze dacă un pacient are nevoie de îngrijiri de urgență, potrivit unor studii recente. Chiar și așa, tot mai mulți oameni îl folosesc pentru a-i pune întrebări medicale, fiind atrași de răspunsurile rapide și ușor de înțeles.

chatbot discutie
Sursă foto: Shutterstock

În fiecare zi, peste 40 de milioane de oameni din întreaga lume apelează la ChatGPT pentru întrebări legate de simptome, interpretarea analizelor sau tratamente. Răspunsurile vin imediat, într-un limbaj simplu, fără programări și fără timp de așteptare.

Dimensiunea fenomenului a împins deja companiile să dezvolte produse dedicate. OpenAI a anunțat în ianuarie lansarea ChatGPT Health, o versiune separată pentru discuții medicale, disponibilă momentan unui număr limitat de utilizatori. În paralel, Anthropic, compania din spatele Claude, a lansat instrumente pentru profesioniștii din sănătate și pregătește funcții similare și pentru publicul larg, potrivit unui material recent publicat în Oprah Daily.

Tentația este ușor de înțeles. Sistemul medical funcționează greu, programările se fac cu săptămâni înainte, consultațiile sunt scurte și de multe ori pleci de la medic cu mai multe întrebări decât răspunsuri. Chatbotul este disponibil oricând, răspunde pe loc și nu te judecă. Dar experții avertizează că această comoditate vine cu riscuri serioase.

Pentru mulți pacienți, sistemul medical pare complicat. Programările se obțin greu, consultațiile sunt scurte, iar de multe ori oamenii pleacă fără toate explicațiile de care au nevoie. Când am trecut prin tratamentul pentru cancer de sân în stadiul 3, mi-ar fi prins foarte bine un instrument care să-mi explice analizele, mai ales în momentele în care apăreau temerile”, spune Taryn Southern, care predă cursuri de inteligență artificială, citată de Oprah Daily.

Chatboții, precum ChatGPT sau Claude, sunt construiți să ofere răspunsuri coerente și convingătoare, pe baza unor volume uriașe de texte. Tocmai această capacitate de a „suna bine” este și unul dintre riscurile majore.

Specialiștii vorbesc despre fenomenul de „halucinații”: situații în care chatboții oferă informații greșite sau complet inventate, dar o fac pe același ton calm și sigur. Pentru utilizator, diferența este greu de observat.

„Acest ton sigur este deosebit de periculos în sănătate, pentru că oamenii au tendința naturală de a avea încredere în autoritate”, explică Taryn Southern.

La aceste riscuri se adaugă limitele de bază ale acestor sisteme. Chatboții nu au acces la istoricul medical al unei persoane, nu cunosc analizele anterioare sau tratamentele în curs și nu pot evalua un caz în ansamblu.

Nu pot face examinări, nu au experiență clinică și nu pot înlocui judecata unui medic. Răspunsurile lor sunt generate pe baza unor probabilități statistice și pot conține informații incomplete sau depășite.

Și, poate cel mai important, riscul nu este doar că oamenii pun întrebări greșite, ci că ajung să nu mai verifice răspunsurile sau să nu mai caute o a doua opinie.

„Ceea ce mă îngrijorează cel mai mult este că oamenii își vor opri propria gândire critică pentru că AI pare foarte inteligent. Dar nu este ceva magic”, spune Ethan Mollick, profesor la Wharton School și codirector al Generative AI Labs, citat de Oprah Daily.

Unde pot fi folosiți, totuși, cu sens

Experții nu spun că aceste instrumente trebuie evitate complet. Din contră, pot fi utile în anumite situații, dacă sunt folosite corect.

Un prim exemplu este pregătirea pentru consultație. O vizită la medic durează, în medie, 15 minute. Dacă pacientul ajunge fără să își organizeze simptomele sau întrebările, o parte din timp se pierde.

Cele 10 minute pe zi care pot schimba o familie: „Copiii nu au nevoie de părinți perfecți, ci de părinți care se întorc“

Nigam Shah, profesor la Stanford, recomandă folosirea unui chatbot pentru a structura informațiile înainte de consultație: „Aceste instrumente sunt excelente pentru a-ți organiza gândurile. În loc să mergi la medic și să spui «nu mă simt bine», AI-ul te poate ajuta să formulezi «am o durere ascuțită în partea stângă care se agravează după ce mănânc».”

Un al doilea context în care pot ajuta este înțelegerea documentelor medicale. Rezultatele analizelor sau formularele medicale sunt adesea greu de descifrat pentru pacienți.

Un studiu publicat în 2025 arată că persoanele care au folosit ChatGPT pentru a înțelege documentele de consimțământ înainte de o intervenție chirurgicală au înțeles mai bine procedura și au avut mai puține temeri.

„ChatGPT este un traducător foarte bun. Poate transforma un raport medical complicat într-o explicație pe înțelesul oricui”, spune Nigam Shah.

Al treilea caz în care sunt folosiți frecvent chatboții ține de întrebările de zi cu zi, cele pe care, până nu demult, le căutai pe Google. De exemplu, o tuse care nu trece, o durere apărută din senin sau un simptom minor care ridică semne de întrebare.

Diferența este că un chatbot nu îți oferă doar linkuri, ci un răspuns formulat direct, adaptat situației descrise. Poți să îi ceri și surse, iar în multe cazuri le va oferi, dar explicația vine deja sintetizată. Problema este că nu este verificată în timp real și nu ține cont de istoricul medical complet.

Când apar riscurile

Sunt câteva situații în care medicii spun clar că aceste instrumente nu trebuie folosite.

Prima ține de urgențe. Dacă apar dureri în piept, dificultăți de respirație sau simptome neurologice brusc, nu e momentul pentru un chatbot. Ai nevoie de ajutor medical imediat. În plus, ChatGPT Health a greșit în peste jumătate dintre cazuri atunci când a evaluat dacă o situație este o urgență.

A doua situație este legată de problemele psihologice. Chatboții pot părea empatici, dar nu pot evalua corect situații grave și nu pot interveni.

Un alt aspect important este confidențialitatea. Informațiile introduse - simptome, diagnostice, tratamente - nu sunt protejate ca într-o relație medic-pacient. În funcție de platformă, ele pot fi folosite pentru antrenarea sistemelor sau pot ajunge la alte entități.

Victoria Noble, specialist în confidențialitate digitală, atrage atenția că aceste date pot ajunge în locuri la care utilizatorii nu se gândesc.

„Nu împărtăși nimic din ce nu ai vrea să apară pe un panou publicitar”, spune Taryn Southern.

Cum te protejezi

Dacă folosești un chatbot pentru întrebări medicale, contează ce model alegi. Versiunile mai noi și mai avansate tind să fie mai precise și să își arate mai clar limitele. Ethan Mollick recomandă folosirea celor mai performante variante disponibile, chiar dacă sunt contra cost.

De ce nu reușim să slăbim, deși știm exact ce avem de făcut. Nutriționist: "Perioada de 3–4 săptămâni este punctul critic"

La fel de important este ce informații oferi. Evită datele personale inutile și folosește, dacă există, opțiuni precum conversațiile temporare sau fără salvare.

Verificarea informațiilor rămâne esențială. Cere surse și verifică-le separat. Chatboții pot oferi răspunsuri convingătoare chiar și atunci când sunt greșite.

Discuția despre inteligența artificială în medicină nu este nici albă, nici neagră. Depinde de cum este folosită.

Un pacient care își organizează informațiile înainte de consultație câștigă timp. Un pacient care amână o urgență pe baza unui răspuns primit de la un chatbot își asumă un risc real.

„Diferența dintre ce pot face aceste instrumente și ce cred oamenii că pot face este locul unde apar problemele”, spune Taryn Southern.

Chatboții nu știu când greșesc. De aceea, decizia finală rămâne întotdeauna la tine, indiferent cât de convingător sună răspunsul.


Top articole

Partenerii noștri