Într-o dimineață obișnuită, Andreea, o tânără de 32 de ani, simte un junghi ușor în piept în timp ce își bea cafeaua. În loc să sune la medic sau să ceară o trimitere, deschide aplicația ChatGPT și tastează o întrebare sumară: „Durere în piept de câteva minute, transpirație și palpitații – ce ar putea fi?”. Primește imediat un răspuns structurat, liniștitor și plin de opțiuni. Convinsă că nu e nimic grav, decide să își continue ziua, amânând orice investigație medicală.
Din fericire, pentru Andreea, problema nu a fost nimic mai grav decât stresul acumulat din ultimele săptămâni. Însă miile de utilizatori care apelează zilnic la generatoare de text riscă să transforme un simplu sfat online într-o iluzie de siguranță. În loc să considerăm ChatGPT drept un aliat care ne oferă informații generale, îl tratăm de multe ori ca pe un doctor la îndemână, capabil să înlocuiască consultația reală.
Ce face atât de atractivă această „consultație digitală”? În primul rând, accesibilitatea: un smartphone conectat la internet e tot ce ai nevoie. În al doilea rând, viteza: primești un răspuns în câteva secunde, fără programări sau așteptări la cabinet. Nu în ultimul rând, confortul psihologic: intimitatea e garantată, iar riscul de a părea ipohondru în fața unui medic dispare instant.
Totuși, dincolo de impresia de profesionalism, ChatGPT nu e antrenat să ofere analize medicale personalizate. Modelul lingvistic se bazează pe probabilități și pattern-uri statistice extrase din milioane de texte, nu din dosarul tău clinic. Nu are instrumente de evaluare obiectivă – nu poate măsura tensiunea arterială, nu poate asculta un murmur cardiac și nici nu poate cere un test de sânge.
Un alt pericol ascuns este fenomenul de „halucinație” a inteligenței artificiale: generarea de informații false sau neverificate, prezentate într-un limbaj convingător. Într-un raport recent, aproape 40% dintre paginile medicale auto-generate conțineau cel puțin un fapt inexact. Într-un context neglijent, o astfel de eroare poate împinge un pacient să amâne un diagnostic serios sau, dimpotrivă, să creeze panică inutilă.
Rolul responsabil al utilizatorului este esențial. Prezența unui disclaimer „Nu înlocuiește consultul medical” nu poate fi singura armă împotriva unor posibile neglijențe. Fiecare dintre noi trebuie să recunoască limitele instrumentelor digitale: un chatbot oferă doar posibile direcții de documentare, nu un verdict cert.
Pe de altă parte, companiile care dezvoltă aceste sisteme au datoria de a îmbunătăți siguranța utilizatorilor. Ar fi ideal ca răspunsurile la subiecte sensibile, precum sănătatea, să fie însoțite de link-uri către ghiduri oficiale, de referințe la surse medicale acreditate și să adauge avertismente mai vizibile atunci când diagnosticul poate pune viața în pericol.
Cum putem folosi ChatGPT în mod responsabil în materie de sănătate? În primul rând, tratați-l ca pe un dicționar medical: întrebați-l despre definiții, explicații ale termenilor sau criteriilor de screening recunoscute de profesioniști. În al doilea rând, folosiți-l pentru a vă pregăti întrebările pe care le veți adresa medicului: unelte pentru organizarea informației și creionarea dialogului cu specialistul.
Tot mai multe inițiative de cercetare dezvoltă modele specializate pe domeniul clinic, calibrate după protocoale de diagnostic și tratament. Aceste sisteme vor rămâne însă, în mod ideal, în mâinile profesioniștilor, pentru a nu cădea în capcana autodiagnosticării.
În final, trebuie reamintit că medicina rămâne o știință umană, bazată pe interacțiune directă, investigații și experiență clinică. ChatGPT poate fi un suport de documentare și sensibilizare, dar nu un înlocuitor al empatiei și al rigurozității unui cadru medical. Așadar, data viitoare când aveți un simptom îngrijorător, nu vă bazați exclusiv pe un chatbot – mai degrabă priviți-l ca pe un coleg de echipă care vă oferă informații extra, nu un specialist care face diagnosticul.
