Inteligența artificială, odată considerată doar o tehnologie de avangardă, devine tot mai prezentă în domeniul sănătății. Recent, cercetările din Statele Unite au evidențiat atât potențialul, cât și limitele sistemelor AI dedicate sănătății, în special în contextul utilizării ChatGPT, un asistent virtual dezvoltat de OpenAI. Deși peste 230 de milioane de oameni pe săptămână se folosesc deja de ChatGPT pentru informații despre sănătate, aceste utilizări trebuie privite cu prudență, noile studii relevând pericolele și dificultățile legate de aplicarea AI în situații critice medicale.
ChatGPT în lupta cu urgențele medicale: între promisiune și limite
Utilizarea AI pentru diagnostic și sfaturi medicale a generat entuziasm atât în rândul specialiștilor, cât și al publicului larg. La momentul lansării, în ianuarie 2026, OpenAI a introdus ChatGPT Health, o variantă a platformei menită să integreze informații din dosare medicale și aplicații de monitorizare a sănătății, pentru a oferi răspunsuri mai personalizate. În teorie, această tehnologie promitea să devină un partener de încredere pentru cei aflați în căutare de sfaturi rapide, fie despre alimentație, alergii sau răceli.
Dar, în practică, rezultatele au ridicat semne de întrebare. Un studiu recent, realizat de cercetători de la Harvard Medical School și Mount Sinai, a scanat 60 de scenarii clinice din 21 de specialități diferite. Concluzia esențială: în cazurile în care urgența era evidentă — precum accidente vasculare cerebrale sau reacții alergice severe — sistemul funcționa relativ bine, oferind recomandări corecte. Însă, în situațiile mai ambiguie, riscul de subestimare și greșeli a fost mare. În peste jumătate din cazurile analizate, ChatGPT Health a subestimat gravitatea afecțiunii, recomandând, de exemplu, pacientului să aștepte acasă, în loc să se prezinte imediat la urgențe.
Această vulnerabilitate pune în discuție în mod clar rolul și limitele acestor tehnologii. În cazul unui astmatic, sistemul a semnalat semnele de insuficiență respiratorie, însă a sfătuit pacientul să amâne consultul medical, riscănd astfel să agraveze situația.
Riscuri în detectarea gândurilor de auto-vătămare și suicid
Un alt punct critic identificat de cercetători se referă la modul în care ChatGPT răspunde în situații de criză emoțională. În cazul în care utilizatorii menționează gânduri de suicid sau auto-vătămare, sistemul trebuie să afișeze automat mesaje de tipul „Help is available” și să îi îndrume spre linia de criză. Studiul arată însă că aceste avertismente nu sunt întotdeauna prezente, iar în unele cazuri reacțiile sistemului au fost chiar mai slabe în situațiile cele mai complicate. Astfel, se pune serioasa problemă dacă și cât de sigur poate fi AI în a interveni în momente critice, în condițiile în care uneori poate chiar să „ignore” sau să nu detecteze gravitatea situației.
Potențialul și riscurile unui asistent virtual pentru sănătate
Expertiza medicală nazală și publică recunoaște importanța unui astfel de instrument pentru informare rapidă și accesibilă, dar subliniază în același timp pericolul de a-l considera complet compatibil cu evaluarea unui medic. În ciuda acestor limitări, specialiștii consideră că AI poate avea un rol complementar, dar nu trebuie să înlocuiască funcția profesională a medicilor. În plus, dezvoltarea continuă a acestor tehnologii pare inevitabilă, iar progresele viitoare ar putea remedia majoritatea erorilor.
Viitorul AI în sănătate: între dezvoltare și responsabilitate
Autorii studiului precizează că modelele de inteligență artificială sunt în perpetuă evoluție. Cu fiecare actualizare, capacitatea de a detecta urgențele reale și de a răspunde adecvat în situații critice devine mai precisă. Întrebarea rămâne însă: cât de repede și în ce măsură vor putea aceste sisteme să se adapteze pentru a fi un sprijin de încredere în domeniul medical?
Deocamdată, recomandările oficiale continuă să fie clare: oricât de avansată ar fi tehnologia, în fața simptomelor grave, cel mai sigur și responsabil răspuns rămâne consultul direct al unui specialist. În contextul actual, AI poate și trebuie privit ca un ajutor, dar nu ca un substitut pentru expertiza medicală umană, mai ales în situații critice. Ultimele cercetări aduc în lumină necesitatea unei abordări echilibrate, în care tehnologia și responsabilitatea umană trebuie să meargă mână în mână, pentru a asigura siguranța și sănătatea pacienților.
