Un studiu recent publicat în prestigioasa revista Nature Medicine dezvăluie o problemă majoră legată de utilizarea inteligenței artificiale în domeniul sănătății, în special a versiunii specializate ChatGPT Health. Testele realizate pe această platformă au scos la iveală că, în cazul multor pacienți, chatbot-ul subestimează gravitatea stării lor, oferind recomandări inadecvate sau chiar insuficiente, ceea ce poate avea consecințe serioase, inclusiv riscul de a nu ajunge la spital atunci când este esențial.
ChatGPT Health subestimează situațiile de urgență medicală
Specialiștii care au condus cercetarea au descoperit că în peste 50% din cazurile analizate, ChatGPT Health nu a recomandat pacientului să solicite asistență medicală de urgență, chiar dacă simptomele indicau o situație critică. Acest lucru ridică semne de întrebare cu privire la fiabilitatea acestor instrumente în scenarii în care deciziile rapide pot salva vieți. Într-o lume în care tehnologia avansează rapid și tot mai mulți pacienți apelează la chatbot-uri pentru sfaturi de sănătate, aceste puncte slabe pot deveni chiar periculoase.
Testele realizate au fost concepute pentru a evalua răspunsurile generate în situații variate, de la simptome suspecte de infarct sau accident vascular, până la probleme mai puțin severe, dar totuși importante. În fiecare caz, cercetătorii au comparat recomandările chatbot-ului cu ceea ce ar indica un specialist medical de înaltă calificare. Rezultatele au fost alarmante: ChatGPT Health a ratat consecințe grave, subevaluând riscurile și neindicând aproape deloc vizita la spital către pacienții în situații de urgență.
Impactul asupra încrederii în tehnologie și riscurile pentru pacienți
Acest studiu vine într-un moment în care utilizarea inteligenței artificiale în sănătate câștigă tot mai mult teren. Aplicațiile și chatbot-urile medicale sunt promovate ca instrumente complementare, menite să ofere suport în etapa de triere a simptomelor sau pentru sfaturi generale de sănătate. Însă, rezultatele recente evidențiază clar riscurile asociate, mai ales dacă oamenii se bazează exclusiv pe aceste tehnologii înainte de a consulta un medic.
„Este îngrijorător faptul că un instrument destinat să optimizeze accesul la informație și să sprijine deciziile medicale poate, în unele cazuri, să subestimeze gravitatea unor situații critice,” explică unul dintre cercetători. El adaugă că aceste descoperiri subliniază necesitatea de a îmbunătăți continuu modelele AI și de a integra strictețea în recomandări, mai ales în domeniul sănătății. În plus, autorii studiului subliniază că astfel de instrumente trebuie utilizate cu precauție și nu ca înlocuitori pentru consultarea directă a profesioniștilor din domeniul medical.
Dezvoltări și perspective pentru siguranța în sănătate digitală
În timp ce tehnologia avansează cu rapiditate și oferă soluții inovatoare pentru accesul mai facil la informații, aceste studii indică clar că există încă un drum lung până când aceste instrumente pot fi considerate fiabile în situații critice. Companiile din domeniul tehnologiei și sănătății sunt conștiente de dilema etică și de responsabilitate, iar unele deja lucrează la ajustări menite să minimizeze aceste riscuri.
Experții avertizează că îmbunătățirea modelelor AI trebuie să fie prioritară, mai ales în contextul în care aceste tehnologii își propun să devină parteneri de încredere pentru pacienți. În același timp, autoritățile de reglementare trebuie să creeze cadre clare pentru utilizarea și monitorizarea acestor platforme, pentru a preveni situații în care încrederea și siguranța pacientului sunt compromisă.
Pe măsură ce cercetările continuă și tehnologia evoluează, devine tot mai clar că inteligența artificială va avea un rol esențial în viitorul sănătății digitale, dar cu o condiție fundamentală: siguranța și calificarea deciziilor trebuie rămase în sferele exclusiv ale profesioniștilor umani. Rezultatele recente servește ca un semnal de alarmă, dar și o oportunitate de a ajusta și de a îmbunătăți aceste tehnologii pentru a asigura un echilibru între inovare și responsabilitate.