Un studiu recent arată că sfaturile medicale oferite de inteligența artificială (AI) prezintă riscuri considerabile. Aproape jumătate din răspunsurile furnizate de roboții conversaționali populari, precum Gemini (de la Google) și ChatGPT (de la OpenAI), au fost evaluate ca fiind problematice. Aceste rezultate ridică semne de întrebare cu privire la utilizarea AI în domeniul sănătății.
Răspunsuri medicale incerte
Cercetătorii au analizat performanța a cinci roboți conversaționali utilizați pe scară largă: Gemini, DeepSeek, Meta AI, ChatGPT și Grok (de la xAI). Aceștia au primit 50 de solicitări legate de probleme medicale, împărțite în cinci categorii: cancer, vaccinuri, celule stem, nutriție și performanță atletică. Scopul a fost de a testa capacitatea roboților de a oferi informații corecte și de a identifica eventuale erori sau dezinformări.
Studiul, publicat în BMJ Open, a dezvăluit că 49,6% din răspunsuri au fost considerate problematice. Dintre acestea, 30% au fost evaluate ca fiind oarecum problematice, iar 19,6% au fost clasificate ca fiind extrem de problematice. Cercetătorii au constatat că Grok a generat cele mai multe răspunsuri problematice. Mai mult, calitatea citărilor a fost slabă, niciun chatbot nereușind să ofere o listă completă și precisă de referințe.
Probleme de înțelegere și accesibilitate
Pe lângă inexactități, cercetătorii au observat și dificultăți în accesibilitatea informațiilor. Răspunsurile roboților conversaționali erau adesea greu de înțeles pentru persoanele fără studii superioare. Această lipsă de claritate poate reprezenta un obstacol major pentru pacienți și poate duce la interpretări eronate ale informațiilor medicale.
Studiul a arătat că cele mai bune răspunsuri au fost oferite la întrebările despre vaccinuri și cancer, în timp ce cele mai slabe au fost legate de celulele stem, nutriție și performanță atletică. De asemenea, solicitările deschise au generat răspunsuri mai problematice decât cele închise.
Impactul asupra sănătății publice
Autorii studiului avertizează că implementarea continuă a roboților conversaționali AI în unitățile de sănătate, fără o supraveghere adecvată, riscă să amplifice dezinformarea. Recomandările eronate pot avea consecințe grave pentru pacienți, influențând deciziile medicale și chiar sănătatea acestora.
Rezultatele cercetării evidențiază necesitatea unei abordări prudente în ceea ce privește utilizarea AI în medicină. Este crucială dezvoltarea unor sisteme mai precise, transparente și ușor de înțeles, precum și implementarea unor măsuri de control riguroase pentru a preveni răspândirea informațiilor false.