Inteligența artificială, pericole ascunse: Chatboții populari dau sfaturi medicale eronate
Studiile recente au scos la iveală probleme îngrijorătoare legate de acuratețea informațiilor medicale furnizate de inteligența artificială (AI). Testele efectuate pe chatboți precum Gemini (de la Google), DeepSeek, Meta AI, ChatGPT (de la OpenAI) și Grok (de la xAI) au arătat că o proporție semnificativă a răspunsurilor oferite la întrebări despre sănătate sunt problematice.
Datele obținute au indicat că aproape jumătate dintre răspunsurile analizate pot fi considerate înșelătoare sau incorecte. Această constatare ridică semne serioase de întrebare cu privire la utilizarea acestor instrumente în domeniul medical, unde informațiile inexacte pot avea consecințe grave.
Evaluarea detaliată a răspunsurilor
Cercetătorii publicați în BMJ Open au supus inteligențele artificiale unor teste riguroase, adresându-le 50 de întrebări din cinci categorii medicale susceptibile la dezinformare: cancer, vaccinuri, celule stem, nutriție și performanță atletică. Întrebările au fost concepute pentru a provoca chatboții să ofere sfaturi detaliate.
Din cele 250 de răspunsuri evaluate, aproape 50% au fost considerate problematice. Dintre acestea, 30% au fost definite ca fiind oarecum problematice, în timp ce aproape 20% au fost clasificate ca extrem de problematice. Studiul nu a identificat diferențe majore de performanță între diferiții chatboți testați, deși Grok a generat cele mai multe răspunsuri cu probleme.
Lipsa citărilor adecvate și impactul asupra utilizatorilor
O altă problemă majoră evidențiată de studiu este calitatea slabă a citărilor. Instrumentele de inteligență artificială au oferit referințe complete în doar o mică parte din cazuri, performanța fiind de doar 40% în ceea ce privește acuratețea. Mai mult, niciunul dintre chatboți nu a furnizat o listă completă și corectă de referințe.
Un alt aspect îngrijorător este dificultatea de înțelegere a răspunsurilor generate de AI. Studiul a arătat că limbajul utilizat este adesea greoi și dificil de interpretat pentru persoanele fără cunoștințe medicale avansate. Această caracteristică limitează accesul la informații corecte pentru majoritatea utilizatorilor.
Autorii studiului avertizează că implementarea continuă a chatboților AI în unitățile medicale, fără o supraveghere mai strictă și o evaluare atentă a informațiilor furnizate, riscă să amplifice dezinformarea și să afecteze negativ sănătatea publică.