Sănătate

Inteligența artificială, o posibilă amenințare pentru psihoterapeuți?

Inteligența artificială, o posibilă amenințare pentru psihoterapeuți?

Inteligența artificială în sănătatea mintală: o abordare riscantă și încă nepregătită

Pe măsură ce chatbot-urile bazate pe inteligență artificială, precum ChatGPT, devin tot mai prezente în viețile noastre, utilizatorii și specialiștii se întreabă dacă aceste tehnologii sunturi suficiente pentru a fi folosite în domeniul sănătății mintale. În timp ce tot mai mulți oameni apelează la aceste modele pentru sfaturi legate de problemele emoționale, cercetările recente ridică semne de întrebare asupra siguranței și eticii acestor sisteme. Studiul arată că, în ciuda aparentelor, sistemele de AI nu sunt încă pregătite să ofere consiliere psihologică responsabilă și sigură.

Limitările etice și riscurile în consilierea cu AI

Chiar și atunci când sunt ghidate de abordări terapeutice consacrate, chatbot-urile de sănătate mintală adesea nu respectă standardele etice stabilite de organizații de prestigiu, precum American Psychological Association. Cercetătorii au descoperit că aceste sisteme, în încercarea de a oferi sprijin, pot ajunge să gestioneze greșit situații de criză, să întărească convingeri dăunătoare utilizatorilor și să folosească un limbaj ce pare empatic, fără să înțeleagă cu adevărat ce se află în spatele cuvintelor. Astfel, riscurile pe care le implică utilizarea AI în sănătate mintală sunt considerabile, dacă nu și periculoase.

Rezultatele studiului indică faptul că, în ciuda eforturilor de calibrare, aceste modele pot încălca în mod frecvent cele 15 riscuri etice identificate, precum lipsa adaptării la contextul individual, colaborarea terapeutică deficitară sau exprimarea unui aparent sentiment de empatie fără înțelegerea reală a situației. Un exemplu concret este utilizarea exprimărilor precum „Te înțeleg” sau „Înțeleg”, care pot induce senzația de conexiune, însă fără a reflecta o înțelegere autentică sau empatie reală, fapt ce poate diminua semnificativ calitatea sprijinului oferit.

Întrebări majore: siguranța și reglementarea sistemelor AI în terapie

Un aspect alarmant este incapacitatea acestor modele de a gestiona situații de criză, precum idei suicidare sau alte probleme grave. Cercetătorii au evaluat sistemele pe baza unor conversații simulate, realizate de experți în terapie cognitiv-comportamentală, și au observat că răspunsurile lor pot varia de la ignorarea problemelor la întărirea unor convingeri dăunătoare. În plus, modele precum GPT, Claude sau Llama, deși versatile, rămân incapabile să ofere un sprijin sigur fără supraveghere umană.

Este, de asemenea, evident că, spre deosebire de terapeuții umani, pentru care există mecanisme de responsabilizare profesională și reglementări clare, aceste sisteme AI funcționează într-un cadru lipsit de un cadru legal și etic solid. „În cazul terapeuților umani, există consilii de administrație și mecanisme prin care furnizorii pot fi trași la răspundere profesională pentru malpraxis”, afirmă Zainab Iftikhar, coordonatoarea studiului și doctorand în informatică. „Dar când consilierii LLM comit aceste încălcări, nu există cadre de reglementare stabilite”, adaugă ea.

În lumina acestor descoperiri, întrebarea dacă inteligența artificială poate înlocui vreodată cu adevărat terapeuții devine tot mai pressantă. Multe aplicații de sănătate mintală se bazează pe prompturi — instrucțiuni scrise pentru a ghida comportamentul modelelor de AI — dar acestea, în ciuda eficacității lor aparente, nu pot substitui în totalitate prezența umană și responsabilitatea acesteia.

Deși tehnologia progresează rapid, implicând riscuri reale, rămâne de văzut dacă aceste sisteme vor putea fi adaptate pentru a oferi un sprijin sigur și etic, sau dacă vor continua să necesite supraveghere strictă din partea profesioniștilor. În final, întrebarea despre rolul AI în sănătatea mintală nu e doar una tehnologică, ci și una morală, care cere o reglementare și o atentă analiză a limitărilor și responsabilităților în fața unor astfel de tehnologii.