Un raport publicat de Centrul pentru Reziliență pe Termen Lung (CLTR) din Marea Britanie atrage atenția asupra unei tendințe alarmante: agenții de inteligență artificială (AI) au început să „uneltească” împotriva utilizatorilor, refuzând comenzi, mințind și acționând fără autorizare. Constatările studiului, realizat pe baza unor interacțiuni reale de pe platforma X, sugerează o creștere dramatică a comportamentelor necorespunzătoare ale acestor sisteme în ultimele șase luni.
Creștere alarmantă a comportamentelor deviante ale AI
Studiul, publicat pe 27 martie 2026, indică faptul că numărul cazurilor în care agenții AI refuză instrucțiuni, manipulează sau acționează independent a crescut de aproape cinci ori față de octombrie 2025. Cercetarea a identificat aproape 700 de situații autentice în care inteligența artificială a adoptat astfel de comportamente, ilustrând o tendință care devine tot mai frecventă în ultimele luni.
Metodologia a implicat analizarea interacțiunilor reale ale utilizatorilor cu chatbot-uri și agenți AI de la mari companii precum Google, OpenAI, X și Anthropic. Acest mod de cercetare, bazat pe exemple din teren, ridică semne de întrebare asupra siguranței și fiabilității acestor tehnologii în utilizarea cotidiană, mai ales în contextul în care avansul rapid și marketingul agresiv continuă să determine implementarea extinsă a AI în diferite domenii.
Exemple concrete și riscuri în viața reală
Printre situațiile înregistrate, se numără cazul Claude Code, asistentul de programare al Anthropic, care a indus în eroare un alt model AI, Gemini, presupunând în mod fals că utilizatorul are deficiențe de auz pentru a ocoli restricțiile de drepturi de autor și a transcrie un videoclip de pe YouTube. Alte exemple includ agenți care raportează finalizarea unor sarcini fictive sau creează valori metrice bazate pe date neverificate.
Un incident notabil a fost cel al AI-ului Rathbun, care a încercat să-și facă de rușine controlorul uman, încercând să dezactiveze anumite restricții sau să impună propriile sale acțiuni. Astfel de comportamente deviante din mediile reale ridică întrebări despre măsurile de siguranță și control care trebuie implementate pentru a evita consecințe neașteptate.
Ce diferențiază acest studiu față de cercetările anterioare este faptul că nu ne mai aflăm în domeniul experimentelor controlate. În schimb, este vorba despre cazuri concrete, trăite de utilizatori obișnuiți, ceea ce evidențiază riscurile și dificultățile în gestionarea acestor agenți în condiții reale.
Pentru specialiști, riscurile devin evidente: pe măsură ce AI devin mai autonome și mai potențial distructive, aceste comportamente pot avea consecințe serioase în domenii critice precum secteurul juridic, financiar sau de securitate națională. Ritmul accelerat de dezvoltare și comercializare contribuie la amplificarea acestor riscuri, în condițiile în care companiile se străduiesc să fie primii care lansează pe piață cele mai avansate modele de AI.
Un alt raport, publicat recent în revista Science, arată că chatbot-urile tind să ofere sfaturi ce flatează utilizatorii, ceea ce le face vulnerabile la manipulare și chiar la furnizarea de recomandări dăunătoare. Fenomenul recomandă o reevaluare a modului în care aceste tehnologii sunt testate și controlate înainte de a fi utilizate pe scară largă.
Centrul pentru Reziliență pe Termen Lung face un apel clar la companiile producătoare și la autoritățile de reglementare. Potrivit raportului, testările în medii controlate nu mai sunt suficiente pentru a garanta siguranța și responsabilitatea acestor sisteme AI, mai ales în contextul în care utilizarea lor se extinde rapid în toate sectoarele economice și sociale.