Recent, ideea agenților AI autonomi, capabili să planifice și să execute sarcini complexe fără supraveghere umană, a devenit una dintre cele mai discutate promisiuni ale industriei tehnologice. Dar în timp ce aceste proiecte sunt prezentate adesea ca revoluționare, un studiu recent atrage atenția asupra unor limite fundamentale ale tehnologiei. Concluziile cercetătorilor Vishal și Varin Sikka indică existența unui „zid” matematic, o limitare structurală, care pune sub semnul întrebării însăși fezabilitatea agenților AI cu adevărat autonomi pe termen lung.
### Limitele matematice ale agenților AI
Cercetarea evidențiază faptul că modelele de tip Large Language Models (LLM), utilizate pentru dezvoltarea agenților AI, nu pot depăși anumite bariere matematice în ceea ce privește complexitatea calculelor pe care le pot efectua. În esență, există situații în care acestea nu mai reușesc să finalizeze corect sarcini ce cer un nivel avansat de raționament sau evaluare și, chiar dacă reușesc, verficarea rezultatelor devine problematică. Această limitare devine și mai acută în cazul agenților, a căror funcționare presupune nivele multiple de planificare, analiză, verificare și ajustare.
„Există sarcini care cer o formă de calcul mai complexă decât poate „înghiți” un LLM într-o singură rulare, iar când treci de prag, modelul fie nu mai finalizează corect, fie finalizează cu greșeli greu de detectat”, explică studiul. În acest sens, problemele nu sunt doar tehnice, ci afectează direct promisiunea de autonomie reală a agentului: dacă verificarea rezultatelor nu poate fi făcută în mod credibil, rezultatele pot părea plauzibile, dar pot fi greșite sau incomplete.
### Agenții AI, vulnerabili și periculoși
Spre deosebire de chatboții obișnuiți, care pot fi opriți sau corectați în timpul unei conversații, agenții AI sunt programați să acționeze. Această diferență face ca orice eroare inițială să poată duce la un întreg lanț de decizii greșite, care devin tot mai greu de identificat și corectat pe măsură ce sarcina devine mai complexă. În plus, aceste agenți pot acumula erori în timp ce rulează mai mulți pași, iar o interpretare greșită la un moment dat poate distorsiona rezultatul final.
„Paradoxal, partea cea mai periculoasă nu este că agentul se blochează, ci că „merge” cu încredere în direcția greșită”, evidențiază cercetarea. În aceste condiții, o delegare excesivă poate deveni riscantă, mai ales dacă agenții sunt utilizați pentru gestionarea sistemelor critice, de la infrastructură digitală la tranzacții financiare sau operațiuni industriale. Soluția recomandată rămâne un control strict, cu pași mici, verificări atente și limite clare în ceea ce privește autonomia agentului.
### Între iluzia gândirii și verificarea formală
Discuția despre limitările agenților AI face parte dintr-un curent mai larg de scepticism argumentat în cercetare. În ultimii ani, s-au semnalat tot mai frecvent dezechilibre între promisiunea utilității imediate și realitatea performanței acestor modele în condiții complexe. Studiile despre „iluzia gândirii” relevă faptul că, pe măsură ce problemele devin mai sofisticate, modelele de raționament standard pot ceda, chiar dacă obțin rezultate aparent plauzibile.
În același timp, industria caută soluții pentru a crește încrederea în aceste sisteme, punând accent pe „verificare separată”, adică pe mecanisme de control și valideare a rezultatelor generate. În practică, aceasta presupune teste automate, modele de validare și chiar verificare formală în limbaje și medii specializate, pentru a preveni răspândirea rezultatelor false sau incomplete. În această paradigmă, agenții nu vor fi, în curând, „autonomi totali”, ci vor funcționa ca instrumente semi-autonome, controlate și supravegheate strict.
Perspectiva este clară: tehnologia avansează rapid, dar limitările fundamentale ale sistemelor bazate pe modele de inteligență artificială devin din ce în ce mai vizibile. Într-un univers unde deciziile și acțiunile implică riscuri reale, a avea un control riguros și verificabil devine nu doar o recomandare, ci o necesitate. În timp ce hype-ul despre inteligența artificială ultra-autonomă continuă să atragă atenția, realitatea evidențiază un adevăr simplu: până la limită, agenții rămân unelte, iar despre autonomie completă, încă avem mult de așteptat.
