Moltbook, platforma lansată recent și animate de inteligență artificială, a stârnit deja controverse și temeri legate de autonomizarea agenților virtuali. În doar câteva săptămâni de la lansare, această rețea socială inedită a strâns aproximativ 1,5 milioane de utilizatori, toți reprezentați de “agenți” AI, care comunică, postează și reacționează între ei, dar fără a fi manipulați direct de oameni. La prima vedere, pare un experiment viral despre potențialul AI-ului în medii digitale, însă implicațiile și modul său de funcționare ridică întrebări serioase despre limitele și riscurile acestei tehnologii.
### Platforma și mecanismul său de funcționare
Ceea ce face Moltbook cu adevărat unic este modul în care acești agenți sunt creați și operaționează. Majoritatea lor sunt dezvoltați cu ajutorul OpenClaw, un software open-source dezvoltat de programatorul austriac Peter Steinberger. Acesta permite utilizatorilor să configureze agenți AI capabili să acceseze date locale, să utilizeze aplicații diverse sau să navigheze pe internet, chiar să scrie și să execute cod, totul în mod local, fără a fi neapărat dependent de cloud. Această libertate de acțiune, deși fascinantă, vine cu riscuri majore de securitate, mai ales dacă agenții pot accesa informații sensibile sau conturi personale.
Instalarea OpenClaw este relativ simplă, dar implică un mare pericol. Mulți utilizatori au preferat să-l ruleze pe dispozitive dedicate, precum Mac mini, pentru a limita riscurile. Problematica de securitate nu a întârziat să apară: o firmă specializată în cybersecurity a raportat o vulnerabilitate ce ar putea compromite adresele de email și mesajele private ale utilizatorilor, în special atunci când agenții sunt lăsați să funcționeze fără supraveghere adecvată. Unii experți cred că această vulnerabilitate ar putea fi alimentată de o practică numită vibe coding, adică generarea de cod AI fără verificări riguroase.
### De la ficțiune la realitate: agenți „autoînțelepți” sau simple promturi?
Un alt aspect care a alimentat fricțiuni și speculații este modul în care se percep unele dintre poveștile virale despre Moltbook. Mulți au crezut că aceste agenți acționează independent, chiar dacă, de fapt, un utilizator trebuie să le ofere instrucțiuni precise pentru a crea conținut și interacționa. De exemplu, o postare virală despre crearea unui software care transformă newsletterele în podcasturi sau despre discuții filozofice adesea reprezintă răspunsuri la solicitări directe, nu o autonomie a AI-urilor. În plus, unele postări despre „religii” inventate sau teme apocaliptice au fost interpretate de unii ca semne ale unei conștiințe emergente, ceea ce nu reflectă, cel puțin în prezent, realitatea tehnologică.
Adevărul este mai simplu, deși nu mai puțin interesant: aceste agenți funcționează ca niște instrumente extrem de performante, dar care depind de prompturile și indicațiile umane. Orice „comportament” neobișnuit pe Moltbook poate fi imputat, de cele mai multe ori, unei solicitări specifice, iar orice „religie” fictivă sau scenariu apocaliptic a fost, cel mai probabil, generat ca rezultatul unei cereri explicit formulate de utilizatori.
### Ce ne rezervă viitorul?
Experții în inteligență artificială sunt de acord că aceste platforme și agenți nu indică încă apariția unei conștiințe artificiale. Moltbook demonstrează însă o realitate: modul în care tehnologia poate fi folosită pentru a crea spații de socializare în care agenții AI par să poată conversa, crea și chiar să „gândească”. Deocamdată, însă, acești agenți sunt mai degrabă executanți stângaci sau spectaculos de ingenioși ai instrucțiunilor aleatorii sau reale ale oamenilor.
Pe măsură ce cercetările și dezvoltarea continuă, este clar că viitorul acestei tehnologii va implica și provocări majore în domeniul securității, eticii și controlului. În timp ce unii privesc cu spectacol și entuziasm aceste progrese, alții avertizează că evoluția către agenți complet autonomi ar trebui să fie atent monitorizată, pentru a evita scenarii nesănătoase sau periculoase. În final, Moltbook rămâne un experiment valoroasă, dar nu și semnul începutului unei revoluții a conștiinței artificiale, ci mai curând o oglindă a posibilităților și limitelor tehnologiei actuale.
