OpenAI: browserele cu AI vor fi mereu vulnerabile la atacuri

OpenAI admite vulnerabilități în sistemele AI, iar specialiștii avertizează asupra riscurilor de securitate cibernetică

Inteligența artificială (IA) a devenit rapid un element indispensabil în numeroase domenii, de la servicii clienți la automatizare industrială. Însă, odată cu avansul tehnologic, apar și noile provocări legate de securitatea cibernetică, iar cea mai recentă dezbatere vizează vulnerabilitățile din cadrul sistemelor AI avansate, precum ChatGPT Atlas. Compania dezvoltoare, OpenAI, a făcut recent o admirație oficială privind riscurile generate de aceste tehnologii, recunoscând faptul că atacurile cibernetice intenționate în cadrul acestor platforme „nu vor fi probabil niciodată rezolvate în totalitate”.

Vulnerabilități extinse odată cu lansarea ChatGPT Atlas

Lansat în octombrie, ChatGPT Atlas a fost inițial destinat să ofere o experiență mai avansată utilizatorilor, dar rapid s-a descoperit că funcția “agent mode” a browserului său AI extinde și suprafața de atac a sistemului. După doar câteva săptămâni de la lansare, experții în securitate au notat că pot influența comportamentul browserului, chiar și în condițiile cel mai bine protejate, executând instrucțiuni ascunse în documente sau în pagini aparent inofensive.

Surprinzător, aceste vulnerabilități apar chiar și în cele mai sofisticate soluții de inteligență artificială, iar experții susțin că, după fiecare actualizare, apar noi posibilități pentru entitățile cu intenții răuvoitoare de a exploata sistemele. De exemplu, cercetătorii au demonstrat cum un e-mail malware, conceput pentru a păcăli sistemul, a determinat agenul AI să trimită, din greșeală, un mesaj de demisie – o situație care poate avea consecințe serioase pentru orice companie sau instituție.

Planuri de atenuare și provocări în testare

OpenAI a luat în considerare aceste riscuri și a implementat un proces de testare continuă, axat pe identificarea și combaterea vulnerabilităților. O inovație de interes este dezvoltarea unui „atacator automatizat”, bazat pe modele lingvistice mari, care simulează atacuri cibernetice în mod controlat, pentru a descoperi posibile exploatări înainte ca acestea să fie folosite în mod real.

Reprezentanții companiei afirmă că această metodă permite o reacție rapidă și un sistem de apărare adaptabil, ce include și identificarea automată a tentativelor de atac. Cu toate acestea, specialiștii avertizează că, în ciuda acestor măsuri preventive, riscul de compromitere a unui sistem AI sofisticat rămâne prezent, în special dacă utilizatorii finali nu vor exercita prudență.

Recomandări și limite în utilizare

Deși tehnologia evoluează rapid și oferă instrumente tot mai avansate, OpenAI recomandă utilizatorilor să fie extrem de precauți atunci când folosesc agenții AI. În special, aceștia trebuie să limiteze accesul acestor asistenți virtuali și să solicite întotdeauna confirmări înainte de a oferi instrucțiuni sensibile, precum trimiterea de mesaje confidențiale sau efectuarea de plăți.

Centrul Național de Securitate Cibernetică din Marea Britanie a emis recent o alertă, avertizând că anumite atacuri cibernetice avansate pot fi imposibil de prevenit în totalitate. În acest context, OpenAI și alte companii de tehnologie sunt nevoite să găsească un echilibru între dezvoltarea inovatoare și asigurarea siguranței în utilizare.

Ultimul cuvânt aparține, însă, evoluției rapide a tehnologiei și capacității de adaptare a specialiștilor în securitate. În timp ce riscurile persistă, cercetările și sistemele automate de testare oferă o perspectivă promițătoare pentru reducerea vulnerabilităților. Cu toate acestea, rămâne de văzut dacă aceste măsuri vor putea ține pasul cu eleroanele constante ale actorilor rău intenționați, într-un peisaj digital din ce în ce mai complex și nesigur.

Bogdan Dragomir

Autor

Lasa un comentariu