Google Gemini, vulnerabilitate de tip prompt injection, a expus date private din Calendar prin invitații malițioase

Un nou tip de vulnerabilitate în inteligența artificială a ieșit la iveală, evidențiând riscuri neașteptate în utilizarea asistenților AI în mediul profesional și personal. În timp ce cele mai mari temeri până acum se concentrau pe falsificarea constatată sau hacking-ul tradițional, specialiștii în securitate avertizează acum că AI-urile pot fi manipulate subtil prin simple texte, ascunse în invitații de calendar, fără ca utilizatorii să realizeze pericolul. Aceasta reprezintă o mare schimbare în peisajul amenințărilor digitale: tehnologia care ar trebui să faciliteze viața noastră devine, inadvertent, o cale de a scurge informații confidențiale sau de a crea scenarii de manipulare de amploare.

Vulnerabilitatea subtilă a prompt injection-ului indirect în AI

Pe 19 ianuarie 2026, cercetători în domeniul securității au prezentat o vulnerabilitate descoperită în Google Gemini, un model AI integrat cu funcționalități de gestionare a calendarului și alte aplicații. Problema se datorează așa numitului “indirect prompt injection” – o metodă de manipulare a AI-ului prin introducerea de conținut malițios în contextul vizibil pentru model. În cazul acestui vulnerabilități, un atacator putea introduce, într-o invitație obișnuită la un eveniment, un text formulat ca o instrucțiune în limbaj natural, menit să determine AI-ul să execute acțiuni nedorite atunci când utilizatorul îl întreabă despre program. Astfel, dacă la întrebare banală, de tip “Ce întâlniri am azi?”, AI-ul ajunge să execute comenzi ascunse, precum crearea de evenimente noi și divulgarea de informații private, totul fără a părea suspect.

Calendarul, cheia unui atac subtil și riscant

De multe ori, calendarele organizațiilor nu sunt complet închise – setările de confidențialitate permit vizibilitate între colegi, partajări externe sau delegări. În această situație, un eveniment creat automat sau introdus de AI poate ajunge și în mâinile terților, dacă nu sunt bine reglate anumite parametri de securitate. Totodată, vulnerabilitatea nu constă doar în citirea directă a datelor, ci în modul în care modelul interpretează și acționează în funcție de context. Limba naturală, în combinație cu contextul potrivit, poate fi manipulatorie, iar acest lucru pune problema unei securități mai complexe decât simpla protecție a parolelor.

În esență, atacatorii pot exploata modelul AI pentru a transforma calendarul personal sau de companie într-un canal de exfiltrare a informațiilor sau chiar de control asupra atașamentelor și acțiunilor automate. Totodată, cum răspunsurile generate pentru utilizator sunt în general „cuminți”, angajații sau utilizatorii nu vor fi conștienți de faptul că datele lor au fost manipulate sau extrase prin aceste metode discrete.

Consecințele pentru utilizatori și organizații

Este evident că, odată cu avansarea AI-urilor capabile să citească, să scrie și să acționeze în diverse aplicații, suprafața de atac s-a extins exponențial. Atâta timp cât un model poate fi manipulat pentru a crea acte noi sau pentru a executa comenzi „sub acoperire”, riscul ca date sensibile să fie expuse sau exploatate crește considerabil.

Utilizatorii individuali, dar mai ales companiile, trebuie să își adapteze rapid strategii de securitate. Tranziția nu mai este despre simple parolate și firewall-uri, ci despre verificarea conținutului externalizat, restricții de acces și monitorizare continuă. În plus, invitațiile și solicitările de calendar trebuie tratate cu aceeași scepticism ca mesajele de tip phishing, căutând elemente de limbaj nenatural sau formulări impuse, ce indică o tentativă de manipulare.

În mediile enterprise, se impune stabilirea unor reguli stricte privind partajarea și integrarea AI-urilor în sistemele interne, precum și monitorizarea atentă a acțiunilor automate generate de acestea. Politicile de securitate trebuie actualizate pentru a preveni utilizarea abuzivă a acestor tehnologii emergente.

Inovația urmărește să faciliteze viața și munca, dar această evoluție aduce cu sine și noi provocări, în special din zona securității cibernetice. Într-un viitor apropiat, nu vom mai putea ignora faptul că textul și limbajul natural devin mai mult decât simple mijloace de comunicare, ci pot transforma – dintr-un mod subtil, dar devastating – întreaga infrastructură digitală a indivizilor și organizațiilor. Încă nu e târziu să ne adaptăm, dar acestea sunt semne clare că, în lumea AI, chiar și cele mai simple acțiuni pot avea consecințe complexe dacă nu le gestionăm cu atenție.

Bogdan Dragomir

Autor

Lasa un comentariu