China folosește inteligența artificială pentru intimidare și dezinformare la nivel global
O serie de activități suspecte legate de utilizarea inteligenței artificiale au ieșit recent la lumină, dezvăluind un nou nivel de represiune transnațională orchestrată de către regimul chinez. Într-un context în continuă evoluție, cercetători și experți internaționali atrag atenția asupra modului în care aceste tehnologii pot fi folosite nu doar pentru spionaj sau propagandă, ci și pentru manipulare și intimidare globală.
Óperatiuni de falsificare și dezinformare la nivel internațional
Conform unor rapoarte și investigații, membrii unei grupări suspectate de apropiați ai regimului de la Beijing s-ar fi dat drept funcționari ai serviciului de imigrare american pentru a manipula oponentii și criticii regimului. Într-un incident semnalat de presa internațională, aceștia au contactat un disident stabilit în SUA, avertizându-l că pozițiile sale publice contravin legii locale. Eforturile de discreditare nu s-au rezumat doar la intimidări verbale sau scrise, ci au inclus crearea de înscrisuri false, pretinzând a fi emise de instanțe americane. Acestea urmăreau suspendarea conturilor de pe rețelele sociale ale unor critici ai conducerii chineze, astfel de tactici fiind considerate reprezentative pentru o formă de represalii moderne.
Ben Nimmo, cercetător principal la OpenAI, explică acest fenomen ca fiind „forma contemporană de represiune transnațională practicat de China”. El adaugă: „Aceasta nu e doar simplă trolling pe internet, ci un sistem industrializat, conceput pentru a lovi criticile la adresa Partidului Comunist, indiferent de unde se află criticii în lume”. În urma descoperirilor, compania tehnologică a decis să dezactiveze temporar anumite conturi suspecte pentru a preveni răspândirea dezinformării și a activităților malițioase.
Manipulare subtilă prin inteligența artificială
Un alt aspect alarmant al activităților chineze implică încercări de a folosi AI pentru a crea evenimente false care să manipuleze opinia publică. În 2023, s-a raportat circulația pe internet a unor zvonuri conform cărora un activist ar fi fost declarat mort, deși în realitate acesta era în viață. În încercarea de a da credibilitate acestor zvonuri, au fost publicate anunțuri funerare false și fotografii cu o piatră de mausoleu, provocând confuzie și tulburare.
Mai mult, un alt scenariu s-a referit la tentativa de a folosi ChatGPT pentru a contura un plan de discreditare a prim-ministrului japonez Sanae Takaichi. Deși platforma a respins cererile explicit de a dezvolta astfel de strategii de manipulare, au fost consemnate ulterior mesaje critice la adresa AI pe diverse rețele sociale japoneze, indicând o posibilă utilizare clandestină a acestor tehnologii.
China și competiția globală pentru supremație în AI
Contextul acestor activități nu poate fi înțeles pe deplin decât în lumina rivalității tot mai acerbe dintre Statele Unite și China în domeniul inteligenței artificiale. Cercetători și analiști avertizează că aceste țări nu mai concurează doar pe frontul tehnologic, ci și pe cel al utilizării practice a AI pentru control, supraveghere și influență politică.
Profesorul Michael Horowitz de la Universitatea din Pennsylvania subliniază că „competitia dintre SUA și China în AI nu se limitează la cercetare, ci se extinde la modul în care guvernele folosesc aceste tehnologii pentru monitorizare și manipulare”. Odată cu avansarea acestor metode, se schimbă și paradigma de utilizare a inteligenței artificiale, trecând de la un instrument de progres la o armă de control eficientă în mâinile unor regimuri autoritare.
Ambasada Chinei la Washington nu a răspuns până acum oficial acestor acuzații, însă cazul evidențiază o nouă dimensiune în utilizarea AI: nu doar ca vector de propagandă, ci ca un mecanism intern de coordonare și de coordonare a operațiunilor de intimidare și dezinformare la scară globală. Într-un mediu geopolitic tot mai polarizat, bucuria tehnologică a Beijingului pare să fie însoțită de un set de tactici mai subtile și mai periculoase decât oricând.
