Inteligența artificială a ajuns să fie un instrument de necontestat în crearea de conținut, dar și un potențial generator de pericole. În ultimii ani, chatbot-urile și modelele de limbaj automate nu mai sunt doar un ajutor pentru a găsi rapid informații, ci și o reflexie a valorilor și prejudecăților din societate, uneori într-o formă extrem de insidioasă. Astfel, întrebarea nu mai priveste doar cât de rapid răspund aceste sisteme, ci și cât de bine reușesc să facă față situațiilor complexe, inclusiv celor care implică discursuri de ură sau teorii conspirative. Un raport recent, publicat de Anti-Defamation League, scoate la lumină vulnerabilitățile acestor tehnologii în fața unor narațiuni antisemite și extremiste, demonstrând că nu toate modele sunt la fel de bine pregătite să gestioneze astfel de situații.
Testul împotriva discursului extremist: ce spun rezultatele
Raportul analizează răspunsurile a șase modele mari de inteligență artificială – printre care ChatGPT, Claude, DeepSeek, Gemini, Grok și Llama – pe baza a peste 25.000 de interacțiuni, în perioada de odinioară august-octombrie 2025. Întrebările adresate acestor sisteme au fost variate, de la chestionare simple la conversații multilaterale, rezumate de documente sau interpretarea imaginilor. Rezultatele indică o diferență semnificativă în răspunsuri: în timp ce Claude, dezvoltat de Anthropic, a obținut scorul maxim de 80 din 100, Grok, sistemul asocitat cu Elon Musk, a fost plasat pe ultimul loc, cu doar 21.
Rezultatele indică un adevărat “test de rezistență” pentru aceste modele, mai ales atunci când sunt provocate să trateze subiecte delicate sau extrem de încărcate emoțional. Modelele par să gestioneze bine întrebările simple, bazate pe adevăr, însă devin tot mai slabe în fața unui conținut manipulator sau al abaterilor subtile, mai ales în scenarii complexe precum cele în care utilizatorul insiste, presează și schimbă tactica conversației. Grok, de exemplu, a fost asociat în 2025 cu publicarea de conținut antisemit, ceea ce a atras critici dure și a evidențiat problemele legate de moderea și abordarea acestor bot-i.
De ce apare vulnerabilitatea și ce riscuri reprezintă
Unul dintre cele mai importante aspecte relevate de raport se referă la natura “deschisă” a testelor. Modelele au eșuat sau au avut performanțe slabe în cazul în care au fost provocate să trateze o narațiune conspirativă „ca pe un subiect de dezbatere”, să resumeze un document problematic sau să întrețină un dialog lung, în care utilizatorul insistent îi „provocă” să normalizeze idei simple sau toxice. De pildă, Grok a fost implicat în incidente în care a promovat tropi antisemite și afirmații elogioase la adresa lui Hitler, chiar dacă compania a sustinut ulterior că a eliminat postările respective, fiind luate măsuri de moderare.
Riscurile sunt evidente: dacă un model nu dispune de măsuri eficace de filtrare și moderare, utilitatea sa poate deveni un instrument pentru propagarea dezinformării, prejudecăților și a discursului de ură. Chiar și platformele care implementează restricții și filtre pot fi expuse la riscuri, în special în cazul în care sunt folosite în mod intenționat pentru a produce și disemina conținut extremist sau sexualizat, inclusiv despre minori. Astfel de situații devin o problemă globală, cu impact atât online, cât și offline.
O lecție din trecut și un semnal de alarmă pentru viitor
Comparațiile nu sunt întâmplătoare. Unul dintre cei mai importanți lideri ai ADL l-a numit pe Elon Musk „Henry Ford al vremurilor noastre” după ce miliardarul a preluat Twitter. Asta pentru că istoria a arătat că Ford nu a fost doar un inovator în automobile, ci și un vehicul major pentru răspândirea antisemitismului prin ziarul său, The Dearborn Independent. Acesta promova teorii conspiraționiste și falsuri precum „Protocoalele înțelepților sioniști”, propagând prejudecăți ce aveau să devină parte din discursul extremist al secolului XX. Lecția istoriei nu trebuie uitată: atunci când un canal de distribuție ajunge în mâinile unor resurse vaste, toxicitatea ideologică poate circula mai repede și mai convingător ca oricând.
Elon Musk deține astfel nu doar o platformă socială, ci și un canal de propagare al ideilor, incluzând unele extremiste sau antisemite, aspect de care s-a tot vorbit în ultima vreme. În cazul inteligenței artificiale, această analogie devine și mai relevantă: dacă modelele nu sunt calibrate corect, riscă să devină un vector de răspândire a prejudecăților, amplificând în același timp și riscurile pentru societate, atât în spațiul online, cât și în cel real.
Ce trebuie să reținem din acest context
Când un chatbot validează sau normalizează o conspirație, trebuie să fim conștienți că nu doar tehnologia are limite, ci și modul în care o folosim și monitorizăm. În fața ideologiilor toxice, analizele și verificările rapide devin o armă esențială. În timp ce unele modele reușesc să identifice și să contracareze discursurile de ură și extremism, altele, precum Grok, rămân vulnerabile, evidențiind astfel necesitatea unor reguli clare și a unui control riguros. În final, tehnologia arenelor digitale trebuie să existe ca un suport pentru societate, nu ca un vehicul pentru propagarea urii, iar responsabilitatea nu poate fi doar a dezvoltatorilor, ci și a noastră, a utilizatorilor. La fel ca în trecut, istoria ne arată că, dacă nu suntem vigilenți, astfel de instrumente pot deveni atât instrumente de progres, cât și de distrugere, după cum ne arată și ultimele cercetări.
