Uniunea Europeană s-a decis să ia în serios riscurile majore pe care le implică integrarea inteligenței artificiale în rețelele sociale, în special în contextul recentei creșteri a chatbot-urilor și a conținutului generat automat. Întreaga atenție este îndreptată spre platforma X (fosta Twitter), unde autoritățile au anunțat o investigație oficială privind modul în care această infrastructură digitală a gestionat și, mai ales, nu a gestionat corespunzător apariția conținutului extrem de problematic, precum imaginile sexualizate create de AI. Această acțiune vine în contextul în care, în ultimele luni, utilizatorii au fost martorii unei creșteri alarmante a materialelor considerate ilegal, precum și a riscurilor la care sunt expuși utilizatorii, mai ales minori, în fața noilor tehnologii.
Riscuri sistemice și responsabilitatea platformelor
Comisia Europeană acționează cu o privire de ansamblu, considerând situația ca pe un riscuri sistemic, nu doar un incident izolat. În cadrul anchetei, autoritățile verifică dacă X a efectuat o evaluare serioasă înainte de lansarea unor funcții precum chatbotul Grok, și dacă a implementat măsuri adecvate pentru reducerea riscurilor. În noul cadru legal al Digital Services Act, platformele mari sunt obligate să identifice și să gestioneze în mod proactiv riscurile generate de sistemele lor algoritmice, mai ales pentru conținutul care poate produce prejudicii la scară largă. În acest caz, fapt ce a ridicat semne de întrebare, este volumul extrem de mare de imagini sexualizate generate rapid, din solicitări relativ banale, ceea ce sugerează că protecțiile deja existente au fost subdimensionate.
Măsuri temporare sau de fond? Problema de răspundere a X
Reacția platformei X nu s-a lăsat așteptată. După criticile tot mai dure, compania a început să ia măsuri concrete, restricționând anumite funcții pentru utilizatorii plătitori și introducând reguli mai stricte pentru interacțiuni cu conținut sexualizat sau care vizează persoane reale. Cu toate acestea, autoritățile europene subliniază că aceste ajustări, chiar dacă salutabile, nu sunt suficiente dacă au apărut tardiv și dacă prejudiciul a fost deja produs. În viziunea DSA, este esențial ca platformele să adopte măsuri proactive de prevenție, nu doar reacții tardive după ce problemele au izbucnit. În plus, dacă ancheta va demonstra că obligațiile legale nu au fost respectate, Comisia Europeană are puterea de a impune schimbări durabile sau măsuri interimare, menite să controleze riscurile în timp real.
Context geopolitic și conflicte globale
Nimic din aceste evenimente nu poate fi înțeles în izolare, iar în cazul platformei X, contextul geopolitic devine implicit parte din joc. Platforma se află și în centrul unor dispute majore între legislația europeană și influența americană. În Europa, autoritățile vor să impună reguli mai dure, pentru a asigura un mediu online mai sigur și responsabil. În schimb, reprezentanții din Statele Unite, precum Elon Musk, critică uneori aceste măsuri ca fiind vestite cenzură sau limitări ale libertății de exprimare. În plus, recent, X a fost amendată cu 120 de milioane de euro pentru nerespectarea legislației în domeniul transparenței și accesului researcherilor la date, completând astfel un tablou al presiunii crescute asupra platformei din partea autorităților europene.
Utilizatorul, între avertismente și responsabilitate personală
Pentru utilizatori, aceste evoluții pot părea dure sau excesive, însă ele subliniază totodată importanța responsabilității individuale. Experții recomandă tratamentul conținutului AI generat cu maximă prudență, evitarea redistribuirii materialelor suspecte și semnalarea promptă a conținutului ilegal. În același timp, trebuie să fie conștienți de riscurile de a păstra imagini sau date personale în setările publice, mai ales în epoca în care AI-ul poate transforma chiar și cele mai nevinovate imagini în arme de abuz digital sau cenzură.
Pe măsură ce melanjul dintre tehnologie, legislație și geopolitică devine tot mai complex, Europa speră să își păstreze controlul asupra unui teren vulnerabil, unde riscurile de infrastructură, încălcări ale drepturilor fundamentale și conflicte globale merg mână în mână. Întrebarea rămâne: câ cât vor fi capabile noile reglementări să țină pasul cu rapiditatea și amploarea riscurilor generate de inteligența artificială? Răspunsul, cel mai probabil, va veni în lunile următoare, pe măsură ce anchetele și măsurile de corectare devin mai concrete și mai strict aplicate.
