Platforma X se află din nou în centrul unui scandal de amploare, după ce compania a emis o poziție oficială referitoare la controversele legate de Grok, chatbot-ul său bazat pe inteligență artificială. În ultimele săptămâni, problema generării de conținut ilegal sau abuziv a ajuns în atenția publicului și a autorităților, fiind criticată dur modul în care platforma gestionează aceste situații. În loc să anunțe măsuri tehnice concrete pentru a preveni situații grave, precum generarea de imagini sexualizate cu minori sau persoane reale fără acord, reprezentanții X au luat o poziție surprinzătoare: responsabilitatea pentru astfel de abateri revine exclusiv utilizatorilor.
Lipsa responsabilizării și pericolul din spatele unui instrument pasiv
Compania a transmis că „responsabilitatea aparține exclusiv utilizatorilor care formulează prompturile”, afirmând că Grok nu poate fi considerat responsabil pentru ceea ce produce. Această abordare a fost susținută și indirect de Elon Musk, proprietarul X, care a sugerat că AI-ul funcționează ca un instrument pasiv și orice rezultat problematic este în totalitate culpa utilizatorilor. „AI-ul ar funcționa asemenea unui instrument pasiv, iar vina aparține exclusiv celui care îl ‘folosește greșit’”, a declarat Musk, reluând o poziție criticată de comunitatea specialiștilor în inteligență artificială.
Specialiștii atrag însă atenția că, spre deosebire de un instrument clasic, sistemele generative de imagini nu oferă rezultate complet predictibile. Potrivit lor, același prompt poate produce rezultate variate, iar utilizatorii nu au control total asupra ieșirilor generate, fapt ce amplifică riscul de apariție a conținutului ilegal sau ofensator. Mai mult, dificultatea tehnologică în gestionarea acestor rezultate complică și încadrarea lor în cadrul normelor legale, ceea ce ridică probleme semnificative legate de responsabilitate și de protecția minorilor.
Presiuni și riscuri juridice legate de eliminarea aplicației din App Store
Reacția companiei a stârnit o avalanșă de critici, în special din partea industriei și a experților în domeniu. Mai mulți comentatori au cerut deja eliminarea aplicației X din App Store, susținând că lipsa unor filtre de conținut eficiente pentru Grok ar putea încălca politicile companiei Apple. Regulile Apple interzic aplicațiile care permit distribuirea de conținut sexualizat cu persoane reale fără consimțământ, iar în lipsa unei moderări adecvate, X riscă să fie sancționată prin interdicție de pe această piață majoră.
Elon Musk a avut precedente în relația cu Apple, acuzând în trecut compania de favorizare a anumitor aplicații AI în ecosistemul său. În cazul în care Apple decidă să elimine X sau Grok, impactul ar putea fi semnificativ pentru ambițiile platformei de a deveni un rival serios al ChatGPT, fiind nevoită să găsească alternative pentru accesul utilizatorilor.
Întrebarea majoră rămâne cum va reuși X să modereze conținutul ilegal sau potențial periculos generat de GPT-ul său. Deocamdată, platforma include măsuri tradiționale, precum tehnologii de tip hash și raportări către autorități, pentru combaterea materialelor de abuz sexual asupra minorilor (CSAM). Însă, aceste soluții se limitează în mod tradițional la conținutul cunoscut, iar riscul ca AI-ul să creeze imagini noi, dificile de detectat automat, este din ce în ce mai prezent.
Specialiștii susțin că, dacă nu vor fi implementate actualizări consistente, Grok ar putea genera forme de conținut ilegal, iar lipsa legislației clare privind conținutul generat artificial adâncește incertitudinea. Mai mult, lipsa unor definiții precise despre ce reprezintă exact material ilegal și care sunt limitele acceptabile complică și mai mult poziția platformei în gestionarea acestor probleme.
Între timp, scandalul continuă să evolueze, iar autoritățile și cele mai mari platforme de tehnologie sunt așteptate să intervină mai hotărât pentru a limita apariția și distribuirea de conținut potențial exploziv, precum și pentru a impune responsabilitatea asupra celor care utilizează aceste tehnologii riscante. Într-un peisaj digital în continuă schimbare, modul în care companiile vor reuși să echilibreze inovarea cu siguranța publicului va fi, cu siguranță, un indicator important pentru modul în care tehnologia va fi integrată în societate în următorii ani.
