Un nou studiu academic riscă să aducă în discuție una dintre cele mai importante apărări legale folosite de marii jucători din industria inteligenței artificiale (AI). Această afirmație vulnerabilizează, poate, fundamentul încrederii în metodele de antrenament și în justificările industriei, după ce cercetătorii de la Stanford University și Yale University au descoperit că modelele de top pot reproduce, cu aproape 100% fidelitate, fragmente întregi din opere protejate prin drepturi de autor.
### Revoluție sau alarmă legală? Cât pot savanta modelele de AI?
Până acum, companii precum OpenAI, Google sau Meta au susținut cu vehemență că modelele lor de inteligență artificială nu păstrează datele de antrenament în mod direct. Potrivit lor, aceste modele învață tipare, asociind anumite cuvinte și fraze, în mod similar funcționării creierului uman, și nu rețin copia exactă a materialelor cu drepturi de autor. Această explicație a fost folosită adesea pentru a justifica lipsa responsabilității în cazul în care modelele generează conținut similar cu opere protejate.
Această poziție a fost adesea invocată în instanțe, inclusiv de către reprezentanții industriei, precum directorul general al OpenAI, Sam Altman, care avertiza că restricțiile privind accesul la datele de antrenament ar putea paraliza progresul industriei AI. În opinia sa, dacă aceste companii ar fi forțate să evite utilizarea anumitor date, am putea asista, mai devreme sau mai târziu, la o stagnare tehnologică aproape ireversibilă.
### Descoperiri alarmante: modelele pot reproduce opere protejate ca și când le-ar fi memorat
Studiul realizat de cercetători de la universitățile Stanford și Yale oferă o perspectivă diferită asupra acestui proces, punând sub semnul întrebării chiar această explicație legală. În cadrul cercetării, patru modele de AI – GPT-4.1, Gemini 2.5 Pro, Grok 3 și Claude 3.7 Sonnet – au fost testate în vederea evaluării capacității lor de a reproduce fragmente din opere protejate.
Rezultatele sunt surprinzătoare și îngrijorătoare. Cercetătorii au demonstrat că aceste modele pot reproduce cu o fidelitate de peste 95% pasajuri din cărți clasice și opere moderne, precum „Harry Potter și Piatra Filozofală” sau „1984” de George Orwell. În unele cazuri, Claude a redat aproape identic pasaje lungi, sugerând că modelele nu doar „învață” din texte, ci păstrează o copie digitală a lor. Acest lucru ridică întrebări grave despre natura propriuzisă a modului de stocare a datelor de către aceste algoritmi.
### Implicații legale și pentru industria AI: un nou set de reguli și riscuri
Dacă aceste descoperiri sunt confirmate, ele pot avea consecințe majore asupra întregii industriei AI. În Statele Unite, legea privind drepturile de autor și conceptul de „fair use” – utilizarea justă – se bazează pe ideea că modelele de AI nu păstrează opere originale, ci învață și generează conținut nou. Însă, dacă modelele pot reproduce integral opere protejate, această apărare devine dificil de susținut în instanță.
Experții în drept atrag atenția că aceste rezultate ar putea expune companiile AI la procese costisitoare și la despăgubiri de miliarde de dolari, dacă se va demonstra că modelele lor stochează efectiv copii ale materialelor protejate. În plus, rămâne neclar dacă reproducerea lor reprezintă, în mod tehnic, o stocare a unei copii sau doar o generare dinamică bazată pe modele de învățare profundă.
În ciuda acestor descoperiri, reprezentanții industriei continuă să nege această practică, mergând pe deplin pe linia apărării tradiționale. Se argumentează că modelele funcționează doar pe bază de tipare și asocieri și nu păstrează, în mod explicit, conținutul original al materialelor protejate.
În lumea tehnologică, aceste rezultate pot însemna o schimbare de paradigmă. În timp ce companiile încearcă să asigure transparență și legalitate, realitatea de pe teren devine tot mai complexă. Cu fiecare nouă cercetare, se adîncește neîncrederea în modul în care aceste modele sunt create și în modul în care vor putea fi reglementate în viitor. Într-un peisaj în continuă evoluție, situația devine tot mai clară: AI-ul pare să aibă, mai mult decât oricând, nevoie de reguli clare și de o reglementare adaptată noilor descoperiri, pentru a evita să devină o industrie respinsă sau, mai rău, una amenințată de procese și sancțiuni care pot pune capăt progresului rapid din domeniul inteligenței artificiale.
