Anthropic acuză DeepSeek și alte companii chineze că au folosit Claude pentru antrenarea AI-urilor

Un nou conflict acut zguduie industria globală a inteligenței artificiale, dezvăluind tensiuni majore legate de modalitățile de antrenare și utilizare a modelelor avansate. Confruntarea pornește de la acuzațiile ferme ale companiei americane Anthropic, care acuză mai multe companii chineze de utilizare frauduloasă a modelului său Claude, pentru a-și îmbunătăți propriile sisteme AI printr-o practică cunoscută sub numele de „distilare”. Potrivit datelor publicate, aceste companii, printre care și DeepSeek, ar fi creat aproximativ 24.000 de conturi false, generând peste 16 milioane de interacțiuni cu Claude, toate cu un scop clar: extragerea și transferarea capacităților avansate ale modelului către sisteme dezvoltate independent.

Această practică nu este doar o încălcare a eticii în domeniu, ci și o potențială amenințare la adresa securității și integrității AI-ului modern. În special, Anthropic atrage atenția asupra faptului că aceste activități au avut loc la scară industrială, concentrându-se pe abilitățile de raționament ale modelului Claude. Pentru companie, ceea ce pare a fi o simplă scamă de tip hacking pentru obținerea de beneficii rapide reprezintă un pericol real și pentru siguranța globală, dacă astfel de modele „distilate” ar ajunge în mâinile actorilor rău-intenționați.

### Distilarea – o metodă legitimă sau o armă cu două tăișuri?

În esență, distilarea este o tehnică folosită în mod curent în domeniul inteligenței artificiale, având ca scop crearea unor modele mai mici, mai rapide și mai eficiente, bazate pe rezultatele generate de modele mult mai performante. Acest proces, denumit și „transfer de cunoștințe”, permite, de exemplu, dezvoltarea de versiuni de AI utilizabile pe dispozitive mai simple, fără a compromite prea mult din performanța originală.

Problema este că această metodă, dacă este folosită în mod abuziv, poate deveni o armă periculoasă în mâinile unor actori răuvoitori. În cazul de față, cei acuzați de Anthropic sunt bănuiți că au folosit interacțiuni masive cu Claude pentru a replica mecanismele de raționament ale modelului de limbaj, fără a respecta criterii etice sau de securitate. În cazul DeepSeek, compania este acuzată că a generat peste 150.000 de schimburi cu Claude, concentrându-se pe extragerea mecanismelor de raționament pentru a putea dezvolta propriile sisteme AI mai performante, dar și mai puțin transparente.

Mai mult, Anthropic a trasat o modificare periculoasă a intențiilor acestor companii: utilizarea modelului Claude pentru a produce versiuni „sigure din punct de vedere al cenzurii” în ceea ce privește întrebările sensibile din punct de vedere politic, în special cele referitoare la disidență, autoritarism sau lideri politici controversați. Această practică ridică semne de întrebare în privința echilibrului între libertatea de exprimare și controlul discursului generat de inteligența artificială.

### Tensiuni geopolitice și apeluri pentru intervenție

Conflictele legate de utilizarea și distilarea ilegală a modelelor AI au și o componentă geopolitică clară. În timp ce companii precum Anthropic trag semnale de alarmă în privința riscurilor legate de modele „distilate” neautorizat, și alte jucători importanți din domeniu, precum OpenAI, au notat prezența acestor practici. Recent, în cadrul unei scrisori adresate legislatorilor americani, OpenAI a acuzat DeepSeek că încearcă să „beneficieze gratuit” de cercetările și tehnologiile avansate folosite în SUA pentru dezvoltarea AI.

Un astfel de peisaj tensionat poate avea implicații majore pe termen lung, în contextul în care tehnologiile AI sunt din ce în ce mai integrate în infrastructurile militare, securitate cibernetică sau supraveghere. În fața acestor provocări, Anthropic face un apel pentru o reacție coordonată din partea industriei, autorităților și furnizorilor de cloud pentru a limita răspândirea acestor practici periculoase, inclusiv prin restricționarea accesului la cipuri și tehnologie avansată, astfel încât să reducă riscul ca modele distilate ilegal să devină arme în mâinile celor rău-intenționați.

Dezvoltările recente arată clar că lupta pentru controlul și siguranța inteligenței artificiale nu este doar o confruntare tehnologică, ci și una geopolitică, în care interesele naționale și globale se întrepătrund. În acest context, orice măsură de limitare a abuzurilor devine crucială pentru a preveni ca aceasta tehnologie să devină o armă de distrugere în mâinile celor răi.

Bogdan Dragomir

Autor

Lasa un comentariu