OpenAI, compania pionier în domeniul inteligenței artificiale, face un pas extrem de ambițios și controversat în direcția gestionării riscurilor generate de tehnologia pe care o dezvoltă. În încercarea de a reduce impactul potențialelor efecte negative ale modelelor sale de AI, organizația anunță recrutarea unui „director de prevenire a riscurilor”, un rol-cheie în strategia de siguranță a companiei, cu un salariu anual de peste 550.000 de dolari. Anunțul, făcut de CEO-ul Sam Altman, arată clar că lupta cu provocările legate de etică, sănătate mintală și securitate devine o prioritate în drumul spre inovație.
### Un rol cheie într-o epocă a riscurilor crescute
Postul de conducere presupune coordonarea și extinderea programelor deja existente în cadrul Departamentului pentru sisteme de siguranță, însă cu misiunea de a anticipa și de a preveni consecințele neprevăzute ale utilizării inteligenței artificiale. „Acesta va fi un job stresant și vei intra direct în pâine aproape imediat”, a avertizat Altman, subliniind dificultatea și responsabilitatea uriașă a acestei poziții. Într-o industrie în care tehnologia evoluează rapid, însă riscurile asociate pot avea efecte reale, compania recunoaște că modelele sale, precum ChatGPT, nu se comportă întotdeauna conform intențiilor dezvoltatorilor, fapt evidențiat de numeroasele incidente și plângeri.
### Probleme juridice și etice din ce în ce mai acute
ChatGPT, faimoasa perla a OpenAI, a fost de-a lungul timpului sursa unor incidente grave: de la halucinații legale și propagare de informații false, până la implicarea în cazuri de sănătate mintală și chiar utilizare pentru generarea de imagini deepfake cu personalități istorice sau celebrități. În plus, compania s-a confruntat cu acuzații și acțiuni în instanță, inclusiv un caz cutremurător: precum cel legat de moartea unui adolescent care s-a sinucis după ce a folosit ChatGPT pentru consiliere, și despre care avocații OpenAI au invocat, în mod controversat, că utilizarea produsului lor putea fi un factor determinat în tragica finalitate.
Altman recunoaște, fără menajamente, potențialul impact negativ al AI-ului asupra sănătății mintale și securității sociale. „Intrăm într-o lume în care avem nevoie de o înțelegere și o măsurare mai nuanțate ale modului în care aceste capabilități pot fi abuzate și ale felului în care putem limita aceste efecte negative”, a spus el pe rețelele sociale, exprimând totodată dorința de a echilibra beneficiile imense ale tehnologiei cu riscurile pe care le implică.
### O provocare uriașă pentru viitorul AI-ului
Căutarea unui expert în domeniu nu se limitează doar la simpla gestionare a riscurilor, ci implică dezvoltarea unui cadru strategic pentru evaluarea și limitarea impactului negativ al AI-ului. Potrivit analistilor, această poziție va necesita nu doar identificarea vulnerabilităților, ci și crearea unor mecanisme flexibile și eficiente pentru adaptarea la noi riscuri și capabilități pe măsură ce tehnologia avansează.
În același timp, eforturile companiei sunt stricte și în direcția creșterii rapide a veniturilor. În ultimul an, OpenAI a atins o cifră de afaceri de aproximativ 13 miliarde de dolari, însă intențiile CEO-ului sunt de a duce această sumă la 100 de miliarde în doar câțiva ani. Într-un interviu recent, Altman a subliniat că partea de dispozitive pentru consumatori și AI pentru automatizarea științei vor deveni piloni majori ai strategiei companiei, indicând o competiție tot mai acerbă pentru dominare în domeniu.
Pe măsură ce tehnologia avansează, iar riscurile legale și etice devin tot mai evidente, viitorul AI-ului OpenAI pare să se desfășoare pe un teren minat de incertitudini. În ciuda provocărilor, compania pare hotărâtă să gestioneze aceste probleme printr-un control din ce în ce mai strict și prin adaptarea rapidă la noile realități, fiind conștientă că, fără o astfel de abordare, consecințele pot fi devastatoare pentru societate.
