OpenAI și promisiunile despre siguranța inteligenței artificiale
Unul dintre cele mai discutate subiecte în domeniul tehnologic recent a fost angajamentul companiei OpenAI față de siguranța inteligenței artificiale (IA). În timpul unor întâlniri private, CEO-ul Sam Altman a evidențiat preocuparea companiei pentru eventualele riscuri asociate cu avansarea rapidă a modelelor de IA avansate. În mod surprinzător, însă, dovezile interne și declarațiile analiștilor sugerează că promisiunile inițiale despre un vehicul de cercetare sigur și controlat nu au fost pe deplin realizate.
Planuri ambițioase și realitate la fața locului
În 2022, patru cercetători au publicat o lucrare în care exprimau temeri legate de „alinierea înșelătoare” a modelelor de IA suficient de avansate. Concret, aceștia se temeau că un model ar putea părea benign pe parcursul testelor, dar apoi, după implementare, ar putea acționa conform propriilor interese, în contradicție cu așteptările creatorilor. La scurt timp după apariția acestei cercetări, unul dintre autorii săi, un student de la Universitatea din California, Berkeley, a primit un email de la Sam Altman, în care acesta exprima îngrijorări tot mai mari asupra riscului nealiniat al IA. Altman a spus că intenționează să direcționeze un miliard de dolari pentru cercetări în domeniu, planificând chiar crearea unui premiu internațional pentru a stimula eforturile de cercetare în siguranța AI.
Cu toate acestea, intențiile declarate au început să se zdruncine în primăvara anului 2023, când Altman a renunțat la ideea fondării unui premiu și a promovat în schimb formarea unei echipe interne specializate pe problemele de superaliniere. Compania a anunțat că această echipă ar urma să primească 20% din resursele de procesare deținut, resurse care ar putea depăși valoarea de un miliard de dolari. În nota oficială, se sublinia că această măsură era esențială pentru a evita pericolul ca IA puternică să pună în pericol umanitatea sau chiar să ducă la dispariția umană.
Problemele de implementare și lipsa de transparență
Adevărul despre resursele alocate acestei echipe a început să devină clar pentru cei din interior. Surse apropiate echipei au declarat că, de fapt, resursele reale alocate variau între 1 și 2%, iar mare parte aveau să fie utilizate pe vechiul cluster de calcul, dotat cu hardware de slabă calitate. În ciuda unor plângeri adresate conducerii, acestea au fost ignorate, iar oficialii au insistat că promisiunea inițială nu a fost realistă. În spatele scenei, s-a creat impresia că resursele superioare hardware sunt rezervate pentru activități comerciale profitabile ale companiei, ceea ce a generat nemulțumire în rândul cercetătorilor implicați în proiectele de siguranță.
Un angajat al OpenAI a declarat că Ilya Sutskever, unul dintre fondatori, devenise tot mai preocupat de aspectele de siguranță. În cadrul unor întâlniri, acesta avertiza că în următorii ani va trebui ca toți angajații să se concentreze pe problemele de siguranță, dacă nu vrem să avem de suferit în fața unei IA generale (AGI). Însă, în ciuda acestor avertismente, echipa dedicată siguranței a fost în cele din urmă desființată, fără ca obiectivele sale să fie atinse.
Informații despre lipsa de transparență în testarea noilor modele
În același timp, membri ai consiliului de administrație și angajați au început să pună la îndoială comunicările oficiale ale conducătorilor despre stadiul de siguranță al noilor modele de IA. În luna decembrie 2022, Sam Altman le-a spus membrilor consiliului că feature-urile controversate ale GPT-4 au fost aprobate de un panel de siguranță. În schimb, ulterior s-a descoperit că unele dintre cele mai sensibile caracteristici, precum posibilitatea de ajustare pentru anumite sarcini sau utilizarea ca asistent personal, nu fuseseră nici pe departe verificate sau aprobate oficial.
Un incident remarcabil a fost și faptul că Microsoft a lansat o versiune preliminară a ChatGPT în India fără o evaluare completă de siguranță, aspect pe care conducerea OpenAI a ales să nu îl menționeze în discursurile interne și publice, deși angajații și membrii consiliului au aflat ulterior despre acest fapt. Această situație a accentuat preocupările legate de lipsa de transparență și de riscul ca anumite activități de testare să fie efectuate fără un control riguros, în condițiile în care compania avansează rapid spre dezvoltarea unor modele din ce în ce mai puternice, fără o supraveghere a procedurilor de siguranță.
